Catégorie : XAI
-
L’explicabilité des langageurs (ou « LLMs ») : des pistes via le « topic modeling » ?
Depuis environ 6 mois, une large place a été faite dans l’actualité pour les « langageurs » (ou « LLMs », large langage models). Avec de formidables réussites, beaucoup d’espoirs d’usages nouveaux, en rupture… et beaucoup de questions quant à la possibilité d’utiliser leurs résultats sur des usages à forts enjeux (hallucinations ? citations de sources fiables ? confidentialité…
-
Détection d’anomalies explicable sur vaste système de séries temporelles
… et apport de l’explication contextualisée La représentation la plus simple d’un « phénomène » que l’on cherche à modéliser se fait via des variables compréhensibles, et « statiques ». Cela est parfois suffisant pour comprendre un phénomène, quitte à n’en considérer qu’une vision simplifiée. Or, les phénomènes (industriels, comportementaux, etc.) varient en général dans le temps. Comment garder…
-
Xplique, la librairie Python pour expliquer la vision par ordinateur
Xplique [1] est une bibliothèque Python dédiée à l’explicabilité de modèles d’intelligence artificielle, développée par l’IRT Antoine de Saint Exupéry [2] et l’Université Paul Sabatier à Toulouse. Bien qu’embarquant des outils de visualisation de ces réseaux de neurones pour des données tabulaires, la richesse de cette librairie réside dans sa pluralité d’outils d’exploration de réseaux…
-
AI-vidence, lauréat du « tech sprint explicabilité » de l’ACPR
En juillet 2021, l’ACPR organisait un « tech sprint » sur l’explicabilité des modèles IA. AI-vidence, avec quelques partenaires (Nicolas Béguin de SoyHuce, Jean-Matthieu Schertzer.) ont pu tester leur approche d’explicabilité régionale … si bien que nous avons fait partie des 3 lauréats ! Ainsi est né notre produit AntakIA !