Auteur/autrice : Laurent
-
Xplique, la librairie Python pour expliquer la vision par ordinateur
Xplique [1] est une bibliothèque Python dédiée à l’explicabilité de modèles d’intelligence artificielle, développée par l’IRT Antoine de Saint Exupéry [2] et l’Université Paul Sabatier à Toulouse. Bien qu’embarquant des outils de visualisation de ces réseaux de neurones pour des données tabulaires, la richesse de cette librairie réside dans sa pluralité d’outils d’exploration de réseaux…
-
L’ « AI-act », la réglementation européenne qui va fixer les règles du jeu
Cette réglementation s’inscrit dans la suite du RGPD. Elle détermine, tous secteurs confondus, la criticité des cas d’usage, selon 4 niveaux de risques : interdits à l’IA, à haut et bas risques et sans enjeu. Les cas d’usage considérés comme à « haut risque » vont notamment devoir faire l’objet d’une certification de conformité. Cette certification (qui…
-
AI-vidence, fier membre de Confiance.ai !
Confiance.ai est un collectif regroupant des acteurs publics et privés sur les enjeux de l’IA de confiance. Il est financé par le programme France2030 de l’Etat. Dans le cadre de la première AMI start-up, nous avons pu développer un premier prototype de notre application AntakIA : Dans le cadre de Confiance.ai nous avons également eu…
-
AI-vidence, lauréat du « tech sprint explicabilité » de l’ACPR
En juillet 2021, l’ACPR organisait un « tech sprint » sur l’explicabilité des modèles IA. AI-vidence, avec quelques partenaires (Nicolas Béguin de SoyHuce, Jean-Matthieu Schertzer.) ont pu tester leur approche d’explicabilité régionale … si bien que nous avons fait partie des 3 lauréats ! Ainsi est né notre produit AntakIA !