AntakIA, la solution XAI qui parle à tout le monde

AntakIA est notre produit d’explicabilité qui implémente notre approche régionale.

Il répond « aux deux problèmes posés par l’essor des modèles de machine learning et leur opacité (les boîtes noires): le frein à l’adoption et le besoin de mise en conformité avec la prochaine réglementation européenne sur l’IA, l’AI act :

Intégré au notebook du data-scientist

Notre librairie Python prend en charge toutes les étapes de notre approche régionale pour votre modèle :

  • exploration « dyadique » simultanée des espaces des valeurs et des explications de votre modèle à expliquer
  • recommandation automatique de segmentation dyadique (régions à la fois homogènes dans les 2 espaces) ou sélection manuelle
  • pour chaque région, expression de la sélection effectuée par les variables d’entrée ou expliquée (cf. « Skope rules »)
  • possibilité d’affiner pour chaque attribut la définition des régions (cf. « écoulements »)
  • pour chaque région, proposition de modèle de substitution (surrogate en anglais) à partir d’une bibliothèque (intégrant notamment PiML et iModels)
  • tests de performance, continuité et exhaustivité du modèle final

Opensource pour toujours 🙂

pip install antakia

Rend accessible à tous l’enjeu de l’explicabilité

  • Vos data-scientists choisissent les tableaux et graphiques qu’AntakIA a produit dans leur notebook pour les partager aux bons interlocuteurs
  • Équipes métier, responsables conformité, directeurs etc. accèdent aux interfaces que les équipes data-science leur ont configuré à partir de nos modèles
  • Chacun peut en direct interagir, demander des compléments, partager ses analyses

Notre solution permet ainsi aux data-scientists d’orchestrer la collaboration, ceci depuis un simple notebook Jupyter ou Colab !

Des services pour vous faciliter l’IA de confiance !

Au delà de notre version open-source, nous proposons sous forme d’un abonnement SaaS des fonctionnalités encore plus avancées :

  • Calculs quasi-instantanés dans notre cloud de confiance GPU
  • Recommandations en ingénierie de prédicteurs (feature engineering)
  • Suggestion, en exclusivité, de modèles performants et explicables issus de la recherche
  • Aide à la découverte de liens causaux à partir des régions « révélées » par notre approche