Mettre fin à l’opacité des modèles de Deep Learning en fournissant des explications claires sur les processus : c’est la mission de la startup XPdeep. Pour faire de cet objectif ambitieux une réalité, une équipe composée des plus éminents spécialistes en intelligence artificielle a été mobilisée. Le fruit de leur travail, un moteur de deep learning auto-explicable, est désormais disponible.

Émergence d’une innovation majeure


Le projet XPdeep est né de la collaboration entre Ahlame Douzal, directrice scientifique de la startup, et Stanislas Chesnais, entrepreneur chevronné dans le secteur technologique à l’échelle internationale.

Ahlame est enseignante et chercheuse en IA, avec des dizaines de publications remarquées à son actif, ainsi que des collaborations réussies avec des acteurs industriels. Quant à Stanislas, entrepreneur dans l’âme, il a la capacité à propulser les projets au plus haut niveau.

En 2018, Ahlame est à la tête d’une mission pour un grand hôpital français. Il s’agit de développer plusieurs modèles d’IA pour prédire l’agressivité du cancer de la prostate. Quand vient le moment de choisir la méthode à privilégier, les cliniciens optent pour des techniques moins avancées que le modèle de deep learning, qui s’est pourtant avéré plus performant. La raison de ce choix surprenant ? L’opacité des décisions prises par le modèle de deep learning.

Pour Ahlame et son équipe, cette expérience a marqué le point de départ d’un nouveau défi : concevoir des modèles de Deep Learning auto-explicables, sans sacrifier la performance et en veillant à ce que les résultats soient compréhensibles par tous, qu’ils aient ou non une expertise en intelligence artificielle.

Ils ne sont pas les seuls à s’attaquer au défi de l’explicabilité. En 2019, “la DARPA, l’agence de recherche et innovation de l’armée américaine, avait lancé un programme de recherche sur ce sujet avec des moyens colossaux ; et ils n’y sont pas arrivés” explique Stanislas Chesnais. “Tout le monde pensait que ce n’était pas faisable mais Ahlame a réussi”, ajoute-t-il, fier du travail de son associée qui, après cinq ans de recherche et développement intensifs, a accompli ce qu’il désigne comme un exploit. Non seulement XPdeep réussit à fournir une explication des processus de son moteur de Deep Learning, mais il affiche également des performances remarquables, à savoir égales ou supérieures à celles des modèles traditionnels !

Enjeux de l’explicabilité à l’ère du deep learning


Rendre les modèles de deep learning explicables revêt une importance cruciale, surtout dans les secteurs où leurs décisions impactent directement les individus et sociétés.

L’explicabilité est capitale pour forger de la confiance, permettant aux utilisateurs de comprendre le comment et le pourquoi des décisions de l’IA, et les adopter plus aisément. Elle garantit également la responsabilité, une exigence non négociable dans les domaines réglementés tels que la finance, la santé et le judiciaire, où comprendre les fondements des décisions prises par l’IA devient impératif.

Côté éditeurs de modèles d’IA, cette transparence facilite l’amélioration des modèles, en identifiant biais, erreurs et lacunes pour créer des solutions plus équitables et précises. Elle peut également permettre de révéler l’influence des données personnelles sur les décisions de l’IA.

Ainsi, l’explicabilité n’est pas seulement une question de conformité ou de technicité ; elle est au cœur de l’acceptation sociale, de l’efficacité pratique et de l’intégrité éthique des modèles de deep learning.

Explicabilité VS Performance


Il existe une croyance bien ancrée selon laquelle l’explicabilité serait antinomique de la performance. “Si vous voulez être performant en deep learning – ie. les moteurs d’IA les plus puissants, qui traitent les plus vastes volumes de données – il ne faut pas expliquer, car l’explicabilité alourdit l’apprentissage” développe Stanislas Chesnais.

Ahlame Douzal et son équipe ont pris le contrepied de ce postulat selon lequel l’explicabilité entrave la performance. ”Elle fait l’inverse : elle explique et en expliquant elle est plus performante” ajoute-t-il.

Précisons qu’il ne s’agit pas d’interprétation à postériori, mais bien d’une explication réelle des processus appliqués aux données.


La visualisation au cœur de la proposition de valeur

XPdeep propose non seulement des explications, mais aussi un puissant outil de visualisation, XpViz. Il permet de plonger au cœur des modèles pour en dévoiler le fonctionnement, en restituant ses décisions internes pour :

    • Identifier les sources d’erreurs et d’instabilité des modèles, pour des modèles plus performants et plus robustes, plus rapidement
    • Identifier les facteurs d’entrée inutiles, en réduisant par exemple le nombre de capteurs pris en compte, pour des modèles plus frugaux et moins complexes
    • Augmenter/diminuer la complexité des zones sous-ajustées/sur-ajustées
    • Adapter les modèles aux contraintes métiers en facilitant le dialogue data scientists/utilisateurs métiers lors de la conception des modèles.

XpViz (directement ou sous forme d’API) permet de :

    • Avant – Expliquer le modèle et ses inférences à des fins d’adoption et de confiance,
    • Pendant – Expliquer les inférences générées pour analyser et contrôler les prédictions futures,
    • Après – Expliquer les prédictions passées pour l’audit et l’examen des scénarios critiques, des incidents, etc

Et l’explicabilité permet aux entreprises de répondre à 3 sujets stratégiques lors du déploiement du deep learning :

    • La confiance des utilisateurs dans l’IA des logiciels et des machines qu’ils vont utiliser,
    • La conformité réglementaire des modèles, notamment avec l’arrivée de l’AI Act,
    • L’identification des facteurs de risques pour cadrer les risques juridiques et financiers des modèles deep équipant les logiciels et équipements vendus par l’entreprise.

Cette approche facilite la compréhension des décisions de l’IA et renforce la collaboration homme-machine.


Protéger et internationaliser une innovation de rupture


XPdeep s’est constitué en startup au début de l’année 2023, autour de son duo de fondateurs, d’une équipe de brillants chercheurs et avec un financement de l’Université Grenoble-Alpes.

Les outils sont depuis peu entre les mains des premiers clients. Le moteur de Deep Learning et le module de visualisation sont en train d’être rendus disponibles sous forme d’API dans des cloud publics.

Les applications potentielles sont vastes, couvrant tant les domaines réglementés que ceux jusqu’alors inaccessibles aux modèles de deep learning faute d’explicabilité. Les travaux d’Ahlame Douzal promettent de révolutionner de multiples secteurs en offrant une alternative transparente aux approches traditionnelles.

Share This