En moyenne, plus de 80% des projets d’intelligence artificielle ne sont pas déployés, car les décideurs ne font pas confiance à une “boîte noire” dont ils ne comprennent pas le raisonnement. Les hallucinations de l’intelligence artificielle sont d’ailleurs légion, ce qui tend à leur donner raison pour des utilisations critiques. L’une des clés du développement de l’IA est donc l’émergence de solutions d’explicabilité qui permettront d’établir la confiance dans ces outils. De nombreux travaux ont eu lieu et des solutions commencent à voir le jour. Démarche AI TRiSM (Trust, Risk and Security Management, ou gestion de la confiance, du risque et de la sécurité de l’IA en français), réseaux de neurones auto-explicables pour le deep learning… Cette table ronde va permettre de faire un tour d’horizon des solutions émergentes et de leur mise en œuvre sur le terrain.