Capture d’écran 2018-07-11 à 09.09.17

Explicabilité : le mauvais procès fait à l’intelligence artificielle



Personne ne sait vraiment comment les algorithmes les plus avancés font ce qu’ils font. Ça pourrait être un problème. » Cet extrait tiré de « The Dark Secret at the Heart of AI », la revue technologique du MIT, rend compte d’une des entraves à l’acceptation de l’IA : son explicabilité. C’est-à-dire sa capacité à expliquer par quel raisonnement certains algorithmes d’apprentissage parviennent à de bons résultats. Preuve que ce sujet vieux comme l’IA reste éminemment d’actualité et dépasse les frontières du monde scientifique, le rapport Villani allait jusqu’à qualifier l’explicabilité d’ « enjeu démocratique ».

Le mutisme des algorithmes tient à la complexité du lien entre les données analysées par l’intelligence artificielle et la décision prise. Une complexité qui, d’ailleurs, échappe à la machine elle-même. Dans son ouvrage « Des robots et des hommes », paru l’an dernier, Laurence Devillers, chercheuse au CNRS, rappelait qu’ « il faut garder à l’esprit que ces technologies apprennent sans comprendre donc qu’elles décident sans comprendre ». Les réseaux de neurones du deep learning en sont un parfait exemple. Constitués de couches qui transforment successivement les données d’entrée jusqu’à calculer finalement une décision, les données transformées par les couches les plus profondes n’ont aucun sens pour l’humain. La décision prise est donc inexplicable.

Click here to read the full article

The following two tabs change content below.

Charlotte Marek

Charlotte takes great interest in new technologies and the startup world and believes that with the right innovations we can change the world we live in for the best. She is also greatly interested in the publishing sector. She speaks French, English, Spanish, studies Italian and has had the opportunity to work in various countries over the last few years.

Leave a Reply