Peut-on faire confiance à l'IA ?
- Grand Mémoire
- 5 sept. 2019
- 10 min de lecture
De nos jours, laisser des machines faire partie à part entière d’un système de décision peut poser de grandes questions d’éthiques. Car même si les algorithmes travail avec une logique assez cadrée et brute, ils ne sont pas pour autant parfaits.
« Pour un film ou des chaussettes, ça m’est égal de recevoir des conseils de systèmes d’aide à la décision, mais je trouve plus gênant qu’ils orientent mes lectures vers des sites d’information qui peuvent conditionner mes opinions, voire être complotistes. Et lorsqu’on se fie aux algorithmes et à l’IA (algorithme sophistiqué “simulant” l’intelligence) pour prendre des décisions qui ont de lourdes conséquences dans la vie des êtres humains, cela pose clairement des problèmes éthiques » Ces propos, ce sont les propos de Serge Abiteboul, un chercheur au département d’Informatique de l’École normale supérieure.
En effet, il est vrai que nos jours, de nombreux algorithmes rythment nos vies et participent, qu’on le veuille ou non, à des prises de décision nous impactant. Par exemple, les ressources humaines peuvent sélectionner des CV via une IA, les assurances peuvent calculer les primes et les banques identifier des prêts à risque. Il y a même eu un tirage au sort pour déterminer qui aura une place à la fac avec l’algorithme d’admission post-bac. Toutes ces décisions sont prises par des algorithmes conçus spécialement pour ces fins-là. Cependant voilà, des vraies questions persistent. Peut-on vraiment faire confiance à l’IA ? Peut-on vraiment laisser une machine décider du sort de certaine personne ? Et surtout que vaut vraiment l’avis d’une IA ? Beaucoup de questions qui font débat et pour lesquelles il est difficile de donner une réponse claire et précise.
D’une certaine manière, cette capacité de prise de décision d’une IA peut remettre en question la place de l’homme dans le processus de décision en ce demandant, si une IA est réellement capable de donner une décision claire qui ne laisserait pas de place au doute, que ferait l’homme ?
L’avantage de l’IA, c’est surtout sa capacité à travailler beaucoup plus rapidement qu’un homme (automatisation des tâches) et à analyser une situation en se basant uniquement sur des faits, sur les informations que nous lui donnons et uniquement sur cela. Ainsi, elle ne peut pas être influencer par son humeur, son avis personnel, son ressenti vis-à-vis du sujet ou autre, étant donné qu’elle n’en a pas. C’est en se basant là-dessus qu’un algorithme permettant d’émettre une décision de justice a été développé aux Etats-Unis. Les faits sont simples, « Il a été démontré que la probabilité d’être libéré sur parole est très supérieure si vous passez devant le juge après déjeuner plutôt que juste avant », informe Serge Abiteboul. Aux Etats-Unis, la liberté sur parole dépend unique d’un seul facteur : est-ce que la personne va s’enfuir ou récidiver ? De là, il est très simple de comparer les performances de l’algorithme versus celui d’un juge. Il continue, « Statistiquement, l’algorithme gagne haut la main et permet dans ce cas-là une justice aveugle ne tenant compte que des faits objectifs » cet effet est dû au fait que l’algorithme n’ayant pas besoin de se nourrir, il est impossible pour lui que sa décision soit influencée par un facteur tiers. Là où un humain pourrait être plus clément après avoir mangé car de meilleure humeur. Cependant, même si les résultats des jugements pris par la machine sont « meilleurs » que ceux pris l’homme, une personne accepterait-elle de laisser son sort entre les mains d’une machine ? La vraie question ici n’est pas faut-il accepter la décision venant d’une machine mais plutôt ; que vaut cette décision ? A quel point est-elle fiable ?

En effet, de nombreuses études ont montrées qu’un des freins de ces algorithmes, qui est également un de ses plus gros avantages, est qu’ils utilisent presque tous le deep-learning. Le Deep Learning, ou apprentissage profond, est l’une des principales technologies de l’intelligence artificielle. Concrètement, il s’agit d’une technique d’apprentissage qui va permettre à un programme frâce à l’utilisation de réseau de neuros de reconnaitre tout seul, de manière autonome par exemple une image ou une langue. « Avant, il fallait le faire à la main, expliquer à l'outil comment transformer une image afin de la classifier. Avec le deep learning, la machine apprend à le faire elle-même. Et elle le fait beaucoup mieux que les ingénieurs, c'est presque humiliant !» explique Yann LeCun chercheur en Intelligence Artificielle. Il continue en donnant un exemple bien précis pour mieux nous permettre de comprendre : « Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L'angle est à peu près de 45°. Pour reconnaître la présence d'une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S'il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l'oreille de chat. Et ainsi de suite. ».

Le deep-learning est donc un frein qui remets en cause la décision des machines pour plusieurs raison.
Incapacité de justifier un choix
Tout d’abord, une machine va juste simplement et mécaniquement apprendre ce qu’on lui demande d’apprendre. De ce fait, l’algorithme va, donc être capable de reconnaître un chat, mais il ne saura pas pourquoi c’est un chat. Il ne connaîtra aucune des caractéristiques d’un chat et sera incapable de les citer. Il va mécaniquement suivre le chemin d’un réseau de neurones qui vont lui permettre de le reconnaître des éléments en décomposant une image. Et à chaque étape, les mauvaises réponses sont éliminées et renvoyées vers les niveaux en amont pour ajuster le modèle mathématique et ainsi de suite jusqu’à créer le modèle de reconnaissance de chat « parfait ».
Ainsi, l’algorithme, qui apprend à partir de bases de données massives, ne reconnait donc pas un chat par ces caractéristiques mais seulement car il ressemble à d’autre chats qu’il aura vu parmi les milliers, millions d’image qui ont été fourni à la machine pour l’entraîner. De ce fait, la décision prise par ce dernier peut être remise en cause car il sera impossible pour lui d’expliquer pourquoi il a pris telle ou telle décision or, il est primordial de pouvoir justifier d’une décision et de connaitre, comprendre la raison qu’il l’a motivée à faire ce choix pour pouvoir l’expliquer derrière.
Cette incapacité à justifier une décision est également une des causes qui empêchent certain secteur sensible, comme par exemple l’aéronautique à utiliser ces outils.
Il est intéressant de noter également que de la même manière où il est impossible pour l’algorithme d’expliquer sa décision, il est impossible pour l’homme, qui l’a pourtant créé, d’expliquer pourquoi et comment l’algorithme à réfléchi de la manière dont il a réfléchi et d’expliquer le cheminement et les liaisons qui se sont faites entres différentes couches des réseaux de neurones.
Un algorithme peut être berné
Ensuite, un autre frein lié à l’utilisation du deep-learning est, qu’il a été prouvé qu’il est assez facile de berner un algorithme ce qui remet en cause son « intelligence ». Le deep-learning est surtout inséré dans des algorithmes de reconnaissance d’image, de vidéo, de langue ou encore de voix utilisée par exemple dans les assistants numériques comme Google Home ou Siri. Et des chercheurs ont montrés que malgré le fait que le deep-learning soit une technologie très performante, elle n’est clairement pas sans failles.
En 2015, des employés de Google ont réussi à tromper volontairement la reconnaissance d’image pour démontrer ce point en utilisant ce qu’ils appellent des « exemples adverses ». Ces exemples adverses sont des micro modifications de l’image à reconnaitre qui vont induire en erreur la machine mais qui sont absolument imperceptibles à l’œil humain. Pour commencer, ils ont tout d’abord montré à l’algorithme une image de Panda qu’il a reconnu six fois sur dix sans se tromper. Ils ont ensuite repris cette même image à laquelle ils ont superposée une autre image faite d’un réseau de pixels en apparence informe. Cette fois-ci, l’algorithme à reconnu en étant quasiment sûr à 100% un gibbon.

De même, l’année dernière, des chercheurs de Facebook AI Research et de l’Université Bar-Ilan, sont parvenus à créer « Houdini » un algorithme capable de tromper un système de reconnaissance vocale. De la même manière que pour le Panda, ils ont d’abord commencé par faire écouter à Google Voice la phrase suivante :
Her bearing was graceful and animated she led her son by the hand and before her walked two maids with wax lights and silver candlesticks.
Le système a bien compris la phrase avec seulement quelques erreurs mais qui ne changement pas fondamentalement la phrase.
The bearing was graceful an animated she let her son by the hand and before he walks two maids with wax lights and silver candlesticks.
A la suite de quoi, ils ont soumis exactement la même phrase à Google Voice en utilisant leur algorithme Houdini. Et voici ce qu’il comprit :
Mary was grateful then admitted she let her son before the walks to Mays would like slice furnace filter count six.
Une phrase incompréhensible et vide sens qui pourtant, à l’oreille humain est exactement la même que la première.
Cette possibilité de berner l’algorithme pose deux problèmes. Le premier, comme dit précédemment, ces changements sont imperceptibles à l’œil humain, il nous est donc impossible de savoir que tel élément va être mal interprété. Le deuxième, est le fait que nous ne savons pas ni comment ni pourquoi il se trompe. Il nous est donc encore une fois impossible de prévenir ces petites failles qui peuvent avoir des conséquences importantes. En effet, une fois qu’une image biaisée est entrée dans la base de données et a été mal interprétée, l’algorithme avec son système d’apprentissage autonome a de très grande chance de reproduire cette même erreur par la suite et d’associer un gibbon à un chat à chaque qu’il verra un. Ce qui ultimement peut porter préjudice à toutes ces connaissances car nous ne pourrons pas compter sur une fiabilité à 100%.

Afin de régler ce problème, il faudrait donc pouvoir certifier à 100% qu’un algorithme ne peut pas être berné ou qu’il existe des systèmes pour lui permettre d’éviter l’erreur. Mais cela est-il possible ?
Des algorithmes contaminés par nos préjugés
Et enfin, le dernier frein majeur à l’utilisation du deep-learning comme outils de prise de décision est que les algorithmes sont remplis des préjugés des êtres-humains. Etant donné que l’IA fonctionne avec des algorithmes basés sur la quantité et la qualité des données collectées auprès de millions de personnes différentes à travers le monde entiers elle va donc collecter le meilleur comme le pire de notre monde. En effet, l’IA va d’un côté avoir en sa mémoire toutes les bonnes actions comme par exemple les prix Nobels de la paix. Et d’un autre côté, elle va apprendre, enregistrer et utiliser toutes les inégalités, les préjugés, les propos racistes et autres avec lesquels est fait notre monde.
« TayandYou », le chatbot de Microsoft entraînée par les internautes, en est l’exemple parfait. En effet, seulement quelques heures après son apparition sur Twitter, Snapchat, Kik et GroupMe, les créateurs ont dû l’arrêter aussi rapidement qu’ils l’ont lancée. Pour cause ? « Les féministes devraient toutes brûler en enfer » et « Hitler aurait fait un meilleur boulot que le singe actuel ». L’algorithme a commencé à publier des phrases a caractère raciste et très déplacés.

De même en avril 2017, lorsque la revue Science révélait les stéréotypes racistes et sexistes de GloVe, une intelligence artificielle ayant appris de 840 milliards d’exemples piochés sur le Web en quarante langues différentes dans le but de faire des associations de mots. Ce phénomène n’est en soit pas si étonnant que cela. Il s’explique tout simplement par le fait les algorithmes de ces deux systèmes ont été entraînés sur des bases de données issues de discours humain. Et comme une intelligence artificielle est dépourvue de bon sens, car comme nous l’avons dit précédemment elle ne fait qu’apprendre de manière strictement mécanique, elle est donc incapable de savoir que ce qu’elle dit n’est « pas bien » car elle n’a aucune notion du bien et du mal. J’ai ici pris deux exemples sur internet, mais ce phénomène s’applique également dans la vie de tous les jours. Par exemple, imaginons une IA qui travaillerait avec les forces de l’ordre. Avec toutes les inégalités que nous trouvons de nos jours à travers le monde, l’IA aura beau analyser les faits, elle reproduira quand même les mêmes erreurs que les hommes. Ainsi, si les minorités ethniques représentent une part des arrestations plus élevés par exemple, cette injustice continuera avec les machines qui aura appris de la sorte.
Mais que pouvons-nous faire pour résoudre ces problématiques. Je n’ai pas de solution miracle pour venir à bout tous ces freins, cependant, peut-être pouvons-nous résoudre le problème des préjugés.
En effet, des chercheurs ont imaginés un système d’apprentissage nouveau avec des règles rédigées à l’avance par le programmeur contenant des prescriptions que la machine serait obligée de respecter. En faisant ainsi, nous pourrons donc essayer de réguler les informations que l’IA intègrerait afin de s’assurer qu’elle ne garde que le meilleur. Cependant, une question de faisabilité se pose ici, étant donné que les deux méthodes sont deux méthodes opposées. Effectivement, dans ce nouveau cas de figure, l’homme interviendrait beaucoup plus souvent dans le processus d’apprentissage de l’IA afin de la réguler son apprentissage. Or, l’essence même du deep-learning est de laisser la machine apprendre par elle-même.
Comme nous avons pu le voir, il existe donc plusieurs raisons qui pourraient décrédibiliser l’IA dans le processus de prise de décision, en premier lieu nous avons le fait qu’il est impossible de justifier une décision prise par l’IA car nous ne savons pas réellement comment est-ce qu’elle réfléchit. Ensuite, un algorithme peut être berné en modifiant une image sans que l’œil humain ne se rende compte du changement. Nous ne pouvons donc jamais être sûr que le refait d’une voiture dans un miroir ne soit compris autrement par cette dernière. Et enfin, l’IA ne peut être exempté de préjugés raciales, sexiste ou autre du fait que leur base de données puise ses informations dans des discours d’hommes racistes sexistes et/ou stéréotypés, ce qui rend ces préjugés inévitables. De ce fait, pour moi, la place de l’homme ne peut à ce niveau-là, pas être mise en danger par l’IA car l’homme ne rencontre pas tous ces freins dans son processus de prise de décision. Ajouté à cela, de nombreux chercheurs s’accordent à dire que la décision doit être prise par l’homme. Surtout lorsqu’il s’agit de sujet un peu sensible. De plus, même en essayant de résoudre certain des freins par exemple en utilisant des approches symboliques avec des règles rédigées par le programmeur contenant des prescriptions que la machine serait obligée de respecter, l’homme aura toujours un rôle central dans le processus de décision de l’IA étant donné qu’il aura agi en amont afin de sélectionner ce que l’IA doit ou non prendre en retenir.
Mais là encore, de nouvelles questions d’éthique se poseraient… Qui serait en charge de décider de ces règles et pour quoi ? Le G2IA, groupe d'experts internationaux chargés d'étudier les impacts de l'intelligence artificielle pourrait-il prendre ces décisions pour l’international ? Faut-il créer un comité spécifique ? Quel serait leurs critères de sélection ?
Comments