La nature même de l'intelligence artificielle
- Grand Mémoire
- 5 sept. 2019
- 5 min de lecture
L’intelligence artificielle, un domaine qui pour beaucoup d’entre nous est synonyme de mystère et d’interrogation. A l’aube d’une révolution technologique, l’intelligence artificielle sera sans nul doute un des acteurs majeurs de cette dernière. Afin d’appréhender au mieux cette révolution il est indispensable d’en comprendre les fondements.
L’intelligence artificielle peut être définie de bien des manières, mais de ces définitions aucune ne fait consensus. Il est préférable de définir un périmètre d’étude. En effet, l'IA telle que nous la connaissons n'est pas à proprement parler une technologie mais plutôt un ensemble de technologies distinctes qui permettent de réaliser des activités exigeant des niveaux d'intelligence proches de ceux de l'être humain. Notre étude se concentrera sur les capacités de l’intelligence artificielle soit « percevoir », « agir », « comprendre » et « apprendre ».
L’intelligence artificielle peut percevoir son environnement, elle va observer, écouter… De cela découle une compréhension et une interprétation. Par la suite elle pourra agir en fonction de ce qui a été compris et elle sera même finalement capable d’apprendre de ses erreurs dans certains cas. C’est ainsi que l’on définit l’intelligence artificielle.
La première fois que fut conçu l’idée d’une machine capable de réfléchir par elle-même (l’IA) remonte à l’époque de penseurs tels que René Descartes ou encore Blaise Pascal.
Malheureusement cette idée émergente parut trop insensée pour l’ère et il aura donc fallut attendre le 20ème siècle et l’exponentielle évolution de l’informatique pour enfin voir se réaliser ces idées d’hier.
L’IA apparue finalement pour la première fois dans les années 40 par l’intermédiaire de chercheurs se penchant sur ce sujet peu connu. C’est sur l’ordinateur dénommé ibm 702 que ces chercheurs travaillent.

Aujourd’hui nous parlons de machine learning, de réseaux de neurone, de réseaux cognitifs. Mais quels sont aux juste ces termes archaïques ?
L’intelligence artificielle se décompose en différents domaine d’exploitation. Deux approches principales se présentent alors. L’approche déterministe et l’approche statistique.
L’approche déterministe, dans l’ombre de la seconde ces dernières années, repose sur des moteurs d’inférence (mécanisme de déduction) qui sont programmés de manière à ce que chaque situation ait une conséquence prédéfinie. Cela correspondrait pat exemple à ce qui existe en matière de pilotage automatique d’avion ou encore de robotique dans l’industrie automobile : ils automatisent 70% du processus et sont programmés par un expert dans le domaine. Ils sont également capables de prévenir les utilisateurs lorsqu’ils rencontrent un scénario pour lequel ils n’ont pas été programmés. C’est le principe d’automatisation des tâches répétitives et fastidieuses de l’Homme afin de pouvoir dégager du temps aux travailleurs qui pourront se consacrer à d’autres tâches à plus forte valeur ajoutée.
D’un autre côté se trouve l’approche statistique (ou probabiliste), mise en avant depuis plusieurs années. Cette approche se définie par le biais de nombreux calculs mathématiques et statistiques : les données perçues par la machine seront analysées dans des modèles dis de machine learning et un résultat interprété sera rendu. Cette approche est beaucoup plus opaque dû à sa complexité de compréhension mais sa puissance de réflexion se rapproche de celle de l’Homme voire même dans certains cas la dépasse.
Plus l’algorithme est simple, plus il est proche de la statistique de base ; plus il est complexe, plus il fait appel à des combinaisons de démarches statistiques élémentaires qui constituent donc les briques de base du machine learning moderne.
Basé sur ce qu’on appelle le big data (gros volume de données), le Machine learning est un algorithme d’apprentissage par entrainement récompense /punition afin de pouvoir prédire/classifier correctement. L’idée est donc de décomposer le problème en deux phases : une première phase d’apprentissage (ou d’observation) dans laquelle l’algorithme s’imprègne des données et la seconde qui, à partir de ces observations va prendre une décision (plus ou moins approximative). Durant ce qu’on appelle la phase d’entrainement des données en entrée de l’algorithme sont censées donner un résultat déjà définit auparavant en sortie. Mais cela n’est jamais le cas du moins au premier coup, c’est alors que le modèle entre la porte d’entrée et de sortie change de lui-même grâce à un système de rétro-propagation qui permettra de voir à quel moment des erreurs ont été commises et ce afin de faire des modifications et de se rapprocher des valeurs de sorties attendues.
Systèmes prédictifs calculant la probabilité des événements, traitement automatique du langage naturel capable de comprendre texte et parole en quasi temps réel, vision assistée par ordinateur comprenant les éléments visuels avec une bonne précision, ou encore optimisation de la recherche et de la récupération d'informations... Tout cela est possible grâce au machine learning.
Pour parvenir à cela, l’algorithme a donc besoin d’apprendre et ici encore il faut se familiariser avec de nouvelles notions. Différents apprentissages existent :
APPRENTISSAGE SUPERVISÉ
Ce type d'algorithme s'appuie sur un ensemble de données labelisées (regrouper des données selon des catégories), déduit les caractéristiques les plus importantes de chaque étiquette, et apprend à reconnaître ces caractéristiques dans de nouvelles données. Par exemple si l'algorithme visionne un grand nombre d'images de chats, il apprend à les reconnaître, puis à identifier une image de chat, quel que soit le nombre d'autres images complètement différentes parmi lesquelles elle se trouve.
APPRENTISSAGE NON SUPERVISÉ
Ce type d'algorithme ne nécessite aucune labélisation prédéfinie des données qu'il exploite. Il s'appuie sur un ensemble de données non étiquetées, recherche les similarités et les anomalies existant entre différentes entrées de cet ensemble de données, puis les classe en groupes qu'il a lui-même découverts. Si on montre à cet algorithme un grand nombre d'images non étiquetées contenant des chiens et des chats, celui-ci classe les images présentant des caractéristiques similaires en différents groupes, sans savoir que l'un d'eux contient des chats et l'autre des chiens.
APPRENTISSAGE PAR RENFORCEMENT
Ce type d'algorithme apprend par tâtonnements à partir de ses essais et de ses erreurs, et utilise une boucle de rétroaction de type « récompense » et « punition » : lorsqu'on utilise un ensemble de données pour alimenter un algorithme, ce dernier voit son environnement comme un jeu : chaque fois qu'il effectue une action, on lui apprend ensuite s'il a gagné ou perdu. Il se forge ainsi une image des « coups » qui entraînent une réussite et de ceux qui se soldent par un échec. Les programmes AlphaGo et Alpha Zéro de DeepMind (ces programmes seront étudiés plus bas) illustrent bien la puissance de l'apprentissage par renforcement.

Au sein de cette catégorie d’intelligence artificielle qu’est le machine learning, il existe des sous catégories représentant chacune une manière différente de rendre une machine intelligente au point d’apprendre, de prédire… On pourra notamment citer les réseaux de neurones qui se présente comme l’image ci-contre. Dans un registre encore plus opaque on parlera de deep learning qui représente les algorithmes basés sur des réseaux de neurones plus complexes et qui permettent à reconnaissance facile poussée comme la compréhension des émotions.
Pour finir, lorsque l’on parle de l’approche probiliste on distingue différents types d’intelligence artificielle. On parlera d’IA faible lorsqu’il s'agit d'une « simulation » de la pensée. Autrement dit, un système qui semble se comporter intelligemment, mais qui n'a aucune conscience de ce qu'il fait. Un chatbot, par exemple, peut donner l'impression de tenir une conversation qui a tout l'air d'être naturelle, mais n'a aucune conscience de qui il est, ni de la raison pour laquelle il vous parle.

Dans le même registre on parlera d’IA étroite lorsqu’il s'agit d'une IA dont les capacités sont limitées à une seule tâche ou à un ensemble de tâches définies. Par exemple, les capacités du superordinateur Deep Blue d'IBM, qui avait battu le champion du monde d'échecs Gary Kasparov en 1997, se limitaient au jeu d'échecs. Il aurait été incapable de gagner à un quelconque autre jeu, voire de jouer à autre chose qu'aux échecs.
Au contraire on parlera d’IA forte lorsqu’il s'agit d'une IA capable d'effectuer un très grand nombre de tâches, dans un très grand nombre d'environnements. En cela, elle est beaucoup plus proche de l'intelligence humaine. Google DeepMind a ainsi misé sur l'apprentissage par renforcement pour développer une IA capable d'apprendre un ensemble de jeux différents, faisant appel à différentes aptitudes. Son IA a atteint des niveaux de performance similaires à ceux des humains dans 29 grands classiques des jeux vidéo Atari, avec pour seule entrée de données les pixels affichés à l'écran.
留言