You are currently viewing Le sens des mots : intelligence artificielle et abus de langage

Le sens des mots : intelligence artificielle et abus de langage

  • Post author:
  • Post category:Tech (PnP)

Cet article n’est que la première occurrence d’une série d’article sur les nouvelles technologies. Cette série d’articles, produits mensuellement, a pour vocation de vulgariser les grands concepts des nouvelles technologies contemporaines. Dans cette démarche, il est important de faire attention aux abus de langages, qui sont courants dans la tech. Ce mois-ci, dans le cadre de la Semaine de l’IA, je vous propose donc de démystifier ce que l’on entend par “intelligence artificielle”.

Intelligence Artificielle. L’expression est particulièrement à la mode depuis l’émergence d’internet, des GAFA et du traitement de données de masse. Mais date-t-elle vraiment de cette période ?

En réalité, j’entends parler d’intelligence artificielle depuis ma jeunesse. La littérature contemporaine ou le cinéma traitaient déjà de telles thématiques : Neuromancer, Terminator ou 2001 : L’odyssée de l’espace sont autant d’œuvres qui mettaient déjà en avant le thème du robot omniscient et intelligent, causant des problèmes au genre humain. De manière plus triviale encore, l’expression était déjà largement utilisée dans le jeu vidéo, pour désigner les instructions données au système afin de répondre au comportement du joueur.

HAL 9000 (en bas de l'image) dans 2001 : L’Odyssée de l’espace
HAL 9000 (en bas de l’image) dans 2001 : L’Odyssée de l’espace

Que veut-dire “intelligence artificielle” ?

Pour bien comprendre l’usage de cette expression, il faut comprendre ce que l’on met derrière le terme intelligence artificielle. Tout d’abord, l’intelligence est souvent décrite comme une caractéristique propre aux êtres humains. En effet, l’espèce humaine est souvent vue comme la seule espèce du règne animal capable de comprendre, de penser, de réfléchir et d’agir de manière rationnelle. Si cette définition mérite d’être questionnée à cause de sa simplicité, nous n’en débattrons pas ici pour des raisons de concision. L’adjectif “artificiel” est quant à lui souvent associé à une création ex-nihilo, capable de remplacer un élément naturel. L’intelligence artificielle pourrait donc être définie simplement comme la capacité de recréer à partir de rien le comportement et les réactions d’un être humain. Bien entendu, cela sous-entend aussi de créer une machine capable de comprendre et de reproduire le comportement humain.

À ce titre, il est également crucial d’établir une distinction entre ce que le grand public entend par intelligence artificielle et ce que la communauté scientifique a qualifié d’intelligence artificielle. De la même manière que l’histoire (au sens scientifique du terme) n’a pas seulement vocation à mettre des dates devant des événements historiques, la science de l’intelligence artificielle – aussi appelée science des données – n’a pas vocation à créer une copie numérique d’un cerveau. En réalité, cette dernière a davantage pour objectif de comprendre et de recréer les différents schémas cognitifs de l’être humain, et de leur trouver une application utile au bien commun. Recréer un cerveau humain à l’identique ne semble pas vraiment utile dans l’immédiat (nous en avons déjà), et la tâche serait longue et fastidieuse. Nos schémas de pensée sont loin d’avoir été reconstitués, et certains ne le seront sûrement jamais. Et dans le cas où l’on arrivait à tous les reconstituer, serait-on capable de les fusionner pour créer un tout uniforme ?

Recréer un cerveau humain, un objectif insensé - Gerd Altmann sur Pixabay
Recréer un cerveau humain, un objectif insensé – Gerd Altmann sur Pixabay

Au contraire, reproduire certains schémas cognitifs et les perfectionner pour effectuer des tâches spécifiques est bien plus intéressant. Aujourd’hui, la science est parvenue à mettre au point un grand nombre d’applications en traitant des données en masse dans différents domaines : prévision de risque médical, reconnaissance d’image, recommandation de films Netflix… Le traitement de données, la recommandation et la prévision montre bien la capacité de la science des données à comprendre et prévoir (ce qui est une autre forme d’apprentissage du comportement).

Cependant, comme le terme d’IA est de plus en plus utilisé dans des domaines qui n’ont en apparence rien à voir avec cette technologie. Nous mentirait-on quand on nous parle d’intelligence artificielle hors du domaine scientifique ?

Intelligence artificielle, un terme aux multiples significations

On pourrait donc penser que, lorsque l’on parle d’IA dans tous les domaines, on commet la plupart du temps un terrible abus de langage. Prenons l’exemple de l’industrie du jeu vidéo : le terme d’IA est souvent utilisé pour décrire ce que va faire l’ordinateur en réaction aux actions du joueur, ou pendant que le joueur ne joue pas. Ces actions de l’ordinateur – et, par extension, des personnages non joueurs – sont en réalité des suites d’instructions codées et prévues à l’avance par les concepteurs d’un jeu. Si dans certains jeux, le comportement des personnages est conçu puis implémenté à partir d’un apprentissage d’intelligence artificielle, il reste un code “statique” incapable de s’adapter. C’est cette capacité d’adaptation qui permet de différencier une utilisation erronée du terme et une “vraie” intelligence artificielle.

Attention, même si l’usage de ce mot n’est pas toujours nécessairement approprié d’un point de vue scientifique, il faut néanmoins souligner que ce n’est pas pour autant un abus de langage caractérisé. Il est vraiment important de faire la distinction entre ce qui relève de l’intelligence artificielle au sens scientifique du terme – tout ce qui dépend de la science des données : machine learning, deep learning, apprentissage, prévision – et les activités qui renvoient au sens même des mots, et qui ont pour but d’obtenir une certaine autonomie d’une machine ou d’une entité créée par l’homme.

Cette autonomie est bien présente pour un être artificiel, même si elle est restreinte à une boucle plus ou moins grande d’action. Parfois, on retrouve une fusion de ces deux dimensions. Par exemple, les voitures autonomes, apprennent et prévoient à partir d’une masse considérable de données de trafic. Ensuite, elles mettent en pratique l’apprentissage qu’elles ont effectué lors de la conduite, en suivant des instructions précises tirées de leur phase d’entraînement.

Mode "autopilote" d'une voiture Tesla
Mode “autopilote” d’une voiture Tesla

Est-ce que la combinaison des deux acceptions permettrait de coller à ce qu’on évalue comme de l’intelligence ? Pas exactement, mais elle permet de s’approcher de la réalité dans certains domaines, et pour des tâches spécifiques. Le rêve d’un robot à-tout-faire est encore loin, mais c’est peut-être un mal pour un bien : ne rêvons pas de cette période, où, comme dans le vaisseau de Wall-E, nous pourrons passer nos journées sur des sièges, avec des machines qui font tout pour nous. Le jour où ces entités artificielles bénéficieront d’une autonomie complète, nous risquerons de perdre la nôtre.

Par François Kergall


Cet article a été publié pour la première fois le 21 septembre 2021 sur Hypertext, le blog de l’association Plug’n’Play. N’hésitez pas à y faire un tour pour trouver d’autres articles sur le numérique !