L’intelligence artificielle, de quoi parle-t-on réellement ?

Léo Marchandon
Partager

Depuis quelques mois, ces deux mots sont sur toutes les lèvres. Les salons dédiés battent des records d’affluence. De quoi parle-t-on réellement ?

L’intelligence artificielle a le vent en poupe. L’arrivée au yeux du grand public de ChatGPT a lancé un véritable mouvement. La 12ème édition du salon Big Data & AI de Paris (25 & 26 septembre 2023), beaucoup plus “AI” que “Big Data” cette année, a explosé son record de fréquentation avec plus de 16 500 visiteurs, en le classant plus grand évènement dédié à l’intelligence artificielle en Europe, à ce jour. Mais derrière cette frénésie, qu’entend-on réellement par “intelligence artificielle” ?

L’informaticien américain John McCarthy, à qui l’on attribue généralement la paternité du terme “intelligence artificielle”, la définissait ainsi dans les années 50 : “il s’agit de la science et de l’ingénierie qui consistent à créer des machines intelligentes, en particulier des programmes informatiques”. La définition est floue : une bête calculette collège serait ainsi une intelligence artificielle. Pour en arriver aux solutions que l’on regroupe aujourd’hui sous la bannière IA, il faut attendre une autre avancée technique : l’apprentissage automatique, ou machine learning. Dans la pratique, il s’agit d’entraîner un réseau neuronal (une infrastructure informatique construite comme un cerveau, avec plusieurs unités de calcul interconnectées) sur des millions voir des milliards d’exemples de quelque chose, afin qu’il puisse reconnaître et classer quelque chose qu’il n’a jamais vu avant. Entraînée sur des millions de photos de tables et de chaises, une IA sera capable de vous dire si une photo qu’il n’a jamais vu représente une table ou une chaise. C’est là l’élément central d’une IA moderne : plus qu’une machine qui réfléchit, une IA est une machine capable d’apprendre.

Une IA est une machine qui sait apprendre

Malgré son application à de nombreux domaines, le machine learning ne donne pas souvent les résultats escomptés. Les raisons proviennent surtout d’éléments extérieurs : manque de données appropriées, biais induits dans les données, tâches mal choisies, manque de ressources. La qualité et la pertinence de la base de données d’entraînement est primordiale. Le principal écueil : les biais présents dans la base de données. Un système d’apprentissage automatique formé spécifiquement sur les clients actuels ne peut pas être en mesure de prédire les besoins de nouveaux clients qui ne sont pas représentés dans les données d’apprentissage. Les IA ne réfléchissent pas, elles apprennent.

Que serait alors une IA capable de réfléchir ? Une IA similaire aux représentations dans la pop-culture, de H.A.L 9000 (2001, l’Odyssée de l’espace) à GLaDOS (Portal) en passant par C3PO (Star Wars) ? On entrerait alors dans la catégorie encore aujourd’hui hypothétique des intelligences générales artificielles (AGI, artificial general intelligence). Tenant aujourd’hui de la théorie pure, la création d’une AGI fait tout de même partie des principaux objectifs d’entreprises leader comme Open AI et Deep Mind.

La frénésie actuelle autour des IA a été déclenchée par l’arrivée soudaine d’IA génératives à disposition du grand public. On parle ici d’IA capables de générer du texte, du son ou de l’image, ChatGPT étant l’exemple le plus évident. Ces IA génératives ne sont pas des AGI : elles apprennent mais ne réfléchissent pas. Ce qui induit parfois une mauvaise compréhension de ce qu’elles sont réellement. ChatGPT et ses consorts sont l’aboutissement du développement des grands modèles de langage (LLM, large language models), ces algorithmes capables de comprendre du langage humain (par opposition au langage informatique, les lignes de codes). Schématiquement, une IA générative est un algorithme capable d’accomplir une tâche précise (par exemple, générer une suite de mots) adossé à une gigantesque base de données (sa mémoire, en quelque sorte), et capable à la fois de comprendre une commande rédigée en langage humain, et capable d’analyser lui même son propre résultat par rapport à sa base de données. Avant d’être utilisable, une telle IA est entraînée : elle produit des centaines de milliers de mauvais résultats pour affiner au fur et à mesure la façon dont elle accomplit sa tâche. C’est ainsi qu’une machine “apprend”.

Pas si intelligentes

ChatGPT, par exemple, n’est pas une machine capable de chercher des informations, de différencier le vrai du faux ou de faire preuve de créativité. C’est une machine capable de générer du texte, ou plus exactement une suite de mots, grammaticalement correcte et cohérente en réponse à la commande entrée par l’utilisateur (le “prompt”). Rien de plus. Les critiques (certes fondées) sur la tendance qu’a ChatGPT à raconter des sottises enfoncent des portes ouvertes : sa tâche n’est pas d’écrire des choses vraies. La version de ChatGPT présentée au grand public en décembre 2022 avait été entraînée sur l’intégralité du texte existant sur internet avant juin 2021. Une corpus gargantuesque de mots, phrases et paragraphes qui lui permet de maîtriser de multiples langues, mais qui regroupe aussi des informations dépassées, erronées voire tout simplement fausses. Tous les recoins d’internet ne sont pas très bien sourcés.

Les IA qui génèrent des images ou du son fonctionnent exactement pareil. Ce sont ces IA qui ont fait émerger les questions de droits d’auteur. Shakespeare n’ira pas se plaindre que ChatGPT ait été entraîné sur ses textes disponibles online, mais quid des auteurs contemporains, des journalistes dont les articles sont publiés sur le web, ou même des utilisateurs des réseaux sociaux ? ChatGPT ne fait pas de différence entre un poème du 16ème siècle et un tweet. Même son de cloche pour les images : les IA ne font pas de plagiat en assemblant des bouts d’œuvres existantes, mais elles ont souvent été entraînées sur des œuvres ou des photos sans que les auteurs n’aient eu leur mot à dire. D’autant que les IA peinent à atteindre leurs exemples. Gareth Edwards, le réalisateur du film de science-fiction sur l’intelligence artificielle The Creator, sorti en septembre 2023 en France, raconte avoir, pour l’expérience, fait appel à une société pour créer à l’aide d’une IA une bande originale dans le style d’Hans Zimmer. “Le résultat était peut être un 7/10”, raconte le cinéaste au MIT Tech Review, “mais la raison pour laquelle on s’adresse à Hans Zimmer, c’est pour avoir un 10/10”. C’est finalement bien Hans Zimmer, l’original, qui signe la musique du long métrage.

Pour Edwards, l’IA n’est pas l’ennemie des créatifs mais plutôt leur outil de demain. “Les personnes qui s’en sortiront demain sont celles qui ne nieront pas cette avancée, qui l’accepteront, qui l’apprendront et qui essaieront de l’utiliser comme un outil. Lors de la sortie de Photoshop, le débat public a porté sur le fait que le logiciel était un ‘sacrilège’. Aujourd’hui, Photoshop a crée tant d’opportunités pour tant d’artistes… Je ne voudrais pas revenir en arrière.

Un outil avant tout

Tous les secteurs tâtonnent autour de l’IA à la recherche de cas d’usages. Si le mode créatif l’approche avec énormément de prudence, celui de la santé semble plus optimiste. Que ce soit pour accompagner un médecin dans le diagnostic d’un patient ou pour assister la recherche et le développement de nouvelles molécules dans les laboratoires pharmaceutiques, les énormes capacités de tri, de classification et de génération de masse des IA en font d’excellents candidats pour assister les experts du milieu. Il n’est pas question d’avoir une IA “Dr. House”, mais d’outils supplémentaires à disposition des médecins pour établir le diagnostic. L’IA ne vient pas remplacer le médecin, mais offrir un outil supplémentaire aux côtés des IRM et autres machines d’analyse. Même son de cloche dans l’agriculture ou la météo. Une IA peut aider à optimiser la gestion d’une parcelle en analysant de nombreuses données (que l’on souhaite travailler sur le rendement, l’impact environnemental voire même les deux), ou permettre des prédictions plus fines de la météo à venir.

Finalement, l’hyperactivité qui entoure le monde des IA depuis quelques mois témoigne d’une véritable marche en avant mais masque aussi une certaine perfectibilité. Les IA d’aujourd’hui sont à la pointe d’une technologie encore faillible. La qualité des résultats dépend invariablement de la qualité de la base de données d’entraînement et des choix faits par l’opérateur humain. Il faut donc une IA bien construite, bien entrainée, bien pilotée et utilisée de la bonne façon pour répondre au bon problème. Aussi artificielle que soit l’intelligence à l’oeuvre, c’est encore l’intelligence humaine qui décide. Très éloignée d’un simple marteau sur le plan technologique, une IA ne reste pourtant, comme lui, qu’un outil utilisé par l’humain. Et s’il est largement entendu qu’il est préférable d’utiliser un marteau pour taper sur un clou plutôt que sur quelqu’un, il faut également définir quels sont les bons usages d’une IA.

La newsletter

Abonnez-vous à notre newsletter, pour ne rien rater des grandes tendances et des transformations du secteur !