Le surgissement sur Internet, fin 2022, de plusieurs API basées sur des algorithmes d’intelligence artificielle (IA), permettant, les unes, de générer des images (simulant des tableaux, des dessins ou des photographies), les autres, des textes, a donné lieu à un torrent d’analyses et de commentaires, soit enthousiastes soit apocalyptiques, concernant ce qui était considéré par beaucoup comme l’annonce d’une césure radicale dans l’histoire de l’humanité.
L’intelligence artificielle et ses enjeux
À première vue, cette soudaine flambée de fièvre peut paraître incongrue. En effet, le projet d’IA remonte aux travaux du mathématicien anglais Turing, donc aux années quarante du vingtième siècle. Et depuis une bonne vingtaine d’années, des logiciels fondés sur des algorithmes d’IA jouent des rôles importants dans d’innombrables domaines de la vie humaine, qui vont des sciences mathématiques jusqu’aux voitures autonomes, en passant par les chatbots, la médecine, les finances, la traduction automatique, la gestion des flux de déplacement des automobiles, les prédictions météo, les appareils photos sur nos smartphones, et ainsi de suite presqu’à l’infini. Et elle est bien entendu omniprésente dans les architectures internet, en particulier les moteurs de recherche et les réseaux sociaux, l’automatisation de la création de contenu, les programmes de détection de spam, l’analyse d’image, la modération de contenu, ou encore dans ce que l’on appelle, par euphémisme, « la personnalisation de l’expérience des utilisateurs ».
Même les générateurs d’images et de textes n’ont pas été créés ex nihilo en 2022, mais sont utilisés au moins depuis 2019. Simplement, avant la fin 2022, ils n’étaient pas liés à des API, c’est-à-dire à des programmes en ligne connectés directement aux programmes d’IA générant les images ou les textes, et localisés, sur les serveurs des sociétés concernées (OpenAI, Microsoft, Google et d’autres), et ils n’étaient donc pas accessibles librement sur le net.
L’IA avait par ailleurs annoncé dès ses origines son ambition d’égaler, voire de dépasser et de remplacer l’intelligence humaine. Et ce projet a toujours été générateur de débats. Ainsi la dénonciation des risques de l’IA se trouve déjà dès la fin des années quarante dans la science-fiction d’Isaac Asimov, et plus tard celle de Philip K. Dick ou d’Arthur C. Clarke (il suffit de rappeler l’inquiétant ordinateur HAL dans 2001 : L’Odyssée de l’espace de Stanley Kubrick, dont le scénario avait été co-écrit par Arthur C. Clarke). Les scientifiques et philosophes n’ont pas été en reste, y compris un des inventeurs du WWW, Tim Berners Lee, qui a appelé à une régulation des développements de l’IA (mais aussi des réseaux sociaux, qui en dépendent très fortement). Mais jusqu’à récemment, ces débats étaient surtout une affaire de spécialistes ou de geeks et ne touchaient guère l’opinion publique générale. Cela a certes commencé à changer autour de 2015 avec le développement des premiers robots humanoïdes, mais l’effervescence actuelle est totalement inédite.
ChatGTP3 : promesses et limites
Pourtant l’effervescence est compréhensible. Il y a une grande différence entre lire des descriptions de ce que peut l’IA et le fait d’en faire l’expérience soi-même, ce que permettent précisément les API mises en ligne ces derniers mois. Il faut ajouter que dans le cas des deux API les plus emblématiques (parce que les plus généralistes) et les plus discutées, à savoir DALL-E2 et ChatGTP3, la mise en ligne coïncida avec une montée en puissance importante de leurs capacités ainsi que de l’étendue des bases de données qu’elles exploitaient. Ainsi DALL-E2 et de nombreux autres générateurs d’images produisent aujourd’hui des simulations de photographies capables d’induire en erreur autour de cinquante pour cent des personnes testées, avec des conséquences potentiellement dévastatrices pour Internet, notamment au niveau de la contamination des bases de données photographiques.
Mais ce sont, il me semble, les générateurs de textes et plus généralement de structures discursives – dont ChatGTP3 est actuellement le dispositif phare – qui constituent le défi le plus important, car ils interviennent directement sur l’interface centrale de la communication interhumaine et même de la relation à soi-même : le langage. Quiconque a utilisé ne serait-ce qu’une seule fois ChatGTP3 peut difficilement ne pas être impressionné par ses performances : il apporte en un temps record des réponses crédibles à toutes les questions qu’on lui pose et ce dans quelque domaine que ce soit ; lorsqu’on l’utilise en mode requête, il produit des textes d’une complexité et d’une diversité qui semblent égaler les textes humains ; il est capable d’avoir des interactions d’une étonnante richesse avec celui qui formule la requête. Tout cela donne l’impression à l’interlocuteur humain qu’il dialogue avec une intelligence supérieure, qui sait tout sur tout, ne cesse de produire des connaissances nouvelles et dispose de ressources créatrices qui dépassent celles des humains. D’ailleurs ses multiples utilisations dans la communication interne et externe des entreprises, dans la rédaction d’articles scientifiques, dans les posts sur les réseaux sociaux, dans les demandes d’embauche, dans la construction des pages web et ainsi de suite, ne prouvent-elles pas que tel est bien le cas ?
Pourtant l’impression de sa puissance créatrice est une illusion, née du fait que nous sommes tellement éblouis par l’output que nous ne nous interrogeons pas sur l’input. Dès qu’on s’intéresse au mode de génération des textes, on constate que la situation est fort différente. En effet, tous les éléments générés par ChatGTP3 sont puisés dans les immenses banques de données, issues d’Internet, sur lesquelles l’algorithme a été entraîné (cette phase d’entraînement agit comme un catalyseur qui lui permet ensuite de passer en mode d’apprentissage automatique non guidé et de s’améliorer tout seul au fil de ses opérations). Mises ensemble, ces banques de données atteignent le nombre faramineux de 500 milliards d’unités qui peuvent être combinées. L’impression de créativité est en partie produite par la différence abyssale entre la taille et donc la puissance de la mémoire textuelle que l’IA peut exploiter, comparée aux limitations de la mémoire sémantique humaine ou des bibliothèques matérielles. Elle est aussi créée par le fait que le générateur ne copie pas des textes mais re-combine des unités élémentaires trouvées dans les bases de données. Mais cette recombinaison est-elle créatrice ?
Il faut partir du fait que tous les éléments de base que le générateur de textes utilise pour produire ses textes proviennent de ces bases de données et donc ne sont pas créés par lui. D’ailleurs, comme il n’a lui-même aucun accès au monde il ne saurait produire de nouvelles connaissances, puisqu’une connaissance naît toujours d’une rencontre avec la réalité. Bien sûr, comme une partie des textes de ses bases de données sont des protocoles de connaissances acquises par des rencontres cognitives avec la réalité, on trouve dans les textes générés aussi des connaissances réelles que tel ou tel interlocuteur humain qui interroge le logiciel ignore encore (c’est pour cela qu’il interroge le logiciel). Mais ces connaissances n’ont pas été créées par le logiciel : elles l’ont été par d’autres humains et consignées dans des textes que l’IA se borne à exploiter.
En deuxième lieu ChatGTP3 n’a aucune possibilité de faire le tri parmi les textes qu’il exploite, et par conséquent parmi les textes qu’il crée, entre ceux qui sont vrais et ceux qui sont faux, entre ceux qui sont sincères et ceux qui sont des mensonges (ou des manipulations). Cela est d’ailleurs indiqué (de manière ô combien pudique !) sur le site de l’API : « May occasionally generate incorrect information ». Ce risque n’est pas accidentel, car, certes, ChatGTP3 cause diablement bien, mais il n’a pas la moindre idée de ce dont il cause. En effet, son unique critère de sélection des unités qu’il va enchaîner est de nature probabiliste. Concrètement, dès lors qu’une unité (disons pour simplifier, un mot) a été générée, la décision quant à l’unité qui va être générée à sa suite est basée sur la probabilité statistique avec laquelle dans la base de données exploitée telle ou telle unité suit l’occurrence de l’unité qui vient d’être générée (c’est en fait un peu plus compliqué que cela, mais cela ne change rien sur le fond de l’affaire). Donc, aucune considération sémantique (c’est-à-dire de vérité, de sens et de signification) n’intervient dans ses décisions.
Qu’est que cela implique ? Jean-Gabriel Ganascia, éminent spécialiste du numérique et en particulier de l’intelligence artificielle a écrit dans Le Point que ChatGPT3 « est un perroquet qui répond de manière aléatoire ». L’image n’est pas totalement adéquate. D’une part, elle sous-estime l’intelligence des perroquets, d’autre part, et plus sérieusement, ChatGTP3 ne répond pas de façon aléatoire. La thèse pourrait se soutenir si dans la base de données qu’il exploite les unités se suivaient de manière aléatoire, autrement dit si dans les bases de données la probabilité d’occurrence de tel mot après tel autre était aléatoire. Or ceci n’est évidemment pas le cas, parce que les bases de données consistent en des textes, donc en des constructions cohérentes de discours dont l’organisation n’est pas aléatoire : elle est la mise en œuvre d’un vouloir dire, d’une intention sémantique (généralement) cohérente à défaut d’être toujours juste ou vraie. Dans les bases de données, un contexte rapproché qui contient le mot « atome » a ainsi infiniment plus de chances d’être suivi sinon directement, du moins un peu plus loin, du nom « électron » ou « positron » ou « noyau » etc., que du nom « maillot de bain » ou « amour » ou « dollar » etc. La probabilité calculée par l’algorithme IA étant sous la dépendance des enchaînements probabilistes non aléatoires qui se trouvent dans les bases de données, elle non plus n’est donc pas aléatoire. C’est précisément pour cela que les textes générés sont pratiquement toujours bien formés et cohérents du point de vue d’une lecture sémantique, qui est celle d’un lecteur humain, bien que ce ne soit pas cette dimension sémantique qui a guidé les décisions de l’algorithme.
Le pouvoir mythogène de ChatGTP3
Le mode de sélection selon lequel ChatGTP3 génère ses textes a une autre conséquence encore, et qui me paraît bien plus importante. Les énormes bases de données que l’algorithme interroge pour calculer les probabilités qui contraignent la génération de ses textes sont des bases Internet. Or qu’est Internet, lorsqu’on le considère globalement, sinon le dépôt (voire le dépositoire !) des représentations, jugements, évaluations, opinions, humeurs, vraies et fausses croyances, savoirs et faux savoirs de l’ensemble de ses utilisateurs à un moment t ? Créer un texte grâce à un calcul d’ordre probabiliste appliqué à ce corpus va donc se traduire fatalement par un biais en faveur des représentations, croyances, valeurs etc., les plus répandues dans ses bases, donc les plus partagées, les plus consensuelles, les plus dominantes, les plus standardisées, voire stéréotypées etc. Ce qui est consensuel ou dominant est parfois vrai, parfois faux, parfois sincère, parfois mensonger ou manipulateur (voire auto-manipulateur), mais c’est toujours vraisemblable, donc crédible. Ce qui est partagé et consensuel tend en effet à devenir plus crédible (éventuellement jusqu’à fonctionner comme une évidence), de même qu’en retour ce qui est (devenu) crédible a tendance à devenir davantage partagé et consensuel.
Or, cette interdépendance du partage, du consensus, de l’accord et du vraisemblable/crédible correspond exactement à la dynamique qui est à la base des mythologies selon la conception de Roland Barthes : des représentations socialement partagées, consensuelles et fonctionnant sur le mode du vraisemblable ou de l’évidence, donc immunisées contre toute épreuve du réel. Si l’utilisation de logiciels du type ChatGTP3, devenait dominante dans la production de textes, ce qui n’est nullement à exclure, cela accroîtrait donc de manière très conséquente le fonctionnement et la fonction mythogènes, d’Internet. En effet, les générateurs IA futurs ne vont plus exploiter des bases de données stables (comme le fait encore ChatGTP3) mais des bases dynamiques, donc sans cesse nourries par de nouveaux éléments. Or, parmi ces nouveaux éléments il y aura bien entendu le corpus de plus en plus vaste des textes créés par des générateurs de textes IA eux-mêmes. Ceci créera une boucle d’auto-renforcement en faveur de ce qui est consensuel etc., les générateurs de textes biaisant ainsi leurs propres bases de données et livrant à leurs lecteurs des produits de plus en plus standardisés. Jusqu’où ? Qui vivra, verra.