Objet de fantasmes comme de débats, l’intelligence artificielle représente des opportunités pour de nombreux domaines de l’économie, de la santé ou des loisirs. Les enjeux d’éthique, de régulation ou de souveraineté numérique nuancent l’enthousiasme. Luis Leiva, professeur à l’Uni.lu fait le point

Pas de révolution sans réflexion

d'Lëtzebuerger Land vom 07.04.2023

Land : Il y a quelques jours, plus de mille personnes travaillant de le domaine de l’intelligence artificielle (IA) ont signé une pétition demandant de suspendre pendant au moins six mois la recherche sur les intelligences artificielles puissantes telles que ChatGPT-4. Qu’en pensez-vous ? Y a-t-il vraiment un danger ?

Luis Leiva : Je considère avant tout qu’il s’agit d’une opération de marketing ou de relations publiques de la part des signataires et des géants du secteur comme Open AI ou Microsoft. Dire que ça va trop vite, c’est une manière de faire savoir à tout le monde qu’ils vont vite. Demander une pause, c’est aussi pour Elon Musk et certains autres l’occasion de rattraper leur retard dans l’IA. Il y a peu de scientifiques importants qui ont signé ce texte dont la forme était extrêmement dramatique. Cela ne veut pas dire qu’il ne faut pas réfléchir à cette révolution. Les mastodontes de la Big Tech travaillent avec des capacités de calcul énormes et des masses de données que peu d’entreprises ont les moyens de traiter pour créer des modèles. Il est donc important de penser aux modèles que l’on est en train de produire, de prendre le temps de les réguler, de mesurer les risques, d’atténuer les biais.

Mais on vit quand même une accélération spectaculaire du développement de l’IA ?

Oui, on entre dans une nouvelle ère, c’est sûr. En quelques années, les outils d’IA sont passés des laboratoires au grand public. Ces derniers mois, on voit à quel point ChatGPT s’est diffusé et banalisé. Des étudiants ou des chercheurs l’utilisent pour améliorer leurs formulations, le marketing s’en sert pour générer du contenu commercial ou publicitaire, des helplines travaillent avec des chatbots, des journalistes écrivent leurs articles avec l’aide de
ChatGPT… Il y a peu, il s’agissait seulement de générer des gros titres clickbait pour attirer des lecteurs vers du contenu publicitaire. Aujourd’hui, ce ne sont plus seulement les titres. Il est possible de générer des textes sur tout et n’importe quoi, avec des vraies informations comme des fausses nouvelles. Les résultats sont très convaincants. Au premier abord en tout cas. Car en lisant plus attentivement, ces textes sont souvent superficiels, manquent de substance et utilisent les mêmes mots ou tournures de manière répétitive. Mais cela peut tromper beaucoup de monde. L’érosion constante de l’esprit critique nous expose à dépendre d’un outil qui peut facilement être utilisé pour nous manipuler.

Il ne s’agit pas seulement de textes, mais aussi d’images. Vous avez sûrement vu le Pape en doudoune blanche, Emmanuel Macron ramassant les poubelles ou Donald Trump se débattant au milieu de policiers venus l’arrêter. La plupart du temps, ces images ont circulé sans que leur mode de fabrication ne soit mentionné. Comment réagir ?

C’est en effet assez incroyable ce que ces modèles comme Midjourney arrivent à générer. C’est pour cela que nous devons être plus critiques et plus observateurs. Il faut faire attention à des détails incohérents : des mains à six doigts, un lobe d’oreille collé au cou, des textes sans aucun sens ou avec des alphabets inexistants, des objets dysfonctionnels, des architectures impossibles... Un peu comme quand on scrute un jeu des sept différences, sur une seule image. On pourrait imposer l’apposition d’une watermark signalant une création d’IA. Mais il serait sûrement facile de la manipuler pour l’enlever. Il n’y pas d’outil parfait pour détecter l’usage de l’IA. Le plus important pour moi est d’éduquer la population à observer et à être critique, pour les images comme pour les textes. Nous ne devons pas attendre des entreprises qu’elles facilitent la pensée critique, c’est quelque chose que nous devons développer pour nous-mêmes, en tant qu’individus et collectivement en tant que société. Il faut former à ne pas tout prendre pour argent comptant, apprendre à vérifier les sources, à faire des recherches et ce, dès l’école. À une époque, on apprenait que ce n’était pas parce que quelque chose était dit à la télé que c’était vrai. Aujourd’hui, on apprend que ce qu’on trouve sur les réseaux sociaux ou sur Wikipédia doit être remis en question. Demain, ce seront toutes les images et les textes qui devront être interrogés. Je vois un progrès de société dans le fait de former des citoyens plus critiques.

L’IA transforme la manière de travailler. Des nouvelles fonctions vont-elles apparaître ?

Outre les métiers variés de l’informatique qui développent les outils de l’IA, le travail au quotidien avec l’IA évolue et requiert des compétences spécifiques adaptées. Des formations en ce sens vont très vite voir le jour. Par exemple, le métier de « créateur de prompts » est déjà en train d’émerger. Ce sont des personnes capables de rédiger les instructions pour que la machine fasse ce qu’on lui demande, notamment qu’elle génère l’image qu’on désire. Ce sont des commandes, des mots-clés, des références, des scénarios, des descriptions qui vont guider la machine. Les nouvelles questions légales nécessiteront de faire appel à des spécialistes, en particulier sur le droit d’auteur. Qui est l’auteur de l’image : l’entreprise qui a développé l’IA, celui qui a écrit le prompt ou celui dont l’image s’inspire ? Firefly, l’application de génération d’images développée par Adobe refuse d’utiliser des images ou modèles soumis à un droit d’auteur, sous licence ou des œuvres d’art. Quand on lui demande de créer une scène avec Pikachu, le résultat est un rat jaune, alors que Midjourney qui passe outre le droit d’auteur, affiche un résultat proche du personnage original. L’un n’est pas forcément mieux que l’autre, cela dépend ce que l’on recherche : l’évidence ou la surprise.

Comment ChatGPT va-t-il chercher l’information qui va nourrir ses réponses ? En d’autres termes, comment la machine apprend-elle ?

Il faut distinguer différents types d’apprentissage des machines. Le plus courant est l’apprentissage supervisé, c’est-à-dire à partir de données étiquetées ou annotées. Par exemple, des photos sont assorties de la mention de ce qu’elles représentent. Les paramètres du modèle s’ajustent pour réagir face à des situations qui se ressemblent. Au fur et à mesure de l’enrichissement du modèle, le résultat gagne en pertinence, réduisant la marge d’erreur. Par exemple, on montre des dessins ou des notes tracés par des personnes en bonne santé et d’autres par des personnes atteintes de la maladie de Parkinson. En comparant des grandes quantités de dessins, le modèle peut distinguer les deux types de personnes et détecter la maladie. Mais Chat-GPT (pour Generative Pre-Trained Transformer) fonctionne avec un apprentissage non-supervisé. C’est-à-dire que le modèle cherche par lui-même la structure et les tendances présentes au sein des données : plus précisément quels mots apparaissent généralement ensemble, dans quel ordre, avec quelle séquence. Ensuite, le fine-tuning supervisé a permis d’entraîner l’IA par le biais de conversations réelles avec des humains dédiés. La particularité de ChatGPT est d’appliquer un domaine spécifique de l’apprentissage automatique, les grands modèles de langage (Large Language Models), à un environnement conversationnel. La machine est autonome pour construire sa propre base d’apprentissage, dans ce cas-ci, en puisant dans d’énormes quantités de ressources du web : articles, conversations, contenus de sites, livres en ligne. Pour l’instant, sa base de connaissance s’achève en 2021. C’est pour cela que ce modèle est si puissant, il utilise à peu près tout l’internet. C’est aussi pour cela qu’il est fragile, il ne distingue pas le vrai du faux. Mais notre cerveau ne fonctionne pas comme ça. Nous ne réfléchissons pas avec des séquences de mots. La machine, aussi puissante soit-elle, aussi entraînée soit-elle, ne fait qu’imiter la production humaine. Elle ne crée pas, elle génère en observant et analysant ce qui existe.

Quels sont les limitations et régulation qui son mises en place ?

Les grands acteurs de l’IA sont les Américains et les Chinois. L’Europe tire son épingle du jeu en travaillant sur la régulation. C’est une voie logique quand on ne peut pas entrer dans la compétition et c’est une voie importante quand on a affaire à des géants, surtout quand ce sont des entreprises commerciales. L’Europe a mis en place un AI Act, une loi-cadre pour veiller à ce que les systèmes mis sur le marché soient sûrs et respectent les droits fondamentaux des citoyens et les valeurs de l’UE. Le texte classe les applications de l’IA en fonction des risques plus ou moins acceptables et devant être soumis à des exigences légales spécifiques.

Et c’est suffisant ? La régulation des réseaux sociaux, par exemple, semble bien faible...

Avoir une loi sur le sujet est essentiel. Fournisseurs, importateurs, distributeurs, utilisateurs doivent s’inscrire dans ce cadre légal qui comprend des sanctions. C’est vrai que la régulation est très permissive sur les réseaux sociaux. Quand on lit les « termes et conditions », ce que personne ne fait, on se rend compte qu’on donne notre âme. Partant de là, les plateformes font ce qu’elles veulent. Encore une fois, nous devons aussi être critique par rapport à nos propres actions.

L’Europe est-elle condamnée à se positionner en arbitre régulateur ?

Quand on observe les entreprises leader du marché, comme Microsoft ou Google, on voit les investissements considérables qui sont réalisés dans des datas center et des superordinateurs. L’Europe n’est pas assez grande et n’a pas les moyens d’entrer dans ce jeu. Ce n’est pas une question de compétence. C’est une question d’échelle. Il y a un grand nombre de personnes bien formées, qui arrivent à un très haut niveau de recherche… et puis partent aux États-Unis. On peut constater que toutes les avancées dont nous parlons, des outils devenus banals aux innovations révolutionnaires ont presque toujours démarré dans des universités où se font les recherches. Après, il faut que quelqu’un développe le produit dans une start-up et l’amène sur le marché et là les Européens sont moins forts et moins souples. Par exemple, à l’université d’Aix-la-Chapelle, le professeur Hermann Ney et son équipe ont développé un système de traduction automatisée. Un de ces chercheurs est parti aux États-Uni et a créé Google Translate...

Sur quoi portent vos recherches ? Vous mèneront-elles à créer une start-up ?

Je suis professeur en science informatique et je participe au groupe de recherche « Computational Interaction » depuis deux ans. Mes recherches se situent à l’intersection entre l’apprentissage automatique des machines et de l’interaction homme-machine pour comprendre comment l’homme agit face à la machine : ce qu’il regarde, comment il clique, comment il sélectionne, comment il enregistre, comment il écrit. Je cherche à construire des modèles en utilisant à la fois des outils d’analyse, d’automatisation ou d’abstraction et des données récoltées par expériences. Par exemple, nous utilisons un eye-tracker pour suivre les mouvements oculaires et observer ce que les utilisateurs regardent. Cela peut servir à la conception d’interfaces, de sites web, pour amener les gens à trouver plus facilement l’information… Les applications pratiques sont nombreuses. C’est ce type de données que le concepteurs de plateformes comme les réseaux sociaux utilisent pour établir des modèles qui maximisent l’engagement des utilisateurs et les retiennent sur la plateforme.

Dans les semaines à venir, mon groupe va présenter les résultats de travaux sur la manière de regarder les œuvres d’art, de les décrire et de les classer, dans le but d’établir des recommandations personnalisées de parcours dans les musées. Jusqu’ici les œuvres étaient analysées pour leurs caractéristiques textuelles (date, titre, artiste, commentaire du curateur, style…) ou visuelles. Notre approche qui combine les techniques d’apprentissage des deux aspects visuels et textuels va plus loin et offre des résultats plus probants. De cette manière, les parcours au sein des musées peuvent être adaptés aux goûts ou aux comportements de chacun : ceux qui veulent rester longtemps devant une œuvre, ceux qui veulent tout voir, ceux qui passent de salles en salles…. C’est utile dans les musées réels, surtout lorsqu’ils sont très grands, mais c’est aussi très intéressant dans le monde virtuel où les recommandations peuvent amener à se créer sa propre exposition, son propre musée. Nous commençons une collaboration avec le Musée national d’histoire, d’art et d’archéologie qui a numérisé une grande partie de sa collection, pour tester nos modèles. Ce n’est pas encore le Metropolitan de New York… Mais c’est un début.

France Clarinval
© 2024 d’Lëtzebuerger Land