Le mois de juillet 2025 aura été un moment-clé dans la jeune histoire de l’intelligence artificielle. Le 23, Donald Trump a mis en marche le rouleau compresseur destiné à assurer la domination américaine dans l’IA avec le lancement de son plan d’action donnant carte blanche aux opérateurs du secteur. Trois jours plus tard étaient ouvertes à Shanghai la Conférence mondiale sur l’intelligence artificielle (WAIC) ainsi que la Réunion de haut niveau sur la gouvernance mondiale de l’IA. Sur une surface d’exposition de 70 000 m², ont été présentés plus de 300 produits de pointe conçus par quelque 800 entreprises, parmi lesquels quarante grands modèles d’IA et soixante robots intelligents. Une manifestation révélatrice des ambitions de la Chine. Face à cette déferlante, des voix discordantes, venant le plus souvent de l’intérieur même de l’écosystème, se font de plus en plus entendre pour dénoncer les imperfections et les dérives de l’IA et appeler à sa régulation. Mais leur écho semble encore limité.
À peine revenu aux affaires le 20 janvier 2025, Donald Trump a révoqué le décret sur la régulation et la sécurité de l’IA signé par Joe Biden le 30 octobre 2023, dans l’attente d’un « AI Action Plan » qui devait être révélé au bout de six mois. La patience des grands acteurs de la Silicon Valley, spectaculairement ralliés à Trump, n’a pas été déçue par les 90 mesures annoncées, permettant aux quatre plus importants, Amazon, Alphabet (Google), Microsoft et Meta (Facebook, Instagram, WhatsApp) d’envisager pour 2025 quelque 330 milliards d’investissements dans l’IA, soit 47 pour cent de plus qu’en 2024, et 2,2 fois plus qu’en 2023. La course au leadership de l’IA, dont l’importante dimension militaire est assez peu évoquée, ne semble guère s’embarrasser de considérations éthiques. Aucune critique sur cet aspect n’est à attendre du côté de la société civile en Chine, maintenue sous une chape de plomb, mais il en va tout autrement aux États-Unis, où le plan d’action trumpien provoque une levée de boucliers.
Comme son contenu était prévisible, la veille même de sa présentation, soit le 22 juillet, une coalition de plus de 90 organisations œuvrant dans les domaines de la technologie, de l’environnement, de la protection des consommateurs et des salariés et du social a lancé son « Plan d’action populaire pour l’IA » visant à contrebalancer les décrets présidentiels. Pour les expertes Sarah Myers West et Amba Kak, du AI Now Institute, « le plan d’action de la Maison blanche est rédigé par les géants de la tech qui développent une IA utilisée contre nous. Aujourd’hui, nous reprenons le contrôle de la trajectoire future de l’IA, qui doit privilégier les besoins des Américains ordinaires plutôt que les profits des entreprises ».
Selon elles, les effets néfastes de l’IA sont devenus flagrants dans le domaine du travail, de la santé, de l’éducation et même de la vie privée. De plus « la plupart des systèmes d’IA sont déployés dans des contextes coercitifs comme l’immigration et le maintien de l’ordre, où les droits des personnes sont régulièrement bafoués ». La contestation de l’IA est bien antérieure au lancement de ChatGPT fin 2022, qui a familiarisé le grand public avec la nouvelle technologie. Une des figures emblématiques du mouvement est Meredith Whittaker. Cette quadragénaire californienne, très présente dans les médias, et qualifiée de « mouche du coche la plus célèbre de la Silicon Valley » par le Financial Times en septembre 2024, porte plusieurs casquettes. Elle est ainsi connue comme chercheuse, ayant cofondé en 2017 l’AI Now Institute, aujourd’hui rattaché à l’Université de New-York, dont les recherches portent sur les implications sociales, éthiques et politiques de l’IA. Ancienne directrice académique de l’institut, elle en est désormais la « Chief advisor ».
Mais elle est aussi, et surtout, depuis septembre 2022, la présidente de la Signal Foundation, une organisation à but non lucratif qui développe l’application gratuite de messagerie Signal, connue pour sa puissance de chiffrement et sa forte protection de la vie privée des utilisateurs, car son modèle ne collecte presque aucune donnée. Le fantasque Elon Musk a publiquement soutenu et même financé la messagerie en 2020, avant de retourner sa veste en rejoignant Trump, jusqu’à bloquer les liens Signal sur sa plateforme X.
Déclarant voir l’IA « comme née du modèle économique de la surveillance », Meredith Whittaker a été sensibilisée à la question de la protection des données personnelles pendant ses treize années passées comme salariée de Google, où elle a fondé le groupe de recherche Open Research Group, ainsi que la plateforme Measurement Lab (M-Lab) pour fournir des données ouvertes et vérifiables sur les performances du réseau et la neutralité du Net. De son propre aveu, elle a d’abord pensé pouvoir réformer le système de l’intérieur avant qu’un point de rupture ne soit atteint avec le contrat signé entre Google et le Pentagone dans le domaine militaire en 2017. Craignant que le « projet Maven » soit aussi utilisé pour la surveillance de la population, 4 000 employés ont signé début 2018 une pétition interne qui a débouché quelques mois plus tard sur un mouvement de protestation plus vaste mobilisant à partir du 1er novembre 2018 plus de 20 000 salariés de Google dans le monde (Google Walkout), dont Meredith Whittaker fut la co-organisatrice avant de quitter l’entreprise en juillet 2019.
Malgré sa réputation d’activiste, Meredith Whittaker est aussi intervenue comme consultante auprès de la Maison blanche (sous Biden) de la Commission fédérale des communications (FCC), de la Federal Trade Commission (FTC), mais aussi du Parlement européen. Deux autres anciens de Google se posent aussi comme « lanceurs d’alerte de l’IA ». Timnit Gebru, 42 ans, avait rejoint le géant de Mountain View en 2018 en tant que co-responsable de l’équipe « éthique de l’intelligence artificielle ». Mais, ayant rédigé sur ce thème un article académique qui a déplu à sa hiérarchie, elle en a été licenciée fin 2020. Un an plus tard, en décembre 2021, elle a fondé l’institut DAIR (pour Distributed Artificial Intelligence Research) afin de promouvoir une recherche sur l’IA libérée de l’influence des grandes entreprises technologiques. D’origine éthiopienne, elle milite également contre le manque de diversité dans le secteur de l’IA.
Le second « défecteur » est d’un autre calibre. Geoffrey Hinton, 77 ans, de nationalités britannique et canadienne, est considéré comme un des pères de l’IA, ce qui lui a valu le prix Nobel de physique en 2024. Il est aujourd’hui le deuxième scientifique vivant le plus cité au monde, toutes disciplines confondues. Parallèlement à ses travaux à l’université de Toronto, il a été salarié de Google à partir de mars 2013, avant d’en démissionner avec fracas dix ans plus tard, en mai 2023, pour pouvoir « s’exprimer librement sur les risques de l’IA ». Il a alors exprimé ses préoccupations concernant l’utilisation de l’IA par des acteurs malveillants, le chômage technologique et même les risques pour l’humanité. Il a réitéré ses craintes après avoir reçu le prix Nobel, appelant à des recherches urgentes en sécurité de l’IA afin de contrôler des systèmes devenus plus intelligents que les humains.
En 2018, il avait reçu le prix Turing, considéré comme le Nobel de l’informatique, aux côtés du franco-américain Yann Le Cun et du canadien Yoshua Bengio, pour leurs travaux révolutionnaires sur les réseaux de neurones. Mais sur les trois lauréats, Le Cun, directeur de la recherche fondamentale chez Meta depuis fin 2013, se distingue aujourd’hui par une vision résolument optimiste et rassurante du développement de l’IA, et s’oppose publiquement à ses deux collègues, qui prônent la prudence voire l’arrêt temporaire des recherches, preuve des profondes divisions du monde scientifique sur l’IA.
Un outil imparfait
L’informaticien Luc Julia, très impliqué dans l’IA pour avoir co-conçu Siri, assistant vocal développé par Apple, estimait malgré tout en 2019 que « l’IA est une débauche de données et d’énergie pour faire des choses très limitées ». En 2025 il est vent debout contre les IA génératives du type ChatGPT ou Perplexity. Dans une interview au magazine français La Tribune Dimanche du 27 juillet, il les qualifie de « machines qui mangent toutes les données produites sur Internet, dont celles qui proviennent des IA elles-mêmes, qu’elles soient vraies ou fausses ». De ce fait elles comportent de plus en plus d’erreurs. Il cite un calcul d’OpenAI, selon lequel la pertinence des données, qui n’était que de 66 pour cent en 2023, a baissé de deux points depuis. « Elles peuvent nous rendre complètement idiots si on considère qu’elles ont la science infuse et qu’elles savent tout. Il faut garder son esprit critique et inculquer le doute », poursuit-il. Une bonne raison pour éviter de trop se reposer sur elles, comme le font certaines personnes qui les utilisent en tant que « coach psy ». De plus, Luc Julia, qui est franco-américain, observe que, les « fabricants d’algorithmes » étant pratiquement tous américains, toutes les données des IAG sont biaisées. « Une réponse de ChatGPT sera celle destinée à un écolier de la côte ouest des États-Unis », déplore-t-il, en recommandant que « nous aussi, nous biaisions les données pour avoir une bonne petite IA européenne, car si on ne fait pas ça, notre culture va s’affaiblir ».