L’idée que Google, l’entreprise qui en sait sans doute encore plus que Facebook sur tout un chacun de nous, s’associe au Pentagone pour y déployer ses recherches avancées en matière d’intelligence artificielle, inquiète. À l’échelle de Google, le contrat de neuf millions de dollars signé avec l’armée américaine pour améliorer l’analyse des images filmées par les drones, est somme toute modeste (d’ailleurs, d’autres segments de cette recherche, appelée Maven, ont été adjugés à des concurrents de Google comme Microsoft ou Amazon). Mais ce qui est sans doute encore plus inquiétant, c’est que la direction d’Alphabet, la holding qui chapeaute les différentes activités nées de la galaxie Google, a choisi dans un premier temps de ne pas en faire état et que son existence n’a été connue que parce que de nombreux employés l’ont estimé incompatible avec la devise historique « Don’t be evil » du groupe. Une controverse aiguë a agité ces dernières semaines le campus de Mountain View, DeepMind, l’entreprise londonienne d’intelligence artificielle rachetée en 2014, et la communauté des employés de Google à travers le monde. Les médias ont fini par être alertés. La publication techno Gizmodo a été la première à en faire état, à la mi-mai, après avoir signalé dès début mars l’existence du contrat et le débat naissant au sein de la firme. Le New York Times y consacre cette semaine une enquête détaillée.
En rachetant DeepMind, Google avait annoncé la couleur : la firme entendait jouer dans la cour des grands en matière d’intelligence artificielle. Ce sont ses chercheurs qui ont conçu le programme qui a triomphé pour la première fois des meilleurs champions de go, le jeu qui avait résisté jusque-là aux efforts, perçus plutôt avec bienveillance, de « faire gagner la machine ». Mais que l’intelligence artificielle aide
l’armée américaine a affûter ses armes est d’un autre acabit. Alors que certains employés de Google ont estimé normal que la firme participe à ce marché, y voyant un indispensable levier de croissance, d’autres, nombreux, ont estimé qu’il s’agit d’une ligne rouge à ne pas franchir. Des discussions globales du vendredi entre direction et employés, dont est particulièrement fière la firme de Mountain View, ont porté sur l’opportunité de se mouiller dans une activité aussi périlleuse pour sa réputation. Au moins une douzaine d’employés, dont certains des experts reconnus en matière d’intelligence artificielle, ont préféré démissionner.
La ligne adoptée par la direction, à savoir que Google ne participait qu’à un programme défensif, s’est vite avérée intenable. En matière militaire, il n’est pratiquement jamais possible de tracer une ligne nette entre ce qui est offensif et défensif, et mieux vaut assumer qu’un contrat militaire peut, par définition, aider une armée à tuer. Faut-il renoncer à la perspective juteuse d’engranger d’autres contrats auprès du Pentagone ou faire prévaloir les considérations morales ? 4 000 employés ont signé une pétition demandant « une déclaration claire que ni Google ni ses sous-traitants ne développeront jamais de technologie guerrière ». Des dirigeants de DeepMind, sans doute conscients davantage que les autres salariés de Google des risques de dérapage, ont exprimé leur opposition à tout travail dans le domaine de l’action militaire ou de la surveillance, ce qui a d’ailleurs fait l’objet d’une clause dans le contrat de rachat de DeepMind, a rapporté le New York Times.
Sans doute est-il incontournable que le Pentagone dépense des milliards de dollars pour s’équiper en intelligence artificielle et trouve des experts prêts à l’aider dans cette tâche. Mais en s’engageant dans cette voie, Google joue gros. Son fonds de commerce, le formidable trésor d’informations que lui confient des citoyens et des entreprises du monde entier en échange de services qui leur facilitent la vie, n’a de valeur que si ces utilisateurs continuent de lui faire confiance. Une confiance que la bavure d’un drone causée par une intelligence artificielle signée Google pourrait ébranler en l’espace d’un tir de missile.