Après la victoire d'AlphaGo

Quels garde-fous pour l’intelligence artificielle ?

d'Lëtzebuerger Land vom 25.03.2016

Rien de tel qu’un tournoi hypermédiatisé entre un homme et une machine pour propulser sur le devant de la scène le débat sur les perspectives de l’intelligence artificielle. AlphaGo, l’ordinateur préparé par Google, a donc battu ce mois-ci l’humain Lee Sedol, grand champion de go, par quatre parties à une, démontrant que dorénavant mêmes des domaines sur lesquels les machines se sont jusqu’ici cassé les dents peuvent être maîtrisés par elles si on y met suffisamment de ressources et d’apprentissage. La victoire d’AlphaGo est sans doute un jalon vers ce que l’inventeur et auteur américain Ray Kurzweil appelle la « singularité », le basculement qui interviendra selon lui vers 2045 lorsque les progrès intervenus dans les domaines de l’informatique, de la génétique, des nanotechnologies, de la robotique et de l’intelligence artificielle, combinés entre eux et s’amplifiant mutuellement, mettront l’humain sur la touche par rapport à ce que parviendront alors à réaliser nos créations ou plutôt nos créatures technologiques. Quels sont les dangers liés à cette évolution, et comment s’en prémunir ? Si l’on peut s’amuser de voir un ordinateur se faire sacrer champion mondial de go, l’idée que, emportées sur leur lancée, les machines prennent le pas sur l’homme, est tout sauf réjouissante. Quels sont les garde-fous à mettre en place pour éviter que nous leur abandonnions, sans même nous en rendre compte, la clé de nos existences et nous retrouvions asservis par ce que nous avons conçu pour nous servir ?

Reconnaître que des risques de dérapage sont le corollaire de ces évolutions, c’est un premier pas sur lequel tout le monde est habituellement d’accord. Mais qui est en mesure de recueillir toutes les informations pertinentes et de tirer la sonnette d’alarme lorsque des limites inacceptables risquent d’être franchies ? Ce sont des experts disposant de connaissances avancées dans chacun des domaines technologiques concernés, capables de déceler à temps les les ruptures sociétales en gestation pouvant se traduire par des renversements des rapports de domination entre l’homme et la machine, qui doivent s’organiser pour servir de chien de garde à l’humanité.

Parmi ces organisations, le magazine TechCrunch a recensé OpenAI, The Future of Life Institute et Machine Intelligence Research Institute. Chacune travaille à sa façon à étudier les avancées de l’intelligence artificielle – sans qu’aucune d’elles ne soit pour l’instant capable de désigner avec précision quel serait un éventuel point de non-retour. Compte tenu des nombreuses bêtises qui émaillent l’histoire de l’humanité, il est donc probable que nous dépasserons un « tipping point » sans nous en rendre compte et ne pourrons alors plus que tenter de limiter les dégats.

Les perspectives ouvertes par l’intelligence artificielle sont proprement effrayantes. Techcrunch propose par exemple d’examiner la perspective que des machines apprenantes acquièrent la capacité d’interprêter assez efficacement les contenus d’Internet pour appréhender et modéliser l’histoire humaine – le tout à une vitesse et avec une précision qui feraient ressembler les facultés de sciences humaines du monde entier à d’inoffensifs rêveurs. De là à prédire et anticiper nos comportements de manière bien plus pertinente que nous-mêmes, il n’y a qu’un pas. Mais quelle serait alors le pays ou l’organisation qui pourra se prévaloir de cette compréhension et en tirer profit ? Et qui sera là pour nous prévenir qu’une ligne irréversible va ou vient d’être franchie ?

On est loin, avec ces perspectives de « course aux armements » de l’intelligence artificielle et de la robotique dans laquelle s’engageraient les grandes puissances, des récentes discussions sur le risque que les machines jouant parfaitement au go détruisent la poésie ou la philosophie inhérente à ce jeu ancestral. Pour faire contrepoids aux risques que ferait courir une telle course éperdue à l’humanité, on voudrait pouvoir faire confiance à une organisation comme OpenAI, à but non lucratif, qui se donne pour objectif de « faire avancer l’intelligence numérique de façon à ce que l’humanité dans son ensemble en profite, sans être contrainte de générer un retour financier ».

Jean Lasar
© 2024 d’Lëtzebuerger Land