Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.
Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").
En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.
Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.
La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).
Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.
- Se mettre au diapason -
Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.
"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.
"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."
Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".
Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.
"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.
Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.
Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.
Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.
Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.
"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.
Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.
Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.
張-H.Zhāng--THT-士蔑報