Deepfakes, algorithmes manipulateurs, surveillance de masse : face à l'accélération incontrôlée de l'IA, l'Organisation des Nations unies se dote pour la première fois d'un groupe d'experts scientifiques sur le modèle du Giec. Une initiative historique qui divise déjà les grandes puissances.
L'intelligence artificielle progresse si vite qu'elle semble parfois échapper à tout contrôle humain. Deepfakes indétectables, algorithmes de recommandation manipulant les élections, systèmes de surveillance de masse : les dérives s'accumulent tandis que la technologie continue de s'accélérer dans une course effrénée menée par les géants technologiques. Face à cette situation, l'Organisation des Nations unies (ONU) a franchi une étape historique le 26 août dernier. Pour la première fois de son histoire, l'institution internationale s'est dotée d'un groupe d'experts scientifiques dédié à l'intelligence artificielle, sur le modèle du célèbre Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) qui éclaire depuis des décennies les politiques climatiques mondiales.
Dans les pas du Giec
Le nouveau groupe d'experts puise directement ses racines dans le « Pacte pour l'avenir », adopté en septembre 2024 lors d'un sommet historique qui a rassemblé les dirigeants mondiaux à New York. En 1988, le Giec avait réussi à imposer une expertise scientifique comme socle des négociations climatiques internationales. Le principe reste identique : quarante experts scientifiques, issus de toutes les régions du monde et siégeant à titre personnel pour garantir leur indépendance, auront pour mission de synthétiser les recherches existantes sur les promesses et les risques de l'IA. Leur travail se matérialisera par des rapports annuels qui éclaireront les décisions politiques sans pour autant les imposer - une approche délibérément non prescriptive qui laisse aux États leur souveraineté tout en leur fournissant une base scientifique commune. Mais l'ONU ne s'arrête pas là : en parallèle de ce groupe scientifique, elle met également en place un « Dialogue mondial sur la gouvernance de l'IA », une plateforme d'échanges permanente où gouvernements, entreprises et société civile pourront confronter leurs expériences et leurs bonnes pratiques. Cette architecture à deux étages - expertise d'un côté, dialogue de l'autre - dessine les contours d'une gouvernance mondiale inédite pour une technologie qui ne connaît pas de frontières.
Divergences ouvertes
Malgré l'adoption officielle par « consensus » de cette résolution, les fissures sont apparues dès les premières déclarations. L'Argentine s'est immédiatement dissociée du texte, jugeant certains éléments incompatibles avec sa politique nationale en matière d'IA. Mais c'est surtout la réaction américaine qui révèle les tensions sous-jacentes : Washington a dénoncé avec virulence ce qu'elle perçoit comme une tentative de « censure » et de « bâillonnement de l'innovation ». Les États-Unis rejettent catégoriquement les efforts des instances intergouvernementales visant à « exercer une influence indue sur la gouvernance de l'intelligence artificielle », rappelant que les décisions du groupe d'experts ne sont de toute façon non contraignantes. Cette opposition frontale illustre un dilemme fondamental : comment concilier la nécessité d'une régulation globale pour une technologie sans frontières avec les ambitions nationales des puissances technologiques ? La Chine, premier rival des États-Unis dans la course à l'IA, n'a pour l'instant pas exprimé publiquement d'opposition, mais son silence pourrait masquer des réserves similaires. L'Europe, elle, semble davantage alignée sur l'approche multilatérale, forte de son expérience avec l'AI Act, sa propre réglementation sur l'intelligence artificielle entrée en vigueur cette année. Ce clivage géopolitique pose une question cruciale : l'initiative onusienne parviendra-t-elle à éviter la fragmentation réglementaire qui menace déjà de diviser le monde numérique en blocs technologiques rivaux ?