Le Sommet pour l’action sur l’intelligence artificielle (IA) organisé par la France et l’Inde, lundi 10 et mardi 11 février, à Paris, a tenté de poser les fondements d’une coordination multilatérale afin d’encadrer l’émergence d’une technologie dont l’impact reste difficile à évaluer. Au-delà des annonces d’investissements, des bonnes intentions et de la multitude d’interrogations restant encore sans réponse, cette tentative louable se heurte à de fortes divergences d’approche, qui n’ont pas permis de dépasser les enjeux de puissance et de souveraineté que redessine l’IA.
Une soixantaine de pays ont signé la déclaration finale, qui appelle à une intelligence artificielle « ouverte », « inclusive » et « éthique ». Ces trois notions renvoient à un socle commun pour maintenir un dialogue sur les évolutions de cette technologie, éviter une concentration des acteurs qui la maîtrisent et œuvrer pour qu’elle soit compatible avec les objectifs climatiques et le développement humain.
Ces grands principes demeurent généraux et l’efficacité de cette ébauche de gouvernance reste à démontrer. Il s’agit néanmoins d’un point de départ indispensable pour encadrer une technologie, certes prometteuse, mais qui est en même temps excessivement énergivore, capable de manipuler les opinions, d’exercer une surveillance dangereuse pour les libertés publiques, de déstabiliser le marché du travail, voire de tuer, lorsqu’elle est intégrée à des systèmes d’armement.
Ces précautions minimales ne sont pourtant pas unanimement partagées. Deux pays majeurs, le Royaume-Uni et, surtout, les Etats-Unis, leader mondial de l’IA, ont refusé de signer cette déclaration finale. Londres juge que les initiatives prises ne vont pas dans le sens de l’« intérêt national » britannique. Le vice-président américain, J. D. Vance, lui, a appelé à limiter la régulation pour « ne pas tuer une industrie en plein essor », tout en mettant en garde l’Europe contre des partenariats avec les « régimes autoritaires », pointant, sans la nommer, la Chine.
La régulation peut aider l’innovation
Fixer un cadre minimal à l’IA n’est pas incompatible avec l’innovation. En opposant les deux notions, les Etats-Unis cherchent surtout à préserver leur avance dans ce domaine sans se soucier de son impact. La régulation peut même aider l’innovation. La législation européenne sur les marchés numériques, qui vise à lutter contre les pratiques anticoncurrentielles des géants d’Internet, peut se révéler utile pour éviter que ces entreprises monopolisent l’accès à l’IA en favorisant leurs propres systèmes au détriment de nouveaux entrants.
Concernant le risque chinois, J. D. Vance n’a pas forcément tort, mais il ne s’agit pas pour autant que l’Europe se place sous la dépendance des Etats-Unis. C’est une question de souveraineté, mais aussi de façon d’envisager l’IA.
Ce sommet a été l’occasion pour l’Union européenne (UE) et la France d’annoncer des investissements colossaux. Cette surenchère de moyens ne peut toutefois pas être une finalité. L’exemple de l’entreprise chinoise d’IA DeepSeek montre que plus n’est pas forcément mieux. L’UE doit aussi proposer des alternatives au modèle américain, en misant sur l’IA en source ouverte, sur la frugalité énergétique, la sécurité et la transparence des systèmes. Il s’agit aussi de financer des voies de recherche non couvertes par les géants américains, dans une approche capable de répondre aux besoins des pays du Sud. Ce sommet esquisse une troisième voie qu’il est nécessaire d’explorer.