Meilleures Actions
Histoires Web mercredi, février 5
Bulletin

Google a mis à jour, mardi 4 février, ses principes gouvernant le développement de l’intelligence artificielle (IA), retirant sa promesse de se tenir à distance des armes et des systèmes de surveillance. Dans son billet de blog listant ses engagements, l’entreprise a supprimé la section mentionnant les « applications de l’IA que Google n’entend pas développer », qui incluaient justement ces secteurs.

Les anciens principes, toujours accessibles dans une version archivée du billet, stipulaient que Google ne développerait pas les applications de l’IA dans plusieurs domaines : « Les armes ou autres technologies dont l’objectif principal (…) est de blesser des personnes », « les technologies qui recueillent ou utilisent des informations à des fins de surveillance en violation des normes internationalement acceptées » et « les technologies dont le but contrevient aux principes largement acceptés du droit international et des droits humains ».

Désormais, seule l’intention de « s’aligner sur les objectifs des utilisateurs, la responsabilité sociale et les principes largement acceptés du droit international et des droits de l’homme ».

Un porte-parole de Google, contacté par l’Agence France-Presse, a refusé de commenter, renvoyant simplement au rapport intitulé L’IA responsable, publié mardi par James Manyika, vice-président de l’entreprise, et Demis Hassabis, patron de la filiale d’IA Google DeepMind. « Il y a une compétition mondiale pour le leadership en matière d’IA dans un paysage géopolitique de plus en plus complexe, écrivent les deux dirigeants. Et nous pensons que les entreprises, les gouvernements et les organisations qui partagent ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale. »

Un tournant par rapport aux engagements de 2018

Les principes initiaux de Google concernant les usages potentiels de ses technologies d’intelligence artificielle avaient été publiés en juin 2018, après que 3 100 salariés de la société avaient demandé à mettre fin à la participation du groupe au projet « Maven », un programme de recherche du Pentagone sur des drones militaires. Plus récemment, des contrats conclus par Google pour fournir des services de cloud aux armées américaine et israélienne avaient déclenché des protestations en interne, suivies de licenciements.

Lire aussi | Google s’engage à ne pas mettre ses technologies d’intelligence artificielle au service de l’armement

Le changement de politique opéré mardi survient alors que Donald Trump a annulé, dès son premier jour, un décret pris par son prédécesseur, Joe Biden, encadrant la sécurité en matière d’IA. Les sociétés du secteur ont depuis moins d’obligations : elles n’ont plus besoin, par exemple, de communiquer les résultats de tests quand leurs programmes présentent « un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique ».

Depuis l’élection américaine, les patrons de la tech ont été nombreux à afficher leur soutien au nouveau président et ont revu certains de leurs engagements antérieurs. A l’instar du revirement du patron de Meta, Mark Zuckerberg, sur les politiques de modération.

Lire aussi | Article réservé à nos abonnés Après Musk et Bezos… Zuckerberg : la tech en ordre de marche derrière Trump

Le Monde avec AFP

Réutiliser ce contenu

Share.
© 2025 Mahalsa France. Tous droits réservés.