Meilleures Actions
Histoires Web mardi, septembre 30
Bulletin

La Silicon Valley est désormais soumise à une loi californienne contre les dangers de l’intelligence artificielle (IA). Le « Golden State », où sont basés les géants américains des technologies tels que Google, Meta, OpenAI (ChatGPT) et Anthropic, a mis en place, lundi 29 septembre, une législation majeure de régulation de l’IA, un an après le rejet d’un autre texte qui avait été jugé trop défavorable à l’innovation.

Le gouverneur démocrate, Gavin Newsom, a annoncé avoir promulgué la loi SB 53, arguant avoir trouvé un équilibre « qui aide l’Etat de Californie à encourager l’innovation tout en protégeant la sécurité publique ».

Le texte est publié au moment où des dizaines de milliards de dollars d’investissement dans l’IA affluent dans la Silicon Valley mais où croissent aussi les inquiétudes sur les dérives possibles des modèles les plus avancés.

Lire aussi (2024) | Article réservé à nos abonnés En Californie, bataille sur la réglementation de l’IA

La loi promulguée lundi impose des obligations de transparence quasi inédites pour les entreprises développant les modèles d’IA les plus complexes, en les contraignant de rendre public leurs protocoles de sécurité, de signaler les incidents graves en moins de quinze jours et de protéger les lanceurs d’alerte.

Le texte, décrit par ses promoteurs comme inédit à l’échelle mondiale, oblige les entreprises à signaler les comportements trompeurs dangereux de l’IA pendant les tests. Par exemple, si un modèle ment sur l’efficacité des contrôles conçus pour l’empêcher d’aider à fabriquer des armes biologiques ou nucléaires, les développeurs doivent dévoiler l’incident s’il augmente considérablement les risques de dommages.

« Des progrès inquiétants dans toutes les catégories de menaces »

« Les propres rapports des entreprises de pointe de l’IA révèlent des progrès inquiétants dans toutes les catégories de menaces », soulignait en juin le groupe de réflexion mis en place par le gouverneur Newsom pour affiner le texte sous l’égide d’experts de renom, dont Fei-Fei Li de l’université Stanford, surnommée la « marraine de l’IA ».

Le sénateur démocrate local à l’origine du texte, Scott Wiener, avait vu son précédent projet rejeté in extremis par un veto du gouverneur en 2024. Son texte initial avait profondément divisé la Silicon Valley, dont certains leaders l’accusaient de risquer de faire fuir les innovateurs dès le début de la « révolution de l’IA ».

Lire aussi (2024) | Article réservé à nos abonnés Le gouverneur de Californie met son veto à la loi sur la sécurité de l’IA

La nouvelle loi californienne entre par ailleurs en vigueur après l’échec de l’administration Trump de bloquer toute régulation de l’IA par des Etats américains, au motif qu’elle ralentirait le pays dans sa compétition avec la Chine.

Pour le sénateur Wiener, sa loi a aussi le mérite de rendre publics les protocoles de sécurité, là où le texte de référence de l’Union européenne, certes plus contraignant, limite leur transmission aux autorités.

Lire aussi | Article réservé à nos abonnés L’entrée en vigueur de l’IA Act, nouveau terrain d’affrontement entre l’Europe et les Etats-Unis

Avant la promulgation du texte, plusieurs géants californiens de l’IA, dont Meta, Google, OpenAI et Anthropic (à l’origine du modèle Claude) avaient pris des engagements volontaires pour mener des tests de sécurité et pour bâtir des protocoles robustes. La nouvelle loi californienne codifie et étend ces engagements.

Le Monde avec AFP

Réutiliser ce contenu

Share.
© 2025 Mahalsa France. Tous droits réservés.