Meilleures Actions
Histoires Web mercredi, octobre 22
Bulletin

Les messages d’alerte se multiplient autour des progrès de l’intelligence artificielle (IA) et des risques que cela pourrait faire encourir à l’humanité. Cette fois, ce sont plus de 800 scientifiques, personnalités politiques, entrepreneurs tech et célébrités qui appellent, mercredi 22 octobre, à l’arrêt des travaux visant au développement de la superintelligence artificielle, une IA capable de surpasser les capacités humaines.

« Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population », explique la page de l’initiative lancée par le Future of Life Institute, organisme non lucratif basé aux Etats-Unis qui met régulièrement en garde contre les méfaits de l’IA.

Parmi les signataires figurent plusieurs pères de l’IA moderne comme Geoffrey Hinton, prix Nobel de physique en 2024, Stuart Russell, professeur d’informatique à l’université de Californie à Berkeley, ou encore Yoshua Bengio, professeur à l’université de Montréal.

Lire aussi | Article réservé à nos abonnés « Nous allons perdre le contrôle » : comment les catastrophistes de l’IA haussent le ton

Une superintelligence d’ici à cinq ans, selon le patron d’OpenAI

La liste comprend aussi des figures de la tech comme Richard Branson, fondateur du groupe Virgin, et Steve Wozniak, cofondateur d’Apple ; des personnalités politiques comme Steve Bannon, ancien conseiller du président américain Donald Trump, et Susan Rice, conseillère à la sécurité nationale sous Barack Obama ; des responsables religieux comme Paolo Benanti, conseiller du pape et principal expert du Vatican sur l’IA, mais aussi des célébrités comme le chanteur américain will.i.am ou encore le prince Harry et son épouse Meghan Markle.

La plupart des grands acteurs de l’IA cherchent à développer l’intelligence artificielle générale (AGI), stade auquel l’IA égalerait toutes les capacités intellectuelles des humains, mais aussi la superintelligence, qui la verrait aller au-delà.

Lire aussi | Article réservé à nos abonnés IA : un appel mondial pour fixer des « lignes rouges »

Pour Sam Altman, patron d’OpenAI qui a donné naissance à ChatGPT, le cap de la superintelligence pourrait ainsi être atteint d’ici à cinq ans, a-t-il expliqué en septembre lors d’un événement du groupe médiatique Axel Springer.

« Construire une telle chose est inacceptable »

« Peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable », a déclaré à l’Agence France-Presse (AFP) Max Tegmark, président du Future of Life Institute, pour qui les entreprises ne devraient pas plancher sur ce type de travaux « sans aucun cadre réglementaire ».

« On peut être en faveur de la création d’outils d’intelligence artificielle plus puissants, pour guérir le cancer par exemple, tout en étant contre la superintelligence », a-t-il ajouté.

Cette action fait écho à une lettre de chercheurs et cadres du secteur de l’IA, publiée il y a un mois lors de l’assemblée générale des Nations unies, qui réclamait l’instauration d’« accords internationaux sur des lignes rouges pour l’IA » pour prévenir des effets dévastateurs pour l’humanité.

Lire aussi | Article réservé à nos abonnés Après le métavers, Mark Zuckerberg investit des dizaines de milliards de dollars dans la « superintelligence » grâce à ses résultats mirobolants

Le Monde avec AFP

Réutiliser ce contenu

Share.
© 2025 Mahalsa France. Tous droits réservés.