Meilleures Actions
Histoires Web mercredi, juillet 17
Bulletin

Rembobinons jusqu’au 4 juin. Nous sommes en plein tournoi de tennis de Roland-Garros. Après son forfait, le tennisman Novak Djokovic annonce son opération au genou mais bizarrement, pour l’outil d’intelligence artificielle (IA) ChatGPT 4, il « va bien. (…) Il a eu quelques blessures par le passé mais s’est bien rétabli ».

Le lendemain de l’annonce de son opération du genou, Djokovic « va bien ». A l’inverse, pour ChatGPT, son rival Zverevev est blessé à la cheville – une entorse en réalité guérie en 2022.

Ce n’est qu’un exemple, mais il illustre bien l’un des défauts-clés des IA textuelles génératives : elles « hallucinent ». Traduction : elles font des erreurs. Même la communauté scientifique a recours à ce terme, bien qu’il soit contesté. Déjà parce que sa formulation laisse entendre que ces outils ont une personnalité, mais aussi parce qu’il est considéré comme trop large le terme agrège aussi bien des inventions radicales, tels des livres jamais écrits, que les erreurs factuelles ou logiques.

Des erreurs ou des « hallucinations » donc, les IA génératives en font. Cela n’a pas pour autant dissuadé Google d’intégrer mi-mai sa propre IA, Gemini, à son moteur de recherche. La France n’est pas encore concernée mais, aux Etats-Unis, Google répond désormais à certaines questions par quelques paragraphes de texte générés par IA.

Lire aussi | Article réservé à nos abonnés L’arrivée de l’IA sur le moteur Google suscite des inquiétudes

La presse américaine a réagi avec une virulence rare, des dizaines d’articles chroniquant les bourdes spectaculaires commises par l’IA de Google. La MIT Technology Review, par exemple, cite une réponse étonnante obtenue par Margaret Mitchell, chercheuse en éthique de l’IA chez Hugging Face et anciennement employée par Google : Gemini lui a assuré que le président américain Andrew Johnson aurait passé plusieurs diplômes depuis 1947. Un exploit, pour un homme mort en 1875.

Beaux parleurs

Et ce n’est pas près de s’arrêter, jugent unanimement les spécialistes interrogés par Le Monde, qui considèrent même ces erreurs comme « inévitables ». La faute aux grands modèles de langage (ou LLM, pour Large Language Model), placés au cœur de ces systèmes de génération de textes. Ils ont appris à estimer les probabilités d’avoir une syllabe, un mot ou une séquence de mots en fonction de ceux qui précèdent. Ces probabilités dépendent des milliards de textes introduits lors de l’apprentissage. En particulier, « si cette phase ne contient pas certains sujets, les probabilités calculées vont être petites et conduire à un choix de mots ou de séquences erroné », précise Didier Schwab, professeur à l’université Grenoble-Alpes. Le système n’a aucune notion de justesse ou de vérité et ne peut savoir que ses réponses, considérées mathématiquement comme plausibles, seront sans doute fausses, inventées ou déformées.

Il vous reste 74.26% de cet article à lire. La suite est réservée aux abonnés.

Share.
© 2024 Mahalsa France. Tous droits réservés.