Meilleures Actions
Histoires Web samedi, décembre 21
Bulletin

Emily M. Bender est linguiste, professeure et directrice du laboratoire de linguistique informatique à l’université de Washington. En mars 2021, elle a écrit – avec les chercheurs en éthique Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell – un article titré « Perroquets stochastiques », devenu célèbre dans le secteur de l’intelligence artificielle (IA). Le texte alertait sur les limites et les risques liés aux grands modèles de langage, des logiciels popularisés depuis dans les robots conversationnels comme ChatGPT. Il pointait du doigt les erreurs, les biais ou le coût environnemental lié au gigantisme de ces systèmes… Aujourd’hui, Mme Bender reste très critique sur l’évolution du secteur de l’IA, dont elle dénonce la « hype » dans un podcast animé avec la sociologue Alex Hanna.

Avec le recul, pensez-vous avoir vu juste dans votre article de 2021 sur les risques des grands modèles de langage ?

On me demande souvent plutôt ce que ça fait de voir nos prédictions s’être réalisées. Je réponds que ce n’étaient pas des prédictions mais des mises en garde. Donc ce n’est pas agréable d’avoir perçu le début de cette course vers des modèles de langage toujours plus grands, d’avoir identifié leurs défauts potentiels, et ensuite d’avoir vu les gens se lancer dedans malgré tout.

Mais nous avons raté certaines choses. Nous n’avions pas saisi à quel point, derrière la création de ces systèmes, il y a de l’exploitation dans les conditions de travail [chez les employés de sous-traitants qui annotent les données, notent les réponses ou modèrent les contenus problématiques des IA]. Et nous n’avions pas imaginé à quel point le monde serait enthousiasmé par le texte synthétique.

Lire aussi | Le licenciement polémique de Timnit Gebru, qui travaillait chez Google sur les questions d’éthique liées à l’IA

Vous critiquez la course vers des modèles toujours plus grands, mais c’est aussi ce qui les a rendus meilleurs. Aurait-il fallu ne pas les développer ?

Ce n’est pas certain qu’ils soient meilleurs. Ils sont meilleurs pour imiter du texte humain. Mais je ne sais pas à quoi cela sert. Il n’y a pas d’évaluations claires montrant que, pour tel usage, cela nous donne de meilleurs résultats.

Les modèles de langue sont une vieille technologie, qui remonte aux travaux du chercheur américain Claude Shannon dans les années 1940. Dans leur usage originel, ces modèles ont un rôle important dans les systèmes de transcription automatique, de correction orthographique ou de traduction automatique. Mais nous avons largement dépassé la masse de données d’entraînement nécessaire pour être performant sur ces tâches. Et si nous souhaitons fabriquer des technologies fiables, nous devons pouvoir savoir ce qu’il y a dedans. Et en 2020 déjà, nous avions dépassé la quantité de données d’entraînement où cela est possible.

Il vous reste 78.45% de cet article à lire. La suite est réservée aux abonnés.

Share.
© 2024 Mahalsa France. Tous droits réservés.