Meilleures Actions
Histoires Web jeudi, juillet 31
Bulletin

Les concepteurs d’intelligences artificielles (IA) auraient-ils la main verte ? Au printemps, un billet de Dario Amodei, cofondateur de l’éditeur d’intelligence artificielle d’Anthropic, comparait leur travail à l’art de faire pousser des plantes. On sélectionne l’espèce, le terrain et on choisit la quantité d’eau et de soleil en suivant attentivement les conseils des botanistes les plus influents, afin de créer « les conditions optimales pour orienter leur forme et leur croissance », observait-il. « Mais la structure exacte qui en ressort est imprévisible », ajoutait-il, et notre compréhension de son fonctionnement est « pauvre ». Tout le contraire d’un programme informatique classique, dont les concepteurs peuvent expliquer les mécanismes dans le moindre détail.

Une autre image, moins champêtre, revient aussi souvent chez les scientifiques pour qualifier les IA : la « boîte noire ». Une analogie qui amuse Thomas Fel, chercheur français spécialisé dans leur compréhension, à l’université de Harvard. « Paradoxalement, elles sont plutôt transparentes », sourit-il, car entièrement composées de valeurs numériques parfaitement lisibles.

En théorie, une IA devrait être plus facile à comprendre qu’un cerveau humain car ses « neurones » sont plus rudimentaires : ils se résument à de simples petits calculateurs stockant des centaines de valeurs numériques, leur indiquant dans quel cas ils doivent réagir aux signaux de leurs voisins. Sans compter qu’on peut « les ouvrir et les maltraiter » sans recueillir le consentement du patient, ajoute Ikram Chraibi Kaadoud, chercheuse en « IA de confiance » l’Institut national de recherche en informatique et en automatique (Inria) à l’université de Bordeaux.

Etudier le comportement des neurones

Il vous reste 78.56% de cet article à lire. La suite est réservée aux abonnés.

Share.
© 2025 Mahalsa France. Tous droits réservés.