
Docteur en droit, Damien Charlotin enseigne à l’Ecole des hautes études commerciales (HEC) de Paris et à Sciences Po Paris, où il conduit des recherches sur l’adaptation du droit et des juristes à la technologie et à l’intelligence artificielle (IA). Depuis le début de l’année, il tient à jour sur son site une base de données des cas problématiques d’utilisation d’IA par des juristes.
Vous avez fait une liste des cas d’« hallucination » de l’IA dans des affaires juridiques. De quoi s’agit-il exactement ?
Au tribunal, les avocats s’appuient toujours sur des affaires déjà jugées pour soutenir leur défense. La base de données que j’ai créée recense les cas où, lors de plaidoiries, certains d’entre eux ont présenté au juge une jurisprudence inventée ou erronée en raison des « hallucinations » d’un outil d’intelligence artificielle qu’ils avaient mal utilisé : soit la décision de justice présentée n’existe pas, soit le verbatim de celle-ci est faux, soit elle a été sortie de son contexte et utilisée à tort.
Il vous reste 75.42% de cet article à lire. La suite est réservée aux abonnés.




