Meilleures Actions
Histoires Web jeudi, juin 5
Bulletin

L’intelligence artificielle (IA) est souvent saluée comme la solution aux défis les plus complexes de la médecine moderne. Qu’il s’agisse de prédire des infections chez les prématurés ou de recommander des traitements personnalisés, les outils d’IA promettent plus de précision et d’efficacité. En tant que chercheurs et médecins, nous voyons l’immense potentiel de l’IA. Mais nous constatons aussi un problème croissant : bien que l’IA soit conçue pour alléger la charge des cliniciens, elle pourrait en réalité l’aggraver.

Comme nous l’avons souligné en mars dans un article publié dans le JAMA Health Forum, on demande aux médecins d’accomplir l’impossible. L’IA s’introduit dans les hôpitaux à un rythme que les réglementations ne peuvent pas suivre. Les médecins doivent décider – souvent seuls – quand se fier aux recommandations d’un algorithme et quand les rejeter. Et si le résultat est mauvais, ce sont eux qui en portent la responsabilité.

Des recherches montrent que le public tend à blâmer davantage les médecins qui suivent une recommandation erronée d’IA que ceux qui suivent un avis humain fautif. Les médecins restent perçus comme les décideurs finaux, même lorsque la technologie échoue. Résultat : on demande aux médecins d’évaluer parfaitement la fiabilité d’outils qu’ils n’ont pas conçus et ne peuvent entièrement comprendre, tout en les tenant seuls responsables du résultat.

Lire aussi | Intelligence artificielle et médecine : des promesses et beaucoup de questions

Nous appelons cela le « dilemme surhumain du médecin ». La société attend depuis longtemps des médecins qu’ils soient infaillibles et l’IA ne fait qu’amplifier ces attentes. On demande désormais aux médecins d’interpréter instantanément des résultats algorithmiques, en naviguant entre deux risques constants : les faux positifs (faire confiance à une IA défectueuse) et les faux négatifs (rejeter une IA fiable).

« Boîtes noires »

Les voilà ainsi pris dans un double piège. S’ils suivent l’IA et que celle-ci se trompe, ils peuvent être blâmés pour avoir fait confiance à une machine. S’ils la rejettent et qu’un préjudice survient, ils peuvent être blâmés pour l’avoir ignorée. Cela ajoute de la pression, brouille leur jugement et érode la confiance, tant envers la technologie qu’envers eux-mêmes.

Il vous reste 60.99% de cet article à lire. La suite est réservée aux abonnés.

Share.
© 2025 Mahalsa France. Tous droits réservés.