Depuis plusieurs années, de manière furtive, l’intelligence artificielle (IA) s’invite dans nos vies. Elle analyse nos interactions quotidiennes. Elle transforme nos choix de consommation. Et elle intervient désormais dans la manière dont l’Etat administre nos services publics. Mais derrière les apparats de la modernité et sous prétexte d’efficacité, une menace invisible mais dont les effets sont grandissants se répand : l’usage d’algorithmes pour généraliser une surveillance de masse.

Comme souvent, les atteintes aux droits fondamentaux pèsent d’abord sur les plus fragiles. Car ce sont bien entendu les pauvres qui mériteraient d’être les plus surveillés. Qu’importe que la fraude aux prestations sociales soit plus de trente fois inférieure à celle aux cotisations sociales et à la fraude fiscale…

Ainsi, au nom de la « lutte contre la fraude », c’est dans le secteur de la protection sociale que cette notation algorithmique des personnes est mise en œuvre. Sans surprise, elle s’avère être une arme redoutable qui renforce les inégalités envers les personnes les plus vulnérables de notre société.

Profilage racial

C’est pourquoi, le 15 octobre, Amnesty International, aux côtés d’une coalition de 14 organisations menée par La Quadrature du Net, a déposé une plainte historique devant le Conseil d’Etat. Elles exigent l’arrêt immédiat de l’algorithme de notation des risques utilisé par la Caisse nationale d’allocations familiales, un dispositif qui sévit depuis 2010 pour traquer les trop-perçus dans les prestations sociales.

Relire notre enquête : Article réservé à nos abonnés Profilage et discriminations : enquête sur les dérives de l’algorithme des caisses d’allocations familiales

Depuis 2010, cet algorithme attribue un score de risque à chaque bénéficiaire, déterminant qui mérite d’être soumis à un contrôle accru. Ce système n’est pas neutre. Ils ne le sont jamais. Il repose sur des critères discriminatoires qui transforment – par défaut – les personnes vivant dans des quartiers défavorisés, les chômeurs, les personnes en situation de handicap, ainsi que les familles monoparentales comme autant de suspects.

Ce mécanisme de surveillance de masse stigmatise de manière systémique en traitant de manière spécifique certains publics en tant que fraudeurs potentiels. En 2023, La Quadrature du Net avait révélé, grâce à l’accès au code source de cet algorithme, des corrélations directes entre les critères de notation et des facteurs socio-économiques discriminants. Plus le score de risque est élevé, plus le contrôle est intensifié. Les groupes les plus fragiles de la société – ceux que la Sécurité sociale est censée protéger – deviennent ainsi les cibles privilégiées d’un dispositif spécifique et déshumanisant.

Il vous reste 57.39% de cet article à lire. La suite est réservée aux abonnés.

Share.
Exit mobile version