Sous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificielle (IA) promet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention.

Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions.

La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension.

Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données (RGPD) – bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental.

Lire aussi | Article réservé à nos abonnés L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens

De nombreuses études confirment les risques : stress accru des salariés sous écoute permanente, autocensure, affaiblissement des échanges spontanés, rupture de confiance, déshumanisation du travail. S’y ajoutent des biais matériels ou algorithmiques, comme la compression numérique, le filtrage des fréquences, l’altération du timbre par les réseaux téléphoniques ou par VoIP [« voix sur IP », une technique qui permet de transmettre des appels sur Internet], qui pénalisant certains accents, voix féminines ou styles culturels.

Il vous reste 50.04% de cet article à lire. La suite est réservée aux abonnés.

Share.
Exit mobile version