Les audits, c’est aussi simple qu’une question à ChatGPT. C’est, en tout cas, la méthode utilisée par deux affidés d’Elon Musk engagés par le défunt DOGE – le département de l’efficacité gouvernementale – pour aller sabrer, début 2025, dans les bourses normalement octroyées à l’abri de toute ingérence politique par la Fondation nationale pour les sciences humaines (National Endowment for the Humanities, NEH), agence fédérale indépendante des Etats-Unis qui finance et soutient les sciences humaines.
Comme le révèle une enquête du New York Times publiée le 7 mars, Justin Fox et Nate Cavanaugh, les deux employés mis en cause, ont eu recours au robot conversationnel d’OpenAI pour pister les dons ayant été, selon eux, accordés selon des critères de diversité, d’équité et d’inclusion (DEI), en lui posant une question simple : « Ce qui suit a-t-il un lien quelconque avec la DEI ? Répondez de manière factuelle en moins de 120 caractères. Commencez par “oui” ou “non”. »
Il vous reste 82.9% de cet article à lire. La suite est réservée aux abonnés.











