
De faux lapins sur un trampoline. Le brainrot italien. Un coup d’Etat inventé en France. Les dernières pubs Coca-Cola et McDonald’s. Les clips de propagande de Donald Trump. Tibo InShape qui s’amuse de publications racistes qui le mettent en scène. Ces vidéos, toutes générées par intelligence artificielle (IA), ont rythmé l’actualité des derniers mois. Mais les contenus créés par IA alimentent aussi au quotidien les flux des utilisateurs de la plupart des réseaux sociaux, qui n’en ont pas forcément conscience.
Les indices sont nombreux. Au printemps, une analyse des dix chaînes YouTube les plus populaires aux Etats-Unis établissait que quatre d’entre elles postaient systématiquement des vidéos générées par IA, essentiellement musicales. En novembre, un porte-parole de TikTok évoquait le chiffre d’1,3 milliard de telles vidéos recensées sur le réseau social.
Aux origines de ce raz-de-marée : la démocratisation des outils techniques de création vidéo par IA générative. Ils se nomment Veo (lancé par Alphabet), Sora (OpenAI), CapCut (Bytedance), MovieGen (Meta) ou encore Grok (xAI), et sont directement intégrés dans les solutions d’IA grand public (Gemini, ChatGPT, Meta AI…). Avec une simple consigne écrite, ceux-ci permettent de faire des vidéos en quelques minutes – en quelques mois, leur réalisme a fait un bond en avant spectaculaire.
Or, la plupart des entreprises derrière ces technologies sont aussi celles qui gèrent les réseaux sociaux les plus populaires : YouTube, TikTok, Facebook, Instagram et X. Des groupes qui ont « besoin de prouver que l’IA a un but, et fourrent pour cela des outils dans les mains des utilisateurs », remarque Alexios Mantzaris, chercheur spécialisé en désinformation pour le site Indicator. Selon lui, la manœuvre sert à « justifier leur valorisation dopée à l’IA », alors que les doutes se renforcent sur la bulle qui pourrait menacer le secteur.
Il vous reste 69.32% de cet article à lire. La suite est réservée aux abonnés.












