Internet, autrefois un espace construit par des créateurs humains, est rapidement envahi par un déluge de contenus de mauvaise qualité générés par l’IA – souvent appelés « slop de l’IA ». Des tendances alimentaires bizarres aux documents de recherche fabriqués, ce matériel synthétique inonde les médias sociaux, les résultats de recherche et même les revues universitaires. Alors que l’IA façonne discrètement les expériences en ligne depuis des années, la récente explosion des outils génératifs a accéléré le problème, soulevant de sérieuses questions sur l’authenticité, la qualité et l’avenir de la créativité humaine.
L’essor de l’IA Slop : une marée noire numérique
Les slops de l’IA ne sont pas seulement un plaisir inoffensif ; c’est une perturbation fondamentale. Elle se caractérise par des erreurs, des informations fabriquées et un manque général de nuances, souvent produites à une échelle non durable. Une étude récente de CNET a révélé que 94 % des utilisateurs de médias sociaux américains rencontrent quotidiennement du contenu généré par l’IA, mais que seulement 11 % le trouvent utile ou divertissant. La facilité avec laquelle l’IA peut créer du contenu signifie que les mauvaises informations se propagent plus rapidement que jamais, certains comptes médiocres engrangeant des millions de revenus publicitaires.
Il ne s’agit pas seulement de vidéos ennuyeuses de faux lapins sur des trampolines ; il s’agit de l’érosion de la confiance dans l’information en ligne. Les outils de traduction basés sur l’IA menacent les traducteurs humains, tandis que la « recherche » générée par l’IA inonde les revues universitaires, y compris des exemples de données fabriquées et d’images absurdes. Le problème s’étend aux moteurs de recherche, où les résumés de l’IA présentent avec assurance de faux faits.
Les créateurs ripostent : compétence humaine contre imitation algorithmique
En réponse, les créateurs réagissent activement. Rosanna Pansino, une pâtissière chevronnée avec plus de 15 ans d’expérience en ligne, a lancé une série recréant des vidéos virales d’IA sur les restes de nourriture dans la vraie vie. Son objectif ? Mettre en évidence les détails minutieux derrière la création authentique par rapport à la gratification instantanée de la génération d’IA. Par exemple, elle a parfaitement reproduit une vidéo générée par l’IA de rondelles de pêche gommeuses étalées sur du pain grillé en fabriquant des rondelles de beurre à la main, en les congelant et en appliquant méticuleusement la bonne texture et la bonne couleur.
C’est plus qu’un coup monté ; c’est une déclaration. Le travail de Pansino souligne la valeur irremplaçable de la créativité humaine, rappelant au public les efforts nécessaires à la création d’un contenu authentique. D’autres créateurs, comme Jeremy Carrasco, démystifient activement les vidéos virales d’IA, révélant des signes révélateurs de manipulation synthétique, tels que des sauts et des problèmes défiant la physique.
Le front technologique : étiquetage, filigrane et au-delà
Le combat ne concerne pas seulement les créateurs ; il s’agit de développer des outils pour identifier et atténuer les dérives de l’IA. Plusieurs approches sont testées :
- Étiquetage : Exiger que le contenu généré par l’IA soit clairement divulgué. Bien qu’il s’agisse d’une étape nécessaire, l’étiquetage seul ne suffit pas.
- Filigrane : Intégration de signatures invisibles dans le contenu numérique pour vérifier son authenticité. La Coalition pour la provenance et l’authenticité du contenu s’efforce de normaliser ce processus, mais des incohérences demeurent.
- Filigrane basé sur la lumière : Des chercheurs de l’Université Cornell ont développé une méthode permettant d’intégrer des filigranes directement dans des sources lumineuses, ce qui rend difficile leur suppression des séquences vidéo.
- Vérification de la plateforme : LinkedIn a connu un certain succès avec la vérification des utilisateurs, mais les outils d’automatisation basés sur l’IA continuent de générer de faux comptes et d’adopter des comportements trompeurs.
L’avenir de l’authenticité : un effort collectif
La crise des déchets d’IA ne sera pas résolue par une solution unique. Cela nécessite une approche multidimensionnelle impliquant les plateformes, les créateurs, les chercheurs et les décideurs politiques. Le problème est systémique et la seule façon de le combattre passe par une action collective – depuis le développement de meilleurs outils de détection jusqu’au plaidoyer en faveur de l’éducation aux médias et à la régulation de la propagation de la désinformation.
Internet a été construit sur la créativité humaine, et la perdre signifierait perdre quelque chose d’essentiel. Qu’il s’agisse de Pansino qui se bat contre la machine ou de scientifiques qui insèrent des filigranes dans la lumière, la lutte pour récupérer l’authenticité ne fait que commencer.
