Alliancy

IA : le « slop » menace-t-il aussi l’entreprise ?

 

C’est le mot de l’année selon le dictionnaire américain Merriam-Webster. Il s’est répandu comme une traînée de poudre dans le sillage de la démocratisation rapide de l’intelligence artificielle générative. Texte, image, vidéo… le « slop » s’est répandu partout, dans l’ombre de l’effet waouh amené par le développement des usages grand public de l’IA. Ce « contenu numérique de mauvaise qualité, généralement produit en grande quantité à l’aide de l’intelligence artificielle » est surtout mis en avant sur les réseaux sociaux, sans surprise, où la quantité transcende bien souvent la qualité, nourrissant du même coup le « doomscrolling », qui nous pousse à consommer les fils infinis des réseaux au-delà du raisonnable… Il réactive aussi la peur de « l’Internet Mort », selon cette théorie qui voit à terme le web devenir un espace où la créativité, l’authenticité et les informations utiles ont laissé place à des contenus produits exclusivement par les machines… pour être consommés en retour exclusivement par des machines. Mais au-delà, le mot doit nous interroger sur les pratiques en entreprise, où les comptes-rendus, les rapports, les notes d’analyse et autres contenus professionnels nourrissent de nombreux rouages. Ils sont les premiers touchés par la génération de contenus IA ces dernières années. Le gain de temps est prodigieux, mais le risque d’erreurs ou d’approximations est-il nul ? Peut-être pas plus que quand un humain est à la manœuvre… Cependant, la menace du « slop » pousse à se poser la question : pour qui et pour quoi est vraiment produit ce contenu ? La possibilité de créer beaucoup et vite ne doit pas faire oublier le sens et la valeur et l’utilité réelle, que ce soit pour l’art ou pour les milieux professionnels.

 

« Fascinant, agaçant et un peu ridicule »

 

Pour expliquer ce choix d’un mot de l’année peu élégant, le dictionnaire Merriam-Webster détaille : « Le mot slop évoque quelque chose d’humide que l’on ne veut pas toucher. Le slop s’infiltre partout », en associant le terme à l’anxiété générale que peut provoquer l’intelligence artificielle. Mais le ton porté par ce mot est vu comme moins « effrayant » que les autres considérations liées à l’IA, et dégage un aspect « plus moqueur », souligne le dictionnaire américain. Dans un échange avec l’Associated Press, Greg Barlow, le président de Merriam-Webster, estime que c’est une création logique alors que les gens trouvent « fascinant, agaçant et un peu ridicule » cet effet de bord d’une technologie aussi transformatrice.

 

Une nette majorité de contenus IA en ligne ?

 

Si le terme peut donc prêter à sourire, il reste que la situation qu’il cherche à décrire est, elle, bien réelle. En mai 2025, Ahrefs, un outil d’intelligence marketing, a ainsi fait le test en scannant environ 900 000 contenus web de langue anglaise, mis en ligne durant le mois d’avril précédent. Résultat : si 25,8 % des pages ont été détectées comme ayant été créées par des humains, 71,7 % avaient fait appel à une dose d’IA (dont plus de la moitié avec une utilisation « substantielle » ou « dominante ») et 2,5 % avaient été générées purement avec de l’IA. Le mouvement de fond est bien enclenché et n’est pas juste une vue de l’esprit ramenée à quelques contenus de mauvaise qualité perçus sur les réseaux sociaux. Ils sont le signe de la naissance d’une « économie du slop » chargée de générer des revenus publicitaires. De quoi créer peut-être un fossé grandissant entre du contenu « gratuit » et « payant » en termes de qualité des contenus disponibles sur le web.

 

Le risque du slop en cybersécurité

 

Le plus inquiétant reste l’impact de ce côté sombre de l’IA sur d’autres domaines de communication, plus éloignés du grand public. Le sujet des dissertations universitaires a ainsi été abondamment commenté face aux remises en question qu’elles demandent au corps enseignant. Mais d’autres cas s’immiscent aussi au cœur de nos entreprises. Une enquête du New York Times a ainsi montré l’étendue grandissante des erreurs amenées par l’IA dans des briefs juridiques. L’an dernier, une grande entreprise française témoignait d’ailleurs auprès d’Alliancy comment certaines de ces erreurs avaient pu coûter cher du fait de mauvais alignements de clauses dans son environnement multi-métiers. Pire encore, l’univers critique de la cybersécurité pourrait bien faire les frais de cette tendance. Sont particulièrement visés à ce titre les rapports de « bug bounty », permettant la détection volontaire des failles des systèmes d’information. Des rapports qui, quand ils sont générés par une IA, peuvent annoncer avoir détecté une faille imaginaire, avec toutes les apparences du « raisonnable » et du « techniquement correct ». Les plateformes de bug bounty craignent d’être submergées de tels rapports, noyant ainsi les autres données utiles. Avec, à la clé, un problème fondamental de confiance pour tous les systèmes qui se nourrissent de contributions ouvertes.

 

 

Quitter la version mobile