Le "slop" est le nouveau spam
La principale gêne de l'ère numérique vient d'évoluer
12 Juin 2024
Internet ne se porte pas très bien. Entre les réseaux sociaux qui semblent être au début de leur déclin, des millions de pages vides et de liens brisés qui s'accumulent, des essaims de bots et de faux profils qui créent des contenus destinés à alimenter des interactions fantômes et de graves dysfonctionnements de l'algorithme qui ont transformé Facebook et Instagram en une sorte d'égout à contenu, ce qui devait être le network suprême connectant le monde devient de plus en plus un bas-fond de ruelles étroites et sombres, où se nichent des arnaqueurs et des vampires d'attention. Mais les choses peuvent toujours empirer : récemment, avec l'avènement des IA de plus en plus intelligentes mais aussi de plus en plus stupides, un nouveau type de contenu a émergé, prenant le nom de “slop”. Le terme est apparu sur les forums en ligne, véritable forge de la culture pop d'Internet, se référant à des contenus de faible qualité, des fake news ou des vidéos et images falsifiées générés par l'IA que l'on trouve sur les réseaux sociaux, dans l'art, la littérature et, de plus en plus, dans les résultats de recherche. Par exemple, lorsque Gemini, l'IA de Google, affirme que les astronautes ont effectivement trouvé des chats sur la Lune, c'est du slop. Mais même la reconstitution inexacte d'une certaine information l'est : demander à Gemini de mener une recherche, toutes les données historiques comme les dates ou les événements sans base documentaire sont pratiquement inventées de toutes pièces. C'est également le cas pour les photos d'IA auxquelles des foules d'utilisateurs moins alphabétisés numériquement réagissent avec une honnêteté totale et innocente, les croyant vraies : récemment, un cas viral a été celui d'une représentation de Jésus composée de crevettes, mais aussi un délire architectural rococo créé par une IA que certaines pages “slop” de Facebook publiaient comme s'il s'agissait d'une reconstruction des Thermes de Caracalla à Rome, à la stupéfaction de tous ces utilisateurs qui aiment commenter des emojis ou des exclamations.
Terme di Caracalla #Roma
— MinervaArmata (@MinervaArmata) March 27, 2024
(Ricostruzione fatta con AI) pic.twitter.com/qUrTYw72VV
Le terme a attiré beaucoup d'attention le mois dernier lorsque Google a intégré son modèle d'intelligence artificielle Gemini dans les résultats de recherche aux États-Unis. Ce changement avait pour but de fournir des réponses directes aux recherches des utilisateurs via une AI Overview en haut des pages de résultats de recherche. Mais les problèmes sont apparus sans se faire attendre : des mèmes sur les réponses surréalistes que l'IA donnait aux utilisateurs ont commencé à circuler, affirmant qu'Obama était musulman, que Drake jouait dans la ligue nationale de football américaine, que les chiens pouvaient posséder et gérer des hôtels et piloter des avions. En somme, aussi intelligente soit-elle, l'IA n'est pas encore capable de distinguer les contextes et d'opérer avec ce “sens du vraisemblable” qui permet à un être humain de distinguer le plausible de l'impossible. Mais maintenant que les contenus générés par les machines augmentent, le problème lié à cette désinformation numérique se fait de plus en plus important. Le terme "slop” se réfère en effet à la pâtée broyée versée dans les mangeoires du bétail des élevages intensifs. Ce “slop” est également une bouillie d'informations broyée par des machines, pratiquement dépourvue de valeurs nutritionnelles. Sur les pages de Frontline, la chercheuse en IA américaine Melanie Mitchell a déclaré : « Le système d'intelligence artificielle de Google n'est pas assez intelligent pour comprendre que cette citation ne soutient pas effectivement l'affirmation. Étant donné son manque de fiabilité, je considère que cette fonction de vue d'ensemble de l'intelligence artificielle est très irresponsable et devrait être désactivée ».
@butthatsmyopinion Replying to @Malia:) Googles AI results decided to step it up to the next level #googleai #googlesearch #ai original sound - But That’s My Opinion
En parlant au The New York Times, Kristian Hammond, directeur du Center for Advancing Safety of Machine Intelligence de la Northwestern University, a également souligné que souvent, les IA présentent les informations comme une réponse définitive plutôt que comme une suggestion, augmentant les risques de désinformation : il appartient à l'utilisateur qui a posé la question de vérifier que les sources fournies par les IA ne sont pas de simples liens vers des pages d'accueil génériques sans aucune pertinence pour la recherche elle-même. Selon divers experts interrogés toujours par le The New York Times, en outre, “slop” pourrait bientôt devenir un terme populaire comme “spam” – ayant plus ou moins les mêmes origines. Quoi qu'il en soit, le monde de l'information ne semble pas sur le point de sombrer dans le chaos : selon Chartbeat, peu de temps après le lancement des réponses IA aux questions sur les moteurs de recherche, l'enthousiasme s'est essoufflé et les utilisateurs ont recommencé à effectuer leurs recherches sur des pages réelles. Néanmoins, il est pour le moins préoccupant que tant d'aspects de la vie quotidienne des utilisateurs en ligne et hors ligne soient gouvernés par des IA qui sont de plus en plus fondamentales, mais qui en même temps se montrent autant enclines à l'erreur que les êtres humains et de manière toujours plus marquée.