Fascisme 2.0 – Le nouveau visage de la censure des médias sociaux (Off-guardian.org)

7 min read

La modération de contenu pilotée par l’IA façonne subtilement l’opinion publique et l’engagement politique

Par Paul Lancefield 

Facebook ne gagne qu’environ 34 £ par an sur le client moyen au Royaume-Uni – un peu moins de 3 £ par mois (et ce, avant les frais) ; il est donc clair qu’il n’y a pas de marge de manœuvre ou de motivation pour un niveau humain de service à la clientèle ou d’attention. L’utilisateur n’est pas le client ; il est plutôt le produit dont les données sont vendues aux annonceurs.

Les utilisateurs n’ont donc pas de relation client directe avec la plateforme. Le réseau n’est pas directement incité à « se soucier » de l’utilisateur avant l’annonceur. Et quelle que soit votre position sur l’échiquier entre « l’absolutisme de la liberté d’expression » et « les entités privées ont le droit de censurer n’importe quel utilisateur », avec des marges aussi faibles, il est inévitable que le traitement automatique soit utilisé pour modérer les messages et gérer l’interface client.

Mais il est un fait que les capacités de traitement et de gestion des clients que les réseaux sociaux sont en train de développer sont utilisées de diverses manières, au-delà de la simple modération. Il est également vrai que ce traitement automatisé est effectué à grande échelle et s’applique désormais à chaque message posté par chaque membre. 68 % des électeurs américains sont sur Facebook. Au Royaume-Uni, ils sont 66 % et en France 73,2 %. Les chiffres sont similaires pour toutes les nations démocratiques de l’Occident. Il est donc essentiel que les règles appliquées soient politiquement neutres.

Le pouvoir qui existe dans la capacité de traiter mécaniquement les messages de chaque utilisateur est bien plus profond que beaucoup ne le réalisent. Et bien qu’il ne puisse pas dicter directement ce que les utilisateurs écrivent dans leurs messages, il a la capacité de façonner fondamentalement les messages qui gagnent du terrain.

Les services de médias sociaux sont devenus de facto des places publiques et la plupart des gens s’accordent à dire que leurs propriétaires devraient éviter de mettre la main sur la balance et d’influencer la politique.

En outre, comme le savent tous les utilisateurs de Facebook, en particulier lorsqu’il s’agit de sujets politiquement sensibles, le système limitera la portée d’un individu, parfois à un degré extrême. Ou bien l’utilisateur sera tout simplement banni pendant un certain temps, ou banni du réseau dans son intégralité.

On peut donc se poser la question suivante : puisque les entreprises de médias sociaux disposent d’un tel pouvoir de censure, comment savoir si elles ne se livrent pas à une ingérence politique contraire à l’éthique ? Peut-on leur confier cette responsabilité ?

Je reviendrai sur cette question, mais il est clair que la confiance dans ces entreprises est profondément déplacée.

La pandémie a fait prendre conscience à de nombreuses personnes des niveaux de contrôle imposés par les responsables de nos réseaux de médias sociaux. Ils rédigent les règles afin de stimuler l’engagement pour les messages qu’ils préfèrent, ce qui donne plus de valeur au nombre de followers de certaines personnes. À l’inverse, les utilisateurs qui vont à contre-courant (ou à l’encontre du discours de l’establishment) voient leur engagement subtilement réduit, voire supprimé, ou peuvent être totalement bannis du service. La preuve en est que, contrairement aux principes de la démocratie, Facebook, Twitter et YouTube ont mis la main à la poche.

Lorsque Elon Musk a racheté Twitter, il a invité les journalistes indépendants Matt Taibbi, Bari Weiss et Michael Schellenburger à pénétrer dans les bureaux de Twitter pour étudier les communications internes de l’entreprise et voir dans quelle mesure les anciens propriétaires avaient censuré les tweets des utilisateurs.

Les Twitter Files sont le résultat de ces recherches et démontrent clairement qu’il y a eu des interférences à grande échelle et que, dans de nombreux cas, ces interférences ont été motivées par des raisons politiques. L’équipe des Twitter Files a établi que des agences gouvernementales étaient fermement implantées dans l’entreprise pour surveiller et censurer les citoyens américains et les citoyens d’autres pays, et que des agences gouvernementales demandaient régulièrement (avec insistance) des actions de censure. Mais plus encore, ils ont également révélé que des niveaux d’interférence similaires avaient lieu sur d’autres réseaux de médias sociaux tels que Facebook.

Mais depuis que les fichiers Twitter ont apporté la preuve de l’interférence, une nouvelle menace d’interférence, potentiellement encore plus grande, est apparue. L’IA.

Il fut un temps où les algorithmes semblaient être le seul sujet de conversation dont les spécialistes du marketing numérique pouvaient discuter. Et comme il n’y a pas de marge pour une intervention humaine au niveau des messages individuels, ce sont les algorithmes qui étaient utilisés.

Au départ, ils étaient assez simples, comme les équations que nous pratiquions en cours de mathématiques à l’école, et ils étaient donc relativement faciles à mettre au point. L’essor de Google a été favorisé par une idée simple mais brillante : compter les liens externes vers une page web comme indicateur de sa pertinence.

Depuis, les algorithmes ont cédé la place à des modèles d’apprentissage automatique plus complexes qui, à la base, reposent toujours sur des algorithmes, mais ceux-ci sont désormais générés automatiquement et si vastes que toute tentative humaine de les démêler est vouée à l’échec. Nous limitons donc notre réflexion sur ces modèles à ce qu’ils peuvent accomplir, aux éléments significatifs qu’ils peuvent distinguer, plutôt qu’à la manière exacte dont le code fonctionne.

Aujourd’hui, nous sommes entrés dans une troisième génération de technologies. L’apprentissage automatique s’est transformé en développement de grands modèles de langage (LLM) ou, plus populairement, en IA. Avec cette dernière évolution, les corporatistes ont trouvé d’immenses et effrayantes nouvelles opportunités de pouvoir et de contrôle.

La création de LLM implique une formation. Cette formation leur confère des compétences et des préjugés spécifiques. L’objectif de la formation est de combler les lacunes, de sorte qu’il n’y ait pas de trous évidents dans la capacité du LLM à traiter les éléments constitutifs de la conceptualisation et du discours humains. Et c’est là la caractéristique distinctive des LLM : nous pouvons converser avec eux et la conversation est fluide, la grammaire et le contenu semblent normaux, fluides et complets. Idéalement, un LLM se comporte comme un majordome anglais raffiné, poli, informatif et correct sans être impoli. Mais la formation confère également des spécialisations au LLM.

Dans le contexte des médias sociaux – et c’est là que les niveaux effrayants de pouvoir commencent à devenir évidents – les LLM sont utilisés pour jouer le rôle de surveillant de salle, en appliquant la « modération du contenu ».

Le Llama Guard de Meta en est un excellent exemple, formé non seulement à la modération, mais aussi au signalement des utilisateurs. Cette fonction de signalement incarne non seulement la possibilité de signaler, mais aussi, par le biais de ces données de signalement, l’exploitation des possibilités d’influencer et de faire des suggestions à propos de l’utilisateur et pour l’utilisateur. Et lorsque je parle de suggestions, un LLM est capable non seulement de faire des suggestions évidentes que l’utilisateur peut apprécier et qu’il est heureux de recevoir, mais aussi des suggestions inconscientes plus sournoises qui peuvent être manipulatrices et conçues pour contrôler l’utilisateur.

Il n’y a pas encore de preuve (à ma connaissance) que les LLM en particulier sont utilisés de cette manière, pour l’instant. Mais la capacité est très certainement là et, si les comportements passés indiquent des développements futurs, il est probable qu’ils soient utilisés de la sorte.

Il suffit de regarder l’épisode de 2006 de l’émission télévisée de Derren Brown « Derren Brown : The Heist », dans lequel il convainc un groupe d’étrangers qu’ils doivent commettre un braquage de banque, pour se rendre compte de la profondeur et de la puissance de l’utilisation de la suggestion. Pour ceux qui ne connaissent pas Derren Brown, il s’agit d’un hypnotiseur de scène et d’un mentaliste qui a tendance à mettre l’accent sur le pouvoir de la suggestion plutôt que sur l’hypnose (la plupart de ses spectacles ne contiennent pas d’hypnose du tout). Par le simple pouvoir de la suggestion, il amène les gens à faire les choses les plus extraordinaires.

Les suggestions « à la Derren-Brown » fonctionnent parce que le cerveau humain est en réalité beaucoup moins agile et beaucoup plus linéaire que nous ne le pensons. La conscience est une ressource précieuse et de nombreuses actions que nous faisons fréquemment sont transférées à l’habitude, de sorte que nous pouvons les faire sans réfléchir, ce qui nous permet de préserver la conscience là où elle est le plus nécessaire.

C’est par habitude que nous changeons de vitesse dans une voiture à boîte de vitesses sans avoir à y penser. Et nous avons tous fait l’expérience de ce jeu où l’on dispose d’un temps donné pour penser à une liste de choses, comme des pays, se terminant par la lettre A. Si l’on est mis au pied du mur devant une foule, il peut parfois être difficile d’en trouver une. Le cerveau n’est souvent pas très doué pour penser de manière créative ou pour se souvenir rapidement et consciemment de ce qui se passe.

Mais si quelqu’un à qui vous avez parlé quelques minutes avant le match vous a parlé de ses vacances au Kenya, vous pouvez être sûr que le Kenya sera la première réponse qui vous viendra à l’esprit. De plus, l’association se fera automatiquement, que nous le voulions ou non !

C’est tout simplement la façon dont le cerveau fonctionne. Si l’information est transmise au bon moment et de la bonne manière, il est presque certain qu’une suggestion donnée sera suivie. Derren Brown l’a bien compris et est passé maître dans l’art de l’exploiter.

Les moteurs de recherche et les plateformes de médias sociaux disposent d’un immense pouvoir pour modifier les comportements par le biais de suggestions subtiles. Il existe d’ailleurs des preuves que Facebook et Google ont agi de la sorte.

Robert Epstein, professeur et chercheur, a en quelque sorte « surpris Google » en manipulant la boîte de suggestions de recherche qui apparaît sous la zone de texte où les utilisateurs saisissent une requête de recherche. L’épisode est devenu d’autant plus sordide qu’il est apparu clairement qu’ils étaient trompeurs et qu’ils avaient conscience que leur expérience était contraire à l’éthique. Je ne raconterai pas tous les détails, mais je vous invite à consulter les liens qui s’y rapportent – c’est une histoire intéressante en soi.

Les utilisateurs sont dans un état mental particulièrement confiant et réceptif lorsqu’ils utilisent la fonction de liens suggérés de Google et ne remarquent pas que les résultats contiennent des suggestions d’actions et d’impératifs qui, loin d’être la meilleure réponse à leur recherche, sont là pour manipuler les actions ultérieures de l’utilisateur.

En ce qui concerne les messages sur les médias sociaux, l’utilisation de suggestions est souvent beaucoup plus subtile, ce qui la rend plus difficile à détecter et à contrer. L’analyse LLM de la base de données des messages des utilisateurs peut révéler des messages connexes qui suggèrent des actions. Dans ce cas, le réseau peut utiliser le fait qu’il dispose de plusieurs millions de messages d’utilisateurs, y compris des messages suggérant des résultats préférés. Ces messages peuvent être sélectionnés et faire l’objet d’une promotion préférentielle dans les flux d’utilisateurs.

La modération du contenu est bien sûr nécessaire pour gérer les propos inacceptables et les comportements antisociaux. Toutefois, il existe une vaste zone grise où les opinions désagréables peuvent être qualifiées de « discours de haine » et, parce qu’il s’agit d’une zone grise, le réseau social dispose d’une grande marge de manœuvre pour s’immiscer dans l’espace de la politique personnelle et de la liberté d’expression.

Le terme « discours de haine » a été un moyen très efficace pour justifier l’utilisation du marteau d’interdiction, mais la principale préoccupation aujourd’hui est que, avec le déploiement des LLM, une étape historique majeure a été franchie avec à peine un murmure qui implique un tout nouveau niveau de contraintes et de menaces pour la liberté de communication des utilisateurs.

Ce jalon, c’est que les LLM sont désormais utilisés pour régir le comportement humain, et non l’inverse. Le franchissement de cette étape a été à peine remarqué parce que des algorithmes plus simples jouaient déjà ce rôle auparavant et que cela se fait de toute façon dans l’obscurité.

Les utilisateurs ne s’en rendent compte que lorsqu’ils en sont affectés de manière évidente. Cependant, il y a de nombreuses raisons de penser qu’à l’avenir, nous regarderons en arrière et reconnaîtrons que cette étape était une sorte de jonction critique après laquelle une certaine version d’un avenir semblable à celui de « Sky-Net » est devenue inévitable.

La semaine dernière, le Premier ministre britannique Keir Starmer a annoncé une initiative de la police visant à utiliser les médias sociaux pour identifier les personnes impliquées dans la répression des troubles de l’ordre public, illustrant ainsi la manière dont les rapports automatisés du LLM sont prêts à être utilisés au-delà des médias sociaux et dans le contexte de l’application de la loi.

Il n’y a pas encore de détails sur la manière dont ce contrôle sera effectué, mais, ayant l’expérience de Tech Project pitching, vous pouvez être sûr que le gouvernement aura une liste d’entreprises technologiques suggérant des solutions. Et vous pouvez être sûrs que les LLM seront présentés comme faisant partie intégrante de presque toutes ces solutions !

Nous avons donc établi que les médias sociaux sont fermés et propriétaires et qu’ils ont permis la mise en place de nouvelles structures de pouvoir dans le domaine des médias. Nous avons vu que les propriétaires de médias sociaux ont le pouvoir de supprimer ou de stimuler la viralité d’un message et qu’ils ont maintenant mis en place un système de surveillance et de signalement par LLM (IA) qui semble prêt à s’étendre au maintien de l’ordre dans le monde réel. Nous avons vu, à travers les « Twitter Files », que les entreprises de médias sociaux ont enfreint la loi pendant la pandémie et se sont montrées disposées à collaborer avec les agences gouvernementales pour censurer et supprimer les opinions défavorables.

Paul Lancefield est l’auteur de Desilo, une application qui permet de contrer la censure de l’IA et la déformation des opinions politiques. Si vous partagez l’avis de Paul sur le danger que représente l’IA pour la liberté d’expression, vous pouvez l’aider en le suivant sur X.

Source : Off-guardian.org

Traduite par RV7 NEWS



Print Friendly, PDF & Email

Tu pourrais aussi aimer

Plus de l'auteur

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest

0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires