Surveillance du capitalisme, algorithmes pour manipuler l'opinion publique et la chute de Facebook

Ce qui se passe sur Facebook aurait pu être prédit il y a quelque temps et fait partie d'un problème plus vaste: le modèle dominant du capitalisme vigilant et les tentations du Big Data.

Dès le début, il y avait une grande controverse sur la perte de confidentialité que Facebook voulait dire, une entreprise qui n'était jamais vraiment intéressée par la protection des données de ses utilisateurs. Divers médias ont averti que Facebook n'était pas "gratuit"; Cela signifiait préserver la vie privée et conférer un pouvoir croissant à une entreprise qui ne se souciait pas de votre bien-être, car les informations ainsi obtenues allaient logiquement être utilisées pour créer des publicités personnalisées, et pourraient également se retrouver entre les mains de politiciens, de sociétés de marketing et de d'autres C’est toujours quelque chose qui s’étend de manière plus ou moins large autour de Facebook, mais ce n’est pas vraiment entendu, car "tout le monde est sur Facebook" et les avantages d’être "connectés" sont trop nombreux, ou peut-être parce qu’il n’y avait pas vu spécifiquement comment cette information pourrait manipuler l'opinion publique - quelque chose que nous avons vu depuis le triomphe du Brexit et de Trump. Nous pensions que, parce que nous n'étions ni des terroristes ni des criminels, nous n'avions pas grand chose à perdre en fournissant toutes nos informations. Mark Zuckerberg a répété à maintes reprises que la vie privée était surévaluée, que l'important était le social; Il a même déclaré en 2010 qu'il ne croyait pas au respect de la vie privée. Il semble maintenant paradoxal que Facebook et Twitter aient été promus comme des "outils de la démocratie" ou pour destituer des dictateurs du soi-disant Printemps arabe il y a quelques années.

Il y a quelques semaines, la divulgation du cas des 50 millions de profils qui empêchaient la société Cambridge Analytica de créer des publicités et du contenu personnalisé pour influencer l'élection laissait entrevoir ce qui pouvait arriver lorsque le Big Data était associé à la propagande. Nous savons que le simple fait d’avoir accès à une douzaine de goûts ou à d’autres peut prédire le sexe, la race, l’orientation politique, etc. Explorer ces informations Cambridge Analytica s'est vanté de pouvoir comprendre le type de message, le format, le contenu, le ton et la fréquence auxquels les utilisateurs individuels sont susceptibles. Parallèlement, il a mis en place une équipe de production médiatique et une équipe de diffusion de produits médiatiques dans des blogs et des profils de médias sociaux, créés spécifiquement pour promouvoir les contenus susceptibles de favoriser cette ingénierie de la perception. De même, en fonction des profils psychologiques et émotionnels des utilisateurs, des annonces ciblées ont été créées. Un ancien employé de cette société, Christopher Wylie, a déclaré que l'outil mis au point, contrairement à la prise d'un mégaphone et à la communication d'un message sur une place publique, est "un murmure à l'oreille de chaque votant", donnant à chacun un message personnalisé. ; "Cela évite une expérience collective et une compréhension collective", la réalité est fragmentée. Une "arme culturelle" a été créée avec cela et la prétendue "bulle filtrante" a été poussée à l'extrême dans laquelle chacun reçoit une version personnalisée de la réalité basée sur ses goûts précédents, plaçant ainsi chaque utilisateur dans un univers tautologique séparé. des autres. Wylie a souligné que la vision de l'alchimie politique du conseiller de Trump, Steve Bannon, reposait sur cet axiome: "Pour changer la société, vous devez d'abord la briser, puis vous devez reconstituer les pièces et les mouler selon votre vision."

Les indications de ce que nous voyons avec l’affaire Cambridge Analytica ont déjà été montrées beaucoup plus tôt. Pour citer un exemple notable paru en 2014, Facebook a mené une expérience avec 700 000 jeunes qui ont été manipulés avec émotion avec des informations dans leur fil de nouvelles sans le savoir. Cela a continué de peser, comme en témoigne un document divulgué révélé par un journal australien en 2017, qui indique que "Facebook utilise des algorithmes sophistiqués pour identifier et exploiter des Australiens de 14 ans, permettant aux annonceurs de diffuser leurs messages. dans les moments les plus vulnérables, y compris lorsqu'ils se sentent «indignes» et «précaires». "

Facebook fait actuellement face à d'énormes critiques, à des citations d'audiences dans différentes parties du monde, à des actions qui dégringolent sur le marché boursier et à un exode important (mais pas aussi massif) de ses utilisateurs. Ce n'est certainement que le début, car le modèle Facebook et le modèle de Google et d'autres entreprises vont au-delà de la vente de publicité. C'est ce qu'on a appelé un " capitalisme de surveillance" : ils ne valent pas pour ce qu'ils vendent de la publicité, mais pour l'information qu'ils ont de leurs utilisateurs et ce qu'on peut en faire. Dans la mesure où l'intelligence artificielle ou l'apprentissage automatique croît, la tentation de créer des algorithmes pour prédire ou influencer les comportements est trop grande, en particulier lorsque ces entreprises ne sont pas vraiment humaines et obéissent simplement à la prérogative d'obtenir plus de profits. Cela génère non seulement un conflit d’intérêts, car ces plateformes rapportent de l’argent à chaque seconde d’attention de leurs utilisateurs, mais captivent l’attention de leurs utilisateurs, de sorte que l’économie numérique continue de croître, implique nécessairement l’aliénation et la sécurité. développement de comportements pathologiques chez les utilisateurs. L’économie numérique est mobilisée pour attirer l’attention; Ainsi, pendant que les utilisateurs consomment des informations, leur attention est consommée et, par conséquent, ils restent indifférents ou distraits. Pour ce faire, comme nous le documentons ici, des techniques sophistiquées sont incorporées dans la conception et la programmation avec lesquelles les systèmes dopaminergiques sont activés - la promesse d’une récompense - des utilisateurs de la même manière que les machines à sous. On pourrait dire que la dopamine numérique est comme du nouveau sucre.

L'analyste Mark Pesce a bien diagnostiqué les résultats inévitables du capitalisme de surveillance et de son extraction de données pour créer des publicités et prédire les comportements:

Notre nouvelle expérience sociale - un monde où tout le monde est connecté - n'a pas survécu à sa rencontre avec les forces prédatrices du capitalisme, tombant dans un égout d'amplification de la colère au nom d'un " engagement croissant des utilisateurs". Cette façon de formuler les choses donne l’impression que les sujets de cette expérience - nous tous - vivions dans un monde séparé des effets de l’amplification. Mais cela ressemble plus à mettre le feu à un bâtiment tout en restant à l'intérieur.

Nous avons appris une leçon importante: nous commercialisons nos espaces sociaux à nos risques et périls. Nous sommes maintenant confrontés au risque immédiat de trouver des issues pour ce bâtiment en feu, tout en tombant en ruine. Une fois dehors, nous devons faire face à un plus grand défi - comment imaginons-nous collectivement l'avenir pour que cela ne se reproduise plus?

Pesce semble suggérer que le système est en train de s'effondrer. Nous devrons voir. Certes, Facebook est confronté à d'éventuelles réglementations et certains pays, comme la Chine l'a déjà fait, pourraient commencer à limiter leur accès. Mais au-delà, le défi consiste à imaginer un autre monde au fond du bocal à poissons. Non seulement un monde sans Facebook, si c'était le cas, mais un monde humain dans lequel nous ne sommes pas entre des mains de machines et d'algorithmes que personne ne contrôle ou que peu de contrôle et dans une certaine mesure, car, dans leur ambition, ils n'ont pas Vraiment idée de combien ils créent quelque chose comme un nouveau Frankenstein ou un nouveau pacte de Faust.