Fake News et désinformation, le buzz pour le meilleur et pour le pire ?

Fake news et infobésité, économie du buzz
Fake news, infobésité et désinformation, quelles sont les origines, les causes et les conséquences du buzz ? La viralité pour le meilleur et pour le pire !

 

Antonio Casilli, sociologue du digital a longuement étudié la problématique des fake news en ligne. Lors d’une conférence au NUMA, il explique les origines, les causes et le conséquences de l’infobésité et des fakenews. En effet, les moyens digitaux permettent de diffuser l’information plus rapidement et largement, pour le meilleur et pour le pire.

 

D’où vient le concept des fake news ?

On connait tous des histoires fausses qui ont fait le buzz sur internet. De la célèbre théorie du complot et des illuminati, jusqu’aux politiciens qui citent pour références le Gorafi, expert du détournement de l’actualité, les fake news sont courantes sur le web.

1. Propagande

  • Pub mensongère (ex : “Perdez 10kg en 24h”)
  • Contrefaçon papier
  • RP
  • Spam (ex : iPhone à 9€)
  • Actualités légère (ex : Sarko aime écouter Balavoine)
  • Données partielles (ex : industrie du Tabac)

2. Colportage

  • Rumeur
  • Buzz
  • Même, …

3. Apocryphe

  • Mythes
  • Contenus censurés
  • Théorie du complot, (cf. On nous empêche de divulguer la verite, ex le grand homme vert Sylvain …)
  • Canulars
  • Bots/botnet
  • Faux likes et faux clics

 

Etude de cas Facebook :

L’algorithme de Facebook affiche les publications en fonctions de trois critères principaux : l’affinité, le poids et la recense du post. En effet, le reach organique, c’est-à-dire le nombre de personnes touchées par une publication non publicitaire, est d’environ 5%. Cela signifie que lorsqu’une page Facebook suivie par 1000 personnes poste un contenu, celui-ci sera vu par 50 personnes en moyenne.
 Edgerank, l'algorithme de Facebook

 

Est-ce que l’algorithme favorise la circulation de fakenews ? Oui, de manière indirecte. En effet, l’algorithme est conçu pour favoriser les contenus hautement viraux. Les informations détournées sont la plupart du temps propices à faire le buzz. Grâce à des taux d’engagements très élevés, ces publications remontent dans les fils d’actualités et deviennent virales.

 

Les algorithmes nous enferment-ils dans un bulle de filtre ?

Avant de répondre à la question, définissons ce qu’est une “bulle de filtre” :
“C’est l’idée selon laquelle les algorithmes des réseaux sociaux ne nous proposent que des contenus qui nous intéressent déjà” selon Pauline Moullot
Les algorithmes de Google et de Facebook utilisent nos préférences et nos historiques pour optimiser les résultats les plus pertinents pour nous. Cette personnalisation a pour but d’augmenter la pertinence des résultats. De ce point de vue ci, les algorithmes sont pertinents. Le revers de la médaille est que l’algorithme finit par ne plus être objectif. Il va nourri chaque personne de contenus fidèle à son opinion. La divergence des opinions disparaît peu à peu pour constituer une bulle de filtre.

 

Le micro-travail au service du buzz

Depuis quelques années se développent des plateformes de microtravail. Ses plateformes mettent en relation des personnes qui souhaitent faire faire des tâches extrêmement simples et répétitives à des personnes ayant besoin d’argent. La demande provient principalement d’Amérique du Nord et d’Europe tandis que la main d’oeuvre a pour origine le Tiers-Monde. Les missions consiste à produire une image, gif ou simplement partager et liker un post sur les réseaux sociaux. Même Amazon s’est lancé sur le marché du micro-travail avec sa plateforme mturk.

 

Payés quelques centimes de dollar par opérations, des milliers d’asiatiques ont ainsi soutenus la campagne de Donald Trump en échange de quelques centimes pour un like, un partage ou un post. Malgré ses propos, le pays qui a le plus aimé la page de D. Trump lors de sa candidature était le Mexique. En effet, les équipes du candidat ont mis en ligne des campagne de micro-working pour acheter du “like” et du buzz.
Les principales plateformes de ce type sont :
On parle ainsi de crowdturfing lorsque des milliers de faux-comptes sociaux sont utiliser pour manipuler les résultats des algorithmes et créer du buzz artificiel.

 

Sommes-nous les “idiots utiles” de ce modèle ?

Antonio Casilli parle de “Digital Labor”. Ce concept implique que nous sommes tous en train de travailler pour les grandes plateformes, même si ne nous sommes pas payés.
Ne pensez pas que le modèle précédemment expliqué se résume aux USA. Nos “Penelope Gate” et autres scandales se développent de la même façon en France. Le comité de François Fillon a fait publier des centaines de tweets identiques pour lui et contre Marine Le Pen via la plateforme “E-militants de l’alternance“. Le tout est conçu sous forme de jeux. Chaque action est récompensée sous forme de points et un classement regroupe les meilleurs e-militants.

 

“Play or be played” ? La gamification abusive peut caractériser un “exploitationware”, c’est à dire un “logiciel d’exploitation”. Les utilisateurs sont finalement des travailleurs au service d’une cause ou d’une institution. Ils sont rétribués par des points fictifs en échange d’un travail réel.

 

Les algorithmes des réseaux sociaux et des moteurs de recherche ne nous retournent que ce qu’on aime voir. Ils sont le résultat des actions humaines de tous les utilisateurs. Nous activons et participons activement à la constitution des algorithmes des GAFA et autres géants du web. Serions-nous, comme l’a déclaré Laurent Alexandre lors de son intervention au Sénat, “les idiots utiles de l’intelligence artificielle” ?

 

Lutte contre la désinformation et neutralité du web

Le moteur de recherche Google a édité une liste de termes et de sites black-listés (ex : sites djihadistes). En Chine, le gouvernement opère une répression sociale en ligne. L’Etat spamme les canaux de communication pour noyer les informations ne venant pas de sources gouvernementales ou contraires aux objectifs du pouvoir.

 

Les AFAMA (Alphabet, Facebook, Apple, Microsoft, Amazon) tentent de lutter contre les dérives du web. Ils imposent un contrôle de plus en plus fort pour filtrer les contenus et éviter les manipulations. Facebook a lancé un programme avec de grands médias pour lutter contre la désinformation lors de la présidentielle française. Cependant le filtrage de l’information signifie que ces acteurs décident de ce qui est vrai et de ce qui est faux ou de ce qui est bien versus ce qui est mal. A partir de cet instant, c’est la neutralité du web qui est en danger. Si Google ou Facebook décident de censurer des contenus ou à l’inverse de promouvoir des publications politiques, les répercutions dépassent largement leurs champs d’actions.

 

Quel serait l’équilibre idéal entre contrôle de l’information et la neutralité du web à l’heure du micro-travail et du buzz artificiel ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *