Facebook peut manipuler vos émotions et il l'a déjà fait

Avec plus d’un milliard d’inscrits au compteur, Facebook est le plus important réseau social au monde. Cela représente bien plus qu’un « échantillon représentatif de la population », ce qui peut être un véritable atout dans le cadre de recherches. Une étude parue dans la revue scientifique PNAS (l’Académie des Sciences américaine) datée du 17 juin illustre précisément ce potentiel, qui a été exploité pour démontrer l’impact des différentes publications sur l’humeur des utilisateurs.

Le travail réalisé en collaboration entre deux universités de San Francisco et les ingénieurs de Facebook s’est donc intéressé à la « contagion émotionnelle », pour déterminer si un nombre important de contenus positifs ou négatifs peut influencer l’état d’esprit d’une personne. À en croire les résultats de l’étude, menée pendant une semaine (du 11 au 18 janvier 2012) sur 700 000 comptes, c’est effectivement le cas. En présence d’une majorité d’informations négatives, un usager tend à partager plus de publications négatives, et inversement.

Des flux d'actualité manipulés

Les auteurs de l’étude expliquent ainsi que « les états émotionnels sont communicatifs et peuvent se transmettre par un phénomène de contagion, conduisant les autres personnes à ressentir les mêmes émotions sans en être conscientes, écrivent les auteurs de cette recherche. Ces résultats montrent la réalité d’une contagion émotionnelle de masse via les réseaux sociaux. »

Malheureusement, pour en arriver à ces résultats, les flux d’actualités des sondés, qui n’étaient même pas avertis de l’étude, ont été manipulés : les algorithmes du réseau ont été ajustés afin de produire plus ou moins de contenus positifs ou négatifs. Ces pratiques ont suscité de très nombreuses réactions sur la toile ce weekend, sauf que sur le premier point, les conditions d’utilisation stipulent clairement que les données des utilisateurs peuvent être exploitées à des fins de recherches. 

Mea Culpa

Mais en ce qui concerne la manipulation des publications, cela illustre bien dans quelle mesure les algorithmes de Facebook peuvent impacter les informations auxquelles les utilisateurs sont confrontés. Le réseau social se défend en expliquant que « cette recherche a été menée pendant seulement une semaine et aucune donnée utilisée n’était liée au compte d’une personne en particulier ».

C’est finalement l’un des auteurs de l’article qui s’est fendu d’un mea culpa. Adam D. I. Kramer assure comprendre, dans un message Facebook, que l’étude ait inquiété certains utilisateurs et que ses coauteurs et lui même sont « désolés de la manière dont l’article a décrit nos recherches et de l’anxiété qu’il a pu causer », reconnaissant avec le recul que « les bénéfices de cette recherche ne justifiaient peut-être pas toute cette anxiété ».

Posez une question dans la catégorie News du forum
Cette page n'accepte plus de commentaires
Soyez le premier à commenter
    Votre commentaire