Quand Facebook manipule nos émotions

Author:

Une étude conduite sur la possibilité de contrôler l’humeur des utilisateurs de Facebook a fait hurler la science et les utilisateurs américains.

Qui fait encore attention aux émoticons “merveilleusement bien” ou “triste” de Facebook ? Si insérés dans le paysage de notre page bleue et blanche que personne ne se demande qui a le temps d’aller chercher précisement l’émoticon qui correspond à son humeur. Et encore moins si un algorithme ne ferait pas le travail à sa place par la technologie de reconnaissance et association des mots. La machine FB est tellement tatouée dans nos vies que les alertes aux multiples fuites de données, censures, suspiscions de surveillance par la NSA ne font plus un clic. Mais ce week-end, les réseaux sociaux américains ont vu rouge, car la dernière manipulation du réseau social est scientifique et celle-là, même si on ne comprend pas bien pourquoi, après d’autres atteintes à la vie privée ou émotionnelle, fait scandale.

Un demi-million d’utilisateurs Facebook écrivant en anglais ont été soumis à un “mur” d’actualité manipulé. Dans le flux d’environ 1500 parutions-jour du fil d’actualité, l’algorithme sélectionnait intentionnellement des messages plutot positifs ou plutôt négatifs, et observait ensuite ce qui se passait. Les cobayes “positivés” postaient plus “positivement” que les autres, eux aussi inconscients de la manipulation, exposés à des émotions négatives.

Tom’s Guide donne le lien vers l‘étude en question, accessible en ligne réalisée il y a longtemps (2012) pendant une semaine. Elle a un titre très 21e siècle : “Preuves  de contagion a grande échelle des émotions sur les réseaux sociaux”?

Résumé :

“Nous démontrons par une expérience de grande ampleur (N = 689,003) sur Facebook, que les états émotionnels peuvent se communiquer à d’autres par une contagion émotionnelle, conduisant les personnes à éprouver (…)lire la suite sur Atlantico

Leave a Reply

Your email address will not be published. Required fields are marked *