La direction de Facebook était au courant de multiples problèmes créés ou amplifiés par ses services, mais a traîné pour les corriger ou ne l’a pas fait : c’est, en substance, ce que montre une série d’articles publiés la semaine du 13 septembre par le Wall Street Journal, qui se fonde sur des documents internes de Facebook. Le quotidien américain a eu accès, par le biais d’un « lanceur d’alerte », à plusieurs études réalisées entre 2018 et 2020 par des chercheurs travaillant pour le réseau social et diffusées en interne.

Sur plusieurs dossiers brûlants, ces chercheurs avaient identifié des problèmes majeurs, et proposé des pistes de solutions. Mais, selon le Wall Street Journal, ces dernières n’ont été appliquées qu’au strict minimum. Facebook avait notamment réalisé une étude sur le bien-être des adolescents utilisant Instagram. Un vaste sondage montrait que si 30 % des jeunes utilisatrices américaines de l’application disaient qu’Instagram améliore la manière dont elles se sentent, 19 % affirment que le réseau social a un effet négatif sur leur santé mentale, avec des effets plus marqués pour les adolescents et surtout les adolescentes souffrant de troubles psychologiques.

Les faits : Modération des contenus : la « cour suprême » de Facebook conteste des décisions du réseau social

Les causes de ces effets ont été identifiées par les chercheurs de Facebook, dont les conclusions recoupent celles d’autres études indépendantes : une forte pression sociale combinée à la survalorisation d’images de corps et de vies « parfaites ». Les chercheurs recommandaient de diminuer la prévalence des posts de stars et la visibilité des likes, mais d’après les documents consultés par le quotidien américain des affaires, la direction de la société n’a appliqué ces suggestions que de façon minimale et après de longs débats, par crainte de faire baisser les statistiques d’utilisation de la plate-forme.

Polarisation politique

Les documents montrent également que Facebook a très vite su que des changements apportés à son algorithme, en 2018, ont eu de graves conséquences non prévues. Inquiet de voir les chiffres « d’engagement » – le nombre d’actions faites par des utilisateurs, comme les likes, les commentaires, les partages… – sur Facebook chuter, le réseau social avait modifié les règles d’affichage des messages pour privilégier ceux qui recevaient de nombreuses réactions.

Article réservé à nos abonnés Lire aussi Les Gafam, rois du lobbying à Bruxelles

Or, ont alerté les chercheurs, ce changement donnait mécaniquement plus de visibilité aux messages les plus provocateurs, contribuant à une forte polarisation des discussions – un parti politique polonais avait signalé au réseau social qu’il consacrait désormais 80 % de ses messages à attaquer ses adversaires, parce que les messages agressifs fonctionnaient beaucoup mieux. Des correctifs ont été mis en place, mais seulement au printemps 2020, et uniquement pour les contenus touchant à la santé ou à l’engagement civique. M. Zuckerberg aurait refusé un déploiement plus global pour conserver ses utilisateurs sur ses applis.

Il vous reste 50.78% de cet article à lire. La suite est réservée aux abonnés.



Source [ Le monde ]