Image default
Economie

Facebook a minimisé des initiatives internes visant à affaiblir les contenus extrémistes


Faire le bien en reliant les gens entre eux. Entre le principe affiché et la réalité créée par les algorithmes de Facebook, le fossé est large et profond. Des études menées en interne, aux alentours des années 2017 et 2018, l’ont crûment démontré aux dirigeants du réseau social. Mais ceux-ci ont minimisé la portée des solutions proposées, quand ils ne les ont pas refusés net, rapporte le Wall Street Journal. De quoi affaiblir la portée des attaques récentes de Donald Trump, pour qui Facebook – et les réseaux sociaux en général- défavorisent les contenus républicains.

«Le mythe le plus résistant à propos de Facebook, c’est que le réseau social n’avait pas conscience des dégâts qu’il crée», a commenté sur Twitter le chroniqueur du New York Times Kevin Roose. «Mais en réalité, il a toujours su de quoi il retournait et le mal qu’il pouvait faire à la société.» Et pour cause: le réseau avait toutes les données sur le comportement des utilisateurs à sa disposition, au contraire des chercheurs externes à la société.

Ainsi, une sociologue salariée chez Facebook avait perçu dès 2016 qu’il y avait un problème. Elle avait repéré qu’un tiers des groupes portant sur la politique allemande diffusait des contenus racistes, conspirationnistes et pro-russes. Ces groupes bénéficiaient d’une influence disproportionnée grâce à quelques-uns de leurs membres hyperactifs. L’étude avait même mis en évidence que «64% des personnes qui rejoignent les groupes extrémistes l’ont fait à cause de nos algorithmes de recommandation». En conclusion, la sociologue prévenait que «notre système de recommandation alimente le problème».

Entre 2017 et 2018, une équipe formée d’ingénieurs et de chercheurs a en effet été constituée en interne pour traiter ce problème. Il était baptisé «Common ground» («terrain d’entente»). D’autres entités appelées «Integrity teams» («équipes Intégrité») ont également été mises en place. La politique envisagée ne consistait pas à inciter les gens à changer d’avis, mais à favoriser les contenus qui créaient «de l’empathie et de la compréhension».

Problème, les suggestions d’amélioration, comme élargir le cercle des recommandations, auraient diminué «l’engagement» des utilisateurs. En un mot, ils auraient été moins actifs sur le réseau social. L’équipe «Common ground» en avait pris son parti et avait qualifié lui-même ses propositions «d’anti-croissance», appelant Facebook à «adopter une posture morale».

Crainte des critiques de la droite

Autre découverte des chercheurs de Facebook: la présence bien plus imposante sur le réseau des publications d’extrême droite, par rapport aux groupes d’extrême gauche. Dans ce contexte, même prendre des mesures pour réduire les titres «pièges à clic» aurait défavorisé ces sites ultraconservateurs. Les propositions de l’équipe «Common Ground» ont donc été rejetées, les dirigeants de Facebook craignant de se faire critiquer par la droite pour censure.

Une proposition a été partiellement suivie, en revanche: minimiser un peu l’influence des utilisateurs hyperactifs. En effet, certains profils passaient 20 heures par jour sur le réseau – probablement des faux profils de propagande politique – et bénéficiaient ainsi des faveurs des algorithmes de Facebook. Poussé à agir notamment par le scandale Cambridge Analytica, le géant américain a depuis pris d’autres mesures, parmi lesquelles favoriser les contenus partagés par une large base d’utilisateurs et non seulement des militants, ou au contraire défavoriser les sources en ligne diffusant des fausses nouvelles.

Nous ne sommes plus la même société

Une porte-parole de Facebook.

«Nous ne sommes plus la même société, s’est défendue une porte-parole de Facebook, citée par le Wall Street Journal. Nous avons beaucoup appris depuis 2016, nous avons créé une grosse équipe «intégrité» et renforcé nos politiques pour limiter la propagation de contenus haineux.» En février, Facebook a aussi lancé un fonds de 2 millions de dollars pour financer les études universitaires sur les effets de Facebook sur la polarisation de la société.

SERVICES: Réalisez des économies en utilisant un code promo Canon





Source link

Autres articles

pour les bars, c’est «toujours mieux que rien»

administrateur

la justice maintient des restrictions sur la vente de produits en France

administrateur

La décision en appel concernant Amazon attendue aujourd’hui

administrateur

StopCovid, l’appli de traçage enfin disponible pour la phase 2 du déconfinement

administrateur

Disney plombé par la dure réalité de la pandémie

administrateur

Pourquoi un tsunami de licenciements est inévitable

administrateur