Compensation Pour Le Signe Du Zodiaque
Composition C Célébrités

Découvrez La Compatibilité Par Le Signe Du Zodiaque

Facebook annonce des changements radicaux à ses politiques anti-désinformation

Vérification Des Faits

(Shutterstock)

Facebook entame le deuxième trimestre de l'exercice en déployant des changements dans la manière dont il combat la désinformation sur sa plateforme.

Dans un article de blog de près de 2 000 mots envoyé à Poynter mercredi, Facebook a annoncé une série de nouvelles choses qu'il fait pour lutter contre les fausses nouvelles, images et vidéos.

Parmi les changements :

  • Facebook réduit désormais la portée des groupes qui diffusent à plusieurs reprises des informations erronées.
  • Il explore l'utilisation du crowdsourcing comme moyen de déterminer les médias auxquels les utilisateurs font le plus confiance.
  • Et la société ajoute de nouveaux indicateurs à Messenger, aux groupes et au fil d'actualité dans le but d'informer les utilisateurs du contenu qu'ils voient.

'Nous avons un certain nombre de mises à jour de produits contre un ou deux changements majeurs', a déclaré la porte-parole de Facebook Mari Melguizo dans un e-mail à Poynter. 'Ces efforts se concentrent sur la sécurité des personnes et le maintien de l'intégrité des informations qui transitent par nos applications.'

Voici ce que chacun des plus grands changements a spécifiquement à voir avec la désinformation, avec le contexte des journalistes, des universitaires et des technologues, ainsi que des lectures supplémentaires sur chaque sujet. Lire le blog de Facebook dans son intégralité ici .

Rétrograder les groupes qui propagent la désinformation

L'un des plus grands changements annoncés par Facebook mercredi était qu'il commencerait à rétrograder la portée des groupes qui diffusaient à plusieurs reprises de fausses nouvelles, images et vidéos.

'Lorsque les membres d'un groupe partagent à plusieurs reprises du contenu jugé faux par des vérificateurs de faits indépendants, nous réduisons la distribution globale du fil d'actualité de ce groupe', ont écrit Guy Rosen, vice-président de l'intégrité de Facebook, et Tessa Lyons, responsable de l'intégrité du fil d'actualité. , dans le billet de blog.

Facebooka pris le dessusau cours des derniers mois pour la diffusion des théories du complot anti-vaccins, dont beaucoup ont commencé en groupe puis se sont propagées au reste de la plateforme. En réponse à la fois à la pression médiatique etla pression des politiciens américains, l'entreprise a esquissé un plan début mars pour freiner le contenu antivaxxer sur sa plateforme.

Dans ce document, Facebook a annoncé que les groupes et les pages qui partagent des informations erronées sur les vaccins seraient supprimés de son algorithme de recommandation – mais pas complètement supprimés. Cette décision était une reconnaissance tacite du pouvoir que les groupes ont dans la diffusion de faux contenus.

Facebook prend des mesures contre les complots anti-vaccins. Mais les faux remèdes médicaux ont toujours une portée massive.

BuzzFeed News a rapporté en mars 2018 que la fonctionnalité, souvent saluée par la direction de Facebook - et prioritaire dans le fil d'actualité – était devenu 'un pot de miel mondial de spam, de fausses nouvelles, de complots, de désinformation sur la santé, de harcèlement, de piratage, de pêche à la traîne, d'escroqueries et d'autres menaces pour les utilisateurs'. Pourquoi?

'Les propagandistes et les spammeurs ont besoin de rassembler un public, et les groupes le servent sur un plateau', a déclaré Renee DiResta, chercheuse en sécurité, à BuzzFeed. 'Il n'est pas nécessaire de lancer une campagne publicitaire pour trouver des personnes réceptives à votre message si vous pouvez simplement rejoindre des groupes pertinents et commencer à publier.'

Et, alors que la société a pris plusieurs mesures pour limiter la propagation de la contrefaçon dans le fil d'actualité, jusqu'à mercredi, elle ne faisait pas grand-chose pour lutter contre la désinformation spécifiquement dans les groupes.

'Il n'y a pas d'effort concerté pour se débarrasser des fausses nouvelles, de la désinformation, peu importe', a déclaré à Poynter un ancien employé de Facebook qui travaillait sur des groupes en janvier. 'C'est tellement pire parce qu'il reste là et qu'il est caché... c'est tout aussi grave qu'une machine de génération de fausses nouvelles et de désinformation comme il l'a jamais été sur le fil d'actualité.'

Leonard Lam, porte-parole des groupes Facebook, a déclaré à Poynter que les mêmes politiques anti-désinformation qui régissent des produits comme News Feed s'appliquent à l'ensemble de la plate-forme. Cela signifie que de faux articles, images et vidéos démystifiés par les partenaires de vérification des faits de Facebook apparaîtront avec la vérification des faits pertinente affichée en dessous, même en groupe.

Ces signaux seront également utilisés pour déterminer quels groupes sont des désinformateurs répétés, l'une des premières choses que Facebook a faites spécifiquement pour lutter contre la désinformation dans les groupes.

Les groupes Facebook hyperpartisans sont le prochain grand défi pour les vérificateurs de faits

Crowdsourcing confiance dans les nouvelles

L’annonce de mercredi intervient alors que Facebook étend son partenariat avec des points de vérification des faits à travers le monde – sans doute l’effort le plus visible de l’entreprise pour lutter contre la désinformation sur la plate-forme.

Facebook a lancé le programme en décembre 2016 avec des vérificateurs de faits américains comme PolitiFact (appartenant à Poynter), Snopes et Factcheck.org. L'objectif : identifier, démystifier et réduire la portée des fausses nouvelles sur la plateforme. Une fois qu'un canular est signalé comme faux, sa portée future dans le fil d'actualité est réduite et une vérification des faits lui est ajoutée.(Divulgation : Être signataire deCode de principes du réseau international de vérification des faits de Poynterest une condition nécessaire pour rejoindre le projet.)

Depuis lors, ila étendupour laisser les fact-checkers démystifier les fausses images et vidéos. Le partenariat a grandi à 47 projets écrits dans 23 langues à travers le monde. Et tandis que des projets comme Snopes et CBS se sont retirés pour différentes raisons, des médias comme l'Associated Press ont récemment agrandi leur engagement envers le programme.

Une nouvelle fonctionnalité anti-désinformation pourrait aider à renforcer ce travail.

Comment Facebook traite la désinformation, en un seul graphique

'Il n'y a tout simplement pas assez de vérificateurs de faits professionnels dans le monde et, comme tout bon journalisme, la vérification des faits prend du temps', ont écrit Rosen et Lyons dans le billet de blog. 'Une idée prometteuse pour renforcer leur travail, que nous explorons depuis 2017, implique des groupes d'utilisateurs de Facebook pointant vers des sources journalistiques pour corroborer ou contredire les affirmations faites dans un contenu potentiellement faux.'

Le PDG Mark Zuckerberg a diffusé cette idée dans une vidéo Facebook en février — un peu plus d'un an après il l'a d'abord fait flotter . Le déménagement n'était pas populaire parmi les journalistes, qui ont déclaré que les utilisateurs quotidiens de Facebook ne sont pas en mesure de mettre de côté leurs préjugés pour évaluer les organes d'information crédibles.

Mais une nouvelle étude publié en février 2018 suggère le contraire.

'Ce que nous avons constaté, c'est que, bien qu'il existe de réels désaccords entre les démocrates et les républicains concernant les médias grand public, pratiquement tout le monde - démocrates, républicains et vérificateurs de faits professionnels - s'accorde à dire qu'il ne faut pas faire confiance aux sites factices et hyperpartisans', a déclaré David Rand. , professeur associé au Massachusetts Institute of Technology, dans un communiqué de presse .

Selon le billet de blog de mercredi, Facebook continuera d'explorer l'idée en consultant des universitaires, des experts en vérification des faits, des journalistes et des organisations de la société civile.

'Tout système que nous mettons en œuvre doit avoir des garanties contre le jeu ou la manipulation, éviter d'introduire des préjugés personnels et protéger les voix des minorités', ont écrit Rosen et Lyons.

Le crowdsourcing de sources fiables sur Facebook n'est pas aussi farfelu que vous le pensez

Plus de contexte sur Facebook

Par le passé, les entreprises technologiques se sont tournés vers des sites Web comme Wikipédia pour fournir plus de contexte sur les sources qui publient sur leurs plateformes. Mercredi, Facebook a annoncé une multitude de nouveaux indicateurs similaires.

'Nous investissons dans des fonctionnalités et des produits qui donnent aux gens plus d'informations pour les aider à décider quoi lire, faire confiance et partager', ont écrit Rosen et Lyons dans le billet de blog.

Facebook a mis à jour son bouton contextuel, lancé en avril de l'année dernière, pour inclure des informations Le projet de confiance sur les politiques d'éthique des éditeurs, la propriété et la structure de financement. L'entreprise commence à afficher plus d'informations dans son onglet de qualité de page, qui lancé en janvier pour montrer aux propriétaires de pages lesquels de leurs messages ont été démystifiés par les partenaires de vérification des faits de Facebook. Et, dans Messenger, la société ajoute un badge vérifié pour réduire les usurpations d'identité et les escroqueries.

Facebook commence également à étiqueter les messages transférés dans Messenger – une tactique apparemment empruntée à la société sœur WhatsApp, qui déployé une fonctionnalité similaire en juillet pour tenter de réduire la propagation de la désinformation.

WhatsApp lance une fonctionnalité qui étiquette les messages transférés

Bien qu'ils constituent un moyen simple de donner aux utilisateurs plus d'informations sur les éditeurs sur les réseaux sociaux, et ainsi les empêcher de partager des informations erronées, des indicateurs tels que le bouton contextuel de Facebook peuvent également être manipulés.

Au cours de l'été, quelqu'un a vandalisé la page Wikipédia du Parti républicain de Californie pour dire qu'il soutenait le nazisme. Alors que la plupart des cas de vandalisme sur Wikipédia sont détectés assez rapidement, ce cas d'incident a fait son chemin vers Google, qui a fait surface la fausse modification en haut des résultats de recherche.

C'est rare. Mais étant donné le volume de modifications apportées à Wikipédia chaque jour, il peut être difficile pour les plateformes technologiques de détecter tous les cas de vandalisme.

'Bien sûr, c'est un moyen assez faible de lutter contre les fausses nouvelles car Wikipédia n'est pas une source d'informations fiable - comme même Wikipédia le reconnaît', Magnus Pharao Hansen, chercheur postdoctoral à l'Université de Copenhague, dit Poynter en juin . 'Wikipedia est très vulnérable aux canulars et contient toutes sortes de fausses informations, ce n'est donc pas un moyen très sérieux de lutter contre le problème des nouvelles fabriquées.'

Le vandalisme de Wikipédia pourrait contrecarrer les canulars sur Google, YouTube et Facebook

Dans le même temps, des fonctionnalités telles que l'onglet Qualité de la page de Facebook ont ​​eu un effet plus démonstratif sur la propagation de la désinformation.

Après Factcheck.org démystifié un faux meme sur la représentante américaine Alexandria Ocasio-Cortez (D-N.Y.) en mars, la page qui a publié la photo Supprimé . Et ce n'était pas la première fois; autres pages de désinformation répétées sur Facebook ont supprimé du contenu démystifié par les partenaires de vérification des faits de l'entreprise, et certains ont rebaptisé leurs opérations tout à fait.

Correction: Une version précédente de cet article avait mal orthographié le nom de famille de Leonard Lam.