Découvrez La Compatibilité Par Le Signe Du Zodiaque
Demandez à l'éthicien : est-il juste que Facebook supprime les informations conservatrices ?
Éthique Et Confiance

Photo de Dave Pape via Flickr.
Gizmodo a déclenché une tempête sur les réseaux sociaux aujourd'hui lorsqu'il signalé que les conservateurs de la section 'tendances' de Facebook mettent régulièrement le holà aux reportages de droite.
L'histoire, attribuée à des sources anonymes, était notable en partie à cause du statut de Facebook en tant que géant des médias qui dirige chaque jour un tuyau d'incendie vers les organes de presse. Mais cela a également fait des vagues parce que Facebook a pris soin de se présenter comme un intermédiaire non partisan pour les nouvelles, une entreprise qui diffuse des histoires sans biais. Dans une réponse à l'histoire de Gizmodo, Facebook a déclaré qu'il prenait les allégations de partialité 'très au sérieux' et a réaffirmé son engagement à fournir des opinions 'à travers le spectre politique'.
En un peu plus d'une décennie, Facebook est passé d'une startup de dortoir à un des plus grands distributeurs de nouvelles et d'informations dans le monde entier. Alors, comment devrions-nous réagir lorsque l'un des intermédiaires les plus importants du journalisme se révèle être composé d'êtres humains avec des préjugés humains ? Vous trouverez ci-dessous une session de questions-réponses avec Kelly McBride, vice-présidente du Poynter Institute et son éthicien des médias, sur ce que le rapport d'aujourd'hui signifie pour l'industrie de l'information.
Si l'affirmation de Gizmodo est exacte et que les conservateurs de l'actualité de Facebook évitaient délibérément l'actualité conservatrice, cela pose-t-il un problème ? Si oui, pourquoi?
C'est un problème car cela démontre la capacité de manipuler le marché des idées depuis les coulisses. Ce n'est pas nouveau, mais cela sape les partisans des médias sociaux qui disent que Facebook est un forum de distribution de nouvelles plus démocratique.
Nous savons depuis longtemps que les algorithmes ont des biais programmés dans leur processus de sélection. Mais cette affirmation selon laquelle les humains annulaient le processus de sélection sape toute l'idée d'une liste d'actualités et de flux algorithmiques. Cela me suggère que Facebook n'avait pas une confiance totale dans sa base d'utilisateurs. Cela est particulièrement vrai lorsque vous considérez l'affirmation de la source anonyme selon laquelle l'équipe a été chargée de trouver une source plus neutre pour les informations qui avaient tendance sur la base des rapports initiaux d'un site conservateur.
Je soupçonne qu'il existe plus d'informations sur cette pratique, décrite par des sources anonymes, qui nous aideront à comprendre ce que Facebook essayait d'accomplir. Parce que cela n'a pas beaucoup de sens commercial pour Facebook de manipuler secrètement des sujets tendance en fonction d'un point de vue politique.
Cela n'aliénerait-il pas une grande partie de leurs utilisateurs ? Il doit y avoir plus de détails qui nous aideraient à comprendre cela. Peut-être, comme l'a spéculé une source, affinaient-ils l'algorithme ?
Organismes de presse évidemment avoir des préjugés sur ce qu'ils choisissent de présenter. La préférence de Facebook ici est-elle vraiment si différente d'un journal, d'une chaîne de télévision ou d'une startup numérique ?
C'est un peu plus difficile à discerner pour le public, donc c'est moins transparent et donc différent. Il est plus facile de repérer un biais humain quand on sait en chercher un. Jusqu'à présent, nous pensions que l'équipe des sujets tendance écrivait simplement des titres et des descriptions, sans influencer réellement notre compréhension de ce qui est tendance.
Cette histoire révèle que les recommandations de Facebook ne sont pas entièrement pilotées par des algorithmes – elles sont faites en partie par des humains, avec des préférences humaines. Y a-t-il des mesures que Facebook peut prendre pour réduire l'apparence de biais dans ses sélections ?
Si vous voulez que le public vous fasse confiance, la transparence est toujours la réponse, que vous parliez de préjugés humains ou de préjugés machine. C'est plus facile à dire qu'à faire, dans les deux cas. Il est difficile pour les humains de décrire avec précision leurs préjugés. Et les algorithmes ont besoin d'un peu d'opacité s'ils veulent résister à la manipulation.
Si Facebook pouvait nous en dire plus sur ce que l'algorithme privilégie et ce que l'algorithme rejette, ce serait utile. Si Facebook pouvait également nous dire ce que les humains font et ne font pas, nous aurions plus d'informations que nous n'en avons actuellement et plus de raisons de faire confiance à ce que nous voyons.
Facebook est un énorme déterminant des nouvelles que nous voyons en ligne. A-t-il la responsabilité d'être transparent sur la façon dont il nous sert des histoires ?
En tant que premier moteur d'audience des sites d'actualités, Facebook est devenu la plus grande force du marché des idées. Cette influence s'accompagne d'une responsabilité importante. Facebook pourrait être à la hauteur de cette responsabilité de plusieurs façons. Dans le passé, Facebook a affirmé qu'il reconnaissait ses obligations démocratiques. Mais il peut toujours faire plus.
Y a-t-il d'autres mesures que Facebook pourrait prendre ?
Voici une idée folle : que se passerait-il si Facebook (et d'autres entreprises qui ont clairement la capacité d'influencer le marché des idées) avait un éditeur public, comme le fait le New York Times ? Cette personne serait en mesure de faire des recherches et d'écrire sur l'entreprise du point de vue du public, de répondre aux questions et d'expliquer les valeurs qui motivent certaines décisions.
Le rédacteur en chef de Poynter, Benjamin Mullin, a contribué à ce rapport.