Découvrez La Compatibilité Par Le Signe Du Zodiaque
Le vandalisme de Wikipédia pourrait contrecarrer les canulars sur Google, YouTube et Facebook
Vérification Des Faits

Pendant un bref instant, le Parti républicain de Californie a soutenu le nazisme. Du moins, c'est ce qu'a dit Google.
C'est parce que quelqu'un a vandalisé la page Wikipédia du parti le 31 mai pour répertorier le «nazisme» aux côtés d'idéologies comme le «conservatisme», le «libéralisme de marché» et le «conservatisme fiscal». L'erreur a été supprimée des résultats de recherche, avec Google clarifier à Vice News que le moteur de recherche n'avait pas réussi à détecter le vandalisme dans l'entrée Wikipedia.
Si vous recherchez « républicains de Californie » sur Google, Google répertorie le « nazisme » comme l'une des idéologies. pic.twitter.com/JblamxkyF7
— Éric Wilson (@ericwilson) 31 mai 2018
Google a longtemps attiré l'encyclopédie en ligne pour ajouter des informations de base aux résultats de recherche. Selon le journal des modifications pour la page du GOP de Californie, quelqu'un a ajouté 'nazisme' à la section idéologie du parti vers 7 h 40 UTC le 31 mai. La modification a été supprimée en une minute, mais il semble que l'algorithme de Google ait gratté la page juste à temps pour le faux.
'Parfois, les gens vandalisent les sources d'information publiques, comme Wikipédia, ce qui peut avoir un impact sur les informations qui apparaissent dans la recherche', a déclaré un porte-parole de Google à Poynter dans un e-mail. 'Nous avons mis en place des systèmes qui détectent le vandalisme avant qu'il n'affecte les résultats de recherche, mais parfois des erreurs passent, et c'est ce qui s'est passé ici.'
La Wikimedia Foundation, une organisation à but non lucratif qui exploite Wikipédia, a également publié une déclaration sur Twitter.
Un résultat du panneau de connaissances de Google a révélé le vandalisme d'un @Wikipédia article aujourd'hui. En savoir plus sur ce qui s'est passé et sur la manière dont le vandalisme est traité sur Wikipedia. pic.twitter.com/fcoaK2DsXq
— Wikimédia (@Wikimédia) 1 juin 2018
Selon Google, plus de 99,9 % des modifications de Wikipédia qui apparaissent dans les panneaux de connaissances, qui affichent des informations de base sur les mots clés consultables en haut des résultats, ne sont pas du vandalisme. L'utilisateur qui a rédigé la modification originale de la page du California GOP n'a pas utilisé de profil utilisateur , ce qui les rend difficiles à repérer.
C'est une tactique commune parmi les personnes qui vandalisent les pages Wikipédia, une pratique que l'organisation à but non lucratif a abondamment documenté . Mais étant donné le volume de modifications apportées sur Wikipédia — environ 10 par seconde , avec 600 nouvelles pages par jour - et le fait que Facebook et YouTube en tirent désormais parti pour fournir plus de contexte aux publications, le potentiel et les effets des abus sont élevés.
'Bien sûr, c'est un moyen assez faible de lutter contre les fausses informations car Wikipédia n'est pas une source d'informations fiable - comme même Wikipédia le reconnaît', a déclaré Magnus Pharaon Hansen , chercheur postdoctoral à l'Université de Copenhague, dans un message à Poynter. 'Wikipedia est très vulnérable aux canulars et contient toutes sortes de fausses informations, ce n'est donc pas un moyen très sérieux de lutter contre le problème des nouvelles fabriquées.'
Hansen édite des pages Wikipédia depuis environ 10 ans et a déclaré que le vandalisme est monnaie courante sur la plate-forme. Le nombre d'éditeurs a diminué ces dernières années, alors que les partisans en ligne ont de plus en plus ciblé la plateforme - un problème qui est arrivé à la tête lors de la controverse Gamergate en 2014. C'est essentiellement un jeu de nombres.
C'est loin d'être où en était Wikipédia en 2005 , lorsqu'une étude a révélé qu'il était à peu près aussi précis que Britannica. Et cela rend plus difficile pour les éditeurs bénévoles de lutter contre le vandalisme à grande échelle sur Wikipédia, ce qui n'augure rien de bon pour l'utiliser pour lutter contre la désinformation sur d'autres plateformes.
'Il y a certainement beaucoup d'informations erronées sur Wikipédia, et beaucoup d'entre elles vont rester', a déclaré Hansen. 'Souvent, quelqu'un écrit un article et il peut s'écouler des années avant que quelqu'un vienne le modifier. Les gens ne vérifient pas les faits à moins que quelque chose ne semble vraiment déplacé.
Une Article Wikipédia fabriqué vécu sur le site pendant une décennie avant d'être supprimé en 2015.
Dans le même temps, la plate-forme s'est avérée résistante au type de canulars qui deviennent régulièrement viraux sur Facebook et Twitter . Estimations Wikimédia qu'environ 2,5% des modifications quotidiennes sont du vandalisme, et Samantha Lien, responsable des communications pour Wikimedia, a souligné un algorithme qui signale automatiquement les modifications douteuses comme un succès clé pour ses efforts d'intégrité.
'Les articles ont tendance à fournir une représentation équilibrée des faits, et le site s'est avéré résistant aux fausses nouvelles et à la désinformation jusqu'à présent', a-t-elle déclaré à Poynter dans un e-mail. 'Nous avons également travaillé avec des éditeurs bénévoles au cours des deux dernières années pour créer et améliorer des outils de modération afin d'identifier et de traiter rapidement le vandalisme sur Wikipedia.'
Au-delà des propres limites de Wikipédia, les propres systèmes des plates-formes technologiques font souvent l'objet d'erreurs et de controverses, en particulier les panneaux de connaissances.
Toujours le 31 mai, une recherche d'un sénateur républicain soutenant Donald Trump en Caroline du Nord fait apparaître une image d'elle avec 'bigot' écrit en bas. En janvier, The Daily Caller a découvert que Google ajoutait à tort des vérifications des faits à son contenu et non à celui d'autres points de vente. Cela a conduit la société de technologie à suspendre la fonctionnalité jusqu'à ce qu'elle ait résolu les bogues.
Google a déclaré à Poynter qu'il ne modifiait pas manuellement les résultats de recherche pour afficher la préférence d'une partie par rapport à une autre. Mais ses algorithmes sont régulièrement manipulés par canulars , fausses publicités et les trolls cherchant à modifier les résultats de recherche. Et ces problèmes pourraient s'étendre à d'autres plates-formes liées à Wikipédia.
'Lorsque davantage de plates-formes médiatiques utilisent le contenu de Wikipédia sans discernement, cela augmente les enjeux – à la fois pour ceux qui induiraient en erreur ou canular et pour ceux qui diffuseraient les connaissances', a déclaré Hansen. 'Je pense que, en particulier avec un lien vers Wikipedia à partir de vidéos YouTube sur les théories du complot, cela pourrait avoir pour effet d'attirer la mauvaise foule.'
En mars, YouTube a annoncé qu'il créerait un lien direct vers les pages Wikipédia dans les descriptions vidéo afin de fournir plus de contexte et de démystifier les théories du complot viral, qui deviennent souvent virales après avoir annoncé des événements d'actualité. Ces 'indices d'information' - qui ont été introduits sur la plate-forme à l'insu de Wikipédia – comprendra une courte ligne sur la source et un lien vers sa page Wikipedia.
Cette fonctionnalité n'a pas encore été déployée, mais YouTube en a introduit une similaire en février qui fournit plus de contexte aux organes de presse qui reçoivent de l'argent du gouvernement américain.

(Capture d'écran de YouTube)
Compte tenu de la visibilité accrue des pages Wikipédia, il est concevable que des vandales affluent vers la plate-forme afin de troller plusieurs plates-formes avec une seule modification.
« Le « piratage » de Wikipédia a toujours été un problème, mais c'était un problème qui n'affectait vraiment que les lecteurs de Wikipédia. Maintenant, c'est encore plus dangereux car les plates-formes tirent de plus en plus automatiquement de Wikipédia », a déclaré Claire Wardle, directrice exécutive de First Draft, dans un e-mail à Poynter. 'Pour les agents de désinformation qui veulent une amplification maximale, toute technique qui garantit que les plateformes ou les salles de rédaction se répéteront et donc légitimeront un mensonge, offre un' retour sur investissement 'disproportionné.'
Bien qu'il serve de source pour plus de plates-formes, Wikipédia n'a pas connu d'augmentation du vandalisme, a déclaré Lien. Mais voyant comment les ajouts ont pris l'organisation au dépourvu, on ne sait pas exactement dans quelle mesure ils affecteront l'intégrité des pages Wikipédia.
'La tendance des entreprises technologiques à utiliser Wikipédia pour résoudre les problèmes de désinformation sur leurs propres plates-formes est un nouveau territoire pour nous, et nous ne savons pas quelles seront toutes les implications', a-t-elle déclaré. « À court terme, nous surveillons de près comment cela affecte Wikipedia et notre communauté mondiale de bénévoles. À ce jour, nous n'avons rien vu qui indiquerait un problème de vandalisme à plus grande échelle. »
Mais même s'il y avait une augmentation du vandalisme sur Wikipédia avec l'intention de modifier les résultats sur les plateformes, Lien a déclaré que l'organisation n'aurait aucun moyen de le savoir.
'Nous n'avons pas de données disponibles qui indiqueraient les tendances du vandalisme avec l'intention explicite de manipuler d'autres plateformes', a-t-elle déclaré.
Alors, quelle est la probabilité que davantage de fausses informations se retrouvent sur d'autres plateformes ? Joseph Reagle, professeur agrégé de communication à la Northeastern University et expert de Wikipédia, a déclaré à Poynter qu'il n'y a aucun moyen de savoir sans les bons systèmes de surveillance en place, la structure qui a été mise en place pourrait rendre la désinformation plus visible – même lorsqu'elle n'est pas créée pour le jeu plateformes comme Google et Facebook.
'Oui, c'est probable, et je pense que cela va devenir encore plus probable à mesure que ces entreprises à but lucratif continueront de prendre le train en marche', a-t-il déclaré. 'Dans le cas de Google, je ne pense pas que l'intention de la modification était de polluer les utilisateurs en aval de Wikipédia, mais c'était toujours l'effet. Le fait que Wikipédia soit utilisé par ces sortes d'agrégateurs en aval fera également de Wikipédia davantage une cible, ce qui est un sujet de préoccupation.
Pourtant, bien qu'il se rétrécisse, Wikipédia a toujours une communauté engagée d'éditeurs qui ont des années d'expérience gérer des articles sur les dernières nouvelles. Nathan Matias, associé de recherche postdoctoral à l'Université de Princeton, a déclaré à Poynter dans un e-mail que la désinformation ne risque pas de passer fréquemment entre les mailles du filet à cause de cette communauté.
Mais en marge du site, cette chance augmente considérablement.
'Dans les cas d'actualité, où des militants de toutes sortes ont développé des moyens d'influencer les algorithmes de la plate-forme plus rapidement que la vitesse du journalisme, je m'attends à ce que Wikipédia soit plus résistant à l'influence', a-t-il déclaré. 'Les risques pour Wikipédia et les plateformes seront plus importants en marge de la connaissance et de l'attention, car il est plus difficile de repérer un petit flux de personnes accédant à du matériel extrémiste discret.'
Malgré les défis, certains experts considèrent les plateformes technologiques liées aux pages Wikipédia comme un pas en avant pour lutter contre la désinformation en ligne.
Eni Mustafaraj, professeur adjoint d'informatique au Wellesley College, a déclaré à Poynter dans un e-mail que l'ajout de Wikipédia aux grandes plateformes technologiques est une décision positive. Mais cela vient avec des mises en garde.
'Ils doivent le faire de manière cohérente, et pas seulement pour lutter contre la désinformation, les canulars ou les théories du complot', a-t-elle déclaré. 'Afin de lutter contre la désinformation, nous ne devrions pas mettre Facebook et Google aux commandes, car ce sont eux qui ont exacerbé le problème en premier lieu.'
Dans le même temps, retirer des informations de Wikipédia de la plate-forme peut intrinsèquement dérouter les lecteurs. Hansen a déclaré que voir des liens vers le site à partir de plateformes de médias sociaux, même s'ils sont bien étiquetés, ne suscitera pas le même type de scepticisme qui est intrinsèque aux utilisateurs de Wikipédia.
'Le lecteur ne sait pas que cela vient de Wikipedia. Ce genre d'introduction introduit une couche où vous ne pouvez pas être sûr de la source de l'information », a-t-il déclaré. 'Les gens sont sceptiques quand ils sont sur Wikipédia - vous pouvez voir quand il n'y a pas de source... quand vous êtes sur une autre plate-forme, vous n'êtes pas attentif à ce genre de choses.'
Ensuite, il y a la question de la bande passante. Alors que la rédaction continue de décliner, Wikipédia pourrait envisager d'embaucher des employés à temps plein dont le travail consiste à surveiller le vandalisme et à s'assurer qu'il ne se propage pas à d'autres plateformes. Hansen a déclaré qu'il pensait que l'organisation à but non lucratif devrait créer une unité interne de vérification des faits ou solliciter des éditeurs experts et des universitaires pour peser sur certaines des pages les plus nuancées.
'Je pense que c'est le seul moyen de lutter contre la désinformation sur Wikipédia', a-t-il déclaré.
À tout le moins, Lien a suggéré que les plates-formes technologiques qui utilisent Wikipédia pour contrer la désinformation redonnent à l'organisation à but non lucratif d'une manière ou d'une autre – un point que la directrice exécutive de Wikimedia, Katherine Maher, a soutenu dans un article récent pour Wired . (Facebook et Youtube ne sont pas inclus parmi les meilleurs bienfaiteurs de Wikimedia.)
'Nous encourageons les entreprises qui utilisent le contenu de Wikipédia à redonner dans le même esprit de durabilité', a-t-elle déclaré. 'Ce faisant, ils rejoindraient les millions d'individus qui contribuent à maintenir la force et la prospérité de Wikipédia.'
Et Matias a accepté.
'Si les entreprises s'attendent à s'appuyer sur des quantités massives de travail non rémunéré et souvent psychologiquement pénible de la part des Wikipédiens et de la Wikimedia Foundation pour résoudre certains de leurs problèmes les plus difficiles, elles doivent trouver des moyens de soutenir ce travail tout en protégeant l'indépendance intellectuelle de Wikipédia', a-t-il déclaré.