L’enciclopedia online più famosa al mondo, Wikipedia, si basa sulla possibilità che gli utenti hanno di contribuire liberamente a scrivere una voce di un argomento in cui si sentano ferrati. Quando ci si trova a cercare delle informazioni, però, viene spontaneo chiedersi chi abbia scritto le parole che stiamo leggendo. E se quanto leggiamo sia affidabile. È forse proprio per questa curiosità che nel 2016 è nato un sito (Wikipedia Was Here) in grado di monitorare in tempo reale gli interventi che ciascuno fa su una voce. Il risultato è una sorta di mappatura che geolocalizza la posizione degli autori anonimi.
La localizzazione dell'autore della modifica alla voce su James Comey: deserto dell'Arabia Saudita. Foto: Wikipedia Was Here
Le modifiche anonime alle voci encliclopediche
L’artista e programmatore Justin Blinder ha avuto questa intuizione la notte dell’elezione di Donald Trump a presidente degli Stati Uniti. Ha cominciato a osservare i cambiamenti avvenuti sulla voce relativa al candidato repubblicano che si accingeva a entrare alla Casa Bianca e poi quelle di altre personalità. La tendenza riscontrata è stata quella di marginalizzare le minoranze, offuscando il contesto. Ha quindi deciso di procedere a un’osservazione sistematica.
Gli autori su Google Maps
Il funzionamento di Wikipedia Was Here si basa sulla possibilità di tracciare la posizione degli indirizzi IP dai quali vengono fatte le modifiche, riportandole poi su Google Maps. Questo processo è possibile perché Wikipedia mostra per gli utenti che scelgono di non dotarsi di un username il corrispondente indirizzo IP, così da poter individuare latitudine e longitudine degli autori.
Il rischio fake news
Passando dalla mappatura alle fotografie di Google Street View delle località individuate, Blinder è riuscito anche a farsi un’idea dei contesti dai quali provengono alcune delle modifiche fatte alle voci enciclopediche, riuscendo anche a ipotizzare un intervento politico nella riscrittura di alcune informazioni.
La voce su James Comey, ad esempio, fu modificata dall’Arabia Saudita durante la sua contrapposizione con Trump e molti interventi sono stati fatti a favore della Russia. Il tema quindi è la possibilità che le notizie fornite agli utenti siano in qualche modo pregiudiziali, anche se in maniera molto sottile. Nella sua estremizzazione, questo comportamento potrebbe fare di Wikipedia un mezzo di diffusione di fake news. Il rischio è legato a quello che Blinder chiama “zona grigia”: «Queste sottigliezze o sfumature di linguaggio possono diventare in qualche modo un’arma», ha detto a Fast Company.