L'idea all'origine del web, dichiarò Tim Berners Lee, fu che ci fosse uno spazio collaborativo dove le persone comunicassero condividendo informazioni, senza censura.
Il web come luogo di libero scambio di informazioni, un luogo però oggi dominato da attori come Google o social network come Facebook, Twitter o Youtube che hanno le proprie policy e regole, non sempre trasparenti.
Regole e algoritmi che determinano quali siano le informazioni da propagare.
Questi meccanismi (che accettate quando vi iscrivete: sono i famosi TOS, i termini di servizio) sono spesso presentati come necessari per mantenere il contesto pulito e sicuro. In nome della lotta al cyberbullismo, o ai contenuti (genericamente e opportunamente) definiti offensivi, che incitano all'odio, giusto per citarne alcuni, si finiscono per censurare contenuti che, fuori dalla rete, non sarebbero nemmeno presi in considerazione se oggetto di denuncia alle autorità.
Secondo Jeffrey Rosen, che già nel 2004 analizzava come conservare libertà, privacy e sicurezza in un mondo segnato dal 9 settembre 2001 nel libro "Naked Crow" (la folla nuda), "Facebook ha più potere [oggi] di determinare chi possa parlare di ogni corte suprema di giustizia, re o presidente". Naturalmente facebook non è l'unico social ad avere un simile potere.
Si potrebbe dire che, se le regole e restrizioni applicate alla libertà di ciò che si può o no publicare divenissero troppo rigide, gli utenti potrebbero migrare verso altre piattaforme.
Ma, come fa notare la professoressa e scrittrice Marjorie Heins nel suo articolo per il forum "Harvard Law Review", bisogna prima sapere cosa sia censurato.
Le regole ci sono, ma è raramente trasparente il modo in cui siano applicate e ancor meno chiaro quali siano le possibilità, per un normale utente, di fare appello ad una decisione presa da un anonimo operatore remoto. Qualche tempo fa il sito di gossip Gawker pubblicò il documento guida per i moderatori che devono esaminare le segnalazioni degli utenti Facebook.
Un manuale operativo ben preciso che istruisce dettagliatamente come determinare se una segnalazione debba essere ignorata, confermata o inoltrata ad un livello di decisione superiore.
La censura su Facebook funziona a pieno ritmo, anche se spesso sembra che le segnalazioni vengano ignorate.
LEGGI ANCHE: La censura su Facebook esiste ed è in ottima salute
A soddisfare almeno parzialmente questa necessità e come modo per forzare i colossi dei social network a essere più trasparenti, nel 2012 è stato creato il sito onlinecensorship.org, un progetto congiunto della Electronic Frontier Foundation (EFF) e Visualizing Impact.
I fondatori avevano iniziato a notare la scomparsa di post dei loro amici, ma il caso che li fece prendere la decisione di fare qualcosa di concreto fu la rimozione da Facebook del link alla canzone "Libertà per la Palestina" pubblicato dai Coldplay nella loro pagina: segnalato da una moltitudine di utenti come "offensivo" il link era stato rimosso da Facebook (e non dagli stessi Coldplay, come si credette in un primo momento).
Contro la censura online il sito adotta due strategie:
- Permette agli utenti dei social network di segnalare post rimossi per la censura applicata dai social network
- Informa sulle procedure da adottare per fare ricorso contro la rimozione effettuata
Il sito si propone anche come gruppo di pressione nei confronti dei social affinché le loro regole siano più compatibili con i principi della libertà di espressione, incrementando la consapevolezza degli utenti su come quelle aziende controllino, di fatto, cosa possono dire.
Secondo il terzo osservatorio delle comunicazioni dell'AGCOM, Google e Facebook sono tra le principali fonti di informazione degli italiani, con poco più del 17% complessivo di utenti che li scelgono. Il giornale "La Repubblica" si aggiudica il primo posto, con il 13,5%, seguito da Google con il 8,8%, ANSA (8,4%) e Facebook (8,3%).
E se la televisione è, per il 99% degli italiani, la fonte principale in assoluto, una buona metà (54%) si rivolge a internet.
Su internet però non c'è solo l'effetto della censura applicata dai moderatori e dagli algoritmi di Google o dei social come Facebook.
Anni fa l'attivista Eli Pariser denunciò infatti l'esistenza delle bolle dei filtri (filter bubbles): crediamo di poter vedere ogni cosa presente in internet e i social e invece gli algoritmi di ricerca e di filtro, tarati sulle nostre preferenze, interessi, attività ci mostrano solo una parte. Quella che ritengono, in base ai dati accumulati su di noi, più rilevante.
Queste bolle introducono, in aggiunta alla censura attiva dei contenuti, una ulteriore distorsione delle informazioni e una limitazione al loro accesso.
Facebook e i suoi specialisti di Data analysis hanno cercato conferme all'esistenza di queste bolle, dentro facebook.
Secondo questo studio l'effetto delle bolle sarebbe inferiore a quanto pronosticato da Eli Pariser, ma come egli stesso dichiara, è uno studio che analizza una magra porzione della popolazione Facebook (10 milioni di utenti su un totale di un miliardo e mezzo) e, soprattutto, non è uno studio riproducibile da specialisti esterni, poichè Facebook non rilascia i dati per farlo. L'effetto, se pur minore, rimane significativo.
Sembrerebbe che la realtà si sia discostata molto da quell'ideale di libertà, apertura e condivisione collaborativa delineato da Tim Berners Lee.
Un rimedio immediato sembrerebbe non esserci. Solo la consapevolezza di quanto accadde, il mantenere vivo lo spirito critico , il supporto a iniziative e l'uso di strumenti come onlinecensorship.org potrebbero, se non altro, limitare l'ingerenza di imprese private che, nella nostra libertà di espressione, non dovrebbero aver voce in capitolo.
Non lo pensate anche voi?