Quante volte, su un post di natura politica, ma anche su un semplice video girato tra i banchi di scuola e postato su Facebook, ci è capitato di leggere decine e decine di commenti pieni di rabbia, insulti e offese gratuite? Per non parlare poi di quando è il video stesso - magari anche live - a contenere scene di violenza e abusi, verbali e non.
Parliamo spesso di contenuti inappropriati sui social media. Ma al di là dei pareri pressoché unanimi sulla necessità di regolamentare un territorio difficilmente controllato e controllabile, una soluzione reale sembra ancora lontana.
In questi giorni, però, si è tornato a parlarne ancora una volta in modo particolarmente acceso, e forse potrebbe presentarsi all’orizzonte uno spiraglio di luce: una commissione parlamentare del Regno Unito ha espresso a chiare lettere la necessità di introdurre provvedimenti concreti per contrastare l’odio veicolato da alcuni commenti sui social. Nello specifico, si prospetta l'introduzione di multe fino a decine di milioni per i social che non saranno in grado di bloccare o rimuovere con tempestività i contenuti inappropriati.
Una misura eccessiva? Di chi è la responsabilità in fondo, del singolo che scrive o del mezzo che gli dà spazio senza filtri o censure?
In un report stilato dalla commissione, dal titolo "Hate crime: abuse, hate and extremism online", si evidenzia l'urgenza di correre immediatamente ai ripari da parte delle piattaforme di social media - definendo appunto il concetto di "crimine d'odio"- e di mettere mano al quadro normativo per garantire chiarezza sulle misure di legge attuabili.
“Attualmente le compagnie di social media non vengono minimamente penalizzate quando mancano di rimuovere contenuti illegali. Ci sono troppi esempi di social media messi a conoscenza della circolazione di materiale illegale ma che non hanno preso provvedimenti per rimuoverli in modo tempestivo. Suggeriamo che il Governo predisponga uno schema di sanzioni che includono multe significative per le compagnie che non procedono alla rimozione in tempi rapidi." si legge nel report.
Ma cosa prevedono le normative in materia di hate speech?
Il Codice di Condotta dell'Unione Europea sul tema hate speech, approvato lo scorso anno in accordo con le principali società di social media, non parla di sanzioni finanziarie, ma fa emergere la crescente convinzione, per molti Paesi, di dover avviare un processo di revisione legislativa che obblighi i social ad avere un ruolo attivo nella lotta all'odio e alla circolazione di materiale illegale.
Lo scorso mese, ad esempio, il Governo tedesco ha approvato un disegno di legge che prevede multe fino a 50 milioni di euro per i social che non agiscono entro 24 ore dalla segnalazione da parte degli utenti.
Di qualche mese fa, invece, la lettera aperta di Laura Boldrini indirizzata direttamente a Facebook, in cui si legge "risulta cancellato appena il 28% dei contenuti segnalati come discriminatori o razzisti. Una media che si ricava dal 50% di Germania e Francia e dal misero 4% italiano".
Ma proprio questo è il punto: si può contare solo sulla segnalazione da parte degli utenti? Gli strumenti per segnalare esistono, su tutti i social. Eppure abbiamo sperimentato in tanti come i tempi di verifica a volte siano davvero lunghi, e i criteri di giudizio spesso opinabili.
“Per i contenuti d'odio o di natura estremista, i social fanno affidamento sulle segnalazioni dei loro utenti, per poi procedere ad una revisione. Di fatto, stanno attingendo a risorse esterne, a costo zero, per far fronte alle loro enormi responsabilità di tutela" - si legge ancora nel report.
Secondo la commissione parlamentare, quindi, sarebbero i social stessi, in primo luogo, a dover aumentare le misure di sicurezza e prevenzione. Anche perché l'hate speech non è l'unico problema: quando si parla di contenuti inadeguati non ci si riferisce solamente a commenti d'odio, ma a tutta una serie di materiali che vanno dalla pedo-pornografia, all'incitazione alla violenza, alla promozione del terrorismo, solo per citare alcuni esempi. E per salvaguardare gli utenti non si può fare affidamento solo...sugli utenti stessi.
Cosa rispondono i social?
Per YouTube: "Prendiamo molto seriamente questo problema, abbiamo recentemente ristretto le nostre policy sulla pubblicità, aggiornato l'algoritmo, e stiamo espandendo partnership con specialisti che operano in questo campo. Continueremo a lavorare sodo per risolvere questa sfida e un problema così complesso".
Da parte sua invece, Simon Milner, Direttore della Policy di Facebook, ha dichiarato: "Per noi niente è più importante della sicurezza delle persone su Facebook. È per questo che abbiamo implementato modi rapidi e semplici che permettano alle persone di segnalare e a noi di revisionare - e se necessario rimuovere - questi contenuti dalla nostra piattaforma. Siamo d'accordo con la Commissione sul fatto che possiamo fare ancora di più per evitare che odio ed estremismo circolino online. Per questo stiamo lavorando a stretto contatto con i nostri partner - esperti del Kings College di Londra e l'Istituto di Dialogo Strategico per aiutarci ad migliorare l'efficacia del nostro approccio."
Infine, anche Twitter ha detto la sua: "Le nostre regole stabiliscono chiaramente che non tolleriamo odio e abusi su Twitter. Agiamo quando riceviamo segnalazioni, ma abbiamo anche aumentato i nostri sforzi in numerose aree. Dall'introduzione di tool per combattere gli abusi, all'espansione dei nostri team di supporto, ci stiamo muovendo alla svelta e in tempo reale. Stiamo anche investendo nella tecnologia per rimuovere gli account che utilizzano in modo inadeguato la piattaforma per il solo scopo di infastidire gli altri. È importante notare che si tratta di un lungo processo in corso, in cui noi ascoltiamo i feedback dei nostri utenti e agiamo rapidamente per perseguire la nostra missione di migliorare Twitter per tutti."
Sembra che per i social l'argomento sia uno degli obiettivi e delle sfide principali in questo momento. L'aiuto della tecnologia, l'utilizzo di tool appositi e l'ampliamento delle risorse umane sono validi strumenti per combattere l'hate speech sui social.
Basteranno o sono davvero necessarie delle sanzioni?