Facebook, con più di 1.3 miliardi di user attivi, 10 miliardi di like cliccati quotidianamente e oltre 8 miliardi di video visualizzati ogni giorno, si aggiudica senza dubbio il titolo di social network più utilizzato e più amato di sempre.
Ma si sa, da grandi poteri derivano grande responsabilità.
Uno dei tanti problemi che affligge il Social, infatti, è proprio quello di riuscire a tenere sotto controllo tutti i contenuti che vengono condivisi: dalla circolazione di notizie false, alla diffusione di contenuti violenti, specialmente ora che vi è la possibilità di condividere tutto in “diretta”.
Negli ultimi tempi, infatti, abbiamo assistito alla visione di video davvero raccapriccianti, dai suicidi, a omicidi e atti di violenza mandati in streaming e condivisi senza alcuna pietà.
Dinnanzi a tutto ciò, settimana scorsa Mark Zuckerberg ha deciso di prendere provvedimenti, annunciando l’espansione del team per il controllo dei contenuti violenti, attualmente composto da oltre 4.500 persone, con l’intenzione di raggiungere il numero di 7.000 persone entro fine anno.
Questa azione permetterebbe di avere un maggior controllo sui contenuti condivisi, ma soprattutto darebbe la possibilità di intervenire tempestivamente sui contenuti segnalati e rimuoverli prima che entrino nelle pericolosa e inarrestabile Rete.
“Se vogliamo costruire una comunità sicura, dobbiamo cominciare ad agire rapidamente” ha dichiarato lo stesso Zuckerberg.
A fianco ai componenti di questa squadra, sarà l’intelligenza artificiale a supportare Facebook nell'intento. L’annuncio dello sviluppo di un bot dedicato si inserisce in un contesto più ampio, parzialmente già annunciato dallo stesso Zuckerberg qualche mese fa in una lettera aperta in cui dichiarava la mission di Facebook dei prossimi anni.
Nella speranza che Facebook riesca davvero ad arginare questo grande problema, attendiamo le vostre opinioni a riguardo sulla nostra pagina di Facebook e sul nostro gruppo di LinkedIn.