• About Author

  • Tutta l'Informazione Ninja nella tua mail

  • “Vi spiego come i capi del web ci profilano ogni giorno (e perchè non siamo pronti per difenderci)”

    Abbiamo intervistato la nota sociologa turca Zeynep Tufekci. Un tema attualissimo, quello della sorveglianza degli utenti (più o meno dichiarata) e della manipolazione della realtà attraverso i social

    20 Marzo 2018

    Ci troviamo nel bel mezzo di un vero e proprio passaggio d’epoca e forse stiamo iniziando a capirlo proprio in questi giorni sulla scia dello scandalo che ha coinvolto Facebook e Cambridge Analytica. Se da un lato l’inchiesta dei reporter di Channel 4 News ha svelato i mezzi oscuri e illegali che la società di marketing politico inglese ha utilizzato per far vincere le elezioni ai suoi clienti in tutto il mondo – danneggiando gli avversari attraverso agguati mediatici, scandali costruiti ad hoc, utilizzo di prostitute e organizzazioni segrete – , dall’altro emerge in maniera sempre più chiara come il mix di analisi dei big data, utilizzo di comunicazione persuasiva e algoritmi dei social che gestiscono la visibilità dei contenuti online sia sempre di più alla base della politica e quindi delle dinamiche democratiche nazionali e internazionali.

    La manipolazione social(e)

    Lo scandalo che sta affossando in borsa il titolo di Facebook ci mette in guardia sulle dinamiche perverse di manipolazione sociale che è in grado di generare chi ha il controllo e la gestione di questi algoritmi e l’accesso a strumenti e tecnologie di analisi e di marketing avanzate, in grado di profilare gli elettori e di indirizzare messaggi propagandistici elaborati sulla base di un mix di falsità (spesso create ad hoc), veicolate con l’impatto psicologico di emozioni forti e ancestrali (come la rabbia e la paura) e in contesti digitali al di fuori dal controllo sociale (come ad esempio i dark post non pubblici). Questo passaggio epocale riguarda la costruzione sociale della realtà, dell’opinione pubblica, della democrazia, operata dai media digitali e dal loro (perverso) uso ad opera di società e consulenti senza scrupoli. Pochi giorni fa il CEO di YouTube Susan Wojcick, ha dichiarato a margine del SXSW festival che il social aggiungerà ai video sulle teorie cospirazioniste informazioni estratte da Wikipedia per fornire punti di vista alternativi su argomenti controversi. La distorsione e radicalizzazione delle opinioni operate dai social media – che sono oggi la principali fonte di informazione delle persone – è uno dei temi che ha studiato e che divulga Zeynep Tufekci, Ted speaker, tecno-sociologa di origini turche e professoressa all’Università del Noth Carolina. Se ci pensiamo, gli algoritmi di machine learning che sono alla base della meccaniche di erogazione e correlazione dei contenuti spingono l’utente verso la visione di quelli sempre più forti ed estremi. E’ così che Youtube e Facebook ci incollano allo schermo, ed è così che possono distorcere e manipolare la realtà. Ho conosciuto Zeynep e l’ho intervistata per Ninja a Goiania in Brasile, a margine dell’evento #EnelFocusOn (Qui puoi vedere tutto il suo intervento).
    Zeynep Tufekci
    Zeynep Tufekci

    L’altra faccia (oscura) del web

    Facebook, Google, Amazon: qual è il lato oscuro del loro business model? «Queste aziende sono nel business del “coltivare” l’attenzione delle persone per venderla ad inserzionisti: permettono una sorta di sorveglianza profilata. Ti profilano e progettano sistemi per te utili ma tali da farti rimanere dentro la loro piattaforma per più tempo possibile. Mentre sei dentro provano a farti guardare le pubblicità per le quali sono pagati dai clienti. Questo ha due grandi implicazioni: la prima è che ci troviamo in un mercato della sorveglianza, in un business che si gioca sul riuscire a tenerti incollato sempre di più per portare a termine la compravendita della nostra attenzione. Spesso questa dinamica si allinea bene con la nostra volontà: è ovvio che se cerco qualcosa online voglio che Google mi mostri dei contenuti rilevanti per la mia ricerca». unnamed (3) «Dall’altro lato… voglio davvero che Facebook possieda tutte queste informazioni su di me? Voglio davvero che Facebook ingegnerizzi le cose in maniera tale da farmi restare tra le loro pagine quanto più tempo è possibile? L’altra grande implicazione è che le informazioni atroci, rabbiose, incendiarie e polemiche riescono a viralizzarsi più velocemente, così come i contenuti dolci, carini e coccolosi; quindi il business model ha un preciso interesse a promuovere un certo tipo di informazioni nella sfera pubblica! Visto che questo avviene su una scala di miliardi di persone, con pochissime verifiche, in questo modo si oltrepassano oggi facilmente i gatekeeper dove ieri invece magari vi era una censura. Si può inneggiare alla pulizia etnica, diffondere fake news o materiale scottante che diventa virale sapendo che questo tipo di contenuto è strettamente connesso al loro modello di business. Noi non siamo i loro clienti: noi forniamo loro il prodotto e cioè la nostra attenzione».

    La società degli algoritmi

    Da una prospettiva sociologica, tutto è un costrutto sociale. Come viene plasmata oggi la società dalla digital economy? «Non è solo una costruzione sociale: è al contempo un costrutto tecnologico, politico e legale. Ora le tecnologie digitali hanno ampliato la scala e cambiato l’interattività delle cose che facciamo. In passato avevamo dei gatekeeper che si potevano oltrepassare o meno. Oggi invece abbiamo miliardi di smartphone e abbiamo perso tanti di quei gatekeeper tradizionali che validavano o abolivano certe tipologie di informazioni: al loro posto abbiamo algoritmi che in tempo reale decidono se promoverle o affossarle. Riusciamo ad ottenere dati precisissimi che prima non avevamo… questa è una transizione enorme». unnamed (4) «Al giorno d’oggi l’intelligenza artificiale può inferire cose e capirle in modi prima impossibili. Questa è la seconda rivoluzione industriale, o la terza in base a come le si contano, ma in ogni caso rappresenta uno shift storico di enorme portata. Lo svantaggio è che, al contrario delle prime rivoluzioni industriali, questo nuovo potenziale si sta manifestando molto velocemente. In cinque – dieci anni tutto è tecnologicamente cambiato e noi non abbiamo avuto ancora il tempo di sviluppare gli anticorpi sociali, culturali e politici per affrontare il nuovo paradigma».

    Scenari e controllo sociale

    Come si può proteggere la società dal bias del machine learning, nella prospettiva sia del consumatore che del policy maker? Intervenendo forse sugli algoritmi delle grandi digital company per limitarne il potere? «Credo sia necessaria per la industry una combinazione di regulation, sia hard che soft, una maggior consapevolezza ed ulteriori nuove tecnologie. Abbiamo bisogno di tanto. Esiste questo nuovo potere che lavora e fallisce in modi estremamente interessanti; un potere che in alcune circostanze incorpora al suo interno dei bias e in altre no. Ci può potenzialmente servire qualsiasi strumento per far sì che il machine learning lavori a beneficio delle persone senza transizioni sconvolgenti». Nel corso di #EnelFocusOn abbiamo parlato di digitalizzazione e reti energetiche intelligenti. Nel tuo intervento ci hai messo in guardia dalla possibilità che governi e aziende possano controllare movimenti sociali tramite un abuso delle smart grid energetiche?  Anche le reti elettriche, oltre ai social potrebbero in futuro diventare potenzialmente uno strumento di controllo sociale? «Non credo ci sia una sola risposta ed ecco perché questo tema deve trasformarsi in una discussione politica. Se si ha una smart grid ed ognuno può essere singolarmente misurato allora sorgeranno domande prima inesistenti: come condividiamo questi dati? Come li interpretiamo? Come si distribuisce l’energia elettrica in caso di mancanza, come scegliere a chi dare priorità e a chi no? Qualsiasi sia la risposta, dev’essere ampiamente discussa, condivisa e legittimata dalle persone. Invece di imporre una soluzione sarà a mio avviso necessario creare un momento politico in cui trovare un compromesso significativo per le persone: questa e al sfida». unnamed (6)