• About Author

  • Tutta l'Informazione Ninja nella tua mail

  • Sull’etica dell’Intelligenza Artificiale: i robot prenderanno sempre la decisione giusta per l’uomo?

    A Campus Party abbiamo discusso con Matteo Flora sugli scenari che dobbiamo aspettarci nel futuro per intelligenze impiegate a supporto di attività critiche per l'uomo

    30 Luglio 2019

    L’evoluzione vorticosa di tecnologia e scienza si lascia dietro urgenti domande sulla relazione – attuale e futura- tra uomo e macchina. Come assicurarsi che i robot con cui cooperiamo prenderanno sempre la decisione giusta per il benessere dell’umanità, mentre perseguiranno l’obiettivo per cui sono stati programmati? Quali scenari dobbiamo aspettarci nel futuro per intelligenze impiegate a supporto di attività critiche per l’uomo, come ad esempio per scopi militari? Abbiamo riflettuto sul tema dell’etica dell’Intelligenza Artificiale a Campus Party insieme a Matteo Flora – professore in Corporate Reputation e Storytelling presso la Facoltà di Economia dell’Università di Pavia, fondatore di The Fool e LT42, la Società di LegalTech italiana. Flora ha approfondito il tema dell’etica dell’intelligenza artificiale nel suo speech dal palco Utopia. LEGGI ANCHE: Cristina Cipriano: al Campus Party vi racconto la straordinarietà dell’ordinario LEGGI ANCHE: Sir Tim Berners-Lee, il talento, le idee, le imprese. Campus Party spiegato

    Ciao Matteo! Partiamo dal tema centrale del tuo talk: in che modo la disciplina dell’etica può essere applicata all’Intelligenza Artificiale?

    «L’etica è quella branca della filosofia che studia i fondamenti razionali che permettono di assegnare ai comportamenti umani uno status deontologico. In altre parole, ci consente di capire se un comportamento umano è giusto o sbagliato, è buono o cattivo. Normalmente si applica ai comportamenti umani, ma nel momento in cui l’Intelligenza Artificiale viene usata anche per prendere delle decisioni che impattano sulla vita degli esseri umani lo stesso concetto deve essere traslato all’Intelligenza Artificiale. Da qui nasce il concetto di etica applicata all’Intelligenza Artificiale, che non ha ancora una definizione precisa. Si tratta di riuscire a codificare in qualche modo all’interno di policy come e perché l’etica deve essere presente già nelle implementazioni. Ci sono sistemi che già, ad esempio, decidono se qualcuno potrà o meno avere un prestito finanziario,  sistemi che possono decidere sarai assunta o meno. Ecco, questa parte va normata. Ma prima delle norme l’etica va messa nelle policy».

    Spiegaci la differenza tra i termini “policy”  e “norma”.

    «La policy racconta un futuro: è un documento programmatico in cui esprimiamo dei desiderata, i “do” e i “don’ts”. Una policy per l’etica dell’Intelligenza Artificiale dovrebbe raccontare le basi su cui verrà costruita un’Intelligenza Artificiale. Una norma in genere arriva a regolare uno status quo che già esiste, è una regola che “viene dopo”». LEGGI ANCHE: Partecipa all’esperienza d’innovazione e creatività di Campus Party (e scopri la Job Factory)

    Perché secondo te l’Intelligenza Artificiale sarà utilizzata per deumanizzare scelte impopolari?  

    «Uno dei problemi dell’Intelligenza Artificiale è quello che gli americani chiamano math washing, pulire attraverso la matematica, ovvero la possibilità di attribuire una decisione spesso impopolare non alla realtà volitiva di  un essere umano che se ne deve prendere la responsabilità, ma ad un calcolo di una macchina. Il classico “Signora, le concederei volentieri il prestito, è il sistema che mi dice che non posso”. Toglie la responsabilità a una persona e l’attribuisce ad un sistema ritenuto infallibile, ma che infallibile non è (perché basato su un corpus di contenuto fallibile) e attribuirà a quello ogni tipo di decisione, comprese nelle killer machine, ovvero nei sistemi di arma usati a scopo militare, la decisione tra vita e morte di un essere umano, ad esempio in caso di guerra».

    C’è un momento in cui l’applicazione dell’etica all’Intelligenza Artificiale non sarà più rimandabile?

    «Quando raggiungeremo la singolarità, il momento in cui il progresso tecnologico si muove così velocemente che gli esseri umani non sono più in grado di gestirne, sia le implicazioni che le conseguenze. Succederà quando raggiungeremo l’Intelligenza Artificiale Generale, ovvero una macchina che pensa come un essere umano. C’è già chi dice dagli anni ’60 che l’Intelligenza Artificiale Generale sarà l’ultimo programma scritto dagli esseri umani perché in quel momento un’altra intelligenza artificiale scriverà altre intelligenze artificiali migliori, e migliori degli esseri umani. Quelle che tanti chiamano adesso “super intelligenze”».

    Ti lancio un’ultima – provocatoria e distopica – domanda: come si programma un Dio?

    «Come controlli una macchina che è più intelligente di te? Ha un vantaggio competitivo enorme, perché è molto più veloce di te: se pensi a una soluzione ne troverà un’altra migliore, e in meno tempo e potrebbe muoversi secondo paradigmi non umani. Come controlli un sistema di questo tipo? Potremmo diventare quasi inutili, potrebbe diventare un oracolo, quel qualcosa cui ci affidiamo per dire se qualcosa è giusto o sbagliato. Tradizionalmente questa cosa ha un nome, è un Dio. E come lo programmi un Dio? Con tanta compassione, con la capacità di comprendere ed evitare il dolore e capire che il futuro dovrebbe essere costruito non sulla massimizzazione del profitto ma sulla minimizzazione della sofferenza».