Da Siri alle auto che si guidano da sole, l’intelligenza artificiale è tra noi e si sta evolvendo rapidamente. Accade spesso che, quando si parla di AI, questa venga associata ad un robot con caratteristiche umane, ma in realtà i suoi ambiti applicativi possono essere molteplici.
LEGGI ANCHE: VIDEO Boston Dynamics sta costruendo automi che camminano come noi e cani e gatti robot
L’intelligenza artificiale oggi è definita “debole”, in quanto progettata per svolgere un compito limitato, ad esempio il riconoscimento facciale o le ricerche sul web: l’obiettivo a lungo termine di molti ricercatori al lavoro su questa tecnologia è quello di sviluppare un’intelligenza artificiale “forte” in grado di superare gli esseri umani in quasi tutti i compiti cognitivi.
Quali saranno le conseguenze?
Progettare sistemi di AI più intelligenti può portare dei miglioramenti decisivi in molti settori, ma si corre il rischio di lasciare l’intelletto umano molto indietro.
Nonostante la creazione di una super intelligenza artificiale rappresenti un grande passo per l’umanità, utile (forse) a sradicare le guerre, la povertà e le malattie, molti esperti hanno espresso la loro preoccupazione riguardante l’incapacità di allineare gli obiettivi umani con quelli artificiali.
Perché l’intelligenza artificiale può essere pericolosa
https://www.youtube.com/watch?v=kaJgt1uyiJ8
La maggior parte dei ricercatori concorda sul fatto che
un’intelligenza artificiale super intelligente non sia in grado di mostrare emozioni umane come l’amore o l’odio. Non ci sarebbe ragione, dunque, per aspettarsi che diventi intenzionalmente benevola o malevola.
Invece, quando si pensa a come l’AI possa diventare pericolosa, gli scenari possibili sono due: l’intelligenza artificiale potrebbe essere programmata
per diventare pericolosa o potrebbe essere programmata
per essere utile, ma sviluppare autonomamente un metodo distruttivo per raggiungere i suoi obiettivi.
Nel primo caso, l’intelligenza artificiale può diventare estremamente dannosa: basti immaginare
armi autonome, sistemi di intelligenza artificiale programmati per uccidere che, nelle mani della persona sbagliata, potrebbero facilmente causare vittime in modo massivo. Inoltre, una corsa agli armamenti di intelligenza artificiale potrebbe inavvertitamente portare a
una guerra con conseguenze davvero disastrose.
Per evitare di essere ostacolati dal nemico, queste armi potrebbero progettate per essere estremamente difficili da “spegnere”, così gli umani potrebbero facilmente perdere il controllo della situazione. Questo rischio è presente anche con una AI ristretta, ma cresce con l’aumentare dei livelli di intelligenza e autonomia dell’intelligenza artificiale.
Nel secondo caso,
si corre il rischio che gli obiettivi artificiali non siano allineati con quelli umani: ad esempio, se chiediamo ad un auto intelligente di condurci all’aeroporto il più velocemente possibile, questa potrebbe eseguire letteralmente la richiesta, non badando a ostacoli o alla sicurezza. Uno scenario da film probabilmente, ma che
l’intelligenza artificiale avanzata possa non avere le competenze giuste per comprendere gli ordini, è una preoccupazione reale.
I miti riguardo il futuro dell’Intelligenza Artificiale
Ci sono controversie affascinanti su cui i maggiori esperti del mondo non sono d’accordo, come l’impatto di questa tecnologia sul mercato del lavoro; ci sono però anche molti esempi di sterili pseudo-controversie causate spesso da conclusioni troppo azzardate. Cerchiamo di chiarire insieme alcuni di questi “miti” che fanno a volte molto discutere sul futuro dell’AI.
Il primo mito riguarda
il tempo: quanto ci vorrà prima che le macchine superino di molto l’intelligenza umana? Le due opinioni principali e contrarie utilizzano questo secolo come punto di riferimento:
l’AI si svilupperà prima/dopo del 2100. La verità è che non ci sono dati che possano dirci con certezza il tempo che questa tecnologia impiegherà per arrivare al massimo della sua espressione: l’unica cosa che possiamo attualmente fare è prepararci già dal punto di vista della sicurezza, per prevenire i pericoli di cui parlavamo sopra.
Un secondo mito è quello che ritiene che
gli unici a preoccuparsi degli effetti negativi dell’AI siano coloro che non ne conoscono davvero le potenzialità. Falso anche questo: i ricercatori più affermati che lavorano sull’Intelligenza Artificiale sono i primi a nutrire molti dubbi e preoccupazioni sul suo futuro.
Il terzo mito è quello più controverso:
le macchine non hanno obiettivi come possono averli gli umani. Sbagliato:
l’intelligenza artificiale ha degli obiettivi e può svilupparne di nuovi, il problema è se questi siano più o meno allineati con quelli degli esseri umani. Facciamo un esempio: un ipotetico missile comandato dall’AI non ha forse l’obiettivo di uccidere, ma ha l’obiettivo di seguire le fonti di calore, poco importa se queste siano di animali, umani adulti o umani bambini.