Alpha go e Alpha Zero: le IA auto apprendenti e il pericolo “artificiale”

di Daniele Lozzi

Pubblicato il 2018-01-24

Il progresso nel campo delle reti neurali e delle intelligenze artificiali (IA) viaggia ad una velocità pazzesca, è di ottobre scorso la notizia della di una IA auto apprendente che ha sbaragliato ogni avversario (umano o artificiale) a GO. Ma cosa si intende per auto apprendente? Cerchiamo di spiegarlo: fino a qualche tempo le IA avevano …

article-post

Il progresso nel campo delle reti neurali e delle intelligenze artificiali (IA) viaggia ad una velocità pazzesca, è di ottobre scorso la notizia della di una IA auto apprendente che ha sbaragliato ogni avversario (umano o artificiale) a GO. Ma cosa si intende per auto apprendente? Cerchiamo di spiegarlo: fino a qualche tempo le IA avevano bisogno di un periodo di “training” cioè di una sorta di pre-caricamento che dava alla rete neurale la capacità di fare quello che le era richiesto (in questo caso una partita di GO), viene da se che le mosse compiute dalla IA fossero relazionate a ciò che le era stato volutamente “insegnato” durante il training; le nuove IA, invece, partono da 0; nel caso di Alpha GO (questo il nome della rete neurale in oggetto) la macchina gioca un numero illimitato di partite da solo (contro se stesso) e quindi elabora in maniera autonoma la strategia per arrivare alla vittoria, sviluppando sempre in maniera autonoma mosse che potremmo definire “originali” ed “inaspettate”.

auto intelligenza artificiale auto apprendente 1
Foto da: Wikipedia

Lo stesso è successo nel mese di dicembre con Alpha Zero, la rete neurale sviluppata da Google che solo dopo 4 ore di autoapprendimento partendo da 0 ha battuto Stockfish, il motore scacchistico per eccellenza. A questo punto vi starete chiedendo: Fichissimo! Ma non vedo dove risieda il pericolo in una macchina che impara da sola. In fondo gioca a Scacchi.
Cerchiamo allora di allargare il campo; se a scontrarsi non fossero Pedoni, Torri e Alfieri ma Caccia Bombardieri, Carrarmati e testate nucleari sareste tranquilli nel lasciare il controllo ad una rete neurale che ha come fine ultimo lo scopo per cui è stata creata e non il benessere dell’umanità? E se il modo migliore per raggiungere questo scopo fosse lanciare una testata nucleare contro il nemico? Queste domande se le stanno ponendo, in maniera sempre più forte, i precursori di queste reti tra cui Elon Musk (fondatore e CEO di Tesla) e Mustafa Suleyman (il fondatore di Deep Mind quella di Alpha Zero) convinti che senza un intervento immediato di organi sovra nazionali le IA ci porteranno alla terza guerra mondiale, a tal proposito hanno inviato una lettera all’ONU affinché impedisca l’uso di reti neurali auto apprendenti per scopi militari: sempre più spesso, infatti, decisione “strategiche” e tattiche in ambito militare sono lasciate ai cervelloni elettronici che elaborano il modo migliore per raggiungere lo scopo.

deep blue

 

Una soluzione interessante è stata proposta dal professor Oren Etzioni dell’Università di Washington, il quale in un editoriale pubblicato sul NYTimes ha proposto una rivisitazione delle 3 leggi della robotica  elaborate dal padre della fantascienza Isaac Asimov da inserire obbligatoriamente in tutte le IA nel dettaglio:
I. Un’intelligenza artificiale deve essere soggetta a tutta la gamma di leggi che si applica al suo operatore umano
II. Un’intelligenza artificiale deve sempre rivelare esplicitamente di essere tale
III. Un’intelligenza artificiale non può memorizzare o rivelare delle informazioni confidenziali a meno che non abbia ricevuto un esplicito permesso da parte della fonte di queste informazioni

 

alpha go intelligenza artificiale

Le 3 leggi, nell’idea del suo ideatore, coprono tutte le possibili complicazioni derivanti da una IA, nello specifico grazie alla prima legge una IA non può “attraversare con il rosso, manipolare azioni in borsa oppure violare trattati internazionali”; con la seconda si evitano situazioni come quella di dialogare con chatbot che “assomigliano” a persone umane; con la terza si mantiene il controllo delle proprie informazioni riservate, pensate se, per esempio, un robot che fa le pulizie in casa vostra rivelasse la piantina della vostra casa a terzi. Il discorso a livello accademico e scientifico è ancora aperto ma l’impressione è che l’opinione pubblica non sia sufficientemente sensibilizzata su un tema che potrebbe essere centrale per la vita di tutti noi nelle prossime decadi; certe scelte “conservative” vanno fatte per tempo perché dopo potrebbe essere troppo tardi.

Leggi sull’argomento: Il senso morale delle auto senza pilota

 

Potrebbe interessarti anche