8 Maggio 2023 - 8.32

Io ne ho viste cose che voi umani non potreste immaginarvi….

«Io ne ho viste cose che voi umani non potreste immaginarvi. Navi da combattimento in fiamme al largo dei bastioni di Orione. E ho visto i raggi B balenare nel buio vicino alle porte di Tannhäuser. E tutti quei momenti andranno perduti nel tempo come lacrime nella pioggia. È tempo di morire”

Molti ricorderanno questa frase diventata un po’ l’icona di Blade Runner, girato nel 1982, diventato un film di culto, come un’altra pellicola di qualche anno prima.

E mi riferisco  a “2001 Odissea nello spazio”, girato nel 1968, in cui il personaggio indiscusso è HAL9000, il supercomputer con Intelligenza Artificiale che gli permette di avere una visione come quella degli esseri umani (tramite un occhio artificiale), comprendere il linguaggio umano, persino tramite la lettura del labiale degli astronauti, interagire con l’uomo con linguaggio naturale (e persino con una voce che sembra umana) e provare dei sentimenti (quelli che lo portano alla “pena” del conflitto interiore).

Da sempre la fantascienza è stata attratta dal tema delle “macchine intelligenti”, immaginate in grado di superare l’intelligenza umana, e mettere a repentaglio la nostra specie.

Il tema è ritornato di stretta attualità dopo le dimissioni  di Geoffrey Hinton, definito “il padrino dell’Intelligenza Artificiale”,  che nei giorni scorsi ha confermato di aver lasciato il suo ruolo di vertice in Google per i “pericoli” legati della tecnologia che lui stesso ha contribuito a sviluppare.

Questo “pentimento” di Hinton mi ha richiamato alla mente (non solo a me in verità) le parole di Robert Oppenheimer, uno dei tre padri della prima bomba atomica statunitense, che ebbe a dire: “Sono diventato la Morte, distruttore dei mondi”.

Perché Hinton ha deciso di lasciare Google, dopo un decennio che lo ha visto impegnato nella frontiera più avanzata dell’Intelligenza Artificiale?

In estrema sintesi per essere più libero di spiegare in dettaglio all’opinione pubblica i pericoli ai quali va incontro.

In realtà non è il solo “pentito” del settore.

Anche Jen Easterly, massima autorità del governo Usa nel campo della cybersecurity ha messo in guardia  sull’estrema difficoltà di individuare e neutralizzare i molti «attori maligni» che si apprestano a usare le enormi capacità dell’intelligenza artificiale per diffondere immagini, video, documenti e codici informatici falsi: la verità, sempre più incerta, che rischia di diventare irrilevante. Come anche il rischio di attacchi sempre più sofisticati di hacker in grado di paralizzare interi sistemi informatici, mettendo in ginocchio aziende o, anche, infrastrutture essenziali (elettricità, acqua, reti informatiche) di interi Paesi.

Segnalo che il primo a ipotizzare che in un futuro non tanto lontano le intelligenze artificiali potrebbero spazzare via l’intera umanità fu niente meno che il grande Stephen Hawking. 

In realtà Hinton non disegna scenari fantascientifici di ribellioni di computer che acquistano coscienza di sé, ma nota che intelligenze artificiali alle quali viene consentito non solo di generare i loro codici informatici, ma anche di gestirli in modo totalmente autonomo, arrivano a formulare ragionamenti e a prendere decisioni che non possono essere previste dai creatori di programmi.

E le sue preoccupazioni le lascia chiaramente trasparire dicendo che “alcune persone avevano l’idea che questa roba potesse effettivamente diventare più intelligente di noi, ma la maggior degli studiosi ritenevano che fosse una possibilità remota. Anch’io lo pensavo: credevo che mancassero dai 30 ai 50 annio anche di più. Ora non lo penso più”.

E che non si parli più di fantascienza lo dimostrano alcune “stranezze” che le Intelligenze Artificiali già manifestano: si chiamano “comportamenti emergenti” e rappresentano le abilità impreviste che una macchina non dovrebbe possedere, e non è ancora affatto chiaro perché si verifichino.

Potrei continuare a lungo a parlarvi dei rischi legati al rapido sviluppo di questa nuova tecnologia. 

Ma penso sia più utile ragionare sui problemi e sui rischi che a mio avviso noi cittadini comuni al momento non siamo messi in grado di valutare, in relazione a queste nuove tecnologie.

Credo che tutte le innovazioni abbiano in ogni epoca provocato discussioni circa il loro utilizzo.

E ciò perché ogni cosa è suscettibile di un uso positivo, ed uno negativo.

Basti pensare, per fare un solo esempio, all’aeroplano, che sicuramente ha cambiato il modo di vivere e di spostarsi dell’umanità, ma che ha anche fornito ai militari un’arma formidabile di offesa.

Ma qui c’è un’aggravante a mio avviso; quella che stiamo parlando dell’elemento che ci contraddistingue dal resto degli essere animati, e che ha determinato il nostro predominio sulla terra; l’intelligenza. 

E uomini come Hinton, che queste tecnologie hanno contribuito a sviluppare, ci mettono in guardia dal rischio di essere bombardati in futuro da sempre nuovi video, foto e testi, generati da intelligenze artificiali, in modo tale da farci perdere la capacità di distinguere cosa sia vero da cosa sia falso.

E oltre a quello della disinformazione, altri rischi legati a questi sistemi sono quelli che potrebbero essere usati in guerra, per truccare le elezioni, e soprattutto che Stati e Organizzazioni internazionali non siano in grado di stabilire regole e confini prima che sia troppo tardi. 

Tanto per rimanere ai fatti dell’oggi, pensate che Vladimir Putin non creerebbe dei robot iper intelligenti con l’obiettivo di uccidere gli ucraini? 

Io credo che non esiterebbe. Ma sono certo che, messi alle strette, molti altri leader non esiterebbero!

Cercando di interpretare  gli allarmi di Hinton, che hanno portato alle sue dimissioni, mi sono chiesto: ma  cosa ha visto, o intravvisto, quest’uomo per decidere di esporsi così allo scoperto?

Evidentemente cose che, mi ripeto, noi uomini e donne normali neppure ci sogniamo, e quindi mi verrebbe da dire che per uscire da questa situazione l’unica cosa da fare sarebbe quella di non sviluppare ulteriormente queste tecnologie, fino a quando non avremo capito se possiamo o saremo in grado di  controllarle.

E magari, perché no, anche aprendo un dibattito che coinvolga i cittadini. 

In fondo è quello che è stato sostenuto lo scorso marzo da alcune figure di spicco del mondo tecnologico (fra cui Elon Musk) che hanno firmato una lettera pubblica in cui si chiedeva ai laboratori di intelligenza artificiale di interrompere l’addestramento dei sistemi di IA più potenti per almeno sei mesi, citando «profondi rischi per la società e l’umanità».

Nonostante questi allarmi, credo non ci si fermerà.  

Non solo perché in certi ambiti, come  la medicina per fare un solo esempio, questa tecnologia sarà fondamentale nel futuro, ma anche perché troppi, e colossali, sono gli interessi in gioco.  

Delle grandi aziende tecnologiche, ma soprattutto degli Stati. 

Non dimenticate mai che la ricerca scientifica e l’avanzamento tecnologico sono storicamente associati anche alla tecnologia bellica; e che una parte consistente della ricerca è svolta per fini militari, tanto che è diventato sempre più difficile separare le tecnologie ad uso esclusivamente civile.

Date queste premesse, sperare in un ripensamento di tipo “etico” mi sembra, appunto, fantascienza. 

Umberto Baldo

VICENZA CITTA UNIVERSITARIA
AGSM AIM
duepunti
UNICHIMICA

Potrebbe interessarti anche:

VICENZA CITTA UNIVERSITARIA
AGSM AIM
duepunti
CAPITALE CULTURA
UNICHIMICA