L’AI, la coscienza ed i carri armati. Quando l’etica non basta

Umberto Baldo
C’è un momento, nelle grandi rivoluzioni tecnologiche, in cui l’uomo si guarda allo specchio e si accorge che l’oggetto che ha creato comincia a fissarlo con troppa attenzione.
È successo con l’energia atomica, è successo con Internet, sta succedendo ora con l’Intelligenza Artificiale.
L’Occidente fedele alla sua tradizione di dubbi e sensi di colpa, ha già aperto il dibattito: regole, limiti, controlli, codici etici.
L’idea è nobile.
La tecnologia deve restare al servizio dell’uomo.
Non deve sostituirlo, manipolarlo, dominarlo. Men che meno distruggerlo.
Fin qui siamo nel campo della civiltà.
L’Unione Europea si è già mossa con l’AI Act, imponendo criteri di trasparenza e responsabilità.
Negli Stati Uniti il dibattito è più caotico, soprattutto in questa stagione politica dominata dalla figura di Donald Trump, non esattamente un teorico della regolazione sofisticata.
Ma anche lì il tema resta sul tavolo.
E qui arriva il paradosso.
Poniamo che l’Occidente riesca davvero nell’impresa titanica: stabilire regole condivise, limitare l’uso militare, vietare applicazioni disumane, imporre controlli severi.
Un trionfo dell’etica. Un capolavoro di autocontrollo storico.
E poi?
Poi restano fuori dal perimetro morale, solo per citare due Stati, la Russia di Vladimir Putin e la Cina di Xi Jinping.
Sistemi politici che non hanno mai brillato per la passione verso i vincoli autoimposti quando si tratta di potenza strategica.
Se l’intelligenza artificiale diventa un’arma decisiva, un moltiplicatore di forza militare, uno strumento di guerra autonoma, crediamo davvero che Mosca e Pechino si fermeranno davanti a un codice etico redatto a Bruxelles o a Washington?
La storia non è confortante.
Quando l’Occidente si è imposto limiti, lo ha fatto perché poteva permetterselo.
Perché aveva un vantaggio strutturale.
Ma se la competizione si gioca su algoritmi capaci di coordinare droni, penetrare reti elettriche, sabotare infrastrutture finanziarie in millisecondi, la questione diventa brutale: chi si autolimita rischia di restare indietro.
Ed ecco la domanda scomoda: che valore avrà la nostra etica se sarà pagata con la nostra vulnerabilità?
Attenzione, non è un invito al cinismo.
È una constatazione geopolitica.
L’etica funziona quando è condivisa, o quando è sostenuta da una forza che la rende credibile.
Senza deterrenza, la morale è una bella dichiarazione d’intenti; con la deterrenza, diventa politica.
Il rischio vero non è che l’intelligenza artificiale “si ribelli”.
Questa è fantascienza per chi ha troppo tempo libero.
Il rischio reale è che diventi l’ennesimo campo di competizione tra modelli di potere.
Da una parte società aperte che discutono e si impongono limiti.
Dall’altra sistemi autoritari che vedono nella tecnologia uno strumento naturale di controllo interno e proiezione esterna.
Il punto non è scegliere tra etica e sicurezza.
Il punto è capire che senza sicurezza l’etica diventa irrilevante.
E senza etica la sicurezza diventa barbarie.
La sfida per l’Occidente non è solo regolamentare l’Intelligenza artificiale.
È farlo senza disarmarsi strategicamente.
Costruire regole comuni, sì.
Ma accompagnarle con capacità tecnologiche e militari tali da impedire che chi non si dà regole possa imporre le proprie.
È un equilibrio delicato, quasi ossimorico: potenza e limite, innovazione e controllo, libertà e difesa.
Se riusciremo in questo esercizio di funambolismo, avremo dimostrato che la democrazia sa governare anche le tecnologie più dirompenti.
Se falliremo, rischiamo di scoprire che l’algoritmo non ha morale.
E che nel mondo reale, purtroppo, non basta aver ragione per avere ragione.
Umberto Baldo










