Quando, sabato scorso, l’uomo arrabbiato con il mondo perché ancora non gli è stato assegnato il Premio Nobel per la pace, ha dato disco verde per il nuovo attacco su Teheran, tutti si sono chiesti se davvero l’obiettivo dell’intervento è quello di dare speranza a centinaia di migliaia di giovani iraniani oppressi dal regime teocratico. Oppure, anche in questo caso, come già in Venezuela, se le armi servono solo per raggiungere obiettivi legati al mercato del petrolio (che significa essenzialmente profitto e possibilità di determinare l’economia mondiale) e per consentire all’alleato israeliano di ridisegnare, a proprio vantaggio, l’intera mappa del Medio Oriente.
La morte di Khamenei, che nessuno rimpiange, non rappresenta la fine del regime. Anche le uscite di scena di Gheddafi e Saddam Hussein erano state salutate come una liberazione. Anche la sconfitta dei talebani a Kabul. Ma oggi sappiamo che, poi, la storia di Libia, Iraq e Afghanistan non è andata come avevamo sperato. Le guerre, infatti, non portano mai nulla di buono. Oggi, tutto è ancora più evidente perché le grandi armate agiscono con gli strumenti guidati dall’intelligenza artificiale che sembrano rendere tutto “possibile” e tutto “facile”. Soprattutto se chi costruisce questi strumenti li rende liberi da ogni vincolo di carattere etico.
Lo aveva denunciato papa Francesco nel suo messaggio per la “Giornata mondiale della pace” del primo gennaio 2024. “La possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra”. Quello di papa Francesco era un monito di straordinaria attualità soprattutto per i cosiddetti “sistemi d’arma autonomi letali”. “I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto “intelligente”, rimane pur sempre una macchina”.
Proprio nei giorni che hanno preceduto l’attacco su Teheran, a Washington c’era stato un violento scontro tra Pentagono (Ministero della Difesa americano) e uno dei protagonisti della progettazione dell’intelligenza artificiale: Anthropic. Si tratta di una azienda – fondata nel 2021 da ex ricercatori di OpenAI – che ha prodotto “Claude”, un sistema concorrente sia di ChatGPT (prodotto di OpenAI) sia di Gemini (modello di punta di Google). Tutti e tre sono assistenti basati su modelli linguistici avanzati e competono nello stesso mercato: scrittura, analisi di testi, programmazione, ricerca, integrazione in aziende e pubbliche amministrazioni (anche quelle militari).
Attraverso “Claude”, Anthropic aveva da tempo iniziato a collaborare con il sistema militare americano e il Pentagono aveva già utilizzato quei modelli soprattutto per attività di analisi e pianificazione. Lo scontro – che ha visto protagonista Dario Amodei, di chiare origini italiane, amministratore delegato di Anthropic – è nato quando il Dipartimento della Difesa ha chiesto di poter usare l’intelligenza artificiale per “tutti gli usi leciti”, senza limitazioni specifiche. Amodei, però, ha imposto dei paletti: niente utilizzo per sorveglianza di massa sui cittadini americani e nessun impiego nello sviluppo di armi completamente autonome. Una richiesta che è stata letta come volontà di mettere dei paletti etici, regole chiare per evitare che l’intelligenza artificiale venga usata in modo pericoloso o contrario ai principi democratici. La decisione ha portato una grande popolarità a Dario Amodei anche se, è giusto sottolinearlo, i vincoli richiesti erano diretti a salvaguardare i cittadini americani per quanto riguarda la sorveglianza di massa (e tutti gli altri cittadini nel mondo?) e la contrarietà alle armi completamente autonome era giustificato da un giudizio di “non totale affidabilità allo stato attuale”, quasi a garantire un utilizzo in futuro se l’affidabilità dovesse migliorare. Il Pentagono, dal canto suo, ha sostenuto di aver bisogno di massima flessibilità niente vincoli – per ragioni di sicurezza nazionale.
La reazione della Casa Bianca è stata in perfetto “stile Trump” che in un post su Truth ha definito Anthropic come un’azienda «di estrema sinistra», «svitati» che aderiscono all’ideologia woke e che hanno fatto il «disastroso errore» di iniziare un braccio di ferro con il governo Usa. «Cessate immediatamente ogni utilizzo della tecnologia di Anthropic», è stato l’appello del Presidente alle agenzie federali.
Uno scontro a tutto campo con una disputa che riguarda la questione delle regole e dei limiti etici nella programmazione e nell’utilizzo dell’intelligenza artificiale. Soprattutto nel campo più delicato e strategico: chi deve decidere i limiti dell’intelligenza artificiale quando entra nel campo militare? Le aziende che la sviluppano o gli Stati? Un singolo Stato o un accordo più vasto in nome del futuro della “casa comune”?
L’accordo (da 200 milioni di dollari) con Anthropic è saltato. Ma nell’arco di sole 72 ore, mentre i missili viaggiavano alla volta di Teheran (utilizzando proprio la tecnologia di Anthropic) il Pentagono ha firmato un’intesa – senza vincoli – con OpenAI.