L’attacco all’Iran è avvenuto poche ore dopo che i negoziati tra il Dipartimento della Difesa degli Stati Uniti (Pentagono) e la società tecnologica Anthropic si erano conclusi senza successo, e che era stato raggiunto un accordo con OpenAI per consentire l’uso “senza restrizioni” di strumenti di intelligenza artificiale nelle operazioni militari
La divergenza emersa con l’abbandono di OpenAI a causa delle critiche secondo cui si stava evolvendo in un’entità a scopo di lucro e che la sicurezza dell’IA stava venendo relegata in secondo piano, e la successiva creazione di Anthropic, si è riflessa anche nei negoziati con il Pentagono.
Sebbene si affermi che l’esercito statunitense attualmente utilizzi il modello di chatbot AI Claude di Anthropic nella raccolta di informazioni, nelle attività di sviluppo di armi e nelle operazioni militari, la richiesta del Pentagono di utilizzare lo strumento AI “illimitatamente” nelle operazioni militari non è stata accettata.
Il Pentagono ha chiesto ad Anthropic di rimuovere tutte le restrizioni di sicurezza sul suo modello di intelligenza artificiale Claude e di rendere la tecnologia disponibile per “un utilizzo illimitato per tutti gli scopi legittimi”.
L’azienda ha dichiarato che “Claude non ha fatto praticamente alcun progresso nel prevenire la sorveglianza di massa dei cittadini statunitensi e il suo utilizzo in armi completamente autonome”. Il Pentagono, tuttavia, ha negato queste affermazioni.
In seguito a ciò, il presidente degli Stati Uniti Donald Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia antropica.
Trump ha dichiarato che gli Stati Uniti non avrebbero permesso a un’azienda “radicale di sinistra e astuta” di dettare all’esercito come vincere le guerre, aggiungendo che Anthropic aveva commesso un “errore disastroso” controllando con la forza il Pentagono e imponendo i propri termini di servizio al posto della Costituzione.
Poco dopo questo sviluppo, il CEO di OpenAI, Sam Altman, ha annunciato di aver raggiunto un accordo con il Pentagono per integrare i propri modelli di intelligenza artificiale nella rete del ministero. Altman ha affermato che l’accordo avrebbe tutelato la sicurezza e i principi etici di OpenAI, sostenendo che il Pentagono era sensibile alle questioni di sicurezza.
Il potere dell’intelligenza artificiale
Poche ore dopo questi colloqui con le aziende specializzate in soluzioni di intelligenza artificiale, è iniziato l’attacco statunitense e israeliano all’Iran. Pertanto, mentre era in corso l’attacco all’Iran, i negoziati con le aziende di intelligenza artificiale e le loro posizioni sono diventati una delle questioni più importanti dell’agenda mondiale.
Si ritiene che il Pentagono voglia concludere rapidamente le trattative con le aziende per ottenere un vantaggio nelle operazioni da svolgere in questo contesto e sfruttare ulteriormente la potenza dell’intelligenza artificiale di cui già dispone.
Pertanto, si afferma che l’obiettivo è quello di utilizzare le capacità dell’intelligenza artificiale in settori quali l’identificazione di obiettivi, gli attacchi multidimensionali, la gestione di sciami di droni e l’analisi/prevenzione/blocco di attacchi informatici “in modo più ampio, efficace e rapido”.
Gli esperti affermano che l’intelligenza artificiale ad alta capacità è di grande importanza per l’efficacia e il coordinamento degli strumenti e dei metodi che si prevede di utilizzare contro l’Iran.
La piena autonomia è un’opportunità o una minaccia?
Anthropic si oppone al concetto di “operazione completamente autonoma”, ritenuto particolarmente necessario per scenari di attacco e difesa multi-elemento o basati su sciami. L’obiettivo è superare i problemi derivanti dalla gestione umana di un simile ambiente di combattimento, facendo sì che il sistema prenda le proprie decisioni.
Proprio quando questa operazione stava per iniziare, Anthropic si rifiutò di consentire che la sua tecnologia venisse utilizzata in sistemi d’arma autonomi, una posizione interpretata come “legare le mani ai soldati sul campo di battaglia”.
Oltre al fatto che il concetto di “operazione completamente autonoma”, in cui l’intelligenza artificiale prende decisioni sul campo di battaglia senza supervisione umana, non ha ancora una base nel diritto internazionale, questo approccio è considerato tecnicamente rischioso e da alcuni ritenuto non etico.
In questo contesto, OpenAI, colmando il vuoto lasciato da Anthropic, ha sostanzialmente garantito all’esercito statunitense il supporto di intelligenza artificiale di cui ha bisogno.
Il rapido processo decisionale basato sull’intelligenza artificiale consente diversi approcci offensivi e difensivi.
Il professor Süleyman Serdar Kozat, membro della facoltà dell’Università di Bilkent e direttore generale di DataBoss, che ha dato un contributo significativo all’intelligenza artificiale in Turchia, ha dichiarato a un giornalista dell’AA che, come hanno dimostrato i recenti sviluppi tra Iran e Stati Uniti, i dati sono diventati l’elemento più critico sul campo di battaglia.
Kozat ha affermato che, nel processo in corso, le tecnologie di intelligenza artificiale utilizzate da Stati Uniti e Israele sono in grado di fornire un rapido supporto decisionale e diversi approcci offensivi e difensivi analizzando simultaneamente un’ampia gamma di dati, come registrazioni di sensori sul campo, immagini satellitari, dati radar, informazioni di intelligence open source e segnali di guerra elettronica.
Kozat ha sottolineato che questa tabella è una chiara indicazione non solo di un conflitto regionale, ma anche di quanto l’intelligenza artificiale sia diventata fondamentale nei settori della difesa, della sicurezza e della pianificazione strategica per la Turchia. Ha osservato che, mentre l’uso efficace dell’intelligenza artificiale sta aumentando in settori come l’individuazione degli obiettivi, l’analisi delle minacce, la pianificazione logistica e il coordinamento della difesa nei conflitti attuali, i recenti sviluppi nel conflitto Iran-USA hanno rivelato quanto siano cruciali la velocità di elaborazione dei dati e la capacità di analisi in tempo reale.
Kozat ha inoltre affermato che la dimensione di sicurezza dell’intelligenza artificiale, in particolare nell’ambito delle armi autonome, dovrebbe essere attentamente considerata, come dimostrato dal processo tra Iran e Stati Uniti. Süleyman Serdar Kozat ha sottolineato che le condizioni altamente asimmetriche sul campo di battaglia possono essere superate con sciami di veicoli aerei, terrestri e navali autonomi senza pilota, e ha sottolineato l’importanza di sviluppare queste tecnologie a livello nazionale per la sicurezza della Turchia.
Göksel Yıldırım
