Il panorama dell'intelligenza artificiale (AI) si trova al centro di un intenso scontro tra l'innovazione tecnologica e le esigenze di sicurezza nazionale, con il Pentagono che ha lanciato un ultimatum perentorio all'azienda di AI Anthropic. Secondo quanto riportato da Axios e AP, e confermato da fonti interne, il Dipartimento della Difesa degli Stati Uniti ha fissato una scadenza tassativa per venerdì affinché l'azienda allenti le sue rigorose restrizioni di sicurezza sull'impiego militare della sua tecnologia di chatbot.
La posta in gioco è elevatissima. Se Anthropic, sviluppatrice del noto chatbot Claude, dovesse rifiutarsi di cedere alle richieste, il Pentagono ha minacciato di ricorrere a misure severe. In particolare, è stata evocata la possibilità di attivare il Defense Production Act, una legge risalente all'epoca della Guerra Fredda. Questo statuto conferisce al governo degli Stati Uniti l'autorità di obbligare le aziende private a dare priorità alle necessità imposte dalla sicurezza nazionale, anche se ciò dovesse andare contro i loro interessi commerciali o le loro politiche interne. La tensione è palpabile e le conseguenze di questa disputa potrebbero ridefinire il futuro dell'integrazione dell'AI nelle operazioni militari.
La spinta del Pentagono per l'integrazione dell'AI
Il contesto di questa pressione risiede nel più ampio piano del Pentagono di sfruttare i modelli di intelligenza artificiale in maniera più estesa, specialmente all'interno delle sue reti classificate e segrete. L'obiettivo è chiaro: integrare l'AI a tutti i livelli di classificazione, bypassando le consuete restrizioni imposte dai produttori, al fine di accelerare drasticamente i processi decisionali militari. In un'epoca caratterizzata da minacce complesse e in continua evoluzione, la capacità di elaborare rapidamente vaste quantità di dati e di supportare le decisioni strategiche è considerata un vantaggio critico.
Il segretario alla Difesa degli Stati Uniti, Pete Hegseth, come indicato nel rapporto originale, è una figura chiave in questa iniziativa, esercitando una notevole pressione sulle aziende di AI affinché allineino le loro politiche ai requisiti della sicurezza nazionale. Il suo intento è quello di garantire che la superiorità tecnologica degli Stati Uniti nel campo dell'AI sia mantenuta e potenziata, considerando l'AI non solo come uno strumento di efficienza, ma come un pilastro fondamentale per la difesa futura del paese.
La posizione di Anthropic e le sue riserve etiche
Le negoziazioni con Anthropic, tuttavia, si sono rivelate complesse, stando a quanto riferito dagli insider. I dirigenti dell'azienda hanno espresso chiaramente ai rappresentanti governativi le loro profonde preoccupazioni e le loro linee rosse etiche. Hanno infatti sottolineato che la loro tecnologia non è destinata, né dovrebbe essere utilizzata, per scopi come la mira autonoma (cioè la capacità di un sistema AI di identificare e ingaggiare obiettivi senza l'intervento umano diretto) o la sorveglianza interna. Queste sono aree che sollevano significative questioni etiche e morali, nonché preoccupazioni relative ai diritti civili e alla privacy.
Un portavoce di Anthropic ha riaffermato il desiderio dell'azienda di contribuire a mantenere il primato degli Stati Uniti nell'AI, ma ha anche precisato che le discussioni sulla natura esatta della collaborazione sono ancora in corso. Ciò suggerisce una tensione tra il desiderio di sostenere gli interessi nazionali e la necessità di aderire a principi etici e di utilizzo responsabile della tecnologia. La riluttanza di Anthropic riflette una crescente consapevolezza, all'interno della comunità dell'AI, sui potenziali rischi e sulle implicazioni etiche dell'applicazione militare di queste tecnologie avanzate.
Il Defense Production Act: uno strumento della Guerra Fredda
Il potenziale ricorso al Defense Production Act (DPA) è un elemento che evidenzia la gravità della situazione. Questa legge, promulgata originariamente durante la Guerra di Corea nel 1950 e successivamente potenziata durante la Guerra Fredda, consente al Presidente degli Stati Uniti di richiedere alle industrie private di produrre materiali e servizi necessari per la difesa nazionale. Può essere utilizzato per allocare materiali, servizi e strutture al fine di promuovere la sicurezza nazionale e per incentivare lo sviluppo di tecnologie critiche.
L'uso del DPA in questo contesto rappresenterebbe un'escalation significativa, trasformando una disputa contrattuale o etica in una questione di obbligo legale. Un alto funzionario del Pentagono ha respinto le preoccupazioni di Anthropic riguardo all'uso militare della sua tecnologia, affermando che il Dipartimento della Difesa ha sempre agito nel rispetto della legge. Questa dichiarazione sottolinea la posizione ferma del Pentagono e la sua convinzione di essere nel giusto nel richiedere l'accesso e l'adattamento delle tecnologie AI per scopi di difesa.
Il panorama competitivo e i rischi dell'AI
La posizione cauta di Anthropic la rende attualmente un'eccezione nel settore. Molti dei suoi concorrenti hanno già stretto accordi con il governo. Aziende del calibro di Alphabet (la casa madre di Google), xAI (l'azienda di intelligenza artificiale guidata da Elon Musk) e OpenAI (sviluppatore di ChatGPT) hanno già concluso intese simili. In particolare, OpenAI ha accettato di revocare molte delle sue usuali restrizioni d'uso per la rete militare "genai.mil", dimostrando una maggiore disponibilità a collaborare con le forze armate.
Tuttavia, gli esperti continuano a mettere in guardia sui rischi intrinseci legati all'impiego dell'AI, specialmente in contesti così delicati. Tra i pericoli più citati vi è la tendenza dei modelli di AI a "inventare" informazioni, un fenomeno noto come "allucinazioni". Questi errori possono portare a conclusioni errate o a decisioni basate su dati inesistenti o distorti, con conseguenze potenzialmente catastrofiche in ambito militare. La creazione di sistemi AI affidabili, trasparenti e sicuri rimane una sfida fondamentale, specialmente quando la vita umana è in gioco.
Anthropic: tra etica e tecnologia di punta
Anthropic è stata fondata nel 2021 da ex dipendenti di OpenAI. Sebbene OpenAI sia più conosciuta dal grande pubblico grazie al suo chatbot ChatGPT, Anthropic si è concentrata su un segmento di mercato diverso, rivolgendo il suo chatbot Claude a programmatori e aziende. Un aspetto cruciale che distingue Anthropic è la sua enfasi sulla sicurezza dei dati e sulla robustezza dei sistemi, elementi particolarmente apprezzati nel contesto aziendale e, potenzialmente, in quello militare, se le questioni etiche potessero essere risolte.
La fondazione di Anthropic da parte di ex dipendenti di OpenAI suggerisce una potenziale divergenza filosofica o etica già in origine, che ora si manifesta chiaramente in questo confronto con il Pentagono. Mentre OpenAI ha abbracciato una strategia più orientata alla collaborazione con il governo, Anthropic sembra voler mantenere una maggiore autonomia e un controllo più stringente sull'applicazione della sua tecnologia, specialmente in ambiti così sensibili. Questo caso evidenzia la crescente complessità nel bilanciare l'innovazione tecnologica, la sicurezza nazionale e le responsabilità etiche delle aziende che sviluppano intelligenza artificiale.