Nel panorama sempre più competitivo e teso dell'intelligenza artificiale, tre dei principali attori globali – OpenAI, Anthropic e Google – hanno avviato una collaborazione senza precedenti. Queste aziende, solitamente in feroce competizione per la supremazia nell'IA, stanno ora condividendo intelligence tramite un forum industriale per contrastare i tentativi dei concorrenti cinesi di estrarre capacità proprietarie di intelligenza artificiale. La tecnica al centro di questa preoccupazione è nota come "distillazione avversaria", e la coordinazione avviene attraverso il Frontier Model Forum, un'iniziativa fondata nel 2023 anche con Microsoft.

L'obiettivo di questa insolita alleanza è mirare a una pratica che, secondo stime ufficiali statunitensi basate su individui a conoscenza di scoperte interne che hanno parlato in forma anonima, costa a Silicon Valley miliardi di dollari annualmente in profitti persi. Le aziende statunitensi considerano l'uso della distillazione avversaria da parte di entità cinesi non solo un furto di proprietà intellettuale, ma anche una minaccia significativa agli interessi economici e alla sicurezza nazionale degli Stati Uniti. L'ampiezza di questa minaccia ha spinto rivali di lunga data a unire le forze, riconoscendo un pericolo comune che trascende i singoli interessi aziendali.

Che cos'è la distillazione avversaria?

La "distillazione avversaria" è una tecnica che sfrutta un sistema di intelligenza artificiale esistente, definito "insegnante" (teacher), per addestrare una versione più recente, lo "studente" (student), che ne replica le capacità. Questo processo consente di riprodurre le funzionalità a un costo notevolmente inferiore rispetto allo sviluppo di sistemi originali da zero. Sebbene alcune forme di questa tecnica siano accettate e utilizzate nell'industria per ottimizzare i modelli o trasferire conoscenze in modo etico, le aziende statunitensi percepiscono il suo impiego da parte di entità cinesi come un'appropriazione indebita di proprietà intellettuale. La distinzione tra un uso legittimo e un furto sta diventando un campo di battaglia cruciale nell'innovazione dell'IA.

OpenAI ha confermato la propria partecipazione a questo sforzo di condivisione delle informazioni e ha sottolineato un recente promemoria del Congresso in cui accusava l'azienda cinese DeepSeek di tentare di "sfruttare gratuitamente le capacità sviluppate da OpenAI e altri laboratori di frontiera statunitensi". Questo chiarisce la gravità della situazione e il livello di dettaglio delle accuse. Nonostante la gravità della questione, Google, Anthropic e lo stesso Frontier Model Forum hanno preferito non commentare esplicitamente questa collaborazione, un segno della sensibilità e delle complessità geopolitiche e legali coinvolte.

L'urgenza e il caso DeepSeek

L'urgenza di agire è aumentata significativamente dopo il rilascio a sorpresa del modello di ragionamento R1 di DeepSeek nel gennaio 2025. Questo evento ha immediatamente sollevato sospetti riguardo a una potenziale estrazione di dati da sistemi statunitensi. Microsoft e OpenAI hanno prontamente avviato indagini per determinare se la startup cinese avesse indebitamente sottratto grandi quantità di dati dai loro modelli per creare R1. Nel febbraio di quest'anno, OpenAI ha ulteriormente allertato i legislatori statunitensi, affermando che DeepSeek continuava a utilizzare tattiche sempre più sofisticate per estrarre risultati, nonostante gli sforzi intensificati di prevenzione. L'azienda ha sostenuto, nel suo memorandum alla Commissione ristretta della Camera sulla Cina, che DeepSeek si è basata sulla distillazione per sviluppare nuove versioni del suo innovativo chatbot, suggerendo un modello sistematico di appropriazione.

Gli sviluppatori cinesi di intelligenza artificiale tendono a rilasciare sistemi con "pesi aperti" (open-weight), ovvero con un'architettura sottostante pubblicamente disponibile, rendendoli molto più economici da utilizzare rispetto alle offerte proprietarie statunitensi. Questa strategia crea una significativa pressione economica sulle aziende americane, che hanno investito centinaia di miliardi di dollari in data center e infrastrutture, scommettendo che i clienti avrebbero pagato per l'accesso piuttosto che optare per alternative gratuite. La questione non è solo economica; come affermato da un esperto anonimo, "la minaccia si estende oltre una singola azienda o regione e pone rischi per la sicurezza nazionale, poiché le versioni distillate spesso mancano delle salvaguardie di sicurezza progettate per prevenire usi dannosi", evidenziando un ulteriore strato di pericolo legato all'uso improprio dell'IA.

Le risposte specifiche delle aziende

Anthropic, per esempio, ha bloccato l'anno scorso le aziende controllate dalla Cina dall'utilizzo del suo chatbot Claude e ha identificato all'inizio di quest'anno tre sviluppatori cinesi di IA – DeepSeek, Moonshot e MiniMax – come responsabili dell'estrazione illecita di capacità tramite distillazione. Google, dal canto suo, ha pubblicato un post sul blog in cui segnalava un aumento dei tentativi di estrazione, ma non ha fornito prove che quantificassero la dipendenza della Cina dalle tecniche di distillazione. In generale, i tre sviluppatori statunitensi misurano la prevalenza degli attacchi attraverso volumi di richieste di dati su larga scala piuttosto che tramite prove dirette di replicazione delle capacità, il che rende la dimostrazione legale più complessa.

La condivisione di informazioni sulla distillazione avversaria ricalca le pratiche dell'industria della sicurezza informatica, dove le aziende scambiano regolarmente dati su attacchi e tattiche degli avversari per rafforzare le difese. Lavorando insieme attraverso il Frontier Model Forum, questi giganti della tecnologia, normalmente in competizione, mirano a rilevare in modo più efficace i tentativi di estrazione non autorizzata, identificare le parti responsabili e prevenire la replicazione di successo. Questo approccio collettivo è visto come la migliore strategia per affrontare una minaccia che non conosce confini aziendali.

Funzionari dell'amministrazione Trump avevano già segnalato l'anno scorso la disponibilità a favorire la condivisione di informazioni tra le aziende di IA attraverso un centro di analisi e condivisione delle informazioni proposto nel "Piano d'azione per l'IA" del presidente Donald Trump. Tuttavia, l'attuale collaborazione rimane limitata a causa dell'incertezza su cosa possa essere condiviso ai sensi delle attuali linee guida antitrust, mentre si contrastano le minacce competitive dalla Cina. Questa sfida è stata ulteriormente evidenziata dall'avvertimento di OpenAI a febbraio, secondo cui DeepSeek continuava a impiegare tattiche di estrazione sofisticate nonostante gli sforzi di prevenzione, sottolineando la complessità di bilanciare la collaborazione con le normative sulla concorrenza in un settore in rapida evoluzione.