Indice dei contenuti
Lo United States Department of Defense ha classificato la società di intelligenza artificiale Anthropic come ‘supply chain risk’, una decisione definita senza precedenti per un’azienda tecnologica statunitense attiva nel settore dell’AI.
La misura, comunicata ufficialmente dal Pentagono, è effettiva immediatamente e potrebbe spingere i fornitori della difesa e altri contractor governativi a interrompere l’utilizzo delle tecnologie dell’azienda nei progetti legati ai contratti militari.
Al centro della vicenda c’è Claude, il modello di intelligenza artificiale sviluppato dalla società e già integrato in diversi sistemi utilizzati da agenzie governative e partner industriali.
Il caso Anthropic e le ragioni della decisione
La decisione arriva dopo giorni di tensioni tra l’amministrazione guidata dal presidente Donald Trump, il segretario alla Difesa Pete Hegseth e i vertici di Anthropic. Secondo il Pentagono, la questione riguarda un principio fondamentale: la possibilità per le forze armate di utilizzare tecnologie disponibili per tutti gli scopi legali consentiti.
Le restrizioni introdotte dall’azienda sull’uso dei propri modelli – in particolare su sorveglianza di massa e sistemi d’arma completamente autonomi – sarebbero considerate un potenziale ostacolo operativo
Il Dipartimento della Difesa ha sostenuto che un fornitore tecnologico non può limitare l’impiego di capacità ritenute strategiche per la sicurezza nazionale o interferire, anche indirettamente, con la catena decisionale militare.
Ambito limitato della misura
Secondo Anthropic, tuttavia, l’impatto della decisione sarebbe più circoscritto di quanto inizialmente apparso. L’azienda ha spiegato che la classificazione riguarda solo l’utilizzo di Claude all’interno di contratti direttamente collegati al Dipartimento della Difesa, e non impedisce ad altri clienti – pubblici o privati – di continuare a utilizzare i suoi modelli di intelligenza artificiale.
Questo significa che le attività commerciali dell’azienda e le partnership con clienti enterprise o consumer su scala globale non dovrebbero essere coinvolte dalla misura.
La posizione di Anthropic
In una dichiarazione ufficiale, il Ceo Dario Amodei ha contestato la decisione del governo statunitense, affermando che l’azienda non la ritiene giuridicamente fondata e che intende impugnarla in tribunale.
Amodei ha inoltre ribadito che le limitazioni introdotte da Anthropic riguardano esclusivamente due ambiti considerati sensibili: l’uso dell’intelligenza artificiale per sorveglianza di massa domestica e lo sviluppo di armi completamente autonome. Secondo il manager, tali restrizioni riguardano livelli strategici di utilizzo e non interferiscono con le decisioni operative dei militari, che restano responsabilità delle forze armate.
L’AI già integrata nei sistemi militari
Anthropic ha sottolineato che i propri modelli sono stati utilizzati in diverse attività di supporto alla sicurezza nazionale, tra cui analisi di intelligence, simulazioni strategiche, pianificazione operativa e operazioni di cybersicurezza.
Per evitare che il personale militare perda l’accesso a strumenti già impiegati in operazioni in corso, l’azienda ha dichiarato di essere disponibile a continuare a fornire temporaneamente i propri modelli al Dipartimento della Difesa durante la fase di transizione.
Implicazioni per l’industria dell’intelligenza artificiale
La decisione del Pentagono rappresenta un caso potenzialmente significativo nel rapporto tra industria tecnologica e difesa. In passato, la classificazione di rischio per la supply chain è stata applicata soprattutto a fornitori stranieri o a tecnologie considerate vulnerabili dal punto di vista della sicurezza nazionale.
L’estensione di questo strumento a un’azienda statunitense del settore AI segna quindi un precedente che potrebbe avere conseguenze più ampie per l’ecosistema tecnologico. Il caso evidenzia inoltre la crescente tensione tra le esigenze operative delle istituzioni di sicurezza e le politiche etiche adottate da alcune aziende della Silicon Valley, in un momento in cui l’intelligenza artificiale sta assumendo un ruolo sempre più centrale nei sistemi militari e nelle infrastrutture strategiche.