AI Tech Data

Guerra Algoritmica: gli Usa rincorrono le Cina e la Russia nell’adozione di una AI senza filtri etici

Mentre l'AI Act cerca di preservare il tessuto sociale e istituzionale, la sfida resta aperta: la resistenza culturale basterà a proteggere le imprese, o la pressione competitiva di modelli cinesi e russi renderà ogni barriera etica obsoleta?
Arni iperveloci

Il 2026 passerà alla storia come l’anno in cui l’intelligenza artificiale ha smesso di essere una questione di ‘codice informatico’ per diventare una questione di ‘scelte etiche’ di massima rilevanza. Al centro di questa rottura si muovono due protagonisti con visioni antitetiche: da un lato Dario Amodei, Ceo di Anthropic, che ha eretto una barricata morale contro l’uso bellico e la sorveglianza di massa della sua creatura, Claude; dall’altro Andrea Pignataro, fondatore di ION Group, che analizza con freddezza chirurgica il pericolo di una ‘cascata’ negativa economica e istituzionale senza precedenti.

Tra l’assoluto di Amodei, il realismo di Pignataro e la realtà che non possiamo cambiare

Questo scontro non è solo tecnologico o finanziario, ma rappresenta la riproposizione moderna di un dilemma filosofico classico: il contrasto tra l’Etica dei Principi e l’Etica della Responsabilità.

Amodei incarna l’Etica dei Principi (o delle convinzioni). La sua è una posizione deontologica: esistono ‘linee rosse’ che non possono essere valicate, anche a costo di perdere contratti miliardari con il Pentagono o di restare indietro nella competizione con altri attori più spregiudicati. Per Anthropic, la ‘Safety’ è un valore assoluto: non si scende a patti con l’integrità del sistema, perché il fine (la vittoria tecnologica) non giustifica mai i mezzi (la creazione di un’arma autonoma o di un occhio di sorveglianza globale).

Dall’altra parte, il pensiero di Pignataro – in parte – e le pressioni della difesa globale USA rispondono all’Etica della Responsabilità. Qui, l’azione non è giudicata per la sua purezza interna, ma per le sue conseguenze prevedibili. In un mondo dove Russia e Cina corrono a Mach 5 con armi iperveloci guidate dall’IA, l’etica della responsabilità suggerisce che l’astensione morale di Amodei potrebbe essere, paradossalmente, l’azione più irresponsabile di tutte: un ‘suicidio etico’ che lascia le democrazie occidentali inermi di fronte a chi non ha guardrail.

Le ‘Linee Rosse’ enunciate da Anthropic

Queste posture stanno ridisegnando i confini della sovranità digitale. Mentre l’Europa prova a mediare con la forza delle sua norme (l’AI Act), ci troviamo di fronte a una domanda cruciale: è possibile rimanere fedeli ai propri principi quando la velocità della sfida iperveloce richiede di sacrificare l’uomo nel ciclo decisionale?

Nota centrale: questi ‘dibattiti’ si svolgono all’interno degli Stati occidentali, quelli che usiamo catalogare come ‘democratici’: in Cina e in Russia hanno già sorpassato qualsiasi linea rossa, dallo sviluppo di armi iperveloci alla sorveglianza globale.

Amodei ha indicato in un documento pubblico i due ambiti specifici che considera non negoziabili, definendoli incompatibili con i valori democratici e con l’attuale stato della tecnologia: la sorveglianza di massa domestica (quella ai danni di cittadini USA) e lo sviluppo di armi completamente autonome senza l’uomo ‘in the loop’.
Come si vede, sono linee guida abbastanza lasche: il non utilizzo dell’AI (Claude) per la sorveglianza di massa riguarda solo gli americani, nel resto del globo si può effettuare, e per lo sviluppo di nuove armi basta prevedere di mettere un umano che dica il ‘sì’ finale per superare qualsiasi ostacolo. O no?

Lo scenario e la minaccia globale

Nonostante Anthropic si detta disposta “a collaborare con il Pentagono in ambito R&S per rendere i sistemi più sicuri e affidabili in futuro”, l’offerta però rifiutata dal Pentagono, che, utilizzando un executive order del Presidente Trump, ha cancellato tutti i contratti in essere – valutati circa 200 milioni di dollari – con l’azienda, passandoli i concorrenti: OpenAI, Alphabet, XAi tra gli altri.

Una rivalsa per pura cattiveria? Non proprio: il Pentagono cerca di ridurre le distanza con quei paesi che le armi iperveloci le hanno già in arsenale operativo. La Russia schiera e talora sperimenta nella guerra in Ucraina una vera panoplia di missili, dall’ Oreshnik, che ha debuttato l’anno scorso, allo Zircon, primo missile da crociera ipersonico lanciabile da unità navali, fino al Kinzhal, lanciato da caccia MiG-31K o bombardieri Tu-22M3. Per non parlare degli HGV dei missili intercontinentali ICBM.

La Cina invece possiede un arsenale più diversificato, focalizzato soprattutto, ma non solo, sull’impedire alla flotta USA di avvicinarsi alle sue coste, con numerosi tipi si armi che vanno dal DF-17, basato a terra, al YJ-21 Eagle Strike, lanciato da aerei o da navi, fino al recente Xingkong-2, un velivolo ancora più innovativo tipo ‘waverider’ che utilizza le sue onde d’urto per generare portanza, permettendo voli ipersonici sostenuti molto lunghi.

Sono tutte armi che superano, e di molto, la velocità di 5.000/6.000 Km/ora e soprattutto, grazie alle proprie AI, possono manovrare nella fase terminale rendendo praticamente impossibile l’intercettazione da parte delle difese antiaeree.

La necessità dell’AI ‘senza restrizioni’

Il Pentagono ritiene che un essere umano non sia ‘fisicamente’ in grado di analizzare i dati, calcolare la traiettoria di intercettazione e dare l’ordine di fuoco in tempi utili. Si parla di ritardi nell’ordine dei 30-40 secondi, che in questo scenario equivalgono a ore. Facciamo pure la tara alla retorica istituzionale, ma appare vero quello che il Segretario della Difesa Pete Hegseth ha sostenuto in un dibattito: “mantenere un uomo nel ciclo decisionale contro i missili cinesi e russi è come combattere con un coltello in una sparatoria laser”.

Gli Stati Uniti sono certi (vedi le armi prima citate) che la Cina e la Russia non abbiano scrupoli etici nell’affidare il controllo totale delle armi ai loro algoritmi. Se gli USA si auto-impongono limiti etici (come quelli chiesti da Amodei), si troverebbero in una posizione di svantaggio tattico e strategico fatale. Il Pentagono vuole che l’AI sia integrata non solo nel missile, ma in tutta la catena di comando: dal rilevamento satellitare alla prioritarizzazione dei bersagli.

Perché se la Cina sapesse che il sistema di difesa americano è frenato da ‘filtri etici’ che potrebbero causare un ritardo anche solo di 30 secondi, la deterrenza fallirebbe. E l’arma iperveloce diventerebbe ‘inarrestabile’ per definizione politica, non solo tecnica.

AI e Colletti bianchi

Il legame con la visione di Pignataro

Questa urgenza militare è l’esempio perfetto della ‘Tragedia dei Beni Comuni’ descritta da Pignataro nel suo scritto: un paradosso economico in cui individui che agiscono razionalmente nel proprio interesse finiscono per distruggere una risorsa condivisa. È razionale per il Pentagono chiedere armi autonome per non essere distrutto dalla Cina o dalla Russia. Ma è collettivamente pericoloso, perché accelera una corsa agli armamenti dove l’uomo perde il controllo sull’esito finale , potendo scatenare l’apocalisse per mero accidente.

Verrebbe da chiedersi se più accettabile il rischio di un apocalisse accidentale o la certezza della sottomissione un regime come quello cinese o russo, ma questo ci porterebbe lontano dall’argomento centrale di questo articolo.

Rimaniamo invece centrati e allarghiamo il duplice discorso etico all’intera azione dell’AI: Amodei avverte anche che nei prossimi anni probabilmente scompariranno almeno la metà dei posti di lavoro dei ‘colletti bianchi’, assorbiti dalla continua crescita delle AI: non è un profeta di sventura, è una realtà di fatto. Avvocati, medici, economisti e molti altri verranno sostituiti nelle loro funzioni da AI sempre più raffinate. Che si può fare allora?

Pignataro ha una risposta, ma ahimè è viziata da un conflitto di interessi di fondo.

L’analisi è brillante, ma con bug nascosto

L’aspetto più sincero e agghiacciante del discorso è la denuncia del suicidio collettivo delle imprese, che per rimanere competitive, sono ‘costrette’ a usare l’AI, ma così facendo regalano la ‘grammatica’ del lavoro aziendale alle Big Tech (Anthropic, Google, OpenAI e compagnia bella). La crisi non si ferma al software, ma colpisce i settori adiacenti: immobiliare commerciale (meno uffici), viaggi d’affari, istruzione superiore e basi fiscali delle grandi città. La fiducia e la sicurezza (branding di safety) sono strumenti strategici per ottenere accesso ai dati più profondi delle aziende, accelerando paradossalmente la loro futura sostituzione silenziosa da parte delle AI prossime venture.

Questa è la parte più valida dell’analisi: l’AI non sta solo rubando dati, sta imparando come ‘pensano’ gli umani per renderli superflui, alla fine del processo di apprendimento.

Qui però Pignataro smette di essere un analista e diventa un imprenditore che difende il proprio territorio, cioè la proprie imprese, sostenendo che il software ‘profondo’ (quello che gestisce i processi core di una banca o di una grande azienda) sia protetto da una resistenza intrinseca. Definire il software come una ‘forma di vita’ wittgensteiniana – come fa Pignataro nel suo scritto – è un modo elegante per dire agli investitori di non vendere le azioni delle sue aziende, perché i suoi clienti sono troppo ‘incastrati’ nei suoi sistemi per poterli cambiare velocemente.

È un tentativo di creare un ‘fossato cognitivo’ attorno ai suoi prodotti, sostenendo che l’AI possa sostituire i compiti esecutivi ma non i legami di potere e abitudine che tengono in piedi il software legacy.

La fallacia del ‘freno a mano’

Pignataro, infatti, punta tutto sulla lentezza delle istituzioni, sostenendo che la complessità umana e burocratica frenerà l’apocalisse. Non a caso porta come esempio la farraginosità delle istituzioni della UE, vincolate alla decisione unanime di 27 paesi, per sostenere che gli ostacoli posti all’avanzata delle AI saranno in grado di rallentarla.

L’influenza della normativa europea (rappresentata principalmente dall’AI Act, entrato in vigore nel 2024 e pienamente operativo nel biennio 2025-2026) agisce come il principale ‘freno d’emergenza’ contro l’accelerazione selvaggia vista negli USA e in Cina: il GDPR e l’AI Act impongono limiti severissimi su come i dati aziendali e personali possono essere usati per addestrare i modelli, mentre sta emergendo comunque una spinta collettiva verso l’open source, ritenuta meno pericolora perché declinabile on premise.

L’Europa è anche il blocco che più spinge a livello internazionale per trattati che mantengano l’essere umano nel ciclo (human-in-the-loop), rifiutando la logica della pura velocità iperveloce a scapito della responsabilità.

Questa però è la parte più fragile del suo ragionamento. Se un’AI riduce i costi del 90%, la ‘resistenza culturale al cambiamento’ di cui parla potrebbe svanire molto più velocemente di quanto egli preveda. Le aziende che non cambiano ‘lingua’, gioco linguistico, o modelli software – in qualunque modo si voglia chiamarlo – semplicemente falliranno, rendendo irrilevante la resilienza del software legacy che usavano. Coinvolgendo nel loro fallimento, alla fine, anche le istituzioni non in grado di adeguarsi velocemente al cambiamento.

L’effetto Bruxelles vs. rischio di irrilevanza

Esiste infatti un rovescio della medaglia che dovrebbe preoccupare: se Russia e Cina sviluppano AI senza vincoli – e lo stanno effettivamente facendo -, l’Europa rischia di avere una difesa e un’economia ‘più etiche’ ma tecnologicamente obsolete. A iniziare dagli aspetti militari.  E non occorre specificare qui che cosa significhi non avere forza militare, in termini di peso internazionale.

In più, paradossalmente, le piccole e medie imprese europee potrebbero faticare a implementare l’AI a causa dell’eccessiva burocrazia legata alla certificazione dei sistemi ‘ad alto rischio’.

Mentre in caso di confronto militare, anche solo potenziale, Russia e Cina non si sentirebbero minimamente legate dalla normative europee: per Pechino e Mosca, al contrario, la regolamentazione europea è una vulnerabilità da sfruttare. Mentre l’Europa si interroga sulla trasparenza degli algoritmi, loro ottimizzano i sistemi per raggiungere la letalità e la velocità bruta.

di Massimo Bolchi