AI Tech Data

2026, le sfide della sicurezza nell’economia dell’AI secondo Palo Alto Networks

Il prossimo sarà l’'Anno dei Difensori' in cui la protezione autonoma basata su AI sarà l’unico metodo per contrastare attacchi alle identità, avvelenamento dei dati e rischi quantistici
Umberto Pirovano, Palo Alto Networks
Umberto Pirovano

Palo Alto Networks ha presentato le ‘Sei previsioni per l’Economia dell’AI: nuove regole di cybersecurity nel 2026’ che confermano un cambio di passo significativo verso l’economia dell’intelligenza artificiale. Questo nuovo modello economico globale nativo dell’AI, che guida produttività e operations, introduce anche un cambiamento critico nel rischio. Nel 2026, gli agenti AI autonomi ridefiniranno infatti le attività aziendali, preparando il terreno per importanti mutamenti in termini di identità, SOC, quantum computing, sicurezza dei dati e browser.

Sulla base dell’aumento delle mega-violazioni guidate da vulnerabilità della supply chain e da attaccanti che – raggiungendo nuovi livelli di velocità e sofisticazione – mettono intere reti aziendali offline, Palo Alto Networks aveva indicato il 2025 come l’anno della disruption.

Previsione che si è rivelata reale, poiché l’84% dei principali incidenti analizzati da Unit 42 quest’anno ha causato tempi di inattività operativi, danni reputazionali o perdite finanziarie. Nel 2026, entreremo nell’Anno dei Difensori, in cui le contromisure guidate dall’AI inclineranno l’ago della bilancia a favore della difesa, aumentando la visibilità e riducendo così complessità e tempi di risposta.

 Wendi Whitmore, Chief Security Intelligence Officer di Palo Alto Networks, sottolinea in una nota: “L’adozione dell’AI sta ridefinendo i rischi di cybersecurity, ma l’opportunità concreta è per i difensori. Mentre gli attaccanti utilizzano l’AI per scalare e accelerare le minacce in una forza lavoro ibrida, dove gli agenti autonomi superano gli esseri umani di 82 a 1, chi protegge deve contrastare quella velocità con una difesa intelligente. Ciò necessita un cambiamento di paradigma che passa da un’azione di blocco reattiva a un abilitatore proattivo che gestisca attivamente il rischio guidato dall’AI, mentre alimenta l’innovazione aziendale”.

Dall’atteso aumento degli attacchi alle identità guidati da intelligenza artificiale, alla nuova ondata di responsabilità esecutiva per l’AI fuori controllo, queste previsioni rappresentano le linee guida essenziali per le aziende al fine di plasmare le loro strategie di cybersecurity e navigare con fiducia nella nuova economia autonoma.

AI e cybersecurity nel 2026, le previsioni

La nuova era della deception: la minaccia delle identità AI – Nel 2026, l’identità diventerà il principale campo di battaglia, poiché deepfake AI perfetti e in tempo reale – o i doppelgänger del Ceo – renderanno la falsificazione indistinguibile dalla realtà. Questa minaccia è amplificata da agenti autonomi e da un impressionante rapporto macchina-uomo di 82:1 che generano una crisi di autenticità in cui un singolo comando falsificato innesca una cascata di azioni automatizzate. Con la fiducia che va erodendosi, la sicurezza delle identità deve trasformarsi da salvaguardia reattiva ad abilitatore proattivo, proteggendo ogni essere umano, macchina e agente AI.

La nuova minaccia interna: proteggere gli agenti AI – L’adozione aziendale di agenti AI autonomi fornirà finalmente il moltiplicatore di forza necessario per colmare la mancanza di competenze informatiche pari a 4,8 milioni di persone, ponendo fine alla alert fatigue. Questo rappresenta però anche un rischio intrinseco che dà luogo a una nuova e potente minaccia interna, in quanto gli agenti, sempre attivi e implicitamente fidati, ottengono accessi privilegiati e chiavi, diventando istantaneamente l’obiettivo più prezioso. Gli avversari non mireranno più agli esseri umani come target principale, ma cercheranno di compromettere questi potenti agenti, trasformandoli in ‘insider autonomi’. Ciò impone un passaggio all’autonomia con controllo, con la richiesta di strumenti di governance del firewall AI in fase di runtime per fermare gli attacchi a velocità macchina e garantire che la forza lavoro AI non venga sfruttata contro i suoi proprietari.

La nuova opportunità: risolvere il problema della fiducia nei dati – Il prossimo anno, la nuova frontiera degli attacchi sarà l’avvelenamento dei dati (data poisoning) – corrompendo in modo invisibile le informazioni di addestramento dell’AI alla fonte. Questo attacco sfrutta un silo organizzativo critico tra data scientist e team di sicurezza per creare backdoor nascoste e modelli inaffidabili, innescando una fondamentale ‘crisi della fiducia nei dati’. Poiché i perimetri tradizionali diventano irrilevanti, la soluzione deve essere una piattaforma unificata che chiuda questa porta, utilizzando data security posture management (DSPM) e AI security posture management (AI-SPM) per l’osservabilità e agenti runtime per il firewall come codice, al fine di proteggere l’intera pipeline dei dati AI.

La nuova autorità legale: rischi AI e responsabilità esecutiva – la corsa aziendale per un vantaggio dell’AI si scontrerà con un nuovo muro di realtà normativa. Entro il 2026, l’enorme divario tra la rapida adozione e la sicurezza di un’AI matura (con solo il 6% delle organizzazioni che hanno una strategia avanzata) porterà alle prime grandi cause legali che riterranno i dirigenti personalmente responsabili per azioni di AI incontrollata. Questa nuova autorità eleva l’intelligenza artificiale da problema IT a responsabilità critica per il consiglio di amministrazione. Il ruolo del Cio deve evolversi ad abilitatore strategico – o collaborare con un nuovo Chief AI Risk Officer – utilizzando una piattaforma unificata per fornire una governance verificabile che abiliti l’innovazione in sicurezza.

Il nuovo conto alla rovescia: l’imperativo quantistico – La minaccia “raccogli ora, decifra poi” accelerata dall’AI, crea una crisi di insicurezza retroattiva, poiché i dati rubati oggi diventano una responsabilità futura. Con i tempi quantistici che si riducono da un problema di dieci anni a uno di tre, i mandati governativi costringeranno presto a una migrazione massiccia e complessa alla crittografia post-quantistica (PQC). Questa immensa sfida operativa richiede alle aziende di passare da un aggiornamento una tantum alla costruzione di un’agilità crittografica a lungo termine – la capacità di adattare gli standard crittografici come una nuova base di sicurezza non negoziabile.

La nuova connessione: il browser come nuovo spazio di lavoro – Il browser, evolvendosi da strumento di sintesi delle informazioni a piattaforma operativa che esegue azioni, si sta trasformando nel nuovo sistema operativo aziendale. Questa tendenza crea la superficie di attacco non protetta più estesa – una porta di accesso per l’AI – che opera con un’unica lacuna di visibilità. Con il traffico GenAI in aumento di oltre l’890%, le aziende saranno costrette ad adottare un modello di protezione unificato, cloud-native, capace di imporre una sicurezza zero trust coerente e una salvaguardia dei dati all’ultimo millisecondo possibile all’interno del browser stesso.

Costruire un vero piano di sicurezza per l’AI

“Oggi, il livello di consapevolezza sui rischi nell’utilizzo o nell’adozione AI e l’intrinseca complessità derivante dalle modalità di funzionamento di questa tecnologia è in aumento”, conclude Umberto Pirovano, Senior Manager Technical Solutions di Palo Alto Networks. “Per molti CISO e CSO non si tratta semplicemente di capire come i dipendenti utilizzino sempre più spesso strumenti Saas AI (spesso precorrendo le spinte aziendali verso l’efficientamento dei processi), ma di rispondere alla necessità di disporre di un quadro completo dei rischi derivanti da un ecosistema tecnologico complesso. Siamo in una fase delicata, nella quale la tecnologia si sta evolvendo a un ritmo mai visto in passato – basti pensare al velocissimo passaggio da AI generativa ad agentica – guidata dal rischio di un’adozione che non tiene in considerazione l’esplosione della superficie di attacco concessa agli avversari, se non sostenuta da una strategia di protezione dell’AI. Uno dei temi più caldi, oggi, è proprio la necessità declinata dai CISO di un piano di sicurezza dell’AI, tramite l’adozione di una piattaforma di AI security end to end in grado di coprire la tecnologia, che abiliti controllo e mitigazione dei rischi in modo centralizzato e armonizzato con le architetture di cybersecurity correnti”.