AI Tech Data

L’attacco DDoS a DeepSeek: ecco perché la sicurezza delle identità macchina è necessaria per l’AI

Kevin Bocek, CyberArk
Kevin Bocek, CyberArk

“Il mondo dell’intelligenza artificiale viaggia a un ritmo vertiginoso, promettendo innovazioni rivoluzionarie in ogni settore. Ma come fosse un’auto sportiva lanciata a tutta velocità senza freni, questa corsa rischia di trasformarsi in un disastro se non viene presa nella dovuta considerazione la sicurezza. L’attacco informatico su larga scala subito da DeepSeek, la startup cinese che ha osato sfidare i giganti dell’AI come OpenAI, è un campanello d’allarme che non possiamo ignorare”, è l’analisi di Kevin Bocek, Senior Vice President of Innovation di Venafi, a CyberArk company.

“Soprannominato il ‘killer di ChatGPT’ per i suoi modelli linguistici (LLM) all’avanguardia R1 e V3, DeepSeek aveva conquistato la vetta dell’App Store, superando persino ChatGPT, e minacciando il dominio di colossi come NVIDIA, Microsoft e Google. Questo successo fulmineo, però, è stato bruscamente interrotto – almeno momentaneamente – da un attacco DDoS (Distributed Denial-of-Service) che ha paralizzato le sue API e la piattaforma di chat, costringendo l’azienda a bloccare le nuove registrazioni e dando il via a una profonda riflessione nel settore tecnologico.

L’incidente DeepSeek non è un caso isolato

Anche OpenAI, per esempio, ha subito attacchi informatici in passato. Questo episodio, tuttavia, evidenzia ancora una volta e in modo evidente la vulnerabilità di questi sistemi di AI, soprattutto in un mondo in cui agli agenti di AI vengono affidati sempre più processi aziendali. Non si tratta solo di LLM che scrivono poesie o di modelli open-source contro modelli a pagamento: la sicurezza è un elemento fondamentale per qualsiasi sistema di AI.

Necessario un kill switch per l’AI

La soluzione? È necessario implementare quello che potremmo definire un kill switch per l’AI, un meccanismo di controllo basato sulla machine identity security. L’identità macchina, infatti, rappresenta il kill switch definitivo per un agente di AI.

L’intelligenza artificiale è un’arma a doppio taglio. Da un lato, offre enormi potenzialità in settori come la sanità, la finanza e la logistica, dall’altro, amplifica le capacità dei cybercriminali. Nel caso di DeepSeek, sono state individuate vulnerabilità che consentivano di ottenere output dannosi, come ransomware e persino istruzioni per la creazione di tossine. Inoltre, è stata scoperta una falla in un database che esponeva dati sensibili, tra cui la cronologia delle chat degli utenti e le chiavi API.

Questi sono solo alcuni esempi di attacchi Adversarial Machine Learning (AML), che sfruttano le debolezze dei modelli di AI. La nostra ricerca del 2024 ha confermato le preoccupazioni degli esperti di sicurezza sul tema: il 92% si dice preoccupato per l’uso di codice generato dall’AI, il 77% teme l’avvelenamento dei dati e il 75% il furto di modelli di AI.

Il kill switch per l’AI non è un semplice bottone rosso, ma un insieme di meccanismi per mettere in pausa, contenere o disattivare i sistemi di AI in caso di comportamento anomalo o attacco. Funziona come gli interruttori delle reti elettriche, progettati per prevenire il collasso in caso di sovraccarico. Senza questo meccanismo, incidenti come quello di DeepSeek potrebbero sfuggire al controllo, con conseguenze potenzialmente devastanti.

La machine identity security

La chiave per sviluppare un kill switch efficace risiede nella machine identity security. Le identità macchina, come i certificati digitali e le chiavi API, autenticano e autorizzano le funzioni dell’AI. Se queste identità vengono compromesse, i sistemi di AI possono diventare formidabili strumenti nelle mani dei cyber criminali.

Per questo motivo, aziende, governi e ricercatori devono adottare un approccio proattivo, collaborando per costruire infrastrutture di sicurezza robuste e adattabili. La machine identity security è il fondamento per garantire fiducia e resilienza in un mondo sempre più dipendente dall’intelligenza artificiale, soprattutto con l’avvento degli agenti di AI. Anche e soprattutto per questa tecnologia, la capacità di controllare, e di frenare quando necessario, è importante almeno quanto la potenza del motore”.