Secondo una nuova ricerca di SoSafe, provider europeo di soluzioni di security awareness e human risk management, l’87% dei professionisti della sicurezza ha segnalato che, nell’ultimo anno, la propria organizzazione ha subito un attacco informatico basato sull’AI.
Il report analizza le tattiche di social engineering e i rischi in costante crescita che le organizzazioni devono affrontare.
L’AI e il crescente rischio per la sicurezza
Il report evidenzia anche il crescente divario tra l’adozione dell’AI e i rischi per la sicurezza. In particolare, il 91% degli esperti di sicurezza prevede un aumento significativo delle minacce basate sull’IA nei prossimi tre anni. Tuttavia, solo il 26% si considera in grado di rilevare questi attacchi, a conferma di quanto le organizzazioni siano oggi vulnerabili.
La crescita degli attacchi multicanale
L’evoluzione dell’AI sta favorendo la diffusione di attacchi multicanale, sfruttando email, SMS, social media e piattaforme di collaborazione. Il 95% dei professionisti della sicurezza informatica ha notato un aumento di questo tipo di attacchi negli ultimi due anni.
Un esempio emblematico è stato l’attacco al Ceo di WWP, in cui i cybercriminali hanno utilizzato WhatsApp per instaurare un legame fiducia, Microsoft Teams per un’interazione diretta e infine una chiamata vocale deepfake generata dall’AI per estorcere informazioni sensibili e denaro.
“Colpire le vittime attraverso più canali di comunicazione consente ai criminali informatici di riprodurre i consueti schemi comunicativi, apparendo così più credibili”, dichiara in una nota Andrew Rose, Cso di SoSafe. “Gli attacchi via email si stanno evolvendo in veri e propri attacchi di phishing 3D, in cui voce, video o elementi testuali vengono usati insieme per creare truffe avanzate basate sull’AI”.
Nuove minacce
L’implementazione interna di soluzioni di AI sta involontariamente ampliando la superficie d’attacco delle organizzazioni, esponendole a nuovi tipi di minacce, come data poisoning e allucinazioni dell’IA.
“Anche l’AI adottata dalle aziende per uso interno può essere sfruttata dai cybercriminali per individuare informazioni sensibili, risorse chiave o bypassare i controlli di sicurezza. Molte aziende creano chatbot basati sull’AI per fornire assistenza ai dipendenti, ma poche hanno considerato il rischio che questi chatbot possano diventare complici dei criminali informatici, fornendo loro dati sensibili e informazioni strategiche sull’azienda”, aggiunge Rose.
Secondo il report di SoSafe, il 55% delle aziende non ha ancora implementato controlli adeguati per gestire i rischi legati ai tool interni di AI, ma come sottolinea Rose “è fondamentale che le aziende associno l’adozione dell’AI a un approccio solido alla sicurezza, tutelando sia i sistemi informatici sia gli utenti”.
Le principali preoccupazioni degli esperti
Il report di SoSafe ha rivelato le principali preoccupazioni dei professionisti della sicurezza in merito agli attacchi basati sull’AI:
- 51% degli esperti teme le tecniche di offuscamento, ovvero metodi generati dall’IA per mascherare l’origine e gli obiettivi degli attacchi.
- 45% evidenzia la creazione di nuove modalità di attacco come rischio principale.
- 38% indica l’accelerazione e l’automazione degli attacchi come una delle minacce più critiche.
Una sfida di equilibrio
“Sebbene l’AI presenti nuove sfide, è anche una delle nostre più grandi risorse per proteggere le organizzazioni dalle minacce in continua evoluzione,” conclude Niklas Hellemann, Ceo di SoSafe. “Tuttavia, l’efficacia della sicurezza basata sull’AI dipende da chi la utilizza. La consapevolezza sulla sicurezza informatica è fondamentale: senza dipendenti formati in grado di riconoscere e affrontare le minacce basate sull’AI, anche la tecnologia più avanzata risulterà inefficace. Solo combinando competenze umane, sensibilizzazione sulla sicurezza e un uso attento dell’AI possiamo anticipare le minacce e creare organizzazioni più resilienti.”