Il report di Capgemini “New defenses, new threats: What AI and Gen AI bring to cybersecurity”, basato su una survey che ha coinvolto 1000 organizzazioni di 13 Paesi (tra cui l’Italia) ed operanti in 12 settori, scatta una fotografia di quale sia la percezione della cybersecurity per le organizzazioni e quale ruolo può giocare l’intelligenza artificiale.
Secondo il report, se da un lato l’AI è considerata dalle organizzazioni una tecnologia strategica per il rafforzamento delle proprie strategie di sicurezza, dall’altro la crescente adozione della Gen AI in vari settori comporta una maggiore vulnerabilità.
L’intelligenza artificiale generativa introduce tre principali aree di rischio per le organizzazioni: attacchi più sofisticati con un maggior numero di avversari, l’espansione della superficie di attacco informatico e l’aumento delle vulnerabilità nell’intero ciclo di vita delle soluzioni personalizzate di Gen AI. Questi rischi sono inoltre aggravati dall’uso improprio dell’AI e dell’AI generativa da parte dei dipendenti, con un conseguente aumento significativo del rischio di violazioni dei dati.
Due organizzazioni su tre temono una maggiore esposizione alle minacce
Quasi tutte le organizzazioni intervistate (97%) affermano di aver riscontrato violazioni o problemi di sicurezza legati all’uso della Gen AI nell’ultimo anno. Questa tecnologia comporta anche rischi aggiuntivi, tra cui allucinazioni, generazione di contenuti distorti, dannosi o inappropriati e attacchi di tipo prompt injection2. Due organizzazioni su tre (67%) sono preoccupate per l’inquinamento dei dati e per la possibile fuga di dati sensibili attraverso i dataset utilizzati per l’addestramento dei modelli di intelligenza artificiale generativa.
Inoltre, la capacità della Gen AI di generare contenuti sintetici altamente realistici sta comportando ulteriori rischi: oltre due aziende intervistate su cinque (43%) hanno dichiarato di aver subito perdite finanziarie derivanti dall’uso di deepfake.
Circa 6 organizzazioni su 10 ritengono inoltre di dover aumentare il budget destinato alla cybersecurity per rafforzare adeguatamente le proprie difese.
1 Quasi un quarto (24%) delle organizzazioni intervistate ha abilitato le funzionalità di Gen AI in alcune o nella maggior parte delle proprie funzioni e sedi (Capgemini Research Institute, “Harnessing the value of generative AI 2nd edition: Top use cases across sectors”, luglio 2024).
2 Gli attacchi di tipo prompt injection comportano l’utilizzo di input dannosi per manipolare i modelli di AI e di Gen AI, compromettendone l’integrità.
L’AI e la Gen AI sono fondamentali per rilevare e rispondere agli attacchi
L’indagine, condotta su 1.000 organizzazioni interessate all’utilizzo dell’AI nell’ambito della cybersecurity o che già la stanno utilizzando, rileva che la maggior parte di esse si affida a questa tecnologia per rafforzare la sicurezza dei dati, delle applicazioni e del cloud, grazie alla sua capacità di analizzare rapidamente grandi quantità di dati, identificare modelli di attacco e prevedere potenziali violazioni.
Oltre il 60% delle aziende intervistate ha registrato una riduzione di almeno il 5% del proprio time-to-detect, mentre quasi il 40% ha dichiarato che il tempo di ripristino è diminuito almeno del 5% a seguito dell’implementazione dell’AI nei propri centri operativi di sicurezza (SOC).
Tra le organizzazioni intervistate, tre su cinque (61%) ritengono che l’AI sia essenziale per una risposta efficace alle minacce, in quanto consente loro di implementare strategie di sicurezza proattive contro attori sempre più sofisticati. Inoltre, la stessa percentuale ritiene che l’intelligenza artificiale generativa sia in grado di rafforzare le strategie di difesa proattiva a lungo termine, grazie a un rilevamento più rapido delle minacce. Oltre la metà ritiene inoltre che questa tecnologia consentirà agli analisti di cybersecurity di concentrarsi maggiormente sulle strategie di contrasto a minacce più complesse.