La videointervista a Fabio Roli, Professore Ordinario di Ingegneria Informatica – Università di Genova: “Per evitare che l’intelligenza artificiale sia l’anello debole della catena della cybersecurity, necessari standard aperti, internazionali e condivisi. E valutare i rischi dell’IA dove sono realmente, allo stato dell’arte”.
L’intelligenza artificiale (IA) offre una pluralità di vantaggi per rafforzare la cybersecurity, ma anche tanti rischi per la sicurezza cibernetica delle infrastrutture critiche e quindi rappresentare un problema per la sicurezza nazionale. Sempre più società si stanno trasformando in AI Company sviluppando e offrendo soluzioni basate sull’intelligenza artificiale generativa. Ma l’uso dei sistemi di IA può esporre, se non vi è una security by design, i dati sensibili di un’organizzazione ai cyberattaccanti, che, proprio grazie all’IA generativa, riescono oggi a sferrare attacchi informatici con più facilità e precisione.
“Per evitare che l’intelligenza artificiale sia l’anello debole della catena della cybersecurity è necessario definire standard aperti, internazionali e condivisi”. È questo uno dei messaggi chiave lanciati, nella nuova puntata della nostra videorubrica Chief Security Talk, da Fabio Roli, Professore Ordinario di Ingegneria Informatica all’Università di Genova. “Sarà fondamentale”, ha spiegato, “conoscere quali tipi di dati sono usati dalle aziende per sviluppare applicazioni di IA. In questo senso, sarà decisivo dar vita negli Stati a centri per la certificazione trasparente dell’intelligenza artificiale. OpenAI potrebbe aprirlo anche in Italia”.
Guarda la videointervista. L’IA per la Cybersecurity. Il prof. Roli (Univ. Genova): “Aprire centri per la certificazione trasparente”
L’AI Act, quando sarà pienamente in vigore tra un paio di anni, prevede da parte dell’Autorità nazionale designata alla creazione di enti certificatori. Le aziende che sviluppano app di IA dovranno ottenere una sorta di “bollino” per essere rilasciate sul mercato.
“Valutare i rischi dell’IA dove sono realmente, allo stato dell’arte”
Infine, quando si parla di IA si fa riferimento, principalmente, ai rischi e l’abbiamo visto dal ‘codice di condotta’ concordato dal G7 durante il Processo IA di Hiroshima, nell’executive order di Biden fino alla dichiarazione di Bletchley, dove si legge “Siamo particolarmente preoccupati dei rischi dell’intelligenza artificiale general-purpose’ nel settore della cybersecurity”.
“Occorre vedere i rischi dell’intelligenza artificiale dove sono realmente, allo stato dell’arte, nel tipo di dati usati per allenarla e nei tipi di uso e non in modo generale”, questa è l’osservazione del prof. Roli, sui cui i decisori politici europei e nazionali dovrebbero fare una seria valutazione.