Imprese, centri di ricerca, associazioni di settore e mondo della politica si misurano con gli effetti potenziali dell’intelligenza artificiale sulle persone, la società nel suo complesso, il mondo dell’economia e dell’industria.
Su questo si sono confrontati al Cybersec2024 di Roma Marco Conti, Direttore dell’Istituto di Informatica e Telematica (IIT) del CNR, Beatrice Covassi, Group of the Progressive Alliance of Socialists and Democrats al Parlamento europeo, Roberto Pignani, Direttore Generale di Cybertech (Gruppo Engineering), Yuri Rassega, Chief Information Security Officer, Enel Group – Presidente, ASSOCISO, nel Challenge Panel dal titolo “AI sicura, protetta e affidabile, basata su princìpi etici e sui nuovi standard di secure by design”.
Da sinistra Luigi Garofalo, Marco Conti, Beatrice Covassi, Roberto Pignani, Yuri Rassega
“L’IA ha grandi limiti e in molti settori critici non è facilmente utilizzabile, perché non da garanzie di sicurezza ed affidabilità. Vogliamo promuovere una tecnologia sicura, certificata e antropocentrica. Un’IA che aumenti le capacità umane senza sostituirci. Il partenariato esteso Fair, “Future Ai Research”, coordinato dal Cnr, che coinvolge 350 ricercatori provenienti dai 25 partner dell’iniziativa, a cui si aggiungeranno altri 150 ricercatori a tempo determinato e 100 dottorandi che verranno assunti per lavorare sul progetto, distribuiti su tutto il territorio nazionale, sta cercando di sviluppare un’IA critica con un ecosistema di università e imprese che lavorerà sull’IA futura e che ci consentirà di competere a livello internazionale”, ha affermato Marco Conti, Direttore dell’Istituto di Informatica e Telematica (IIT) del CNR.
“La speranza europea è creare regole etiche sull’IA, riuscendo a diventare un blueprint per il resto del mondo. Sono confortata dall’esempio del GDPR – ha dichiarato Beatrice Covassi, Group of the Progressive Alliance of Socialists and Democrats al Parlamento europeo – inizialmente indicato come dispositivo repressivo, ma nel tempo è diventato un modello per il mondo in chiave di trattamento dei dati. Anche il Congresso americano ha iniziato a parlare di necessità di regolamentare l’IA. Tredici anni dopo alcune di queste cose si stanno realizzando altre sono prossime. In Cina si stanno sviluppando corti di giustizia completamente automatizzate con l’IA. L’Europa vuole porre un punto di caduta sugli aspetti più difficili e incompatibili con il nostro modello di società e sviluppo. Vogliamo un’IA più rassicurante e umana nel lungo termine”.
“La fantascienza ha anticipato di molti anni la realtà e oggi sempre più si parla di tecnologie basate sull’IA per trasformare la società. Oggi abbiamo a disposizione diverse tecnologie disruptive, ad esempio l’IA generativa e li abbiamo avuti in tempi molto rapidi, con evoluzione esponenziale. Modelli a disposizione anche dei gruppi criminali. Questo significa che gli attacchi sono più difficili da individuare e contrastare. A presidio delle organizzazioni abbiamo supporti molto efficaci per la gestione della minaccia. Così si cambia anche il paradigma della sicurezza, grazie a nuove tecnologie per lo screening degli attacchi, che consente di liberare risorse da impiegare nelle fasi di indagine e di definizione delle contromisure. Questo è un primo cambiamento di paradigma molto rilevante. L’IA potrebbe essere utilizzata nella fase di monitoraggio della minaccia.
Altro utilizzo è nell’analisi predittiva, effettuando una copia dell’infrastruttura per testarla con un attacco simulato. Così si individuano le reazioni dell’infrastruttura e si possono prendere le migliori contromisure. Si può anche cambiare il modello di analisi, definendo i dati in maniera specifica e riuscendo a definire nel migliore dei modi un attacco in corso”, ha detto Roberto Pignani, Direttore Generale di Cybertech (Gruppo Engineering).
“In una fase storica in cui gli attacchi cyber hanno raggiunto numeri allarmanti (come riportato di recente dalla Polizia Postale, sono stati più di 1.000 solo nel mese di gennaio), l’AI e l’AI generativa da una parte sono un nuovo strumento nelle mani degli hacker per ideare minacce sempre più sofisticate, dall’altra possono essere il co-pilota con cui operatori come noi di Cybertech, azienda di cybersecurity del Gruppo Engineering, abbiamo la possibilità di potenziare le tecniche di difesa, aumentando la security posture dei clienti. Grazie all’Intelligenza Artificiale riusciamo infatti ad amplificare le profonde competenze delle nostre persone e a realizzare strategie di sicurezza informatica basate su un cambiamento radicale nelle tecniche di indagine delle minacce e nella predisposizione adattiva delle contromisure. Questo ci permette di supportare le aziende di ogni settore attraverso un monitoraggio attivo, l’automazione nella rilevazione delle minacce e la predisposizione di risposte efficaci agli attacchi“, ha proseguito Pignani.
“Queste tecnologie ci consentono di lavorare molto rapidamente su progetti altamente complessi. Se tutti crediamo che questi oggetti possono consentirci di mettere in ordine sistemi e risolvere criticità varie, diamo un messaggio sbagliato. Non basta solo investire in queste soluzioni per ottenere questi risultati. L’IA è come un martello nel nostro immaginario collettivo, un martello enorme con un manico molto piccolo, che sono i modelli di linguaggio naturale. La grande democratizzazione d’uso è un valore – ha sottolineato Yuri Rassega, Chief Information Security Officer, Enel Group – Presidente, ASSOCISO – ma rischia di creare un problema relativo alle persone con scarse competenze, con esiti imprevedibili e devastanti nel peggiore degli scenari. Altro punto chiave è proteggere questi oggetti, che impattano direttamente organizzazioni e società”.