Come ACN da tempo stiamo seguendo e sostenendo startup specifiche, perché occuparsi della sicurezza nazionale significa anche essere padroni della propria tecnologia, che non deve essere appannaggio soltanto dei grandi gruppi. Avere un’autonomia significa avere più sicurezza.”
“Partiamo da due notizie, pubblicate a poche ore di distanza. L’associazione italiana di ematologia e oncologia pediatrica ha spiegato che si attendono grandissimi passi avanti nelle cure grazie all’intelligenza artificiale. Mirano a diagnosi precise e personalizzate per bambini che così potrebbero guarire. Una notizia straordinaria. Poco dopo, alcune Organizzazioni non governative hanno reso noto che grazie a software sviluppati con l’intelligenza artificiale l’Iran sta identificando le donne che non rispettano i rigidi requisiti del codice di abbigliamento islamico. Bene, tra questi due esempi, tra il grande bene e il grande male, c’è la nostra sfida: mettere i paletti e costruire una governance che ci spieghi per cosa l’Intelligenza artificiale va usata e per cosa invece no. Un contesto che coordini sviluppo, sicurezza ed etica”.
Sono queste le parole annunciate da Nunzia Ciardi Vicedirettrice dell’Agenzia nazionale per la cybersicurezza in un’intervista al quotidiano ‘La Repubblica’.
“L’intelligenza artificiale è uno strumento straordinario, portata ai suoi massimi livelli. Pensare di non competere su un terreno come questo è folle, significa negare il progresso e condannarsi a restare indietro nel tempo. Per dire: la capacità di processare un enorme quantità di dati, ci permette nella cybersicurezza strumenti di difesa dei sistemi fin qui inimmaginabili. Bene, detto questo sarebbe stupido non vedere i pericoli. E dunque regolamentarli. – continua Ciardi – Esistono delle norme rigide che regolamentano cosa e soprattutto quando si può ricorrere a certi sistemi, particolarmente invasivi. E lo stesso fa l’Unione europea, giustamente, riconoscendo dei gradi a seconda dei reati. Ma il tema del riconoscimento facciale è soltanto uno rispetto a un più generale problema sulla privacy non di facilissima risoluzione. I nostri dati sono ovunque: dal supermercato dove fai la spesa ai siti di ecommerce. In Cina è stato sdoganato uno strumento pericolosissimo come il social scoring, un punteggio che indica la ‘dignità sociale’ dei cittadini sulla base di un’analisi di dati quasi sempre iper riservati. Inoltre non abbiamo il controllo su come vengono gestite quelle informazioni: davanti ad output discriminatori, non corretti, si potrebbe creare un pericolosissimo cortocircuito. Ecco, davanti proprio a situazioni come queste è chiara la necessità di coordinare sicurezza ed etica di certi algoritmi».
“Servono regole. E mi pare che su questo il dibattito sia a buon punto. Ma, come l’Agenzia sta facendo da tempo, è necessaria anche tecnologia: l’intelligenza artificiale non può essere competitiva ma ausiliaria. Questo non significa né demonizzarla né rinunciare alla competizione. Da tempo stiamo seguendo e sostenendo startup specifiche, perché occuparsi della sicurezza nazionale significa anche essere padroni della propria tecnologia, che non deve essere appannaggio soltanto dei grandi gruppi. Avere un’autonomia significa avere più sicurezza. Questo è stato importante per l’energia, lo è per la cyber. E lo stesso vale anche per l’intelligenza artificiale”, conclude Ciardi.