Nel suo documento, l’ANSSI rilascia delle linee guida destinate alle autorità pubbliche e alle imprese. Focus sui rischi da evitare e sulle buone pratiche da adottare nell’utilizzo di sistemi basati sulle tecnologie di intelligenza artificiale.
Lo scorso 27 novembre veniva pubblicato il primo documento congiunto internazionale per un uso sicuro dell’AI (“Guidelines for secure AI system development”). Firmate da 23 Agenzie cyber di 18 Paesi (tra cui anche l’Agenzia per la Cybersicurezza Nazionale), le linee guida intendono aiutare gli sviluppatori a creare un’IA responsabile, etica e sicura.
Tra i Paesi che hanno contribuito alla guida c’è anche la Francia, di cui l’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information) – autorità pubblica posta sotto diretto controllo governativo, avendo anche l’obbligo di riportare al Segretario Generale per la Difesa e Sicurezza Nazionale – ha pubblicato, poche ore fa, un documento focalizzato sui rischi e sulle best practice legati all’uso di sistemi basati sull’AI generativa.
Due facce della stessa medaglia
Il white paper “Recommandations de sécurité pour un système d’IA générative” nasce da una presa di coscienza da parte dell’ANSSI (strutturata in cinque divisioni più un’unità di anticipazione, l’Agenzia svolge un’ampia varietà di attività sia normative sia operative: dall’emissione di regolamenti e verifica della loro applicazione al monitoraggio dei meccanismi di allerta e risposta rapida. Provvedendo altresì al rilascio dei certificati di sicurezza per prodotti e fornitori di servizi ICT): la veloce proliferazione degli strumenti basati sull’intelligenza artificiale generativa richiede particolare conoscenza da parte di autorità pubbliche e imprese coinvolte.
Se la bilancia vede da un lato un progresso tecnologico in rapida crescita, dall’altro assiste a una sempre più fiorente esposizione alle minacce cyber. Va da sé che, per via della sua costante evoluzione, l’AI generativa – e l’impatto che determina – introduce nuove sfide in materia di sicurezza informatica.
E la conoscenza approfondita del tema, come spiega l’ANSSI, è indispensabile. Così, in materia di intelligenza artificiale generativa il documento spazia dalle raccomandazioni generali a quelle che riguardano la fase di formazione e quelle di implementazione e di produzione. E ancora, l’AI generativa quale strumento d’attacco in mano ai cybercriminali.
Algoritmi supervisionati
Tornando indietro con la memoria, lo scorso gennaio in Francia la CNIL (Commission Nationale de l’Informatique et des Libertés), in qualità di ente designato a supervisionare gli algoritmi di intelligenza artificiale, ha creato al suo interno un dipartimento di AI per acquisire le competenze e le conoscenze indispensabili sul tema.
Pochi mesi dopo, lo stesso Garante privacy d’oltralpe ha rilasciato un piano d’azione per migliorare la conoscenza delle tecnologie di AI generativa e delle questioni legali ed etiche che (inevitabilmente) veicolano. Il piano sull’AI della CNIL ha quattro finalità: comprendere il funzionamento dei sistemi di AI e il loro impatto sulle persone; orientare e regolamentare lo sviluppo dell’AI nel rispetto dei dati personali; unire e supportare gli attori innovativi dell’ecosistema dell’AI in Francia e nel resto d’Europa; audit e controllo dei sistemi di AI e tutela degli individui.