L’analisi, dei 3 livelli di rischi, dell’Artificiale Intelligence Act da parte di Michelangelo Di Stefano e Gaetano Lo Presti.
Il mondo globalizzato ha, ormai da tempo, messo al centro delle sue logiche l’Intelligenza Artificiale, un contenitore immenso, fatto di una miriade di librerie che accorpano settori tematici, discipline, applicazioni e chi più ne ha più ne metta.
Le sue declinazioni semantiche appaiono oggi di interesse globale come se si stesse trattando di un fenomeno da baraccone alla ribalta, eppure, a ben vedere, i primi studi sui calcolatori automatici trovano contesto già nel 1600, da W. Schickard, a B. Pascal, G. W. von Lebinix fino alla “macchina analitica” di C. Babbage.
Nel 1800 si ebbe la svolta con l’algebra di G. Boole; un modello che, nel mondo digitale, trova innovato compendio nei linguaggi di programmazione così come nelle ricerche sui motori del web, attraverso i noti “operatori booleani” fatti and, or e not.
Si arrivò, negli anni ’30, alla redazione dei primi articoli scientifici sul tema, come On Computable Numbers, With An Application To The Entscheidungsproblem, annotato da A. M. Turing, fino alla nascita, nel 1950, della prima rete neurale artificiale SNARC, realizzata da due giovani studenti di Harward, M. Minsky e D.Edmonds.
Un’omonimia suggestiva quella di D. Edmonds, dal momento che nel 2014 David (non Dean) Edmonds, nel pubblicare Uccideresti l’uomo grasso? si sarebbe imbarcato nella conflittuale riflessione sul “dilemma etico del male minore”, un tema che, ai tempi delle chat bot, sta continuando a scuotere scienza e coscienze.
Nel 1996, il re degli scacchi G. Kasparof si trovò a soccombere contro la più insidiosa macchina da calcolo costruita
Ma la vera potenzialità di questa “idra mitologica dalle cento teste” avrebbe rapito l’interesse dell’opinione pubblica allorquando, nel 1996, il re degli scacchi G. Kasparof si trovò a soccombere contro la più insidiosa macchina da calcolo costruita nel vecchio millennio, una scatola alessitimica di IBM dal nome cupo Deep Blue, che avrebbe anticipato un altro concetto oscuro della ragnatela: la sua profondità.
E sì, perché se oggi parliamo diffusamente di deep e dark web, dovremmo considerare che quel vecchio progetto del Dipartimento della Difesa degli Stati Uniti d’America, denominato Advanced Research Project Agency Network, ai più noto con l’acronimo ARPANET, avrebbe tracciato i prodromi di quel percorso fatto di intelligenze artificiali e calcolatori che, passando per il centro di ricerca americano Bell Laboratories con lo sviluppo del sistema operativo Unix, avrebbe visto l’osmosi del mondo accademico con capofila, in Europa, il National Physics Lab e la Sociètè Internationale de Tèlècommunications Aeronatiques francese, iniziando ad adottare la c.d. “commutazione a pacchetto”, negli anni successivi divenuta protocollo standardizzato di moltissimi sistemi di comunicazione.
Sarebbero stati gli U.S.A., nel 1991, a pubblicare l’High Performance Computing Act, una legge che avrebbe introdotto il concetto di “autostrada elettronica” con la nascita della National Research and Education Network (N.R.E.N.); da qui le prime architetture di reti ad alta velocità in grado di interconnettere atenei o centri di ricerca e, al tempo stesso, realizzare la costruzione di infrastrutture di comunicazione fruibili nel settore commerciale americano.
Il futuro moderno avrebbe visto l’imprinting di T. J. Berners Lee allorquando, presso il CERN di Ginevra, si sarebbe parlato per la prima volta della ragnatela world wide web, con la nascita del protocollo di lettura ipertestuale non sequenziale dei documenti (Hyper Text Transfer Protocol): un rimando alla stringa httpgeniale e che, ormai, ci lascia indifferenti in questa modernità galoppante e, troppe volte, insipida.
Con il conio di internet, nel 1993, si sarebbe arrivati alla nascita del primo browser detto MOSAICtraghettandoci ai giorni nostri e alla nascita dei digital native, qualche tempo dopo soppiantati dai mobile born.
Il telefonino, è cosa nota, sarebbe diventata un’appendice bionica dell’uomo tecnologico, una scatola nera da cui non sappiamo recidere il cordone e il cui distacco, fosse anche temporaneo, ci porta a quella crisi d’astinenza che gli esperti hanno descritto con il termine “nomofobia”.
Eppure, già negli anni ’60, H. M. McLuhan nel descrivere e comprendere l’evoluzione mediatica dentro l’ossimoro del villaggio globale, nel suo celeberrimo Understanding media avrebbe definito i media come una sorta di “massaggio” ancora prima che “il messaggio”.
L’evoluzione dei nativi digitali, un po’ come quella di neanderthal, avrebbe individuato una serie di categorie di contorno: quella dei coloni, degli immigrati accademici, degli immigrati lavorativi, fino ai tardivi e agli ignoranti digitali che, nelle smart city, si ritrovano sempre più smarriti e confusi.
Il consolidarsi di nuovi assetti tecnologici ha, nel frattempo, determinato la nascita di alcuni soggetti regolatori e, tra questi, uno a garanzia della privacy.
Una questione, quella salvaguardia dei diritti dell’uomo e delle libertà fondamentali disegnata dall’art. 8 CEDU, che ha impattato con la realtà distopica della pandemia più surreale dell’era moderna, fatta di interminabili lock down e di realtà virtuali.
In questo scenario la comunità scientifica internazionale si sarebbe trovata di fronte alla sfida del tracciamento dei contatti e della loro riservatezza, in un bisticcio lessicale fatto di anonimizzazioni e pseudonimizzazioni, dividendosi tra un modello di allocazione dei dati sensibili centralizzato, denominato Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT) e un sistema decentralizzato con il mantenimento dei dati sul device del singolo, denominato Decentralised Privacy-Preserving Proximity Tracing (DP-3T).
La sintesi fin qui descritta trova sconcertante illustrazione della letteratura distopica del vecchio millennio, dalla chiosa satirica di E.J. Zamjatin in Noi (1924), alla paura sul mondo descritta da C. Alvaro in L’uomo è forte (1938), fino a quel conflitto totalitario tra tre potenze virtuali che G. Orwell avrebbe colorito nel suo 1984– Nineteen eighty four (1949), un romanzo che, con il crollo del muro, avrebbe ammaliato anche i Pink Floyde le nuove generazioni di The Wall.
AI Act, I 3 princìpi cardine
Questa introduzione – a metà tra etica, filosofia, socio comunicazione, nuove tecnologie e fantascienza – ci porta adesso al primo documento comunitario in materia di intelligenza artificiale, una regolamentazione complessa che dovrà seguire, a medio termine, un iter attuativo in armonia con una regolamentazione globale del c.d. AI Act, partendo da tre principi cardine.
Sicurezza, trasparenza ed etica sono i tre parametri che, dentro il perimetro europeo, dovranno rendere la Comunità Europea adatta all’era digitale: “a Europe fit fot the digitaleage”.
La definizione descritta dall’AI Act al suo art. 3, chiarisce che un “sistema di intelligenza artificiale” è da intendersi “un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti (sistemi di IA generativi), previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di IA interagisce”.
L’organo regolatore comunitario si è prefisso l’obiettivo di “promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell’ambiente,dagli effetti nocivi dei sistemi di intelligenza artificiale nell’Unione, sostenendo nel contempo l’innovazione e migliorando il funzionamento del mercato interno”
AI Act, I 3 livelli di rischi
In quest’ottica l’AI Act ha messo in evidenza quei livelli di rischio (risk-based approach) determinati dall’impatto delle tecnologie sulla vita del singolo e sui suoi diritti fondamentali individuabili nella cornice della Convenzione europea dei diritti dell’uomo, delineando tre soglie di criticità: a rischio inaccettabile, a rischio alto e a rischio minimo.
Inaccettabili sono da intendersi quei rischi che, attraverso l’utilizzo di tecnologie AI, denotano usi intrusivi e discriminatori, rappresentando una “chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone” rilevando “manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici, la classificazione sociale e sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale”.
Tra le tecnologie ritenute di certa censura vi sono quei sistemi di intelligenza artificiale che sfruttano le vulnerabilità di individui o gruppi specifici; utilizzano tecniche subliminali o tecniche manipolative e/o ingannevoli per distorcere il comportamento; per l’analisi del c.d. social scoring o la valutazione dell’affidabilità; l’attività di prediction technology per la valutazione del rischio di previsione penale e amministrativa; quei sistemi che creano o espandono database di riconoscimento facciale attraverso web scraping non mirato; che deducono le emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nell’istruzione.
Ad alto rischio sono da intendersi, poi, quei sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza, che sono dannosi alla salute o interferiscono sui diritti fondamentali, rilevando un “rischio significativo” quale “risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti e la capacità di colpire un individuo, una pluralità di persone o un particolare gruppo di persone”.
Tra questi elementi di criticità vanno ricompresi i rischi ambientali, prendendo a riferimento gli standardambientali europei in materia ecologica, così ovattando, gioco forza, anche le infrastrutture critiche di approvvigionamento idrico ed energetico; in questo perimetro sono inserite anche le infrastrutture dei trasporti in grado di mettere a rischio la vita o la salute dei cittadini comunitari; è trattato anche l’uso di AI in materia di formazione educativa o professionale, idonea a determinare l’accesso all’istruzione o a un corso professionale; l’impiego quali componenti di sicurezza dei prodotti, come nel caso di applicativi sanitari chirurgici con assistenza robotica; o in materia di selezione e gestione delle risorse umane, come nel caso di applicativi di intelligenza artificiale idonei ad operare selezioni di profili di candidati a una assunzione; intelligenze artificiali rivolte alla gestione di servizi privati e pubblici essenziali, come strumenti di credit scoring per valutare l’affidabilità creditizia di un utente; ancora, tecnologie AI in materia di verifica della genuinità di titoli di viaggio o riconoscimento al fine di concorrere nell’attività di gestione della migrazione, dell’asilo e del controllo delle frontiere; fino a quelle dinamiche che riguardano l’applicazione di una legge e l’amministrazione della giustizia.
Tutti i sistemi di intelligenza artificiale ritenuti ad alto rischio devono essere sottoposti a rigidi protocolli di verifica per la loro immissione sul mercato, così come per una idonea valutazione e mitigazione dei rischi; analoghe verifiche riguardano informazione trasparente all’utente; la c.d. documentazione di conformità; i criteri di tracciabilità, ecc.
In questo scenario sono da ritenersi ad alto rischio tutti i sistemi di identificazione biometrica remota; il loro utilizzo in spazi accessibili al pubblico a fini di contrasto è, di norma, non consentito, seppur con alcune eccezioni, previa autorizzazione dell’autorità giudiziaria o di un organismo preposto, nonché secondo criteri di limite spazio temporale e di consultazione d’archivio.
La deroga è stata individuata, ad esempio, nel caso di ricerche finalizzate al rintraccio di un minore scomparso o al fine di prevenire e reprimere gravi reati e, più nello specifico, per arginare una minaccia terroristica specifica e imminente.
Minimo è il rischio che rimanda a sistemi di intelligenza artificiale che si attengono a specifici obblighi di trasparenza, come nel caso di filtri antispam o di quei videogiochi che interagiscono con sistemi di intelligenza artificiale.
L’AI Act ha, ancora, affrontato il tema all’ordine del giorno nelle varie stanze istituzionali, virtuali, didattiche o delle tante community nel mondo dei social, in materia di intelligenza generativa, al fine di mitigare i tanti rischi, siano essi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto, prevedendo, prima dell’immissione sul mercato comunitario, la registrazione degli applicativi sulla banca dati dell’UE.
Detti sistemi devono, poi, rispettare i requisiti di trasparenza, informando l’utente sulle origini dei contenuti generati virtualmente, parallelamente evidenziando possibili contenuti falsi o ingannevoli e, soprattutto, scongiurare la generazione di contenuti illegali.
La criticità delle chat bot e dei modelli di intelligenza generativa, che superficialmente viene individuata nei soli contenuti fake, a ben vedere reca nelle sue dinamiche di interazione virtuale un elemento ancor più subdolo e deviante: la mancanza di emozioni, di empatia e di discernimento reale. Quale sarà, allora, il limes tra il bazar con ogni risposta e il vaso di Pandora con tutti i suoi mali mitologici?
Sviluppare IA affidabili e eque
Andando adesso all’approccio verso il progresso e la ricerca mantenuto dalla Comunità Europea nell’AI Act, è stata registrata una particolare sensibilità verso le piccole e medie imprese, le start-up e le scale-up, intendendo promuovere lo sforzo di ricerca e di investimento nell’intelligenza artificiale dentro il perimetro europeo, con l’obiettivo di traghettare l’Unione verso la leadership mondiale nello sviluppo di intelligenze artificiali, affidabili ed eque.
L’AI Act rappresenta, allora, un importante passo avanti nella regolamentazione dell’intelligenza artificiale, affrontando questioni fondamentali come la privacy, l’etica e la sicurezza.
Questo atto Europeo dimostra un impegno nel coniugare i vantaggi delle tecnologie intelligenti con la protezione dei diritti umani e la tutela di tutti i cittadini.
Una delle questioni chiave riguarda la privacy: con l’aumento dell’utilizzo dell’AI, è fondamentale garantire che i dati personali siano trattati in modo sicuro e conforme alle leggi sulla privacy; non a caso il presente regolamento pone l’accento sulla trasparenza e sulla responsabilità dei sistemi basati sull’AI, richiedendo che gli algoritmi siano comprensibili e spiegabili.
Ciò contribuisce a creare un ambiente in cui gli individui possano sentirsi protetti e avere il controllo sulle proprie informazioni.
L’aspetto etico dell’AI è un’altra considerazione cruciale; l’AI Act stabilisce, infatti, che i sistemi di intelligenza artificiale debbano rispettare i principi fondamentali dell’etica, come la dignità umana, la giustizia e la non discriminazione.
Ciò è particolarmente rilevante nel contesto dell’AI decisionale, in cui i sistemi automatizzati possono avere un impatto significativo sulla vita delle persone.
L’obbligo di evitare discriminazioni indebite e di adottare misure per comprendere e mitigare le potenziali distorsioni nei sistemi AI rappresenta, quindi, un passo importante verso un utilizzo equo e responsabile.
La sicurezza è un’altra area affrontata in modo significativo nell’AI Act: è essenziale garantire che i sistemi di AI siano robusti e affidabili, riducendo al minimo i rischi di manipolazione, frode o danni fisici.
Tuttavia, mentre la normativa Europea rappresenta un passo significativo verso una regolamentazione più completa, è importante mantenere un equilibrio tra la tutela dei diritti e la promozione dell’innovazione.
È, allora, fondamentale che le normative non soffochino l’evoluzione dell’AI e la sua capacità di fornire benefici significativi alla società; ed è, altrettanto, importante affrontare queste questioni in modo equilibrato, con la predisposizione di tavoli tecnici che tengano conto del know how del privato, arrivando al coinvolgimento partecipato degli attori interessati indispensabile per armonizzare le diverse prospettive di ricerca.
Nella realtà delle start-up europee fondamentale è, in questa ottica, un approccio formativo etico, ancor prima che tecnologico, con l’obiettivo di educare le risorse umane in modo che sappiano usare in modo consapevole ed efficiente i nuovi strumenti tecnologici.
Sulla sicurezza, gli autori di questo breve spunto di riflessione – che stanno elaborando ricerche di fattibilità AI per abbattere alcune drammatiche statistiche legate, ad esempio, all’uso, maneggio e trasferimento delle armi, all’ assistenza e tutela sui posti di lavoro, alla sicurezza dei trasporti terrestri e marittimi, alla vigilanza e protezione passiva e tanto altro ancora – si auspicano che gli sforzi delle start e scale-up proiettino l’AIverso un futuro più accettabile e adeguato a quelle regole comunitarie che, in una focale più ampia – ha recente precisato il Presidente Roberta Metsola diverranno “una legislazione che, senza dubbio, stabilirà lo standard globale per gli anni a venire”.
Un futuro che dovrà, per un verso, tener conto delle tante realtà glocali bisognevoli di adeguati interventi tecnologici e, per altro verso, uniformare modelli globalizzati (e globalizzanti) di intelligenza e di reti neurali alle esigenze della “società liquida” del nostro tempo, sempre in movimento e, troppo spesso, miope di fronte alle regole sociali e alla tutela del Pianeta.
Si tratterà, allora, di un rischio, non solo accettabile tra esigenze etiche, di privacy, di sicurezza e di diritto, ma di un valore aggiunto per un futuro antropocentrico migliore, pragmatico e virtuoso, anche se altamente tecnologico.