Bruxelles ha di fronte a sé una sfida difficile: da un alto rinvigorire programmi e le risorse messe a disposizione per lo sviluppo in ambito IA e, dall’altro, guidare la discussione mondiale.
Se da una parte Stati Uniti e Cina appaiono impegnate in una gara per la supremazia tecnologica in materia di Intelligenza Artificiale (IA), dall’altra l’Unione Europea tenta, tramite l’adozione dell’AI Act, di dotare se stessa, i suoi stati membri e le entità che al suo interno agiscono di un framework giuridico che ne governi l’accesso, nonché l’utilizzo. Formalmente approvato lo scorso 13 marzo dal Parlamento europeo, l’AI Act dovrebbe entrare in vigore 20 giorni dopo la sua pubblicazione in Gazzetta ufficiale e, salvo eccezioni, diventerà effettivo a partire dal 2026. Si tratta del primo atto legislativo al mondo che disciplina l’intelligenza artificiale in maniera orizzontale e autonoma.
L’esigenza di un regolamento che fornisca agli operatori europei (nella fattispecie aziende e società in generale) chiare indicazioni sorge dalla crescente preoccupazione nei confronti dei rischi che, soprattutto a livello sociale, l’intelligenza artificiale sembra presentare. Nonostante non si possa mettere in dubbio l’enorme potenziale dell’IA in praticamente ogni campo e settore umano, per sua stessa natura questa tecnologia è resa accessibile a chiunque indipendentemente dalle intenzioni che ne guidano l’utilizzo. Proprio per questo motivo l’AI Act offre un approccio risk-based in grado di assegnare ad ogni applicazione di IA un livello di rischio determinato “dall’impatto delle tecnologie sulla vita del singolo e sui suoi diritti fondamentali”. All’interno dello spazio delimitato dall’AI Act, ad esempio, i software di riconoscimento facciale o punteggio sociale che già sono utilizzati in Cina sono proibiti in quanto rappresentano un rischio “inaccettabile” per la popolazione, mentre altri strumenti sono soggetti a specifici requisiti legali (come le app in grado di scansionare i CV e classificare i candidati per una posizione lavorativa).
Come detto, la rivalità tra Stati Uniti e Cina, la pressione esercitata dai tech giants dei rispettivi Paesi e soprattutto l’assenza di un’architettura giuridica internazionalmente valida e riconosciuta costituiscono un potenziale di rischio enorme per la sicurezza europea, anche a fronte del tentativo dell’UE di dotarsi di un primo strumento regolatore di questo genere. È giusto sottolineare come le medesime preoccupazioni siano in realtà condivise dalle tre grandi potenze: lo scorso ottobre, il Presidente degli Stati Uniti, Joe Biden, passava un ordine esecutivo per un’IA sicura, protetta e affidabile mentre Pechino negli ultimi mesi si è attivata per adottare diversi regolamenti in materia allo scopo di prevenire gli utilizzi scorretti senza però ostacolarne l’innovazione. Dopotutto, da un punto di vista geopolitico, l’IA è tutto fuorché un gioco a somma zero e gli investimenti condotti da Cina e Stati Uniti lo dimostrano più di ogni altra considerazione. Alla luce di ciò, è lecito chiedersi il motivo per il quale, nonostante l’evidente condivisione di ideali tra i principali protagonisti, i presupposti per iniziare un dialogo da cui far nascere un’architettura giuridica sovranazionale appaiano ancora lontani. Una possibile spiegazione è da rintracciarsi nell’attuale disequilibrio di potere in ambito IA dovuto alla posizione preponderante tenuta da tech giants statunitensi e cinesi. Queste società, possedendo gli algoritmi che governano l’IA, hanno di fatto facilitato un processo di balcanizzazione dei diversi ecosistemi tecnologici che mina ogni prospettiva di interoperabilità. Sotto molti punti di vista queste società appaiono internazionalmente più “rilevanti” in materia di IA delle nazioni stesse, tanto che quest’ultime assumono oggi un ruolo clientelare, inequivocabilmente subordinato. L’AI Act europeo nasce proprio da queste considerazioni e ha come obiettivo il rafforzamento della posizione globale dell’UE all’interno del campo da gioco dell’intelligenza artificiale. Così come accaduto per il GDPR, Bruxelles si presenta come un arbitro in grado di fornire agli altri giocatori un pacchetto di regole necessarie e facilmente replicabili.
In conclusione, l’IA è sempre più in grado di plasmare le dinamiche geopolitiche e quelle in materia di sicurezza. Quasi a sorpresa, l’Unione Europea si è mossa con buon tempismo nel cercare, da un lato, di non rimanere attardata nella corsa alla supremazia tecnologica e, dall’altro, fornire regole d’ingaggio precise e trasparenti che ne tutelino gli operatori. Tuttavia, in un contesto geo-tecnologico in costante mutazione e fortemente influenzato da una “corsa agli armamenti” dettata dalle agende economiche dei tech giants, Bruxelles ha di fronte a sé una sfida difficile: da un alto rinvigorire programmi e le risorse messe a disposizione per lo sviluppo in ambito IA e, dall’altro, guidare la discussione mondiale. In particolare, avendo optato per la strada della regolamentazione, sarà necessario far pesare la scelta sui tavoli internazionali affinché l’AI Act diventi un punto di partenza per la costruzione di un regime multipolare e sovranazionale in grado di disciplinare la materia e i key players coinvolti.