Gli attacchi informatici ai sistemi IT del settore trasporti possono avere ripercussioni gravi, come incidenti, ritardi, perdite economiche e danni alla reputazione. Per questo motivo, è indispensabile adottare soluzioni innovative e robuste per proteggere i dati e le infrastrutture critiche dei trasporti.
All’inizio di maggio, la BBC ha riferito di un “hack” che ha portato a una “significativa violazione dei dati” delle informazioni sui salari presso il Ministero della Difesa del Regno Unito. Il rapporto è stato reso pubblico il 6 maggio e il 7 maggio il segretario alla Difesa Grant Shapps ha detto che il coinvolgimento di attori statuali non può essere escluso. Nelle ore e nei giorni successivi, almeno altri due incidenti informatici hanno colpito l’NHS (National Health Service) Scotland e la UK Border Force. NHS Scotland ha affermato che i dati sulla salute mentale dei bambini sono stati pubblicati a seguito di un attacco informatico e la UK Border Force che i gate dei passaporti elettronici hanno smesso di funzionare nei principali aeroporti. National Highways, responsabile della rete stradale strategica (SRN) in Inghilterra, ha notato l’aumento degli attori malevoli che utilizzano l’intelligenza artificiale (AI) come arma negli attacchi informatici.
Il 17 maggio, la CNN ha riferito che ARUP[1] è stata truffata per 200 milioni di dollari di Hong Kong (20 milioni di Euro) dopo che uno dei suoi dipendenti finanziari dell’ufficio di Hong Kong è stato preso di mira da phishing via e-mail e da una sofisticata videochiamata deepfake con iterazioni false del direttore finanziario di Arup e di altri dipendenti finanziari senior. Il presidente regionale di Arup East Asia ha affermato che “la frequenza e la sofisticazione di questi attacchi stanno rapidamente aumentando a livello globale e tutti noi abbiamo il dovere di rimanere informati e vigili su come individuare le diverse tecniche utilizzate dai truffatori”.
Le aziende private che lavorano nel settore della sicurezza informatica confermano che i criminali informatici e gli attori degli stati-nazione come Cina, Russia e Iran, stanno utilizzando l’intelligenza artificiale per potenziare le loro operazioni offensive, dai deepfake alle e-mail truffa, rendendo il panorama delle minacce informatiche ancora più sofisticato.
Questo nuovo scenario evidenzia la necessità per tutti i soggetti maggiormente esposti, a partire dagli operatori di infrastrutture critiche, di una loro attiva cooperazione ed una costante condivisione della minaccia con gli organi statutari che si occupano di threat intelligence. Gli attacchi informatici sponsorizzati dagli Stati costituiscono una piccola parte delle minacce che le organizzazioni devono affrontare, ma con le risorse che li supportano, sono in genere altamente sofisticati e il loro impatto supera di gran lunga il loro numero.
Questo anche perché un singolo attacco riuscito contro una infrastruttura critica potrebbe causare interruzioni diffuse a servizi essenziali per la vita quotidiana dei cittadini, compromettere significative delle funzioni aziendali, minare la sicurezza nazionale e, persino, causare la perdita di vite umane. Inoltre, a causa della presenza di interconnessioni fra i diversi sistemi informatici e fra le diverse infrastrutture, un singolo attacco può ripercuotersi a cascata, amplificando l’impatto complessivo e rendendo il ripristino più impegnativo.
La sfida dei professionisti della sicurezza informatica è rimanere almeno un passo avanti rispetto agli attori delle minacce in un panorama geopolitico fluido, dalle tensioni mutevoli e con tecniche di attacco e minacce in continua evoluzione. Inevitabilmente, le persone che lavorano per queste organizzazioni hanno tutte dei bersagli sulla schiena: è molto più facile hackerare un essere umano piuttosto che un firewall. Le persone sono imprevedibili e non possono essere patchate, quindi sono molto più difficili da proteggere rispetto alle tecnologie.
La risposta migliore è investire sempre di più in soluzioni di sicurezza informatica basate sull’intelligenza artificiale che forniscano i livelli granulari di protezione e supporto di cui le persone hanno bisogno per svolgere il proprio lavoro in sicurezza. La tecnologia di rilevamento intelligente dovrebbe anche essere combinata con solidi programmi di formazione sulla sicurezza e la consapevolezza (Cyber Security Awareness & Culture) focalizzati sulle minacce avanzate comunemente associate agli attacchi state sponsored.
IA applicata alla Cyber Security per rendere i trasporti più sicuri
Un ambito in cui le tecnologie di cyber security basate sull’intelligenza artificiale possono apportare un contributo positivo è sicuramente quello dei trasporti. I sistemi di trasporto contemporanei sono sempre più interconnessi e dipendenti da reti digitali, che offrono benefici in termini di efficienza, sicurezza e sostenibilità, ma introducono anche nuove sfide e vulnerabilità. Gli attacchi informatici ai sistemi di trasporto possono avere ripercussioni gravi, come incidenti, ritardi, perdite economiche e danni alla reputazione. Per questo motivo, è indispensabile adottare soluzioni innovative e robuste per proteggere i dati e le infrastrutture critiche dei trasporti.
L’intelligenza artificiale può fornire un valore aggiunto nella cyber security dei trasporti, grazie alla sua capacità di analizzare grandi quantità di dati, rilevare anomalie, prevedere scenari e reagire in tempo reale. Alcune possibili applicazioni dell’IA nella cyber security dei trasporti sono:
- la prevenzione degli attacchi informatici ai veicoli connessi e autonomi, che utilizzano l’IA per comunicare tra loro e con le infrastrutture stradali. L’IA può monitorare il flusso di dati e identificare eventuali tentativi di intrusione, manipolazione o sabotaggio, attivando meccanismi di difesa e isolamento. Inoltre, queste soluzioni pur partendo dalla cybersecurity diventano delle soluzioni abilitanti e autosostenibili, in quanto si può utilizzare sui medesimi dati tecniche di AI ’ per facilitare l’adattamento dei veicoli alle condizioni del traffico e dell’ambiente, aumentando la sicurezza, il risparmio energetico e la sostenibilità sia ambientale sia economica degli investimenti;
- la protezione delle reti ferroviarie e aeree, che gestiscono sistemi complessi di controllo del traffico, segnalazione, navigazione e comunicazione. L’IA può aiutare a rafforzare la sicurezza di queste reti, analizzando i dati provenienti da sensori, satelliti, radar e altri dispositivi, e riconoscendo eventuali anomalie, attacchi o malfunzionamenti, avvisando gli operatori e suggerendo azioni correttive. Inoltre, in ottica di sostenibilità l’AI applicata ai dati raccolti dal campo può aiutare ad ottimizzare la gestione del traffico e la pianificazione dei percorsi, migliorando la puntualità e la qualità del servizio;
- la sicurezza dei porti e delle vie navigabili, che sono esposti a rischi di pirateria informatica, spionaggio e sabotaggio. L’IA può contribuire a prevenire e contrastare questi rischi, integrando i dati provenienti da fonti diverse, come telecamere, radar, sonar e transponder, e creando una situazione consapevolezza e un sistema di allerta precoce. Tutto ciò si traduce in termini di sostenibilità nella possibilità di utilizzare la AI per supportare la gestione operativa e logistica dei porti e delle navi, aumentando l’efficienza e la competitività.
Altri campi di applicazioni sono il trasporto pubblico, la multi-modalità, la logistica integrata ma l’elenco potrebbe essere molto lungo. Questi sono solo alcuni esempi di come le tecnologie di cyber security basate sull’IA possano rendere non solo più sicuri i trasporti, ma anche essere soluzioni abilitanti per aumentarne la sostenibilità. . Tuttavia, per sfruttare appieno i benefici dell’IA nella cyber security nei trasporti, è necessario anche affrontare alcune sfide, come la qualità e la disponibilità dei dati, la trasparenza e l’etica degli algoritmi, la formazione e le competenze degli operatori, la cooperazione tra gli attori coinvolti e la regolamentazione del settore. Solo così si potrà garantire un uso responsabile e sicuro dell’IA nei sistemi di trasporto del futuro.
Nel promuovere la sicurezza nell’implementazione dell’intelligenza artificiale, si dovrebbe pertanto prioritizzare aspetti quali la trasparenza, l’accountability, la tutela della privacy e dei dati, il controllo umano, la valutazione dell’impatto etico e la salvaguardia della responsabilità decisionale umana, garantendo un approccio equilibrato ed eticamente responsabile.
Gli algoritmi e i modelli utilizzati nell’IA applicata alla sicurezza informatica devono essere trasparenti, comprensibili dagli umani e verificabili. È necessario, inoltre, garantire che ci siano processi di accountability che consentano l’identificazione di chi è responsabile delle decisioni prese dall’IA, che ne sia garantita la tracciabilità con documentazione completa del ciclo di vita dei modelli sia nella fase iniziale di addestramento sia nella fase implementativa. Prevedere, quindi, meccanismi robusti di controllo umano nell’IA applicata nella sicurezza informatica, consentendo agli operatori umani di intervenire, correggere o annullare decisioni prese dall’IA in caso di necessità.
Per mitigare i rischi tecnici legati agli attacchi avversari, bisogna intervenire fin dalle fasi di High Level Design dei progetti per:
- sviluppare modelli di AI che siano robusti e resistenti a tentativi di manipolazione, limitando l’accesso ai dati e agli ambienti in cui sono conservati o implementati gli algoritmi assegnando autorizzazioni minime necessarie e implementando meccanismi di controllo per prevenire accessi non autorizzati (paradigma Zero Trust con Need to know e Least privilege);
- implementare sistemi di monitoraggio degli accessi per identificare attività sospette o inconsuete;
- implementare algoritmi di crittografia robusti per proteggere i dati sensibili utilizzati durante l’addestramento e l’implementazione dei modelli di AI, sia per i dati in transito che a riposo.
Come difendersi al meglio
Per quanto riguarda gli aspetti etici, al fine di valutare le possibili conseguenze derivanti dall’implementazione dell’IA, è fondamentale:
- condurre un’attenta valutazione d’impatto etico, analizzando i rischi potenzialmente connessi con l’’uso degli algoritmi fin dalla loro progettazione. In particolare nel caso di impiego di sistemi di intelligenza artificiale per la cyber security, la valutazione d’impatto etico si deve manifestare attraverso l’esame attento delle conseguenze etiche associate alle decisioni automatizzate nella gestione delle minacce informatiche. Ad esempio, nell’implementazione di algoritmi in grado di rilevare anomalie, comportamenti o attività sospette e le conseguenti mitigazioni o azioni preventive, è fondamentale accertarsi che le misure di sicurezza non compromettano la privacy degli utenti e siano conformi agli standard normativi ed etici nella gestione dei dati personali/sensibili e rispettino rigorosamente le leggi in materia. Minimizzare la raccolta e garantire la sicurezza degli stessi adottando, ad esempio, pratiche di pseudonimizzazione e anonimizzazione;
- valutare e mitigare, altresì, possibili inclinazioni o distorsioni nei dati di addestramento dell’IA dovuti ai cosiddetti bias umani; la presenza di pregiudizi umani durante lo sviluppo e l’addestramento dei dati rappresenta una sfida critica nell’implementazione di modelli di intelligenza artificiale (IA) per la sicurezza. Tali pregiudizi possono influenzare il modello nel riconoscimento dei rischi, conducendolo a conclusioni erronee sulle minacce effettive. Ad esempio, il pregiudizio di considerare gli stati-nazione ostili come minacce maggiori potrebbe infiltrarsi nei dati di addestramento, distorcendo lo sviluppo del modello. Ciò potrebbe portare l’IA a sovradimensionare il rischio proveniente da determinate nazioni, trascurando al contempo le reali minacce degli attacchi informatici di altre nazioni o dello stesso paese. Allo stesso modo, se l’IA è addestrata solo su dati relativi a specifici attacchi provenienti dall’esterno, il modello potrebbe erroneamente concludere che un’organizzazione è presumibilmente sicura, trascurando le minacce interne a causa di una supervisione distorta. Questi pregiudizi possono anche indurre l’IA a percepire erroneamente alcuni vettori di attacco come più diffusi di altri, perché maggiormente occorsi, limitando la capacità di difendersi in modo efficace. Tale focalizzazione su specifiche potenziali violazioni potrebbe comportare la mancata identificazione di altre varianti di attacco. Il riconoscimento dei bias nei dati di addestramento costituisce un fattore chiave e determinante per mitigare questo rischio nell’IA. L’analisi accurata e continua delle fonti di potenziali distorsioni umane nei dati contribuirà a costruire modelli più equi e allineati con la realtà, garantendo una sicurezza informatica più affidabile.
[1] Arup è una società multinazionale che presta servizi professionali di ingegneria, design e altro per ogni aspetto dell’ambiente edile; è presente in America, in Australia, all’est dell’Asia e in Europa. I progetti sono stati finanziati in più di 160 paesi; 20.000 dipendenti e 2,5 Mld € fatturato nel 2023.