AI e cybersecurity, i 3 rischi. Il white paper del WEF

Secondo il rapporto Artificial Intelligence and Cybersecurity: Balancing Risks and Rewards” del World Economic Forum, i rischi per la sicurezza informatica derivanti dall’adozione dell’intelligenza artificiale rientrano in tre ampie categorie:

L’intelligenza artificiale sta rivoluzionando le industrie, ma introduce anche nuovi rischi informatici. Quali sono le strategie per un’adozione sicura dell’IA? Il World Economic Forum, in collaborazione con il Global Cyber Security Capacity Centre (GCSCC) dell’Università di Oxford, ha pubblicato un nuovo rapporto, “Artificial Intelligence and Cybersecurity: Balancing Risks and Rewards”, per guidare i leader nell’adozione delle tecnologie IA mitigando i rischi informatici correlati.

Il rapporto specifico offre una chiara prospettiva esecutiva sulla gestione dei rischi informatici legati all’IA, consentendo ai leader di investire e innovare con fiducia nell’IA, sfruttando al contempo le nuove opportunità di crescita. Esplora come le organizzazioni possano beneficiare dell’adozione dell’IA mitigando i rischi informatici associati. Sviluppato in collaborazione con il Global Cyber Security Capacity Centre dell’Università di Oxford, questa pubblicazione mira a guidare le strategie e le decisioni dei leader globali sui rischi e le opportunità informatiche riguardanti l’adozione dell’IA.

Secondo il rapporto, i rischi per la sicurezza informatica derivanti dall’adozione dell’intelligenza artificiale rientrano in tre ampie categorie:

  • L’uso dell’AI da parte degli aggressori: gli aggressori utilizzano l’AI per migliorare le proprie capacità e rendere le proprie tattiche, tecniche e procedure più potenti e gli attacchi più efficaci. I criminali informatici possono sfruttare le capacità dell’AI per amplificare la portata, la sofisticazione e la velocità delle loro attività dannose. Esempi di come gli aggressori possono utilizzare l’AI includono l’impersonificazione, l’ingegneria sociale e il phishing mirato, la ricognizione, la scoperta e lo sfruttamento di zero-day e la compromissione di sistemi di AI.
  • L’uso dell’AI da parte dei difensori: i difensori informatici stanno sfruttando l’AI per migliorare le capacità di sicurezza informatica, facilitando una prevenzione più ampia, un rilevamento delle minacce più accurato, una riparazione autonoma e una risposta agli incidenti più rapida ed efficace.
  • Sicurezza informatica per l’AI: l’uso dell’AI sta creando una superficie di attacco ampliata che potrebbe essere sfruttata dagli aggressori. I metodi esistenti devono essere estesi per affrontare le nuove vulnerabilità insite nell’AI, ma che potrebbero non essere rilevanti per i sistemi IT “classici”. Le organizzazioni devono considerare come i processi aziendali e i flussi di dati costruiti attorno ai sistemi di AI possano essere progettati in modo da ridurre l’impatto aziendale che potrebbe causare un guasto alla sicurezza informatica.

Il rapporto inoltre fornisce indicazioni per i dirigenti aziendali e i responsabili del rischio senior sulla gestione dei rischi informatici associati all’implementazione delle tecnologie di AI.

Alcune delle vulnerabilità specifiche associate ai sistemi di AI includono:

  • Vulnerabilità nei dati di input, come l’iniezione di prompt, l’evasione del modello e il jailbreaking.
  • Vulnerabilità nei dati di addestramento, come l’avvelenamento dei dati.
  • Vulnerabilità nel modello di AI stesso, come lo sfruttamento di vulnerabilità e l’alterazione del codice del modello.
  • Vulnerabilità nell’infrastruttura di supporto, come la perdita o la manipolazione dei dati nell’archiviazione dei dati o lo sfruttamento di vulnerabilità nell’hardware/software sottostante.
  • Vulnerabilità nelle API e nelle interfacce, come lo sfruttamento di vulnerabilità che porta alla compromissione dei dati nelle API.
  • Vulnerabilità negli strumenti di monitoraggio e registrazione, come la manipolazione dell’integrità degli strumenti di monitoraggio, la perdita di dati dagli strumenti di monitoraggio e la compromissione dell’accesso agli strumenti di monitoraggio.

Per approfondire

Related Posts

Ultime news