La conferma è giunta durante il World Economic Forum. Già prima dell’evento, l’azienda aveva cambiato alcune parole del suo regolamento interno, che vietava l’uso dell’IA per il comparto militare.
OpenAI apre all’utilizzo militare di ChatGPT. L’organizzazione di ricerca sull’intelligenza artificiale sta lavorando con il Pentagono in merito allo sviluppo di nuovi strumenti per la sicurezza informatica. Per essere più precisi, ad oggi OpenAI è al lavoro con la Darpa, un’agenzia governativa del Dipartimento della Difesa degli Stati Uniti focalizzata sullo sviluppo di nuove tecnologie di cybersecurity. La notizia è giunta nel corso del Forum economico mondiale 2024 di Davos, in Svizzera.
Un breve passo indietro: all’interno della sezione Politiche universali del documento Politiche di utilizzo di OpenAI, la sezione 2 puntualizza come sia rilevante “non utilizzare il nostro servizio per nuocere a te stesso o agli altri”. Il divieto comprende l’uso dei suoi prodotti di IA per “sviluppare oppure utilizzare armi”. Nei termini d’utilizzo, però, il 10 gennaio sono stati rimossi i divieti che attengono agli usi “militari e di guerra”.
Intelligenza artificiale per la prevenzione dei suicidi
Gli sviluppi tecnologici hanno toccato vette altissime per quanto riguarda la salute. Tra le varie criticità emerge, anche per la delicatezza dell’argomento, il tema dei disturbi mentali che portano i veterani di guerra a suicidarsi. Una problematica che colpisce migliaia di persone ogni anno, e le tecnologie digitali come l’IA possono essere di grande aiuto per arginare il fenomeno. Il primo a esserne convinto è proprio Elon Musk, che sta discutendo con il governo degli Stati Uniti per quanto concerne proprio per lo sviluppo di strumenti innovativi volti di ridurre i suicidi dei veterani.
OpenAI e il Pentagono insieme per lo sviluppo di tecnologie innovative in materia di sicurezza informatica e per la prevenzione del suicidio: una notizia che ha attirato l’attenzione degli esperti del comparto (considerato che arriva in un momento storico alquanto particolare), suscitando più di una perplessità sulla coerenza di chi gestisce il noto chatbot. Dal canto suo, OpenAI rimarca come la sua intenzione di rendersi (ancora più) disponibile con il Dipartimento della Difesa degli Stati Uniti non lascerà alcun margine allo sviluppo diretto di armi.
OpenAI sulla scia di Microsoft
Anna Makanju, vicepresidente per gli affari globali di OpenAI, non ammette che ci possano essere fraintendimenti: c’è una diversità sostanziale nell’utilizzo dell’intelligenza artificiale in situazioni militari e belliche (“abbiamo collaborato con il Pentagono sugli strumenti di sicurezza informatica per il software open source che protegge le infrastrutture critiche”, puntualizza) rispetto alla vera e propria creazione di armi oppure all’intenzione di provocare danni.
Ciò nonostante, la posizione della piattaforma rispetto alle partnership militari appare mutata. La società di Sam Altman si allinea così alle politiche di Microsoft, che alla fine del 2023 ha investito in modo massiccio in OpenAI (si parla di un accordo da 10 miliardi di dollari e proprio in questi giorni la Commissione Europea sta valutando se l’investimento possa essere esaminato in base al regolamento Ue sulle fusioni). Il gigante tecnologico fondato da Bill Gates e Paul Allen mantiene infatti già (da lungo corso) relazioni strette con l’esercito statunitense.