Europol mette in guardia sul potenziale uso improprio di ChatGPT, il chatbot basato sull’intelligenza artificiale nei tentativi di phishing, disinformazione e criminalità informatica, aggiungendosi al coro di preoccupazioni che vanno dalle questioni legali a quelle etiche.
Sono queste le aree di preoccupazione individuate in un rapporto dell’ufficio europeo di polizia (Europol) in relazione all’utilizzo di ChatGPT, il prototipo di chatbot basato sull’intelligenza artificiale (IA) e l’apprendimento automatico sviluppato da OpenAI e specializzato nella conversazione con un utente umano.
Il rapporto, che raccoglie le riflessioni emerse in una serie di seminari dedicati al potenziale uso illegale di ChatGPT, sottolinea come il chatbot sia già in grado di “facilitare un numero significativo di attività criminali, che vanno dalla garanzia di anonimato dei criminali a crimini specifici tra cui il terrorismo e lo sfruttamento sessuale dei minori“. La capacità di ChatGPT di redigere testi altamente autentici lo rende uno “strumento estremamente utile per scopi di phishing”, si osserva nel rapporto, aggiungendo che la produzione di e-mail di phishing, così come di comunicazioni simili a quelle umane e di disinformazione, è “già preoccupantemente sofisticata”.
I modelli di linguaggio di grandi dimensioni intelligenti (LLM) come ChatGPT, impiegati per attività illecite, potrebbero diventare un “modello di business criminale chiave del futuro”, avverte Europol, sottolineando infine come ciò ponga “una nuova sfida per le forze dell’ordine”.
Scarica il report