Nel rapporto di giugno intitolato “Disrupting malicious uses of IA: june 2025“, OpenAI denuncia come, nei primi mesi del 2025, ChatGPT ha smantellato o interrotto dieci truffe sul lavoro, operazioni di influenza e altre campagne di spam.
Le azioni criminose sventate includono: abusi provenienti da altri Paesi, spamming di commenti, tentativi di influenza occulta potenzialmente legati a Russia e Iran, e schemi di impiego ingannevoli dalla Corea del Nord.
OpenAI sostiene che l’IA abbia potenziato le risorse dei team investigativi, consentendo il rilevamento e l’interruzione di attività abusive su una scala senza precedenti.
L’IA come strumento a doppio taglio
L’ultimo report di OpenAI evidenzia un cambiamento sostanziale nelle potenzialità degli attori malevoli, favorito dall’ampia diffusione degli strumenti di intelligenza artificiale generativa. Queste tecnologie, pur non introducendo nuovi tipi di attacchi, aumentano significativamente la portata e l’efficacia di quelli già esistenti.
Un punto cruciale è rappresentato dall’accessibilità: oggi anche utenti con competenze tecniche limitate possono realizzare offensive digitali avanzate. ChatGPT, ad esempio, consente la creazione automatizzata di messaggi truffaldini in diverse lingue, abbattendo le barriere linguistiche e rendendo gli attacchi più capillari.
Inoltre, l’IA permette di moltiplicare il numero e l’efficienza delle campagne malevole, automatizzando contenuti e comunicazioni su larga scala.
Paradossi e ambiti di utilizzo dell’IA nell’implementazione degli strumenti difensivi
Un effetto paradossale dell’adozione dell’IA da parte dei cybercriminali è l’aumento della loro esposizione. Infatti, integrando modelli di IA nei propri processi, gli aggressori lasciano tracce che OpenAI può analizzare per migliorare i propri strumenti difensivi.
Tra i principali ambiti di utilizzo dell’IA a fini malevoli figurano:
- la creazione di truffe tramite ingegneria sociale, con contenuti ingannevoli e personalizzati;
- il supporto nelle fasi tecniche degli attacchi informatici, come lo sviluppo di malware o il testing delle vulnerabilità;
- le campagne di disinformazione su piattaforme social, realizzate con contenuti automatizzati e profili falsi;
- impieghi impropri da parte di regimi autoritari e la diffusione di spam e contenuti illeciti.
Risposte strategiche e impatti sulla sicurezza globale
Per contrastare l’uso abusivo dei suoi modelli, OpenAI ha implementato una strategia articolata che comprende:
- impiego dell’IA nelle indagini per aumentare l’efficienza nel rilevare e bloccare comportamenti sospetti;
- disattivazione proattiva di account compromessi e collaborazione con altri attori per smantellare le infrastrutture criminali;
- promozione della condivisione di informazioni con partner istituzionali e del settore privato.
Il continuo aggiornamento delle contromisure è alimentato dalle informazioni ottenute attraverso le attività investigative stesse.
Le implicazioni per la sicurezza informatica e la governance dell’IA sono profonde: il contesto è sempre più complesso, e richiede risposte coordinate, tempestive e condivise. Il rapporto di OpenAI invita a una collaborazione industriale e internazionale più stretta, fondata su trasparenza, scambio di conoscenze e capacità di adattamento costante.