ChatGPT e i possibili impatti sulla sicurezza

L’intelligenza artificiale ha fatto molta strada negli ultimi anni, con numerosi modelli e piattaforme sviluppati per consentire alle macchine di comprendere e rispondere agli input del linguaggio naturale. Tra questi c’è CHAT GTP, acronimo di Generative Pretrained Transformer.

Cos’è ChatGPT?

GPT è un modello di linguaggio basato su un nuovo algoritmo di Open AI, si tratta di una chat di intelligenza artificiale creata per simulare conversazioni tra esseri umani. Si presenta come un sito dove si può conversare proprio come una chat normale. Questo modello, definito di deep learning, è basato su reti neutrali che all’interno di una complessa architettura si specializzano nell’apprendere e simulare parti di un modello, in parole semplici, producono testi simili a quelli umani riuscendo a gestire diverse attività come la risposta a delle domande.

Il principale vantaggio della Chat GPT è la sua capacità di “imparare” dalle conversazioni che ha con gli utenti. In questo modo, il sistema è in grado di adattarsi ai diversi stili di interazione e di offrire risposte sempre più personalizzate.

La chat GPT può essere utilizzata:

  • nel servizio clienti, per gestire le domande comuni e fornire risposte rapide e accurate, così da migliorare l’esperienza del cliente e ridurre il carico di lavoro degli operatori,
  • Nella traduzione linguistica, può aiutare a tradurre il testo da una lingua all’altra, abilitando una comunicazione più fluida tra persone che parlano lingue diverse,
  • Può essere utilizzata per migliorare gli assistenti personali virtuali.

 

Una risorsa sì, ma anche una minaccia per la sicurezza.

Al di là di chi è, più o meno preoccupato dal fatto che l’AI possa “rubare” il lavoro agli esseri umani, vi sono anche potenziali rischi per quanto riguarda la sicurezza digitale rispetto a questo straordinario strumento.

La dimestichezza con i codici di programmazione di ChatGPT, d’altronde, è utilizzata in molti casi per scopi non del tutto legali.

È infatti noto che le chatbot, come ChatGPT, sono in grado di creare abilità di base per la ricerca e la crittografia dei file, comprese quelle necessarie per sviluppare ransomware. Finora è stato scoperto che ChatGPT può fornire il codice necessario per ransomware tradizionali, compresi i moduli di iniezione di codice e di crittografia dei file.

Inoltre, richiedendo a ChatGPT funzionalità specifiche come l’iniezione di codice, la crittografia dei file, si può facilmente ottenere un nuovo codice o modificare quello esistente. Il risultato è un malware polimorfico che non presenta un comportamento dannoso quando è memorizzato su disco e non contiene una logica sospetta quando è in memoria. Questo alto livello di modularità e adattabilità lo rende altamente elusivo nei confronti dei prodotti di rilevamento anti malware.

Sebbene lo strumento possa essere utile agli attaccanti, anche i difensori possono trarne beneficio, infatti, tale strumento può essere utile in condizioni di SOC ( report di controllo con lo scopo di esaminare i servizi forniti da un’organizzazione in modo che gli utenti finali possano valutare e affrontare i rischi associati a un servizio in outsourcing) dove gli analisti, costantemente oberati di lavoro, devono dedicare una quantità minima di tempo a ogni incidente, quindi qualsiasi strumento che acceleri il processo è ben accetto.

Condividi