Il Garante per la protezione dei dati personali ha avviato un’indagine su Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, le due organizzazioni responsabili della chatbot basata su intelligenza artificiale DeepSeek. Il servizio, disponibile sia tramite web che tramite applicazione mobile, potrebbe comportare potenziali rischi per la privacy degli utenti italiani.
Indagine del Garante Privacy su DeepSeek: verifica della conformità al GDPR
Il Garante per la protezione dei dati personali ha avviato un’indagine su DeepSeek, inviando una richiesta formale di chiarimenti alle società coinvolte. L’obiettivo è verificare se il trattamento dei dati personali sia conforme alle normative italiane ed europee, con particolare attenzione al Regolamento Generale sulla Protezione dei Dati.
L’indagine si concentra su diversi aspetti chiave della gestione delle informazioni personali, tra cui:
- Tipologia di dati raccolti: le aziende devono specificare quali dati personali vengono acquisiti dall’utente, inclusi eventuali dati sensibili, comportamentali o identificativi.
- Modalità di acquisizione: si intende accertare se le informazioni siano fornite direttamente dagli utenti o raccolte indirettamente tramite altre piattaforme.
- Finalità del trattamento: è necessario chiarire se i dati siano utilizzati esclusivamente per il miglioramento del servizio o anche per scopi aggiuntivi, come pubblicità mirata, analisi di mercato o condivisione con terze parti.
- Base giuridica del trattamento: le società devono dimostrare la conformità al GDPR, precisando se il trattamento si basi sul consenso degli utenti, su obblighi contrattuali o su altre basi legali.
- Localizzazione dei server: un aspetto cruciale riguarda la conservazione dei dati, in particolare la possibilità che vengano archiviati su server situati in Cina, con potenziali implicazioni per la sicurezza e l’accesso da parte di autorità straniere.
L’Autorità continuerà a monitorare la situazione per garantire che i diritti degli utenti siano tutelati e che il trattamento dei dati avvenga nel rispetto delle normative vigenti.
L’importanza della trasparenza nell’uso dei dati per l’addestramento dell’intelligenza artificiale
L’indagine su DeepSeek solleva interrogativi fondamentali sulla gestione dei dati utilizzati per l’addestramento delle intelligenze artificiali. In particolare, si sta verificando se la chatbot faccia uso di informazioni raccolte tramite web scraping, una tecnica che prevede l’estrazione automatizzata di dati da siti web pubblici. In tal caso, le organizzazioni coinvolte dovrebbero dimostrare di aver informato adeguatamente gli utenti e rispettato le normative sulla protezione dei dati.
L’assenza di un consenso esplicito potrebbe configurare una violazione delle leggi nazionali ed europee sulla privacy. Le società coinvolte devono fornire chiarimenti al Garante della Privacy entro 20 giorni per evitare sanzioni o restrizioni operative.
Questa indagine rientra in un contesto più ampio, segnato da una crescente attenzione alla regolamentazione dell’IA e alla tutela della privacy. L’esito dell’analisi sarà decisivo per verificare se DeepSeek rispetti le normative vigenti. In caso di irregolarità, potrebbero essere imposte sanzioni economiche o limitazioni nell’erogazione del servizio in Italia.
Nel frattempo, gli utenti dovrebbero prestare maggiore attenzione alle politiche sulla privacy delle chatbot e delle applicazioni basate sull’IA, valutando il trattamento dei propri dati personali. In un panorama in continua evoluzione, la trasparenza e la responsabilità nell’uso dei dati restano essenziali per garantire un’intelligenza artificiale sicura ed eticamente sostenibile.