L’Italia blocca ChatGPT. Per il garante della privacy la raccolta dei dati personali è illecita

Redazione

31/03/2023

31/03/2023 - 17:21

condividi
Facebook
twitter whatsapp

OpenAI ha 20 giorni di tempo per comunicare le misure intraprese in risposta alle richieste del Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

L'Italia blocca ChatGPT. Per il garante della privacy la raccolta dei dati personali è illecita

La notizia è destinata a generare un precedente importante. In Italia ChatGPT dovrà sospendere la propria attività, almeno fino a quando non adeguerà la propria policy alla normativa concernente la tutela della privacy. A stabilirlo è stato il Garante per la privacy italiano, che ha imposto ad OpenAI - la società che gestisce la piattaforma di intelligenza artificiale relazionale ChatGPT - una limitazione provvisoria con effetto immediato.

Dati persi

La decisione è stata presa in seguito ad una perdita di dati subita da ChatGPT il 20 marzo, durante la quale sono state smarrite le informazioni relative alle conversazioni degli utenti e ai pagamenti degli abbonati. A seguito di quell’episodio il Garante italiano ha riscontrato l’assenza di una informativa} per la raccolta e la conservazione di dati personali, oltre alla mancanza di una base giuridica che giustifichi la raccolta e la conservazione di dati personali.

Chi sorveglia gli U13?

E poi c’è la questione relativa all’età. Nonostante il servizio sia destinato ai maggiori di 13 anni, non vi è alcun filtro per verificare l’età degli utenti. Ora OpenAI ha 20 giorni di tempo per comunicare le misure intraprese in risposta alle richieste del Garante, pena una sanzione fino a 20 milioni di euro o al 4% del fatturato globale annuo.

L’appello di Musk

La vicenda italiana giunge a poca distanza dalla richiesta di fermare l’evoluzione delle intelligenze artificiali avanzata da Elon Musk e da altri imprenditori e studiosi che hanno sottoscritto un appello rivolto alle alle aziende e ai governi. Nella lettera si chiede lo stop di sei mesi allo sviluppo di sistemi di intelligenza artificiale generativi come ChatGPT. Nel mirino è finito soprattutto Gpt-4, il modello di OperAI lanciato a metà marzo, il più evoluto attualmente accessibile al pubblico.
Il rischio secondo gli esperti, è che la corsa impressa dalle società allo sviluppo di sistemi di intelligenza artificiale, generi strumenti destinati ad andare fuori controllo. Ciò che più spaventa è che ChatGPT e gli altri chatbot dialogano direttamente con le persone, senza filtri, né principi etici. Gli effetti di tali modelli potrebbero essere imprevedibili con conseguenze devastanti.

Argomenti

Iscriviti alla newsletter