Le autorità italiane per la protezione dei dati hanno chiuso ChatGPT nel paese

Chat robot TextGPT

I difensori italiani della privacy vedono problemi fondamentali nel modo in cui è impostato ChatGPT.

(Foto: Reuters)

rom Le autorità italiane per la protezione dei dati hanno temporaneamente bloccato il popolare motore di testo ChatGPT del paese. Venerdì ha sottolineato, tra l’altro, che gli operatori OpenAI non forniscono abbastanza informazioni sull’utilizzo dei dati. Inoltre, non esiste alcun filtro per impedire ai bambini sotto i 13 anni di vedere informazioni “completamente inappropriate” per loro. È stata aperta un’indagine.

Allo stesso tempo, a titolo precauzionale, le autorità hanno vietato il trattamento dei dati degli utenti provenienti dall’Italia – pertanto ChatGPT non è più valido nel Paese. A OpenAI sono stati concessi 20 giorni per intentare un’azione legale contro le accuse. Successivamente è prevista una multa fino a 20 milioni di euro o il 4% delle vendite globali.

Le autorità per la protezione dei dati hanno anche segnalato recenti violazioni dei dati. Alcuni utenti ChatGPT hanno visto informazioni dai profili di altre persone. Secondo OpenAI, il problema è stato causato da un problema tecnico nel software utilizzato per ChatGPT.

ChatGPT si basa su un software che acquisisce grandi quantità di testo. Su questa base può formulare frasi difficilmente distinguibili da quelle umane. Questo programma prevede quale parola apparirà successivamente in una frase. Uno dei rischi di questo principio di base è che il software “allucina i fatti”, come lo chiama OpenAI, presentando informazioni false come informazioni vere.

Anche i difensori italiani della privacy vedono problemi fondamentali nel modo in cui è impostato ChatGPT. Non esiste alcuna base giuridica per la raccolta e l’archiviazione di massa di dati personali per addestrare algoritmi.

>> Leggi anche: Cosa può fare ChatGPT?

L’agenzia ha intrapreso un’azione simile contro un altro chatbot chiamato Replica a febbraio. La preoccupazione principale è che i bambini sotto i 13 anni non ricevano una protezione adeguata.

ChatGPT ha impressionato negli ultimi mesi per la capacità del suo software di imitare il linguaggio umano. Allo stesso tempo si teme che la tecnologia basata sull’intelligenza artificiale possa essere utilizzata in modo improprio, ad esempio per diffondere informazioni false.

Ancora: L’élite tecnologica attorno a Elon Musk chiede una sospensione temporanea dello sviluppo dell’intelligenza artificiale

Fedele Golino

"Giocatore. Baconaholic. Secchione di viaggio. Specialista della cultura pop. Imprenditore. Sottilmente affascinante sostenitore di Internet. Esperto di birra."