L’autorità italiana per la protezione dei dati personali esaminerà altri sistemi di intelligenza artificiale dopo un breve divieto di ChatGPT

L’autorità italiana per la protezione dei dati, il Garante, prevede di esaminare altre piattaforme di intelligenza artificiale e assumere esperti di intelligenza artificiale, ha affermato un alto funzionario, mentre intensifica il controllo di questa tecnologia avanzata dopo aver temporaneamente vietato ChatGPT a marzo.

Il Garante è una delle 31 autorità nazionali per la protezione dei dati più proattive che sovrintendono al regime di privacy dei dati in Europa, noto come Regolamento generale sulla protezione dei dati (GDPR).

L’agenzia è stata la prima a vietare la società di chatbot AI Replica, imporre una multa al produttore di software di riconoscimento facciale Clearview AI e limitare TikTok in Europa.

A marzo, ha temporaneamente vietato il bot OpenAI ChatGPT, supportato da Microsoft Corp, e ha avviato un’indagine sulle presunte violazioni delle norme sulla privacy dell’app.

“Abbiamo in programma di avviare una revisione approfondita delle applicazioni di intelligenza artificiale generativa e di apprendimento automatico disponibili online, poiché vogliamo capire se questi nuovi strumenti affrontano le preoccupazioni relative alla protezione dei dati e alla conformità alle leggi sulla privacy sulla privacy e avvieremo nuove indagini, se necessario. ”, ha dichiarato Agostino Ghiglia, membro del consiglio di amministrazione del Garante.

Il successo di ChatGPT ha spinto i pesi massimi della tecnologia da Alphabet a Meta a promuovere le proprie versioni, e legislatori e governi di tutto il mondo stanno discutendo nuove leggi che potrebbero richiedere anni per essere implementate.

“Stiamo cercando tre consulenti di intelligenza artificiale perché ci rendiamo conto che gli strumenti di intelligenza artificiale si stanno evolvendo molto rapidamente e abbiamo bisogno di esperti di tecnologia che ci aiutino nella nostra attività di protezione dei dati”, ha affermato Ghiglia.

La decisione è l’ultimo esempio di come alcuni regolatori stiano sfruttando le leggi esistenti per controllare la tecnologia che può interrompere il modo in cui operano le aziende e le imprese.

Il consiglio di amministrazione del Garante, composto da quattro membri, è composto da esperti legali. Ghiglia ha affermato che l’autorità aveva 144 dipendenti, molto al di sotto delle controparti europee in Francia, Spagna e Regno Unito. La maggior parte di loro ha un background legale, dice Ghiglia.

Nel giro di vite su ChaTGPT, il Garante ha utilizzato le disposizioni del GDPR, in particolare quelle che tutelano i minori e danno agli individui il diritto di chiedere la cancellazione e di opporsi all’utilizzo dei propri dati personali.

Seguendo le misure adottate dal Garante, il produttore di ChatGPT OpenAI ha apportato modifiche al proprio chatbot per tornare alla conformità.

“I membri del consiglio di garanzia vengono spesso avvisati di potenziali violazioni delle leggi sulla privacy perché esplorano strumenti e applicazioni digitali solo quando sono disponibili”, ha affermato il sig. Ghiglia.

“Abbiamo esplorato ChatGPT e ci siamo resi conto che non è conforme alle norme sulla privacy dei dati dell’UE.

Ci vorranno anni prima che le nuove leggi che disciplinano l’IA entrino in vigore.

“Ecco perché abbiamo deciso di andare veloci con ChatGPT”, ha detto Ghiglia.

Fedele Golino

"Giocatore. Baconaholic. Secchione di viaggio. Specialista della cultura pop. Imprenditore. Sottilmente affascinante sostenitore di Internet. Esperto di birra."