Le autorità per la protezione dei dati nei paesi del G7 sono preoccupate per l’IA generativa – EURACTIV.com

Le autorità per la privacy dei paesi del G7 dovrebbero presentare opinioni comuni sulle sfide alla protezione dei dati poste dai modelli di intelligenza artificiale generativa come ChatGPT, secondo una bozza di dichiarazione vista da EURACTIV.

Le autorità per la protezione dei dati e la privacy di Stati Uniti, Francia, Germania, Italia, Regno Unito, Canada e Giappone si incontrano martedì e mercoledì (20 e 21 giugno) a Tokyo per la tavola rotonda del G7. Hanno discusso del libero flusso di dati, della cooperazione tra le forze dell’ordine e delle nuove tecnologie.

I rischi associati alla rapida proliferazione di modelli di intelligenza artificiale generativa in molteplici contesti e domini sono stati al centro dell’attenzione, hanno affermato le autorità per la privacy in una bozza di dichiarazione.

“Riconosciamo che esiste una crescente preoccupazione che l’IA generativa possa comportare potenziali rischi e danni alla privacy, alla protezione dei dati e ad altri diritti umani fondamentali se non adeguatamente sviluppata e regolamentata”.si legge nel comunicato stampa.

L’IA generativa è una tecnologia avanzata in grado di fornire testi, immagini o contenuti audiovisivi simili a quelli generati dall’uomo, sulla base dei dati forniti dagli utenti. Dalla rapida ascesa di ChatGPT, questa nuova tecnologia ha suscitato molto entusiasmo, ma anche molta preoccupazione a causa del rischio di abuso che presenta.

L’inizio di un regolamento

Ad aprile ministri del digitale dei paesi del G7 lancia Il “processo di Hiroshima” affronta alcuni di questi argomenti, come la governance, la protezione dei diritti di proprietà intellettuale, la promozione della trasparenza, la prevenzione della disinformazione e la promozione dell’uso responsabile della tecnologia.

Il processo di Hiroshima è concepito per guidare un codice di condotta volontario sull’IA generativa che la Commissione europea sta sviluppando con gli Stati Uniti e altri partner del G7.

Inoltre, l’UE adotterà la prima legge globale completa sull’intelligenza artificiale, che dovrebbe includere alcune disposizioni specifiche per l’IA generativa.

Tuttavia, le autorità di regolamentazione della privacy indicano una serie di rischi che gli strumenti di IA generativa comportano dal punto di vista della protezione dei dati.

Preoccupazione principale

Il punto di partenza di questa discussione riguarda l’autorità legale che gli sviluppatori di intelligenza artificiale hanno per elaborare le informazioni personali, in particolare i minori, nei set di dati utilizzati per addestrare i modelli di intelligenza artificiale, ma anche il modo in cui l’interazione dell’utente è incorporata nello strumento e i risultati che ne derivano. .

Questa versione richiede anche misure di sicurezza per impedire che i modelli generativi di intelligenza artificiale vengano utilizzati per estrarre o riprodurre informazioni personali o che la protezione della loro riservatezza venga compromessa.

Le autorità richiedono inoltre agli sviluppatori di intelligenza artificiale di garantire che le informazioni personali utilizzate dagli strumenti di intelligenza artificiale generativa siano accurate, complete e aggiornate e non abbiano alcun effetto discriminatorio, illegale o ingiustificabile. .

Inoltre, hanno sottolineato “Misure di trasparenza volte a promuovere l’apertura e la chiarezza nel funzionamento degli strumenti di intelligenza artificiale generativa, in particolare quando questi strumenti sono utilizzati per creare o aiutare a prendere decisioni sulle persone”.

Nella bozza di dichiarazione si menziona anche la fornitura di documentazione tecnica durante tutto il ciclo di sviluppo, misure per garantire un adeguato livello di responsabilità tra gli attori della catena di approvvigionamento dell’IA e il principio di limitare la raccolta di dati personali alle questioni strettamente necessarie.

Infine, il comunicato invita i fornitori di IA generativa ad attuare misure tecniche e organizzative per garantire che le persone associate a questi sistemi e che interagiscono con essi possano sempre esercitare i propri diritti, come l’accesso ai dati personali, la correzione e la cancellazione. Secondo il documento, anche queste persone dovrebbero avere la possibilità di opporsi solo a seguito di una decisione automatizzata che comporta conseguenze significative.

In Europa

Il testo evidenzia il caso dell’Italia, dove l’autorità per la protezione dei dati aveva temporaneamente sospeso ChatGPT a causa di una possibile violazione della privacy, anche se il servizio è stato infine ripristinato dopo una correzione apportata da OpenAI.

Le autorità nazionali hanno citato diverse azioni in corso, tra cui la revisione dei modelli di IA generativa nelle rispettive leggi, la fornitura di orientamenti sulla privacy agli sviluppatori di IA e il sostegno a progetti innovativi come lo spazio normativo per la sperimentazione dei dati.

Nel documento è inclusa anche la promozione della cooperazione, soprattutto attraverso la costituzione di appositi gruppi di lavoro. Le autorità dell’UE hanno creato un tale gruppo per armonizzare l’applicazione delle leggi relative a ChatGPT a seguito della decisione dell’Italia in merito al chatbot più famoso del mondo.

Tuttavia, secondo una fonte a conoscenza della questione, il lavoro di questo gruppo procedeva molto lentamente, principalmente a causa dei processi amministrativi e di coordinamento. I regolatori europei ora si aspettano che OpenAI fornisca chiarimenti entro la fine dell’estate.

“Sviluppatori e fornitori devono basarsi sulla privacy […] progettare, operare e gestire nuovi prodotti e servizi utilizzando tecnologie di intelligenza artificiale generativa basate sul concetto di “privacy by design”, documentando le proprie scelte e analizzandole nell’analisi dell’impatto aziendale Tutela della vita personale”segue il comunicato stampa.

Inoltre, gli sviluppatori di IA sono invitati a consentire agli operatori economici a valle che implementano o adattano modelli di rispettare gli obblighi in materia di protezione dei dati.

Ulteriori discussioni su come affrontare le sfide alla privacy poste dall’IA generativa saranno condotte nel gruppo di lavoro sulle nuove tecnologie delle autorità per la protezione dei dati nei paesi del G7.

ChatGPT ha acceso un dibattito sulla protezione dei dati in Europa

Il recente divieto di ChatGPT in Italia e gli incombenti problemi di protezione dei dati relativi a un chatbot di intelligenza artificiale (AI) in Germania hanno acceso il dibattito in tutta Europa tra gli appassionati dello strumento e coloro che ne temono lo sviluppo.

[Édité par Anne-Sophie Gayet]

Fedele Golino

"Giocatore. Baconaholic. Secchione di viaggio. Specialista della cultura pop. Imprenditore. Sottilmente affascinante sostenitore di Internet. Esperto di birra."