OpenAI offre rimedi per risolvere il blocco ChatGPT italiano

OpenAI offre rimedi per risolvere il blocco ChatGPT italiano
Logo OpenAI su un telefono cellulare davanti allo schermo di un computer che mostra l’output di ChatGPT, il 21 marzo 2023, a Boston. [AP Photo]

I regolatori hanno dichiarato giovedì che la società dietro ChatGPT proporrà misure per risolvere i problemi di privacy dei dati che hanno portato al divieto temporaneo dell’Italia sul chatbot AI.

L’autorità italiana per la protezione dei dati, nota come Garante, la scorsa settimana ha vietato il popolare chatbot OpenAI con sede a San Francisco, ordinandogli di interrompere temporaneamente l’elaborazione delle informazioni personali degli utenti italiani mentre indaga su una possibile violazione delle norme sulla privacy dei dati dell’UE.

Gli esperti hanno affermato che questo è il primo caso di una democrazia che impone un divieto a livello nazionale su un’importante piattaforma di intelligenza artificiale.

In una videochiamata tra i commissari di supervisione e i dirigenti di OpenAI, incluso il CEO Sam Altman, la società ha promesso di mettere in atto misure per affrontare le preoccupazioni. Questi trattamenti non sono dettagliati.

Il watchdog italiano ha affermato di non voler ostacolare lo sviluppo dell’IA, ma ha sottolineato a OpenAI l’importanza di rispettare le rigide regole sulla privacy dell’Unione Europea a 27 nazioni.

Gli organizzatori hanno imposto il divieto dopo che i messaggi e le informazioni di pagamento di alcuni utenti sono stati esposti ad altri. Hanno anche messo in dubbio se ci fosse una base legale per OpenAI per raccogliere le enormi quantità di dati utilizzati per addestrare gli algoritmi ChatGPT e hanno sollevato preoccupazioni sul fatto che il sistema a volte potesse produrre false informazioni sugli individui.

tecnologia

La cosiddetta tecnologia di intelligenza artificiale generativa come ChatGPT viene “addestrata” su enormi set di dati, inclusi libri digitali e scritti online, ed è in grado di generare testo che imita gli stili di scrittura umani.

READ  Il gigante della moda Gap annuncia l'intenzione di chiudere 19 negozi il mese prossimo

Queste normative hanno suscitato scalpore nel mondo della tecnologia e non solo, ma hanno anche sollevato preoccupazioni tra funzionari, autorità di regolamentazione e persino scienziati informatici e leader del settore tecnologico sui potenziali rischi etici e sociali.

Altri regolatori in Europa e altrove stanno iniziando a prestare maggiore attenzione dopo l’azione italiana.

La Commissione irlandese per la protezione dei dati ha dichiarato che “sta seguendo il regolatore italiano per comprendere le basi del suo lavoro e ci coordineremo con tutte le autorità di protezione dei dati dell’UE in relazione a questa questione”.

Il regolatore francese della privacy dei dati, CNIL, ha dichiarato che stava indagando dopo aver ricevuto due reclami su ChatGPT. Anche il Commissario canadese per la privacy ha aperto un’indagine su OpenAI dopo aver ricevuto un reclamo sulla “raccolta, utilizzo e divulgazione di informazioni personali senza consenso”.

In un blog di questa settimana, l’Information Commissioner’s Office del Regno Unito ha avvertito che “le organizzazioni che sviluppano o utilizzano l’IA generativa dovrebbero considerare i propri obblighi di protezione dei dati fin dall’inizio” e progettare sistemi con protezione dei dati come impostazione predefinita.

“Non è facoltativo: se tratti dati personali, questa è la legge”, ha affermato l’ufficio.

In un’apparente risposta alle preoccupazioni, mercoledì OpenAI ha pubblicato un post sul blog che delinea il suo approccio alla sicurezza dell’IA. La società ha affermato che sta lavorando per rimuovere le informazioni personali dai dati di formazione ove possibile, adattando i suoi modelli per rifiutare le richieste di informazioni personali da parte di individui e lavorando alle richieste di eliminazione delle informazioni personali dai suoi sistemi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *