Le autorità di regolamentazione italiane affermano di aver informato OpenAI che il suo chatbot AI ChatGPT ha violato le rigide norme sulla privacy dei dati nell'Unione Europea.
LONDRA – Le autorità di regolamentazione italiane affermano di aver riferito a OpenAI che il suo chatbot di intelligenza artificiale ChatGPT ha violato le rigide norme sulla privacy dei dati dell'Unione Europea.
L'autorità nazionale per la protezione dei dati, nota come Garante, ha dichiarato lunedì di aver notificato a OpenAI, con sede a San Francisco, violazioni delle norme dell'Unione Europea, note come Regolamento generale sulla protezione dei dati.
L'organismo di vigilanza ha iniziato a indagare su ChatGPT l'anno scorso, quando ha temporaneamente vietato in Italia un chatbot in grado di produrre testo, immagini e audio in risposta alle domande degli utenti.
Sulla base dei risultati dell’”attività conoscitiva”, l’organismo di vigilanza ha affermato di “aver concluso che le prove disponibili indicano violazioni delle disposizioni” delle norme sulla privacy dell’UE.
OpenAI, che ha 30 giorni per rispondere alle accuse, ha affermato che lavorerà in modo costruttivo con le autorità di regolamentazione italiane.
Una dichiarazione della società afferma: “Crediamo che le nostre pratiche siano conformi al Regolamento generale sulla protezione dei dati e ad altre leggi sulla privacy e adottiamo ulteriori misure per proteggere i dati e la privacy delle persone. Vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non gli individui. Siamo attivamente lavorando per ridurre i dati personali nella formazione.” I nostri sistemi, come ChatGPT, rifiutano anche richieste di informazioni private o sensibili sulle persone.
L’anno scorso la società ha dichiarato di aver soddisfatto una serie di condizioni richieste dal Garante per revocare il divieto di ChatGPT.
L'autorità di vigilanza ha imposto il divieto dopo aver scoperto che i messaggi e le informazioni di pagamento di alcuni utenti erano stati esposti e perché ChatGPT non disponeva di un sistema per verificare l'età degli utenti, consentendo ai bambini di ottenere risposte dallo strumento AI inadeguate alla loro età.
Ha inoltre messo in dubbio se esistesse una base legale per OpenAI per raccogliere le enormi quantità di dati utilizzati per addestrare gli algoritmi ChatGPT e ha sollevato preoccupazioni sul fatto che il sistema potrebbe talvolta generare false informazioni sugli individui.
Anche la crescente popolarità dei sistemi di intelligenza artificiale generativa come ChatGPT è oggetto di un crescente controllo da parte dei regolatori su entrambe le sponde dell’Atlantico.
La scorsa settimana la Federal Trade Commission degli Stati Uniti ha aperto un’indagine sui legami tra le startup di intelligenza artificiale OpenAI e Anthropic e i giganti della tecnologia che le hanno finanziate: Amazon, Google e Microsoft. Nel frattempo, le autorità di regolamentazione della concorrenza nell’Unione Europea di 27 nazioni e in Gran Bretagna stanno esaminando gli investimenti in Microsoft OpenAI.
I sistemi di intelligenza artificiale devono inoltre affrontare una supervisione più ampia da parte dell’Unione Europea, che sta finalizzando la rivoluzionaria legge sull’intelligenza artificiale, il primo regolamento completo al mondo per l’intelligenza artificiale. Si prevede che i 27 Stati membri del blocco ratificheranno una versione della legislazione venerdì.
“Appassionato pioniere della birra. Alcolico inguaribile. Geek del bacon. Drogato generale del web.”