ChatGPT ha violato le leggi sulla privacy dell'UE, ha dichiarato l'Italia al produttore di chatbot OpenAI

LONDRA (AP) – Le autorità di regolamentazione italiane affermano di aver riferito a OpenAI che il suo chatbot di intelligenza artificiale ChatGPT ha violato le rigide norme sulla privacy dei dati dell’Unione Europea.

L'autorità nazionale per la protezione dei dati, nota come Garante, Lo ha detto lunedì Ha notificato a OpenAI, con sede a San Francisco, violazioni delle norme dell’Unione Europea, note come Regolamento generale sulla protezione dei dati.

L'organismo di vigilanza ha iniziato a indagare su ChatGPT l'anno scorso, quando ha temporaneamente vietato in Italia un chatbot in grado di produrre testo, immagini e audio in risposta alle domande degli utenti.

Sulla base dei risultati dell’”attività conoscitiva”, l’organismo di vigilanza ha affermato di “aver concluso che le prove disponibili indicano violazioni delle disposizioni” delle norme sulla privacy dell’UE.

OpenAI, che ha 30 giorni per rispondere alle accuse, ha affermato che lavorerà in modo costruttivo con le autorità di regolamentazione italiane.

Per saperne di più: Il New York Times ha intentato una causa contro OpenAI e Microsoft per l'utilizzo delle sue storie per addestrare i chatbot

“Riteniamo che le nostre pratiche siano conformi al Regolamento generale sulla protezione dei dati e ad altre leggi sulla privacy e stiamo adottando ulteriori misure per proteggere i dati e la privacy delle persone”, ha affermato la società in una nota. “Vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non gli individui. Stiamo lavorando attivamente per ridurre i dati personali nell'addestramento dei nostri sistemi come ChatGPT, che rifiuta anche le richieste di informazioni private o sensibili sulle persone.

L’anno scorso la società ha dichiarato di aver soddisfatto una serie di condizioni richieste dal Garante per revocare il divieto di ChatGPT.

READ  “Bisogna gestire l'Ucraina per evitare ripercussioni sul Mediterraneo” - Politica

L'autorità di vigilanza ha imposto il divieto dopo aver scoperto che i messaggi e le informazioni di pagamento di alcuni utenti erano stati esposti e perché ChatGPT non disponeva di un sistema per verificare l'età degli utenti, consentendo ai bambini di ottenere risposte dallo strumento AI inadeguate alla loro età.

Ha anche messo in dubbio se esista una base legale affinché OpenAI raccolga le enormi quantità di dati utilizzati per addestrare gli algoritmi ChatGPT e ha sollevato preoccupazioni sul fatto che il sistema possa a volte generare false informazioni sugli individui.

Anche la crescente popolarità dei sistemi di intelligenza artificiale generativa come ChatGPT è oggetto di un crescente controllo da parte dei regolatori su entrambe le sponde dell’Atlantico.

La scorsa settimana la Federal Trade Commission degli Stati Uniti ha aperto un’indagine sui legami tra le startup di intelligenza artificiale OpenAI e Anthropic e i giganti della tecnologia che le hanno finanziate: Amazon, Google e Microsoft. Nel frattempo, le autorità di regolamentazione della concorrenza nell’Unione Europea di 27 nazioni e in Gran Bretagna stanno esaminando gli investimenti in Microsoft OpenAI.

I sistemi di intelligenza artificiale devono inoltre affrontare una supervisione più ampia da parte dell’Unione Europea, che sta finalizzando la rivoluzionaria legge sull’intelligenza artificiale, il primo regolamento completo al mondo per l’intelligenza artificiale. Si prevede che i 27 Stati membri del blocco ratificheranno una versione della legislazione venerdì.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *