Il watchdog esclusivo in Italia esamina altri sistemi di intelligenza artificiale dopo il breve divieto di ChatGPT

Milano/Stoccolma: il garante italiano per la protezione dei dati Garante prevede di rivedere altre piattaforme di intelligenza artificiale e assumere esperti di intelligenza artificiale, ha affermato un alto funzionario, poiché il controllo della potente tecnologia si è intensificato dopo che ChatGPT è stato temporaneamente bandito a marzo.

Il Garante è tra le 31 autorità nazionali per la protezione dei dati più proattive che sovrintendono al regime europeo sulla privacy dei dati noto come Regolamento generale sulla protezione dei dati (GDPR).

L’agenzia è stata la prima a vietare la società di chatbot AI Replica, a multare il produttore di software di riconoscimento facciale Clearview AI e a limitare TikTok in Europa.

A marzo, ha temporaneamente vietato il bot ChatGPT supportato da Microsoft Corp e ha avviato un’indagine sulla sospetta violazione delle regole sulla privacy da parte dell’app.

“Abbiamo in programma di lanciare una revisione su larga scala delle applicazioni di intelligenza artificiale generativa e machine learning disponibili online perché vogliamo capire se questi nuovi strumenti risolvono problemi relativi alla protezione dei dati e alla conformità alle leggi sulla privacy e, se necessario, avvieremo nuove indagini, ha detto Agostino Ghiglia, membro del consiglio di amministrazione del Garante.

Il successo di ChatGPT ha spinto le aziende ad alto contenuto tecnologico, da Alphabet a Meta, a promuovere le proprie versioni, e i legislatori e i governi di tutto il mondo stanno discutendo nuove leggi che potrebbero richiedere anni per essere applicate.

“Stiamo cercando tre consulenti di intelligenza artificiale perché comprendiamo che gli strumenti di intelligenza artificiale si stanno evolvendo molto rapidamente e abbiamo bisogno di esperti con un background tecnico che ci assistano nella nostra attività di protezione dei dati”, ha affermato Giglia.

READ  Il presidente italiano esorta l'UE e l'Africa a fare di più sui migranti

La mossa è l’ultimo esempio di come alcuni regolatori si affidino alle leggi esistenti per controllare la tecnologia che può ribaltare il modo in cui operano le società e le imprese.

Il consiglio di amministrazione del Garante, composto da quattro membri, è composto da giuristi. Giglia ha affermato che l’autorità ha 144 dipendenti, molto meno delle sue controparti europee in Francia, Spagna e Gran Bretagna. Giglia ha detto che la maggior parte di loro ha una formazione legale.

Nel suo giro di vite su ChaTGPT, il Garante ha utilizzato le disposizioni del GDPR, in particolare quelle che proteggono i minori e danno alle persone il diritto di richiedere la revoca e di opporsi all’uso dei propri dati personali.

Dopo che il Garante ha preso provvedimenti, il creatore di ChatGPT OpenAI ha apportato modifiche al suo chatbot per ripristinare la conformità.

“I membri del consiglio di amministrazione del Garante sono spesso a conoscenza di potenziali violazioni delle leggi sulla privacy perché ci limitiamo a esplorare gli strumenti e le app digitali non appena diventano disponibili”, ha affermato Giglia.

“Abbiamo esaminato ChatGPT e ci siamo resi conto che non è conforme alle norme sulla privacy dei dati dell’UE”.

Ci vorranno anni prima che la potenziale nuova legislazione che regola l’intelligenza artificiale abbia effetto.

“Ecco perché abbiamo deciso di lavorare rapidamente con ChatGPT”, ha affermato Ghiglia.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *