Quando è stato rilasciato OpenAI GPT-3 nel luglio 2020, ha fornito un’istantanea dei dati usati per addestrare il modello di linguaggio esteso. Milioni di pagine scartate dal web, post di Reddit, libri e altro vengono utilizzati per creare il sistema di testo generativo, secondo Scheda tecnica. Questi dati includono alcune delle informazioni personali che condividi su di te online. Questi dati ora stanno mettendo nei guai OpenAI.
Il 31 marzo il Garante italiano dei dati È stata emessa una decisione provvisoria di emergenza Chiedere a OpenAI di smettere di utilizzare le informazioni personali dei milioni di italiani inclusi nei suoi dati di formazione. Secondo il Garante per la Protezione dei Dati Personali, OpenAI non ha alcun diritto legale di utilizzare le informazioni personali delle persone in ChatGPT. In risposta, OpenAI ha impedito alle persone in Italia di accedere al suo chatbot mentre fornisce risposte ai funzionari, che stanno indagando ulteriormente.
L’azione è la prima contro ChatGPT da parte di un regolatore occidentale ed evidenzia le tensioni sulla privacy relative alla creazione di giganteschi modelli di intelligenza artificiale, spesso addestrati su vaste aree di dati Internet. solo noi artisti E società di media Si è lamentato del fatto che gli sviluppatori di intelligenza artificiale generativa hanno utilizzato il loro lavoro senza permesso, e ora il regolatore dei dati sta dicendo lo stesso per le informazioni personali delle persone.
Decisioni simili potrebbero seguire in tutta Europa. Nei giorni trascorsi da quando l’Italia ha annunciato la sua indagine, le autorità di regolamentazione dei dati in Francia, Germania e Irlanda Ho contattato la garanzia per richiedere maggiori informazioni sui miei risultati. “Se il modello di business è quello di raschiare Internet per qualsiasi cosa tu possa trovare, qui potrebbe esserci un problema davvero importante”, afferma Tobias Godin, capo degli affari internazionali presso l’Autorità norvegese per la protezione dei dati, che monitora gli sviluppi. Godin aggiunge che se un modello è costruito su dati che potrebbero essere stati raccolti illegalmente, solleva dubbi sul fatto che qualcuno possa utilizzare legalmente gli strumenti.
Il colpo dell’Italia a OpenAI arriva mentre il controllo dei grandi modelli di intelligenza artificiale cresce in modo esponenziale. Il 29 marzo, i leader tecnologici hanno chiesto a Pausa durante lo sviluppo di sistemi come ChatGPTTemendo le sue ripercussioni future. Godin afferma che la decisione italiana evidenzia preoccupazioni più immediate. “In sostanza, vediamo che lo sviluppo dell’IA finora può avere un enorme svantaggio”, afferma Godin.
lavoro italiano
Europa Norme del regolamento generale sulla protezione dei dati, che illustra il modo in cui le organizzazioni raccolgono, archiviano e utilizzano i dati personali delle persone, proteggendo i dati di oltre 400 milioni di persone in tutto il continente. Questi dati personali possono essere qualsiasi cosa, dal nome di una persona al suo indirizzo IP: se possono essere utilizzati per identificare qualcuno, possono essere considerati informazioni personali. A differenza del mosaico di norme sulla privacy a livello statale negli Stati Uniti, le protezioni del Regolamento generale sulla protezione dei dati (GDPR) si applicano se le informazioni delle persone sono liberamente disponibili online. In breve: solo perché le informazioni di qualcuno sono pubbliche non significa che puoi scaricarle e farne quello che vuoi.
Il Garante italiano ritiene che ChatGPT abbia quattro problemi ai sensi del GDPR: OpenAI non ha controlli sull’età per impedire ai minori di 13 anni di utilizzare il sistema di generazione del testo; può fornire informazioni inesatte sulle persone; Alle persone non è stato detto che i loro dati erano stati raccolti. Forse la cosa più importante è che la sua quarta argomentazione afferma che non esiste una “base giuridica” per la raccolta delle informazioni personali delle persone nella grande quantità di dati utilizzati per addestrare ChatGPT.
“Gli italiani hanno scoperto il loro bluff”, afferma Lillian Edwards, professore di diritto, innovazione e società all’Università di Newcastle nel Regno Unito. “Sembrava molto chiaro nell’Unione europea che si trattasse di una violazione della legge sulla protezione dei dati”.
“Appassionato pioniere della birra. Alcolico inguaribile. Geek del bacon. Drogato generale del web.”