Google ha messo in pausa il suo strumento Gemini AI dopo che i critici lo hanno definito “troppo sveglio” per aver creato immagini di nazisti asiatici nella Germania del 1940, vichinghi neri e cavalieri medievali.

  • Alcuni utenti hanno affermato che Gemini 1.5 si rifiutava di creare immagini di bianchi
  • In risposta, Google ha annunciato che avrebbe interrotto temporaneamente la funzionalità per rispondere ai reclami
  • Per saperne di più: i programmi di intelligenza artificiale imparano a mostrare pregiudizi simili a quelli umani, dicono gli scienziati



Google sta mettendo in pausa il suo nuovo strumento Gemini AI dopo che gli utenti hanno criticato il generatore di immagini per essere “troppo sveglio” sostituendo figure storiche bianche con persone di colore.

Lanciato lo strumento di Intelligenza Artificiale Vichinghi, cavalieri, padri fondatori etnicamente diversi e persino soldati nazisti.

I programmi di intelligenza artificiale apprendono dalle informazioni a loro disposizione e i ricercatori hanno avvertito che l’intelligenza artificiale tende a ricreare il razzismo, il sessismo e altri pregiudizi nei suoi creatori e nella società nel suo insieme.

In questo caso, Google potrebbe aver esagerato con i suoi sforzi per affrontare la discriminazione, poiché alcuni utenti hanno alimentato, istante dopo istante, i tentativi falliti di convincere l’intelligenza artificiale a scattare una foto di una persona bianca.

L'utente di X Frank J. Fleming ha pubblicato più foto di persone di colore che, secondo lui, sono state create da Gemini. Ogni volta, ha detto che stava cercando di convincere l'intelligenza artificiale a dargli l'immagine di un uomo bianco, e ogni volta.
Giovedì il team delle comunicazioni di Google ha rilasciato una dichiarazione in cui annunciava che metterà in pausa la funzionalità di intelligenza artificiale generativa di Gemini mentre la società lavora per “affrontare i problemi recenti”.

“Siamo consapevoli che Gemini sta fornendo informazioni inaccurate in alcune immagini storiche di generazione di immagini”, ha scritto mercoledì il team di comunicazione dell'azienda in un post su X.

Per saperne di più: I robot imparano a essere razzisti e sessisti

Le raffigurazioni storicamente imprecise hanno portato alcuni utenti ad accusare l'IA di essere razzista nei confronti dei bianchi o di essere troppo sveglia.

Nella sua dichiarazione iniziale, Google ha ammesso di “aver mancato il bersaglio”, pur affermando che le immagini dei Gemelli razzialmente diverse sono “generalmente una buona cosa perché le persone in tutto il mondo le usano”.

READ  Puoi preordinare il mini frigo ufficiale Xbox Series X da Microsoft a partire dalla prossima settimana • Eurogamer.net

Giovedì, il team delle comunicazioni dell'azienda ha scritto: “Stiamo già lavorando per risolvere i recenti problemi con la funzione di creazione di foto di Gemini”. Già che ci siamo, metteremo in pausa la creazione delle immagini delle persone e presto pubblicheremo una versione migliorata.'

Ma anche l’annuncio della pausa non è riuscito a placare i critici, che hanno risposto con frasi come “svegliati, vai in rovina” e altre risposte stanche.

A seguito della controversia iniziale all'inizio di questa settimana, il team di comunicazione di Google ha rilasciato la seguente dichiarazione:

“Lavoriamo per migliorare immediatamente questo tipo di immagini.” La generazione di immagini AI di Gemini si rivolge a una vasta gamma di persone. Questa è generalmente una buona cosa perché le persone in tutto il mondo lo usano. Ma qui manca il bersaglio.

L'utente Frank J. ha scritto: Fleming, la cui richiesta non ha prodotto foto di una persona bianca: “Sto cercando di trovare nuovi modi per chiedere di una persona bianca senza dirlo esplicitamente”.

In un caso che ha sconvolto gli utenti Gemelli, la richiesta di un utente per una foto del Papa è stata accolta con la foto di una donna dell'Asia meridionale e di un uomo di colore.

Storicamente ogni papa è stato un uomo. La stragrande maggioranza (più di 200 di loro) erano italiani. Tre papi nel corso della storia provenivano dal Nord Africa, ma gli storici discutono sul colore della loro pelle perché l'ultimo di loro, Papa Gelasio I, morì nel 496.

Pertanto, non si può dire con assoluta certezza che l'immagine di un papa maschio nero sia storicamente imprecisa, ma non c'è mai stata una donna.

In un altro caso, l’IA ha risposto a una richiesta di cavalieri medievali con quattro persone di colore, tra cui due donne. Sebbene i paesi europei non fossero gli unici ad avere cavalli e armature durante il periodo medievale, l'immagine classica del “cavaliere medievale” è dell'Europa occidentale.

READ  Blizzard non voleva che la nuova classe Spiritborn di Diablo 4 fosse un'altra "classe di animali domestici" di MMO in cui è possibile esternalizzare tutte le cose divertenti

In forse uno degli incidenti più orribili, un utente chiamò un soldato tedesco nel 1943 e gli furono mostrati un uomo bianco, un uomo nero e due donne di colore.

L’esercito tedesco nella seconda guerra mondiale non includeva donne, e certamente non includeva persone di colore. Era infatti dedicato allo sterminio delle razze che Adolf Hitler considerava inferiori alla razza “ariana” bionda e con gli occhi azzurri.

Google ha lanciato la funzionalità di generazione di immagini AI di Gemini all'inizio di febbraio, competendo con altri programmi di intelligenza artificiale generativa come Midjourney.

Gli utenti possono digitare un messaggio in un linguaggio semplice e Gemini produrrà più immagini in pochi secondi.

In risposta all'annuncio di Google di mettere in pausa le funzionalità di creazione di foto di Gemini, alcuni utenti hanno postato “svegliati, tagliati fuori” e altri sentimenti simili
L'utente di X Frank J. Fleming ha ripetutamente incoraggiato Geminis a creare immagini di persone appartenenti a gruppi dalla pelle bianca nella storia, inclusi i Vichinghi. Gemini ha fornito risultati che mostrano vichinghi dalla pelle scura, inclusa una donna.

Tuttavia, questa settimana un gran numero di utenti ha iniziato a criticare l’intelligenza artificiale per aver prodotto immagini storicamente imprecise, dando invece priorità alla diversità razziale e di genere.

Gli eventi della settimana sembrano derivare da un commento fatto da un ex dipendente di Google, il quale ha affermato che è “imbarazzantemente difficile convincere Google Gemini a riconoscere l'esistenza dei bianchi”.

Questa provocazione sembra essere l'inizio di una serie di sforzi da parte di altri utenti per ricreare il problema, creando nuove persone da incazzare.

I problemi con Gemini sembrano derivare dagli sforzi di Google per affrontare pregiudizi e discriminazioni nell’intelligenza artificiale.

“È molto difficile convincere Google Gemini a riconoscere l'esistenza dei bianchi”, ha affermato Debargya Das, ex dipendente di Google.

I ricercatori hanno scoperto che a causa del razzismo e del sessismo che esistono nella società e a causa dei pregiudizi inconsci di alcuni ricercatori sull’intelligenza artificiale, un’intelligenza artificiale apparentemente imparziale imparerà a discriminare.

Ma anche alcuni utenti che sono d’accordo con la missione di aumentare la diversità e la rappresentanza hanno notato che Gemini si sbagliava.

READ  Per favore, per favore, per favore pubblica Sonic Advance Trilogy su Nintendo Switch online

“Devo sottolineare che è positivo ritrarre la diversità **in alcuni casi**”, libri Un utente X. “La rappresentanza ha conseguenze materiali in termini di quante donne o persone di colore si impegnano in determinati campi di studio. La mossa stupida qui è che i Gemelli non lo fanno in modo sfumato.

Jack Krawczyk, senior product manager Gemini di Google, ha pubblicato mercoledì su X che le inesattezze storiche riflettono la “base di utenti globale” del gigante tecnologico e che prende molto sul serio “la rappresentazione e i pregiudizi”.

“Continueremo a farlo per le rivendicazioni aperte (le foto di una persona che porta a spasso un cane sono universali!)”, ha aggiunto Krawczyk. “I contesti storici hanno più sfumature e ci adatteremo per adattarli”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *