L’Intelligenza Artificiale generativa diventa sempre più raffinata e sorprendente, ma ogni tanto inciampa. Nulla di strano: per quanto se ne parli con insistenza da mesi, è ancora una Tecnologia neonata.
Google GEMINI E I NAZISTI AFROAMERICANI
Al comando testuale di generare “Immagini di soldati tedeschi nel 1943”, in tre casi su quattro Google Gemini ha prodotto figure di soldati afroamericani o asiatici. Gli errori non sono finiti qui: si è anche vista l’immagine di un papa nero.
Google è corsa ai ripari pubblicando una serie di comunicazioni sui canali social. In una di queste si poteva leggere: “Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione delle immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo nuovamente una versione migliorata”.
Ora sappiamo cos’è successo: è stata la stessa azienda a dirlo.
Google conferma la prossima riattivazione di Gemini
Google è tornata sul “caso Gemini”. Lo ha fatto per bocca di Demis Hassabis, amministratore delegato di Google DeepMind, ospite alla fiera tecnologica Mobile World Congress, a Barcellona.
Hassabis ha confermato che “lo strumento non ha funzionato come previsto”. E ha aggiunto: “Abbiamo messo la funzionalità offline per sistemarla. Speriamo di riaverla online molto presto, nelle prossime settimane”.
Durante il Mobile World Congress Google ha anche annunciato il prossimo rilascio di Gemini all’interno di Android Auto, la piattaforma per accedere al telefono dallo schermo della propria vettura.
I problemi di Gemini spiegati da Google
Ma cos’è successo, nei giorni scorsi, a Google Gemini?
In un post pubblicato lo scorso 23 febbraio, si è espresso Prabhakar Raghavan, senior vicepresident di Google. Che tra le altre cose ha scritto: “Quando abbiamo dotato Gemini del nuovo strumento per le immagini lo abbiamo sistemato affinché non cadesse in alcune delle trappole a cui abbiamo assistito in passato per quanto riguarda l’IA generativa, come la creazione di immagini violente o esplicite oppure la creazione di persone esistenti”.
E poi ha toccato il punto centrale, su cui molti avevano già qualche sospetto. E cioè che gli errori di Google Gemini sono dovuti a… un eccesso di inclusività, per così dire.
POLITICAMENTE (FIN TROPPO) CORRETTO
Sappiamo che, se addestrata in modo non attento, l’intelligenza artificiale può immagazzinare anche tutti quei tristi stereotipi che gravano sulla nostra società.
Proprio per non correre questo rischio, Google con Gemini ha esagerato nella direzione opposta. Per carità: l’idea all’origine dell’errore può anche essere meritoria. Quella, cioè, di mostrare un’umanità variegata, e non troppo appiattita sulle caratteristiche (e gli stereotipi, appunto) occidentali. È sempre Raghavan a scriverlo: “Siccome la nostra IA viene usata da persone in tutto il mondo volevamo che funzionasse bene con tutti. Se per esempio si intende creare una squadra di calcio, probabilmente si vogliono ottenere persone variegate”.
Ed ecco poi l’ammissione dell’errore: Google Gemini “non è riuscito a tenere conto di quei casi in cui chiaramente non aveva alcun senso mostrare una diversità.”
Più in generale, ha spiegato Raghavan, “nel corso del tempo il modello è diventato molto più cauto di quanto volevamo che fosse, e si è rifiutato di rispondere a determinate richieste, interpretando erroneamente alcune richieste innocue come sensibili”.
STEREOTIPI E BUON SENSO
La destra americana ha accusato Google Gemini nientemeno che di odio razziale contro i bianchi.
L’esagerazione si commenta da sé, ma di certo gli svarioni di Gemini mostrano almeno due problemi, o limiti. I primi riguardano gli “addestratori” umani, fin troppo solerti nel tenersi al riparo da eventuali accuse di razzismo (e infatti le accuse sono arrivate, ma nella direzione opposta rispetto a quella usuale).
I secondi riguardano l’intelligenza artificiale, i cui superpoteri ci spaventano tanto. Invece l’IA generativa ha dimostrato, come minimo, di non avere coscienza del trascorrere del tempo, né alcuna memoria storica. Non ha, insomma, quell’umano buon senso che così spesso ci aiuta a levarci d’impaccio.
Perciò, se probabilmente avremo sempre più bisogno dell’intelligenza artificiale generativa, possiamo crogiolarci al tepore di una certezza: l’intelligenza artificiale generativa avrà sempre bisogno di noi.