Snapchat ha fornito un aggiornamento sul sviluppare il suo strumento chatbot “My AI”.che incorpora la tecnologia GPT di OpenAI, consentendo agli abbonati Snapchat+ di porre domande al bot nell’app e ottenere risposte su qualsiasi cosa desiderino.
Che, per la maggior parte, è un’applicazione semplice e divertente della tecnologia, ma Snap ha riscontrato alcuni abusi preoccupanti dello strumento, motivo per cui ora sta cercando di aggiungere ulteriori salvaguardie e protezioni al processo.
“Esaminare le prime interazioni con My AI ci ha aiutato a identificare quali guardrail funzionano bene e quali devono essere rafforzati. Per aiutare a valutare questo, abbiamo eseguito revisioni delle domande e delle risposte di My AI che contengono un linguaggio “non conforme”, che definiamo come qualsiasi testo che includa riferimenti alla violenza, termini sessualmente espliciti, uso di droghe illecite, abusi sessuali su minori, bullismo, incitamento all’odio, dichiarazioni dispregiative o tendenziose, razzismo, misoginia o emarginazione di gruppi sottorappresentati. Tutte queste categorie di contenuti sono esplicitamente vietate su Snapchat”.
Tutti gli utenti dello strumento My AI di Snap devono accettare i termini di servizio, il che significa che qualsiasi query inserita nel sistema può essere analizzata dal team di Snap a tale scopo.
Snap afferma che finora solo una piccola parte delle risposte di My AI è rientrata sotto il banner “non conforme” (0,01%), ma comunque questo ulteriore lavoro di ricerca e sviluppo aiuterà a proteggere gli utenti Snap da esperienze negative in My AI processi.
“Continueremo a utilizzare questi apprendimenti per migliorare My AI. Questi dati ci aiuteranno anche a implementare un nuovo sistema per limitare l’uso improprio di My AI. Stiamo aggiungendo la tecnologia di moderazione di Open AI al nostro set di strumenti esistente, che ci consentirà di valutare la gravità dei contenuti potenzialmente dannosi e di limitare temporaneamente l’accesso degli Snapchatter a My AI se abusano del servizio”.
Snap afferma che sta anche lavorando per migliorare le risposte alle richieste Snapchatter inappropriate, mentre ha anche implementato un nuovo segnale di età per My AI utilizzando la data di nascita di uno Snapchatter.
“Quindi, anche se uno Snapchatter non dice mai alla mia IA la loro età in una conversazione, il chatbot prenderà costantemente in considerazione la loro età durante la conversazione.”
Snap aggiungerà presto anche dati sulla cronologia delle interazioni My AI nel suo monitoraggio del Family Center, che consentirà ai genitori di farlo vedere se i loro figli comunicano con My AI e con quale frequenza.
Anche se vale anche la pena notare che, secondo Snap, le domande più comuni pubblicate su My AI sono state piuttosto innocue.
“Gli argomenti più comuni che la nostra community ha chiesto a My AI includono film, sport, giochi, animali domestici e matematica.”
Tuttavia, è necessario implementare misure di salvaguardia e Snap afferma che si sta assumendo seriamente le proprie responsabilità, poiché cerca di sviluppare i propri strumenti in linea con i principi delle migliori pratiche in evoluzione.
Man mano che gli strumenti di intelligenza artificiale generativa diventano più comuni, non è ancora chiaro al 100% quali potrebbero essere i rischi associati all’utilizzo e come possiamo proteggerci al meglio dall’uso improprio di tali strumenti, soprattutto da parte degli utenti più giovani.
Ci sono state varie segnalazioni di disinformazione distribuita tramite “allucinazioni” all’interno di tali strumenti, che si basano su sistemi di intelligenza artificiale che interpretano erroneamente i loro input di dati, mentre alcuni utenti hanno anche cercato di indurre questi nuovi robot a violare i propri parametri, per vedere cosa potrebbe essere possibile.
E ci sono sicuramente dei rischi in questo, motivo per cui molti esperti consigliano cautela nell’applicazione degli elementi di intelligenza artificiale.
In effetti, la scorsa settimana, an lettera aperta firmata da oltre mille identità del settore, ha invitato gli sviluppatori a sospendere le esplorazioni di potenti sistemi di intelligenza artificiale, al fine di valutarne il potenziale utilizzo e garantire che rimangano utili e gestibili.
In altre parole, non vogliamo che questi strumenti diventino troppo intelligenti e diventino uno scenario simile a Terminator, in cui le macchine si muovono per schiavizzare o sradicare la razza umana.
Questo tipo di scenario apocalittico è stato a lungo una preoccupazione critica, con una lettera aperta simile pubblicato nel 2015 avvertimento dello stesso rischio.
E c’è una certa validità nella preoccupazione che abbiamo a che fare con nuovi sistemi, che non comprendiamo appieno – che è improbabile che vadano “fuori controllo” in quanto tali, ma potrebbero finire per contribuire alla diffusione di false informazioni, o la creazione di contenuti fuorvianti, ecc.
Esistono chiaramente dei rischi, motivo per cui Snap sta adottando queste nuove misure per affrontare potenziali problemi nei propri strumenti di intelligenza artificiale.
E data la giovane base di utenti dell’app, dovrebbe essere un obiettivo chiave.