martedì, Dicembre 3, 2024

I ricercatori affermano che Bing ha inventato dei fatti sulle elezioni europee

I ricercatori hanno scoperto che il chatbot di Microsoft su Copilot forniva informazioni false e fuorvianti sulle elezioni europee.

Lo ha affermato l’organizzazione per i diritti umani AlgorithmWatch in un rapporto che ha posto a Bing Chat – recentemente rinominato Copilot – domande sulle recenti elezioni tenutesi in Svizzera e negli stati tedeschi di Baviera e Assia. Ha riscontrato che un terzo delle risposte fornite alle domande relative alle elezioni contenevano errori di fatto e le garanzie non erano state applicate in modo uniforme.

Il gruppo ha affermato di aver raccolto le risposte di Bing da agosto a ottobre di quest’anno. Ha scelto le tre elezioni perché sono le prime tenutesi in Germania e Svizzera dall’introduzione di Bing. Ha inoltre permesso ai ricercatori di osservare i contesti locali e confrontare le risposte in diverse lingue: tedesco, inglese e francese.

I ricercatori hanno chiesto informazioni di base come come votare, quali candidati sono in corsa, numeri dei sondaggi e persino alcuni suggerimenti sulle Notizie. Hanno fatto seguito domande sulle posizioni dei candidati e su questioni politiche e, nel caso della Baviera, sugli scandali che hanno afflitto quella campagna.

AlgorithmWatch ha classificato le risposte in tre categorie: risposte contenenti errori fattuali che andavano da fuorvianti a insensati, evasioni in cui il modello si rifiutava di rispondere a una domanda o deviava definendo le sue informazioni incomplete e risposte assolutamente accurate. Ha inoltre notato che alcune risposte erano politicamente sbilanciate, come ad esempio il fatto che Bing presentasse la sua risposta nella cornice o nel linguaggio utilizzato da un partito.

Le risposte di Bing includevano false controversie, date elettorali errate, numeri elettorali errati e, in alcuni punti, candidati che non si erano candidati a queste elezioni. Queste risposte piene di errori costituivano il 31% delle risposte.

“Anche quando il chatbot ha estratto i numeri dei sondaggi da un’unica fonte, i numeri riportati nella risposta spesso differivano dalla fonte collegata, a volte classificando i partiti in una successione diversa rispetto a quanto fatto dalle fonti”, afferma il rapporto.

Microsoft, che gestisce Bing/Copilot, ha implementato dei guardrail sul chatbot. I guardrail impediscono idealmente a Bing di fornire risposte pericolose, false o offensive. Molto spesso, i guardrail dell’Intelligenza Artificiale tendono a rifiutarsi di rispondere a una domanda per non infrangere le regole stabilite dall’azienda. Bing ha scelto di evitare le domande nel 39% dei casi durante il test. Ciò ha lasciato solo il 30% delle risposte giudicate fattivamente corrette.

AlgorithmWatch ha affermato che durante le sue ricerche, Bing ha applicato regole di Sicurezza quando gli veniva chiesto un parere ma non quando gli venivano richiesti i fatti: in quei casi, è arrivato “al punto di formulare gravi false accuse di corruzione che sono state presentate come fatti”.

Bing ha ottenuto risultati peggiori anche in lingue diverse dall’inglese, ha affermato il gruppo.

Microsoft ha detto in una dichiarazione inviata a Il limite che ha adottato misure per migliorare le sue piattaforme di intelligenza artificiale conversazionale, soprattutto in vista delle elezioni del 2024 negli Stati Uniti. Questi includono la focalizzazione su fonti di informazione autorevoli per Copilot.

“Stiamo adottando una serie di passi concreti in vista delle elezioni del prossimo anno e ci impegniamo a contribuire a salvaguardare gli elettori, i candidati, le campagne e le autorità elettorali”, ha affermato il portavoce di Microsoft Frank Shaw.

Ha aggiunto che Microsoft incoraggia le persone “a utilizzare Copilot con il miglior giudizio durante la visualizzazione dei risultati”.

Il potenziale dell’intelligenza artificiale di fuorviare gli elettori durante le elezioni è motivo di preoccupazione. Microsoft ha dichiarato a novembre di voler collaborare con partiti politici e candidati per limitare i deepfake e prevenire la disinformazione elettorale.

Negli Stati Uniti, i legislatori hanno presentato progetti di legge che richiedono che le campagne divulghino contenuti generati dall’intelligenza artificiale e la Commissione elettorale federale potrebbe limitare gli annunci pubblicitari basati sull’intelligenza artificiale.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: