SCHNEIER ACCUSA Microsoft DI SPIARE GLI UTENTI ATTRAVERSO L’Intelligenza Artificiale
Il noto crittografo Bruce Schneier ha lanciato un’accusa molto forte nei confronti di Microsoft, sostenendo che l’azienda di Redmond stia effettuando un controllo serrato sulle attività degli utenti tramite strumenti di intelligenza artificiale per la generazione di contenuti. Secondo Schneier, Microsoft avrebbe analizzato i prompt degli utenti e le risposte fornite attraverso l’uso dei suoi strumenti basati sull’Intelligenza Artificiale per migliorare le loro abilità di hacking.
Il rapporto pubblicato da Microsoft ha evidenziato che hacker provenienti da Cina, Russia e Iran utilizzano attivamente gli strumenti basati sull’IA dell’azienda per potenziare le loro attività di hacking. Questo solleva un forte allarme sul possibile monitoraggio delle attività degli utenti da parte di Microsoft attraverso l’analisi dei dati generati dai suoi strumenti basati sull’I. Un esempio noto di questi strumenti è il LLM (Large Language Models), una classe di modelli di intelligenza artificiale addestrati su grandi quantità di testo per comprendere il linguaggio naturale.
SCHNEIER CRITICA L’UTILIZZO DEI LLM PER IL MONITORAGGIO DELLE ATTIVITÀ DEGLI UTENTI
Il commento di Schneier suggerisce che Microsoft possa avere la visibilità di dettaglio sulle attività di hacking solo tramite il monitoraggio delle sessioni di chat, utilizzando il controllo di input e output del modello generativo. Anche se i termini di utilizzo del servizio consentono la raccolta di informazioni, Schneier si concentra sul livello di dettaglio del quale aziende come Microsoft possono beneficiare esaminando le informazioni condivise dagli utenti. Questa situazione solleva preoccupazioni sulla privacy e la protezione dei dati degli utenti che utilizzano questi strumenti.
MICROSOFT CONTRIBUISCE ALLA Sicurezza INFORMATICA ATTRAVERSO L’INTELLIGENZA ARTIFICIALE
In risposta alle accuse di Schneier, Microsoft ha dichiarato che sta esplorando il potenziale dell’IA per potenziare le misure di sicurezza, costruire Software migliore e adattarsi alle minacce in evoluzione. Secondo l’azienda, di fronte a una carenza globale di professionisti della sicurezza informatica, con circa 4 milioni di esperti necessari in tutto il mondo, l’IA ha il potenziale di essere uno strumento cruciale per colmare il divario di competenze e aiutare le attività normalmente svolte dai professionisti del settore.
Microsoft ha evidenziato un prodotto chiamato Copilot for Security, che può aiutare gli analisti della sicurezza a migliorare il rilevamento e la neutralizzazione delle minacce informatiche, oltre a fornire un riscontro più rapido nelle varie tipologie di incidenti. L’azienda ha sottolineato che i suoi sistemi riconoscono più di 65.000 milioni di segnali giornalieri relativi alla sicurezza informatica, e l’IA sta potenziando la capacità di analizzare tali informazioni e assicurare che eventuali comportamenti anomali, sintomo di attacchi in corso, possano essere fatti emergere in maniera ancora più efficace e tempestiva.
CONCLUSIONE
Le accuse di Schneier sollevano preoccupazioni cruciali sulla privacy e la protezione dei dati degli utenti nell’era dell’Intelligenza Artificiale. Mentre Microsoft sostiene di utilizzare l’IA per contribuire alla sicurezza informatica e proteggere gli utenti da possibili abusi, l’analisi dettagliata delle attività degli utenti solleva interrogativi sulla trasparenza e sull’utilizzo etico dei dati generati attraverso questi strumenti.
In conclusione, la discussione sollevata da Schneier mette in luce un dibattito importante riguardo all’equilibrio tra sicurezza informatica, privacy e utilizzo etico dell’Intelligenza Artificiale. Bisogna affrontare con serietà queste questioni per garantire la tutela dei diritti degli utenti in un contesto sempre più influenzato dall’IA.