mercoledì, Luglio 3, 2024

Polemica su Slack: addestra modelli ML con dati utenti senza consenso

**SCANDALO SU SLACK: LA POLEMICA SULL’ADDESTRAMENTO DEI MODELLI ML SENZA CONSENSO**

Si accende la polemica su **Slack**, la nota piattaforma di collaborazione aziendale dal 2020 nella scuderia di Salesforce. Le critiche hanno un motivo preciso: Slack Technologies sta addestrando i suoi modelli di **machine learning** con i dati degli utenti senza però una loro **autorizzazione esplicita**. Tutto ciò avviene per impostazione predefinita e chiedere l’esclusione non è poi così semplice e immediato.

**LA RIVELAZIONE DI COREY QUINN**

Il caso è esploso quando Corey Quinn (dirigente di DuckBill Group), dopo aver individuato tale politica in trafiletto nel documento “**Principi di privacy: ricerca, apprendimento e Intelligenza Artificiale**” ha condiviso il suo disappunto su X. Nell’informativa si legge quanto segue: «**Per sviluppare modelli AI/ML, nostri sistemi analizzano i dati dei clienti caricati su Slack nonché altre informazioni (comprese le informazioni sull’utilizzo) come indicato nella nostra Privacy Policy e nel contratto con il cliente**».

**PROCEDURA PER L’OPT-OUT E CRITICHE**

Come già anticipato, chiedere che i propri dati non vengano utilizzati per l’addestramento del machine learning non è una procedura così immediata. Secondo quanto indicato nella Privacy Policy, per tirarsi fuori da questa pratica (**opt-out**) bisogna chiedere a chi gestisce l’area di lavoro Slack di **contattare l’assistenza clienti via email** e attendere che la richiesta venga elaborata. Perché questo passaggio “lento e macchinoso”? Forse, scrive qualcuno sui social, per **far desistere gli utenti**, dal momento che meno dati ci sono, meno performante è il modello AI.

**REACTION DELLE ASSOCIAZIONI PER LA PRIVACY**

Di fronte a queste rivelazioni si sono levate numerose voci dalle associazioni per la privacy che hanno condannato fermamente l’utilizzo dei dati degli utenti senza il loro consenso esplicito. La prassi dell’addestramento dei modelli ML con dati sensibili senza un opt-in chiaro e trasparente è stata definita come una violazione della privacy e un abuso della fiducia degli utenti.

**RISPONSE DI SLACK TECHNOLOGIES**

In risposta alle critiche, Slack Technologies ha dichiarato che l’addestramento dei modelli ML con i dati degli utenti è finalizzato a migliorare l’esperienza degli utenti stessi, consentendo di fornire servizi più personalizzati e efficienti. Tuttavia, l’azienda si è detta pronta a rivedere le proprie politiche in merito all’ott-in e all’opt-out per garantire maggiore trasparenza e rispetto per la privacy degli utenti.

**CONCLUSIONE: LA NECESSITÀ DI UNA TRASPARENZA MAGGIORE**

Il caso di Slack mette in evidenza la necessità di una maggiore trasparenza da parte delle aziende tecnologiche nell’utilizzo dei dati degli utenti per l’addestramento dei modelli ML. Gli utenti devono essere pienamente informati e avere il pieno controllo sulle informazioni che vengono utilizzate per sviluppare algoritmi e strumenti di intelligenza artificiale. Solo attraverso una maggiore trasparenza e un consenso esplicito gli utenti potranno sentirsi sicuri e tutelati nel mondo sempre più digitale e interconnesso in cui viviamo.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: