SORA, IL NUOVO SISTEMA TEXT-TO-Video DI OPENAI STA GENERANDO PREOCCUPAZIONI
Sora, il sistema text-to-video di OpenAI capace di generare in pochi secondi filmati di qualità incredibile, ha avuto un effetto simile a quello che ebbe ChatGPT al lancio: superare le aspettative. Sora non è il primo di questo tipo di modelli, ma sembra quello più avanzato. A oggi abbiamo a disposizione solo pochi campioni pubblicati dalla stessa OpenAI perché Sora non è ancora disponibile al pubblico. E le tempistiche non sono l’unica cosa che ancora non sappiamo di Sora.
LA QUESTIONE DELL’ORIGINE DEI DATI UTILIZZATI PER L’ADDESTRAMENTO DI SORA
OpenAI non ha fornito alcuna indicazione né rassicurazione rispetto all’origine dei dati utilizzati per addestrare il modello alla base di Sora. Ogni modello di linguaggio di grandi dimensioni – come quello alla base di ChatGPT, ma anche Gemini di Google – viene addestrato attraverso l’analisi di tantissimi dati, libri, articoli, brani musicali: qualunque cosa, come se fosse uno studente affamato. L’origine di tali contenuti, però, è al centro dei problemi etici attorno all’uso dei sistemi di Intelligenza Artificiale generativa. E Sora, da questo punto di vista, non fa eccezione.
OpenAI fino a ora non ha proferito parola in merito, sebbene la sua posizione più cauta rispetto al passato lascia pensare che le discussioni, soprattutto fra i regolatori, attorno ai moderni sistemi di IA non sono stati vani. OpenAI sta infatti aspettando di avere un dialogo con i legislatori e anche gli artisti prima di rendere pubblico Sora e quindi utilizzabile da molte altre persone.
LE IMPLICAZIONI ETICHE E IL POTENZIALE PERICOLORSO DI SORA
C’è poi l’aspetto di quanto sia difficile distinguere un video creato con Sora da uno reale, almeno superficialmente. Ed è noto quanto la superficialità sia alla base della disinformazione che si diffonde facilmente sui Social Network: spesso le pagine che si fingono testate giornalistiche vere riescono a ingannare le persone distratte perché, appunto, leggono in modo disattento. Non si tratta di luddismo; ma di capire come farsi trovare preparati.
“L’Intelligenza Artificiale sta introducendo una forma di manipolazione nuova e potenzialmente più pericolosa alla quale stiamo lavorando da più di un decennio, dai siti Web falsi ai bot sui social media”. A dirlo è stato Brad Smith, presidente di Microsoft, che con OpenAI ha una collaborazione molto stretta. Al punto che alcuni i suoi prodotti sono integrati nei servizi di Microsoft, come il motore di ricerca Bing e le applicazioni di Microsoft 365.
In vista delle prossime elezioni negli Stati Uniti, che si terranno a novembre, diverse società tecnologiche hanno deciso di collaborare in quello che è stato chiamato “Accordo tecnologico per combattere l’uso fraudolento dell’IA nelle elezioni del 2024”. Non solo video, ma anche Immagini e articoli.
IL RUOLO DELLE GRANDI SOCIETÀ TECNOLOGICHE NEL COMBATTERE L’ABUSO DELL’IA
Fra gli otto impegni presi dalle società ci sono lo sviluppo e l’implementazione delle tecnologie che servono a mitigare i rischi dei contenuti finalizzati a distorcere le elezioni; il controllo sulla distribuzione di simili contenuti sulle rispettive piattaforme e comunicare in modo trasparente con la comunità su come ogni società sta rispettando l’accordo.
Per Sora, OpenAI intende apporre il watermark della Coalition for Content Provenance and Authenticity, gruppo che include grandi società e intende, appunto, aggiungere dei “bollini” per far riconoscere i contenuti generati con l’IA. Basterà?
CONCLUSIONE
L’avvento di Sora solleva interrogativi importanti sul ruolo e l’impatto dell’Intelligenza Artificiale generativa nella società odierna. Mentre la Tecnologia offre opportunità straordinarie, il suo potenziale abuso e le implicazioni etiche devono essere affrontate con serietà. È cruciale che le aziende e i regolatori lavorino insieme per garantire che l’IA sia utilizzata in modo etico e responsabile, per il bene di tutti.