Abbiamo giocato con Stable Video Diffusion e segnala un futuro spaventoso di deep fake IA

Stable Video Diffusion è qui e, sebbene sia certamente interessante, preannuncia un futuro preoccupante quando si tratta di falsi profondi.

Punti chiave

  • L'intelligenza artificiale generativa, come Stable Video Diffusion, ha il potenziale per creare immagini e video altamente realistici e personalizzabili in base alle istruzioni fornite.
  • L’uso di immagini e video generati dall’intelligenza artificiale per la disinformazione e le violazioni della privacy sta diventando sempre più comune, mettendo a dura prova l’affidabilità delle prove visive su Internet.
  • La diffusione video stabile è solo l’inizio e, poiché la tecnologia dell’intelligenza artificiale continua ad avanzare, il futuro dei media online è minacciato da potenziali usi impropri e preoccupazioni etiche.

La rivoluzione dell’intelligenza artificiale è stata uno dei progressi più grandi e importanti del 2023. Con artisti del calibro di OpenAI che hanno preso d'assalto il mondo con ChatGPT e altri come Bing Chat e Google Bard che seguono, l'intelligenza artificiale generativa è una tecnologia piuttosto potente. Il punto in cui diventa preoccupante è

Generazione di immagini AI, strumenti in grado di creare immagini personalizzate in base alle istruzioni fornite loro. Ora, con Stable Video Diffusion, le cose stanno per peggiorare ulteriormente.

Sono tutt'altro che timoroso quando si tratta di tecnologia e penso che l'intelligenza artificiale generativa abbia molti usi in entrambi accessibilità E contesti divertenti, ma non c'è dubbio che la tecnologia possa essere usata anche per scopi malvagi. La disinformazione è un fenomeno sempre più frequente ed è già stato dimostrato che le immagini false generate ingannano gli utenti in molti contesti diversi. Ricordate quella foto di Papa Francesco che girava dove indossava un lungo piumino bianco? Quell'immagine non era reale, ma molte persone pensavano che lo fosse. Le immagini non sono più la prova decisiva che una volta le persone si aspettavano che fossero.

Fonte: IA generativa

Considerato che già oggigiorno è impossibile affidarsi alle immagini come unica prova di qualcosa, e il video sarà il prossimo sul ceppo, sarà più difficile che mai fare affidamento su tutto ciò che vedi su Internet vero.

La diffusione video stabile di Stability AI è spaventosamente buona

Adesso però è solo in fase di test

Stable Video Diffusion fa seguito a Stable Diffusion rilasciato lo scorso anno, un modello "a pesi aperti". che probabilmente ha dato il via all'ondata di generatori di immagini dell'intelligenza artificiale, per lo meno giocando un ruolo significativo parte. Il modulo video di questo particolare modello è altrettanto accessibile e può essere eseguito da chiunque ne abbia uno le migliori GPU Nvidia.

Il modo in cui funziona questo particolare modello è piuttosto interessante e, al momento, è piuttosto limitato in quanto può realmente fare. Come afferma Stability AI, "Mentre aggiorniamo con entusiasmo i nostri modelli con gli ultimi progressi e lavoriamo per incorporare il tuo feedback, questo modello non è destinato ad applicazioni commerciali o nel mondo reale palcoscenico. Le vostre intuizioni e feedback su sicurezza e qualità sono importanti per perfezionare questo modello per il suo eventuale rilascio."

Sono disponibili due modelli attuali che gli utenti possono utilizzare; il primo è SVD e il secondo è SVD-XT. Questi possono generare rispettivamente 14 e 25 fotogrammi con frame rate personalizzabili tra 3 e 30 FPS. Con questo tipo di intelligenza artificiale capace di fare così tanto, è solo questione di tempo prima che le persone possano creare i propri falsi profondi a casa di chiunque.

La diffusione video stabile sarà probabilmente facile da configurare

Non è necessariamente una buona cosa

Quando Stable Diffusion è decollato per la prima volta, un mio amico ha addestrato un modello sul viso del suo amico per aggiungere detto amico al Metal Gear Solid universo in una galleria su misura ridicolmente sciocca. È stato un regalo davvero interessante e molto divertente su cui lavorare e scherzare (l'amico ha dato il pieno consenso ad avere un modello addestrato sul suo viso), ma ripenso a allora, ora, completamente inorridito.

Con le centinaia di nostre immagini disponibili in rete, è già stato possibile per le persone addestrare i modelli sul volti di persone che non danno il proprio consenso, praticamente chiunque là fuori abbia foto di se stesso pubblicamente visualizzabile. Ora immagina di poter generare un'immagine di qualcuno e quindi di poter animare quel disegno utilizzando Stable Video Diffusion?

Le implicazioni di tutto ciò sono molteplici e vanno dalle violazioni della privacy fino al limite dell’illegalità. Ho già sentito donne nello spazio dei creatori di contenuti che mi hanno parlato dei fan che l'intelligenza artificiale genera loro pornografia e rimandandoglielo, quasi come se quei "tifosi" fossero orgogliosi del fatto di aver violato la privacy di un altro essere umano. Questo va avanti da più di un anno ed è un esempio che conosco. Non è affatto l’unica implicazione sulla privacy di strumenti come questi e, in effetti, probabilmente non farà altro che peggiorare.

Sono già disponibili esempi di Diffusione Video Stabile

Spaventoso ma incredibile

Il video qui sopra, rilasciato da Stability AI, mostra la potenza di Stable Video Diffusion. Altri hanno anche mostrato la potenza della tecnologia, dimostrando come può far muovere ed animare praticamente qualsiasi cosa in una piccola finestra di pochi secondi. Ci vuole molta potenza di calcolo, ma ci sono molti servizi come Hugging Face e Replicator che le persone possono essenzialmente affittare in termini di tempo di elaborazione. L'ho eseguito localmente, utilizzando l'immagine qui sotto (distribuita con il software Stable Video DIffusion) per testare quanto fosse buono.

L'immagine sopra è quella che sospetto sia generata dall'intelligenza artificiale, poiché non riesco a trovare corrispondenze esatte online. Tuttavia, è un candidato perfetto per i test. Ho eseguito localmente il modello Stable Video Diffusion con questa immagine e, in poco meno di un'ora, ho ottenuto la seguente clip di quattro secondi.

Questo è sorprendentemente buono. Anche se ora ha un frame rate basso, come già accennato, si tratta di un modello in sviluppo che non è ancora pensato per l'uso generale. Ho provato con una mia foto, la foto di un treno che arriva nella nebbia.

Purtroppo, il risultato non è stato altrettanto buono, anche se è stata una foto più impegnativa per un'intelligenza artificiale con cui lavorare a causa della nebbia.

Impressionante, sembrava ancora capire che il treno era, beh, un treno. Alla fine si è spostato sull'altro binario del treno. Tuttavia, questo è un software beta e i risultati sono comunque impressionanti.

La diffusione video stabile è solo l'inizio

Indipendentemente da ciò che potresti pensare su quanto sia impressionante questa tecnologia, è solo l'inizio. Questo è il primo modello open source che le persone senza dubbio smontaranno, miglioreranno e forse utilizzeranno con una mancanza di attenzione per l'etica. Il futuro dei media online è in pericolo, in gran parte grazie ai video e alle immagini AI, e man mano che migliorano e meglio, ci sono implicazioni di vasta portata che apriranno molteplici versioni del vaso di Pandora nei prossimi mesi e anni.

Come scienziato informatico, la tecnologia è così incredibilmente impressionante da sconcertare la mente, e la rapida crescita del panorama dell’intelligenza artificiale generativa è così, così impressionante. Tuttavia, come a persona, questa tecnologia mi terrorizza.