Wir haben mit Stable Video Diffusion gespielt und es signalisiert eine beängstigende Zukunft von KI-Deepfakes

Die stabile Videoverbreitung ist da, und obwohl sie sicherlich cool ist, bedeutet sie eine besorgniserregende Zukunft, wenn es um Deep Fakes geht.

Die zentralen Thesen

  • Generative KI wie Stable Video Diffusion hat das Potenzial, auf der Grundlage bereitgestellter Eingabeaufforderungen äußerst realistische und anpassbare Bilder und Videos zu erstellen.
  • Der Einsatz von KI-generierten Bildern und Videos für Desinformation und Datenschutzverletzungen kommt immer häufiger vor und stellt die Zuverlässigkeit visueller Beweise im Internet in Frage.
  • Eine stabile Videoverbreitung ist erst der Anfang, und da die KI-Technologie weiter voranschreitet, ist die Zukunft der Online-Medien durch potenziellen Missbrauch und ethische Bedenken bedroht.

Die KI-Revolution war einer der größten und wichtigsten Fortschritte des Jahres 2023. Da Unternehmen wie OpenAI mit ChatGPT die Welt im Sturm erobern und andere wie Bing Chat und Google Bard folgen, ist generative KI eine ziemlich leistungsstarke Technologie. Wo es besorgniserregend wird, ist

KI-Bilderzeugung, Tools, die basierend auf den ihnen bereitgestellten Eingabeaufforderungen maßgeschneiderte Bilder erstellen können. Jetzt, mit Stable Video Diffusion, wird es noch schlimmer.

Ich habe keine Angst, wenn es um Technologie geht, und ich denke, dass generative KI in beiden Bereichen viele Vorteile bietet Barrierefreiheit Und lustige Zusammenhänge, aber es besteht kein Zweifel daran, dass die Technologie auch für böse Zwecke eingesetzt werden kann. Desinformation ist ein Phänomen, das immer häufiger auftritt, und es hat sich bereits gezeigt, dass gefälschte Bilder Benutzer in vielen verschiedenen Kontexten täuschen. Erinnern Sie sich an das Foto von Papst Franziskus, auf dem er eine lange weiße Steppjacke trug? Dieses Bild war nicht echt, aber viele Leute dachten, es sei so. Bilder sind nicht mehr der Allheilmittel-Beweis, den die Menschen einst erwartet hatten.

Quelle: Generative KI

Angesichts der Tatsache, dass es heutzutage schon unmöglich ist, sich auf Bilder als alleinigen Beweis für etwas zu verlassen, kommen als nächstes Videos hinzu Auf dem Hackklotz wird es schwieriger denn je, sich auf alles zu verlassen, was man im Internet sieht real.

Die stabile Videodiffusion von Stability AI ist erschreckend gut

Allerdings befindet es sich derzeit nur in der Testphase

Stable Video Diffusion knüpft an Stable Diffusion an, das letztes Jahr veröffentlicht wurde und ein Modell mit „offenen Gewichten“ ist Das hat wohl die KI-Welle der Bildgeneratoren angekurbelt und zumindest eine bedeutende Rolle gespielt Teil. Die Videoform dieses speziellen Modells ist ebenso zugänglich und kann von jedem ausgeführt werden, der über eines davon verfügt beste Nvidia-GPUs.

Die Funktionsweise dieses speziellen Modells ist ziemlich interessant, und im Moment ist die tatsächliche Leistungsfähigkeit dieses Modells recht begrenzt. Wie Stability AI es ausdrückt: „Während wir unsere Modelle eifrig mit den neuesten Entwicklungen aktualisieren und daran arbeiten Berücksichtigen Sie Ihr Feedback. Dieses Modell ist derzeit nicht für reale oder kommerzielle Anwendungen gedacht Bühne. Ihre Erkenntnisse und Ihr Feedback zu Sicherheit und Qualität sind wichtig, um dieses Modell für seine spätere Veröffentlichung zu verfeinern.“

Den Benutzern stehen derzeit zwei Modelle zur Verfügung; Der erste ist SVD und der zweite ist SVD-XT. Diese können 14 bzw. 25 Bilder mit anpassbaren Bildraten zwischen 3 und 30 FPS erzeugen. Da diese Art von KI so viel kann, ist es nur eine Frage der Zeit, bis Menschen ihre eigenen Deep Fakes bei jedem zu Hause selbst herstellen können.

Eine stabile Videoverbreitung wird wahrscheinlich einfach einzurichten sein

Das ist nicht unbedingt eine gute Sache

Als Stable Diffusion zum ersten Mal auf den Markt kam, trainierte ein Freund von mir ein Modell auf dem Gesicht seines Freundes, um diesen Freund dem hinzuzufügen Metal Gear Solid Universum in einer lächerlich albernen, maßgeschneiderten Galerie. Es war ein ziemlich cooles Geschenk und es hat viel Spaß gemacht, daran zu arbeiten und damit herumzuspielen (der Freund gab sein volles Einverständnis, ein Modell auf sein Gesicht trainieren zu lassen), aber ich denke heute völlig entsetzt an damals zurück.

Mit den Hunderten von Bildern von uns, die es gibt, ist es den Menschen bereits möglich, Modelle darauf zu trainieren Gesichter von Menschen, die ihre Einwilligung nicht geben, so ziemlich jeder da draußen, der öffentlich Fotos von sich hat sichtbar. Stellen Sie sich nun vor, Sie könnten ein Bild von jemandem erstellen und diese Zeichnung dann mithilfe von Stable Video Diffusion animieren.

Die Folgen sind vielfältig und reichen von Datenschutzverletzungen bis hin zur grenzwertigen Illegalität. Ich habe bereits von Frauen im Content-Creator-Bereich gehört, die mir von Fans erzählt haben, die von ihnen durch KI Pornografie generiert haben Sie schickten es ihnen zurück, fast so, als ob diese „Fans“ stolz darauf wären, die Privatsphäre eines anderen Menschen verletzt zu haben. Das passiert schon seit über einem Jahr und es ist ein Beispiel, das mir bekannt ist. Dies ist keineswegs die einzige Auswirkung solcher Tools auf den Datenschutz, und tatsächlich wird es wahrscheinlich nur noch schlimmer werden.

Beispiele für stabile Videodiffusion sind bereits verfügbar

Beängstigend, aber unglaublich

Das obige Video, veröffentlicht von Stability AI, zeigt die Leistungsfähigkeit von Stable Video Diffusion. Andere haben ebenfalls die Leistungsfähigkeit der Technologie demonstriert und demonstriert, wie sie praktisch alles in einem kleinen Fenster von wenigen Sekunden bewegen und animieren kann. Es erfordert viel Rechenleistung, aber es gibt viele Dienste wie Hugging Face und Replicator, bei denen die Leute im Wesentlichen Verarbeitungszeit mieten können. Ich habe es lokal ausgeführt und dabei das Bild unten (verteilt mit der Stable Video DIffusion-Software) verwendet, um zu testen, wie gut es war.

Ich vermute, dass das obige Bild KI-generiert ist, da ich online keine genauen Übereinstimmungen dazu finden kann. Dennoch ist es ein perfekter Kandidat zum Testen. Ich habe das Stable Video Diffusion-Modell lokal mit diesem Bild ausgeführt und in knapp einer Stunde den folgenden vier Sekunden langen Clip erstellt.

Das ist erschreckend gut. Obwohl die Bildwiederholrate derzeit niedrig ist, handelt es sich, wie bereits erwähnt, um ein in der Entwicklung befindliches Modell, das noch nicht für den allgemeinen Gebrauch gedacht ist. Ich habe es mit meinem eigenen Foto versucht, einem Foto eines ankommenden Zuges im Nebel.

Leider war das Ergebnis nicht so gut, obwohl es aufgrund des Nebels eine größere Herausforderung für eine KI war, mit dem Foto zu arbeiten.

Beeindruckenderweise schien es immer noch zu verstehen, dass der Zug, nun ja, ein Zug war. Am Ende ist es einfach auf die andere Bahnstrecke gefahren. Dennoch handelt es sich hierbei um Beta-Software und die Ergebnisse sind dennoch beeindruckend.

Eine stabile Videoverbreitung ist nur der Anfang

Unabhängig davon, was Sie davon halten, wie beeindruckend diese Technologie ist, ist sie nur der Anfang. Dies ist das erste Open-Source-Modell, das Menschen ohne Rücksicht auf Ethik zweifellos auseinandernehmen, verbessern und möglicherweise nutzen werden. Die Zukunft der Online-Medien ist in Gefahr, vor allem dank KI-Videos und -Bildern, und da sie immer besser werden Besser noch, es gibt weitreichende Auswirkungen, die in den nächsten Monaten mehrere Versionen der Büchse der Pandora öffnen werden und Jahre.

Als Informatiker ist die Technologie so unglaublich beeindruckend, dass sie den Verstand verblüfft, und das schnelle Wachstum der generativen KI-Landschaft ist so, so beeindruckend. Allerdings als Person, diese Technologie macht mir Angst.