Jugamos con Stable Video Diffusion y señala un futuro aterrador de falsificaciones de IA

click fraud protection

Stable Video Diffusion está aquí y, si bien es ciertamente genial, presagia un futuro preocupante en lo que respecta a las falsificaciones profundas.

Conclusiones clave

  • La IA generativa, como Stable Video Diffusion, tiene el potencial de crear imágenes y videos altamente realistas y personalizables según las indicaciones proporcionadas.
  • El uso de imágenes y vídeos generados por IA para desinformar y violar la privacidad es cada vez más común, lo que pone en duda la fiabilidad de la evidencia visual en Internet.
  • La difusión estable de video es solo el comienzo y, a medida que la tecnología de inteligencia artificial continúa avanzando, el futuro de los medios en línea se ve amenazado por posibles usos indebidos y preocupaciones éticas.

La revolución de la IA ha sido uno de los avances más grandes e importantes de 2023. Con empresas como OpenAI arrasando en el mundo con ChatGPT y otras como Bing Chat y Google Bard, la IA generativa es una tecnología bastante poderosa. Donde se vuelve preocupante es

Generación de imágenes de IA, herramientas que pueden crear imágenes personalizadas según las indicaciones que se les proporcionan. Ahora, con Stable Video Diffusion, las cosas están a punto de empeorar aún más.

Estoy lejos de tener miedo cuando se trata de tecnología y creo que la IA generativa tiene muchos usos en ambos. accesibilidad y contextos divertidos, pero no hay duda de que la tecnología también puede usarse para el mal. La desinformación es un fenómeno cada vez más frecuente y ya se ha demostrado que las imágenes falsas generadas engañan a los usuarios en muchos contextos diferentes. ¿Recuerdas esa foto del Papa Francisco que circulaba por ahí donde vestía una chaqueta acolchada larga blanca? Esa imagen no era real, pero mucha gente pensó que sí lo era. Las imágenes ya no son la solución milagrosa que la gente alguna vez esperaba que fueran.

Fuente: IA generativa

Dado que hoy en día ya es imposible confiar en las imágenes como única prueba de algo, los siguientes son los vídeos. en la tabla de cortar, va a ser más difícil que nunca confiar en cualquier cosa que veas en Internet como real.

La difusión de vídeo estable de Stability AI es terriblemente buena

Aunque ahora solo está en prueba.

Stable Video Diffusion es la continuación de Stable Diffusion lanzado el año pasado, un modelo de "pesos abiertos". que posiblemente impulsó la ola de generadores de imágenes de IA, desempeñando al menos un papel importante parte. El formato de vídeo de este modelo en particular es igual de accesible y puede ser ejecutado por cualquier persona que tenga uno de los mejores GPU Nvidia.

El funcionamiento de este modelo en particular es bastante interesante y, por el momento, es bastante limitado en cuanto a lo que realmente puede hacer. Como lo expresa Stability AI, "Si bien actualizamos con entusiasmo nuestros modelos con los últimos avances y trabajamos para Incorpore sus comentarios, este modelo no está diseñado para aplicaciones comerciales o del mundo real en este momento. escenario. Sus conocimientos y comentarios sobre seguridad y calidad son importantes para perfeccionar este modelo para su eventual lanzamiento".

Hay dos modelos actuales disponibles para que los utilicen los usuarios; el primero es SVD y el segundo es SVD-XT. Estos pueden generar 14 y 25 fotogramas respectivamente a velocidades de fotogramas personalizables entre 3 y 30 FPS. Con este tipo de IA capaz de hacer tanto, es sólo cuestión de tiempo antes de que la gente pueda crear sus propias falsificaciones en casa de alguien.

La difusión de vídeo estable probablemente será fácil de configurar

Eso no es necesariamente algo bueno

Cuando Stable Diffusion despegó por primera vez, un amigo mío entrenó un modelo en la cara de su amigo para agregarlo a la lista. Engranaje de metal sólido universo en una galería personalizada ridículamente tonta. Fue un regalo genial y muy divertido para trabajar y jugar (el amigo dio pleno consentimiento para que le pintaran la cara con un modelo), pero pienso en aquel entonces y ahora, completamente horrorizado.

Con los cientos de imágenes nuestras que existen, ya ha sido posible que la gente entrene modelos en el Caras de personas que no dan su consentimiento, prácticamente cualquier persona que tenga fotos de ellos mismos públicamente. visible. Ahora imagina poder generar una imagen de alguien y luego poder animar ese dibujo usando Stable Video Diffusion.

Esto tiene muchas implicaciones, que van desde violaciones de la privacidad hasta el límite de la ilegalidad. Ya he escuchado de mujeres en el espacio creador de contenido que me han hablado de fans que generan pornografía de ellas con IA y enviándoselo de vuelta, casi como si esos "fanáticos" estuvieran orgullosos del hecho de haber violado la privacidad de otro ser humano. Esto ha estado sucediendo durante más de un año y es un ejemplo que conozco. De ninguna manera es la única implicación de privacidad de herramientas como estas y, de hecho, es probable que empeore.

Ya están disponibles ejemplos de Difusión de Vídeo Estable

Aterrador pero increíble

El vídeo de arriba, publicado por Stability AI, muestra el poder de Stable Video Diffusion. Otros también han mostrado el poder de la tecnología, demostrando cómo puede hacer que prácticamente cualquier cosa se mueva y se anime en una pequeña ventana de unos pocos segundos. Se necesita mucha potencia computacional, pero hay muchos servicios como Hugging Face y Replicator en los que la gente básicamente puede alquilar tiempo de procesamiento. Lo ejecuté localmente, usando la imagen a continuación (distribuida con el software Stable Video DIffusion) para probar qué tan bueno era.

Sospecho que la imagen de arriba está generada por IA, ya que no puedo encontrar coincidencias exactas en línea. Sin embargo, es un candidato perfecto para realizar pruebas. Ejecuté el modelo Stable Video Diffusion localmente con esta imagen y, en poco menos de una hora, obtuve el siguiente clip de cuatro segundos.

Esto es sorprendentemente bueno. Si bien ahora tiene una velocidad de cuadros baja, como ya se mencionó, este es un modelo en desarrollo que aún no está diseñado para uso general. Lo intenté con mi propia foto, una foto de un tren llegando en medio de la niebla.

Lamentablemente, el resultado no fue tan bueno, aunque fue una foto más desafiante para trabajar con una IA gracias a la niebla.

Sorprendentemente, todavía parecía entender que el tren era, bueno, un tren. Terminó moviéndose hacia la otra vía del tren. Sin embargo, este es un software beta y los resultados son impresionantes.

La difusión de vídeo estable es solo el comienzo

Independientemente de lo que pueda pensar sobre lo impresionante que es esta tecnología, es sólo el comienzo. Este es el primer modelo de código abierto que la gente, sin duda, desmantelará, mejorará y posiblemente utilizará sin preocuparse por la ética. El futuro de los medios en línea está en peligro, en gran parte gracias a los videos e imágenes de IA, y a medida que mejoran y Mejor aún, hay implicaciones de largo alcance que abrirán múltiples versiones de la caja de Pandora en los próximos meses. y años.

Como científico informático, la tecnología es tan increíblemente impresionante que deja atónita a la mente, y el rápido crecimiento del panorama de la IA generativa es muy, muy impresionante. Sin embargo, como un persona, esta tecnología me aterroriza.