cine

La tecnología de IA al servicio del cine

Runway, una empresa emergente de IA (Inteligencia Artificial), ha presentado Gen-1. Este es un producto que utiliza una red neuronal para crear nuevos vídeos a partir de los ya existentes. Este modelo combina tanto indicaciones como imágenes para transformar los vídeos existentes en algo nuevo. Incluso promete revolucionar la industria de los largometrajes.

Hasta ahora, las redes neuronales se habían utilizado principalmente para la transferencia de estilos. Esto implica aplicar el lenguaje visual de una imagen a otra, dando lugar a vídeos fascinantes.

¿Quieres conocer más al respecto? Este avance promete revolucionar la forma en que se producen largometrajes.

Runway: la creadora de la tecnología que promete revolucionar los largometrajes

Esta empresa emergente de inteligencia artificial fue fundada en 2018 por Cristóbal Valenzuela, un desarrollador y diseñador de experiencias creativas. La compañía se especializa en proporcionar herramientas de edición de vídeo impulsadas por inteligencia artificial para creativos, artistas y diseñadores. A partir de tecnologías de aprendizaje profundo, su plataforma Gen-1 permite transformar la experiencia de crear vídeo de forma instantánea.

La plataforma ha sido utilizada por empresas líderes en el campo de la creatividad, como Google Creative Lab y Adobe. También se ha utilizado en la producción de vídeos para películas y televisión, publicidad, animación y largometrajes.

¿Qué es Gen-1?

Los modelos de difusión son un tipo de modelo generativo guiados por textos. En la actualidad son considerados una herramienta sólida para la creación y edición de imágenes estáticas. Pero ahora se están aplicando en la creación de vídeos.

Los desarrolladores han creado un modelo de vídeo guiado por la estructura y el contenido que altera los largometrajes creados. Esta acción se ejecuta a partir de descripciones escritas o visuales del resultado deseado.

Esta herramienta permite sintetizar los vídeos de manera realista y consistente. Así, puedes aplicar la composición y el estilo que desees, sin necesidad de grabar algo nuevo.

Así fue su origen

Durante 2021, la empresa Runway trabajó junto a investigadores de la Universidad de Munich, en Alemania, para crear la primera versión de Stable Diffusion. En el proceso, la startup Stability AI, con sede en el Reino Unido, contribuyó a pagar los costos informáticos para entrenar el modelo con más datos. En 2022, Stability AI amplió el alcance de Stable Diffusion, convirtiéndolo en un fenómeno mundial a partir del proyecto inicial.

largometrajes
Imagen de Brand Factory.

¿Cómo funciona Gen-1?

La inspiración detrás de Stable Diffusion provino de otros generadores de imágenes como Midjourney o DALL-E, pero ahora se convierten en líderes en este campo. A través de una demostración en el sitio web de Runway, se puede ver que su software puede transformar clips en verdadero arte en movimiento.

Ahora, desde el punto de vista funcional, Gen-1 se ejecuta en la nube y solo está disponible a manera de prueba para usuarios seleccionados. La intención de Valenzuela, su CEO, es poner la herramienta en manos de profesionales creativos para producir largometrajes completos que se puedan ver en línea.

Gen-1 tendrá cinco posibles usos:

  • Estilización: Proceso de aplicar el estilo de una imagen a un vídeo.
  • Guion gráfico: Transformación de maquetas en renders animados y estilizados.
  • Máscara: Capacidad de transformar elementos de un vídeo mediante prompts sencillos.
  • Renderizado: Adición de texturas y efectos a renders que carecen de ellos.
  • Personalización: Adaptación del modelo para generar resultados más complejos y personalizados.

Otras compañías que persiguen el sueño de crear largometrajes con IA

Antes, o casi al mismo tiempo que Gen-1, tuvieron su aparición varios modelos de generación de vídeo. Entre los que más se destacan se cuentan Make-a-Video de Meta y los dos desarrollos de Google, Dreamix y Phenaki.

Sin embargo, es Runway quien lleva la ventaja en la carrera al crear largometrajes. Su gran aporte, es su enfoque hacia los usuarios y la utilización del conocimiento de expertos en efectos visuales. Es sin lugar a duda una herramienta que está concentrando el conocimiento que atesora lo mejor del mundo del cine.

En conclusión, la tecnología Gen-1 promete revolucionar el panorama audiovisual en un futuro cercano. Gracias a su capacidad de generar contenido visual hiperrealista y personalizable, tiene el potencial de democratizar la producción de películas. Asimismo, de reducir los costos asociados con la producción de efectos visuales. Esto puede permitir que cineastas emergentes y creativos independientes puedan crear largometrajes con un nivel de calidad visual, algo que considera reservado solo para grandes estudios.

Imagen de Brand Factory.

RELACIONADOS

ChatGPT asistente de voz

Cómo usar la voz de Papa Noel en ChatGPT

Durante la temporada navideña, muchas compañías optar por hacer un guiño especial en algunos de sus servicios o plataformas. Google, por ejemplo, activa un...