Nadie confundió temprano, pero lo que sobresaltó a los cineastas son estas imágenes semiprofesionales y cuasi-ligeras introdujeron un escenario del día del juicio final: los estudios utilizarán esta tecnología que evoluciona rápidamente para reemplazarlas.
Es un, con la notable excepción de aquellos cineastas que son los primeros en adoptar las herramientas generativas de inteligencia artificial.
En las últimas tres semanas, hablé con docenas de creativos de cine y televisión que utilizan programas de software basados en IA como Midjourney, Adobe Firefly, Runway y Difusión estable. Están entusiasmados con las herramientas y sus aplicaciones, pero también ven sus limitaciones masivas e inherentes.
"Es un momento tenso porque el mensaje que está afuera no está siendo dirigido por los creadores", dijo la productora Diana Williams. Una ex ejecutiva de Lucasfilm que ahora es CEO y cofundadora de Kinetic Energy Entertainment, habló en el panel de 2024 SXSW "" (puede escuchar el audio en el enlace). "Realmente está siendo dirigido por los negocios y las empresas de propiedad pública".
Algunos cineastas que están más familiarizados con el poder de la generación de imágenes de IA ven la tecnología como otra interrupción que altera el flujo de trabajo de cómo los humanos crean películas.
"Cada cinco años a casi cada década, surge algo nuevo", dijo Julien Brami, director creativo y supervisor de VFX en Zoic Studios, quien habló en el panel con Williams. Encontró interrupciones comparables a la narración de imágenes de imagen con la introducción de tecnología digital, computadoras, creación de personajes de CG, un cambio de 2-D a VR y la producción virtual más recientemente.
Repitiendo un sentimiento familiar, Brami dijo que el hilo común con cada interrupción tecnológica es que los cineastas adoptan estas herramientas para contar historias. "Empecé a entender[con ai]que una computadora puede ayudarme a crear mucho más rápido, iterar más rápido y llegar más rápido ”, dijo.
Velocidad. Eso es lo que escuchas, una y otra vez, como el beneficio real de las imágenes de la generación AI. Al eliminar la fricción de las tareas que requieren mucho tiempo y la traducción colaborativa falla, permite que una idea se mueva rápidamente de la cabeza de una creatividad a algo que otros pueden ver.
Sin embargo, pocos ven un camino viable para el video de Gen AI para llegar a las películas que vemos. En mis notas de las últimas semanas_"Nunca usaría IA en mi proyecto final"_Aparece 15 veces a partir de conversaciones con animadores, artistas de efectos visuales, supervisores de postproducción y producción virtual y cineastas que usan herramientas generativas de IA. Estos intercambios generalmente están en segundo plano, ya que el uso de AI es actualmente el equivalente a aparecer en el set en un sombrero maga.
Los obstáculos logísticos y de flujo de trabajo hacen que la incorporación del video de Gen Ai en las películas comerciales parezca insuperable. Primero entre ellos es los derechos de autor ya que, si algo es generado por AI, no puede tener derechos de autor.
https://www.youtube.com/watch?v=SDwhnB-7XTc
La "cabeza de aire" de los niños tímidos, hecho con Sora
La generación AI también carece de la capacidad de crear y repetir constantemente una imagen de una escena en escena, especialmente cuando tienen caras. Vale la pena señalar que la cosecha más reciente de pantalones cortos Sora incluyó la "cabeza de aire" de los niños tímidos, que crea una historia y tiene un personaje razonablemente consistente que se mueve por el espacio, pero esquiva el problema de la cara por completo al darle al personaje principal la cabeza de un globo amarillo.
También hay una completa falta de fe en los planes de negocios para todo este software financiado por VC. Nadie quiere confiar en productos que puedan pivotar sus modelos de precios, si no los productos mismos. No es una pregunta que alguien quiere filmar durante los 18-24 meses de hacer una película o programa de televisión importante.
Incluso si estos obstáculos pudieran ser superados, queda una división más fundamental: el extraño valle. Ahí es donde creen estos artistas y artesanos, las imágenes de IA siempre se quedan cortas.
"Cuando[Como usted]Explotó el año pasado, la gente me mostraba arte y seguía diciendo: "No veo un alma. Los ojos están muertos ", dijo Williams. "La gente tira esa frase con tanta frecuencia," Valle extraño ", y desafío a la gente a definirla. Todos lo usamos porque es indefinible: lo sabemos cuando lo vemos. No podemos identificar, no podemos decir: "Hacer X, Y, Z es igual al alma humana". Simplemente no funciona. Es por eso que creo que el resultado final, lo que queremos poner en el mundo para una audiencia, siempre tendrá el toque humano físico ".
Las películas son sobre emoción y no pude encontrar a nadie que vea un futuro en el que un aviso crea imágenes que conectan a un espectador con las emociones de un personaje. Es otra razón por la cual Gen Ai es vista como una herramienta poderosa para el comienzo del proceso creativo, no como el producto final.
Para Davide Bianca, cofundador de Content Studio cambiando las mareas, la frustración con el proceso de lanzamiento lo motivó a probar primero la IA.
“En el transcurso de los últimos 20 años,[He visto]Grandes proyectos y conceptos y IP mueren una muerte miserable en el piso de una reunión del equipo ejecutivo, solo porque la persona en toda la habitación realmente no tiene la capacidad creativa para visualizar lo que es ", dijo.
Bianca compartió un teaser para un mundo de ciencia ficción de gran presupuesto que imagina. Creó este chisporroteo de "disparo cero" con una fecha límite autoimpuesta de 40 horas para crearlo por sí mismo, utilizando guiones gráficos de lápiz y bolígrafo, herramientas Gen AI como Gen-2 por Runway y Midjourney 5.2, y software más tradicional como Photoshop, Davinci Resolve y After Effects.
"Realmente quería ver hasta dónde podía llevar la apariencia de tipo éxito de taquilla, por lo que al darme un período de tiempo autoimpuesto: tenía como 30, 40, 50 horas desde la ideación hasta el chisporroteo final, quería ver si podía transmitir esa sensación de lo que tenía en mi cabeza", dijo Bianca.
Sin embargo, al igual que crear un libro de apariencia para un próximo proyecto está muy lejos de crear el evento real, enfatizó que el teaser de un minuto está destinado a ser un ejercicio de mirada y sensación, no una película. "Creo[Ayuda]Tener algo tangible como este para mostrar en una reunión, para ver si hay suficiente interés en Greenlight un proyecto ", dijo.
El dinero, las horas y los colaboradores Bianca necesitarían crear este lanzamiento sin Gen AI lo harían imposible. Más allá del lanzamiento, también les da a Bianca y Brami la capacidad de probar, iterar y ponerse rápidamente en la misma página con los financiadores y otros cineastas.
Los artistas de VFX con los que hablé me encantó hablar sobre cómo usar herramientas de IA les permitirá evitar pasar dos meses construyendo algo, solo para descubrir que no es lo que el director quería. Y luego, según Williams, una vez que todos están en la misma página: "Fue entonces cuando reunimos al equipo y aplicamos nuestro oficio de cine para hacerlo de verdad".