banner
Centro de Noticias
Gran experiencia en ventas y fabricación.

DigiPro23: contado en imágenes

Apr 30, 2024

DigiPro una vez más ofreció un conjunto excepcional de charlas, centradas en la producción, a un grupo senior y muy talentoso de 400 TD, profesionales de producción y supervisores de VFX. Fxguide ha estado cubriendo DgiPro desde el primer evento celebrado en Dreamworks en 2012, y desde entonces también hemos sido fotógrafos oficiales del evento. A continuación presentamos una selección de imágenes del evento de este año.

Kelsey Hurley (Disney) y Valérie Bernard (Animal Logic), como copresidentas del Simposio de este año, hicieron un gran trabajo al iniciar el día y dar la bienvenida a tanta gente después de COVID.

Los copresidentes del programa, Per Christensen y Cyrus A. Wilson, organizaron un brillante día de charlas.

Casi todas las charlas fueron en vivo y muy bien presentadas, brindando una gran cantidad de información sobre la producción; a continuación se presentan algunos aspectos destacados del día.

Marlon brindó uno de los verdaderos momentos destacados del día, la perspectiva personal de un animador sobre el papel de la tecnología a medida que avanza hacia la animación tradicional en Disney. Marlon se unió a Disney por primera vez para trabajar en el Rey León original y trazó la introducción de la tecnología desde entonces hasta hoy. Lejos de ser una árida conferencia técnica, sus atractivos y personales relatos de cómo varias películas abordaron problemas con cada vez más CGI fueron quizás la charla más entretenida del día. Hablando con franqueza y con genuino entusiasmo, Marlon reflexionó sobre las enormes tradiciones de la animación de Disney y destacó respetuosamente las habilidades tanto de los animadores como de los equipos técnicos que innovan constantemente en Disney.

Esta charla brindó una visión integral de la tecnología innovadora y los flujos de trabajo desarrollados para Avatar: The Way of Water. Joe Letteri, ganador de múltiples premios Oscar, cubrió el enfoque de Wētā en materia de I+D y producción de tomas reales; y cómo los equipos se unieron para desarrollar un canal fundamentalmente nuevo para el programa. La charla incluyó cómo Wētā integró sistemas de inteligencia artificial en los flujos de trabajo de sus artistas sin sacrificar el control total del artista. Se incluyó una descripción general de las innovaciones en el set, incluidos nuevos sistemas de captura y el flujo de trabajo de composición de profundidad impulsado por redes neuronales, así como el nuevo sistema facial (APFS) de Wētā y el solucionador integrado multifísico Loki.

Joe Letteri es una de las figuras más influyentes de la industria, pero tiene una manera maravillosamente inclusiva de hablar ante una audiencia profesional. En lugar de "mostrar" las increíbles innovaciones de Avatar 2, su presentación es la de alguien que comparte conocimientos con su comunidad y lo hace sin siquiera despreciar a la audiencia.

Además de una gran charla sobre computación en la nube en Wētā FX', en la sesión de la tarde hubo otra presentación de Wētā sobre Avatar2: – Pahi, el conjunto de herramientas y tubería de agua unificada de Wētā FX. Esta sesión se centró sólo en un subconjunto de los temas que Joe había cubierto en la sesión anterior, pero con mucho más detalle. Pahi permite la visualización de bloqueos de procedimientos para la preproducción, la simulación de diversos fenómenos acuáticos, desde salpicaduras a gran escala con rocío y neblina en el aire, burbujas y espuma bajo el agua hasta ondulaciones, películas delgadas y goteos a pequeña escala, y un sistema de composición para combinar diferentes elementos para representación. En lugar de prescribir una solución única para todos, Pahi abarca una serie de técnicas de vanguardia, desde solucionadores de referencia de nivel de ingeniería hasta herramientas altamente dirigibles.

Nicholas Illingworth, supervisor de efectos de Wētā FX, fue uno de los oradores de la segunda sesión de Avatar. Fxguide habló con él después del evento para obtener una breve descripción general del flujo de trabajo para tomas submarinas. La mayor parte de su charla en DigiPro se centró en las interacciones de la superficie con el agua, como la rotura de la superficie, el rocío, las olas y la interacción dinámica.

Simulación submarina

“Para el equipo de FX, a menos que estuviéramos entrando o saliendo del agua, tradicionalmente no haríamos una solución para el volumen de agua. Lo que podríamos hacer es crear un producto al que nos referimos como 'paquete physEnv'”. explicó Nicholas Illingworth. Esto se derivó en gran medida de las olas oceánicas procesales (FFT). Esto tiene información útil como la velocidad del viento, la dirección y el movimiento de la velocidad orbital de las ondas dadas, con cierta caída de profundidad. "Esto fue muy útil para nuestro equipo de criaturas, para sus músculos, telas de piel y cabello". La producción filmó extensas imágenes en las Bahamas, algunas de las cuales incluían actores bajo el agua siendo impulsados ​​a altas velocidades. “A Jim (Dir. James Cameron) le encantaron las ondulaciones en la piel/fascia, y esta era una característica que solicitaba en las rápidas tomas bajo el agua. “La densidad del agua era en gran medida uniforme, 1000 kg/m^3, y el equipo no realizó cambios en aspectos como la salinidad o la temperatura, solo por simplicidad y para evitar complejidades matemáticas innecesarias. “Para las tomas en las que hicimos una solución de agua, en la superficie, etc., este paquete physEnv se usaría mediante movimiento para medir las líneas de los ojos en busca de ondas o salpicaduras, y el equipo de criaturas usaría esta solución para impulsar sus soluciones de cabello y vestuario. y en algunos casos, piel y rostro”. Para el paquete PhysEnv resuelto, agrega "este sería un SDF y un campo de velocidad para el equipo de Creatures y una representación geométrica para los equipos de animación".

Burbujas.

El equipo tenía varias formas diferentes de hacer burbujas, había pequeñas burbujas de piel que se adherían a los microdetalles de la cara, pero no era necesario. "resolverse", ya que en gran medida se presentaron casos. "Si estuviéramos simulando burbujas de héroes, exhalación, ese tipo de cosas, resolveríamos el agua alrededor de las burbujas para obtener un arrastre/presión precisos, etc.", explicó. “Pequeñas burbujas difusas, digamos una de nuestras criaturas parecidas a ballenas o Tulkun, rompieron la superficie y arrastraron una gran cantidad de aire, resolveríamos un volumen de agua bastante profundo para poder capturar los pequeños detalles, vórtices, etc. que luego podrían impulsar nuestro Sims de burbujas difusas”. Nicholas señala que el equipo nunca se refirió a las criaturas como ballenas “o Jim se enojaría”.

Representación

El equipo de Weta renderizaría un volumen de agua normalmente con un IOR de 1,33; esto podría cambiarse de vez en cuando, pero no muy a menudo. Había controles para cosas como la turbidez, de modo que podían marcar esa dependencia si se trataba de una toma en alta mar o algo en un arrecife poco profundo. "El volumen de agua en sí era homogéneo y obteníamos una ruptura de textura ya sea en el paso de iluminación o con algunos trucos de composición, como ruido profundo, para ayudar a obtener cierta variación espacial". Los renders de belleza de los personajes se renderizaron con este volumen de agua, junto con las ondas oceánicas procesales/FFT que ayudaron en comparación con algunas de las tomas secas y húmedas, que podrían tener un gran componente especular en las luces de la piel/ojos que uno no esperaría. para ver bajo el agua. “Las cáusticas fueron de gran ayuda para vender la dirección del viaje y el movimiento, junto con los gobos de nubes utilizados en iluminación, para ayudar a tener cierta variación espacial en los grupos de luz y oscuridad. La biomasa y los peces pequeños también ayudarían a dar una sensación de escala y desplazamiento”.

Carrete Water FX 2023 de Alexey Stomakhin en Vimeo.

Alpha Matting espectralmente multiplexado (con recoloración por IA)

Dmitriy Smirnov, científico investigador, presentó Netflix Magenta Green Screen, una herramienta innovadora para crear composiciones y mates de pantalla verde reales para posibles aplicaciones de datos de entrenamiento.

Consulte nuestra próxima historia de fxguide 'Datos sintéticos' para obtener más información sobre este nuevo enfoque único.

La producción virtual de volumen LED presenta su propio conjunto único de desafíos que difieren de las aplicaciones típicas de renderizado en tiempo real. ILM StageCraft es un conjunto de herramientas de producción virtual que incorpora potentes sistemas disponibles en el mercado, como Unreal, con soluciones patentadas.

Para cumplir con los exigentes requisitos de la temporada 2 de The Mandalorian y posteriores, Industrial Light & Magic (ILM) desarrolló y mejoró la tecnología patentada en StageCraft 2.0, incluido un nuevo motor de renderizado en tiempo real, Helios, y una colección de herramientas interactivas.

Jeroen Schulte y Stephen Hill presentaron una descripción general muy entretenida e informativa de Stagecraft desde la versión 1 original, utilizando un UE 4.20 modificado en 2018, hasta la actualidad. Hablar sobre la compatibilidad con Helios y Helios 2.0 mediante el trazado de rayos acelerado por GPU Vulcan, como el que utilizó el equipo en Obi-Wan Kenobi. Este fue el primer espectáculo que utilizó únicamente Helios2 junto con las herramientas CC avanzadas de Stagecraft, mayor rendimiento y sombras y reflejos con trazado de rayos.

La geometría debajo del capó de Helios funciona con el sistema LOD de activos de héroe de ILM, lo que hace que el circuito sea muy estrecho desde la producción hasta los activos en tiempo real y viceversa.

El equipo también discutió la forma en que los fondos son de primera clase en el sistema ILM, discutiendo su tubería de Nuke a Helios en Zeno. De verdadero interés fueron los avances en tomas de neblina o medios participantes. – basado en el sistema desarrollado para el proyecto de realidad virtual CARNE y ARENA y más recientemente en la temporada 2 de The Mandalorian. Stagecraft ha trabajado duro para que la neblina en pantalla coincida en el volumen de la neblina, e incluso trabajando con volúmenes de corrección de color 3D.

Y …

Simulación submarinaBurbujas.RepresentaciónY …