¿Se convertirá la videografía de campo claro en el nuevo estándar de video de vanguardia en la industria del cine (tan pronto como las capacidades de almacenamiento de datos crezcan lo suficiente para satisfacer las futuras demandas de almacenamiento)?

La videografía de campo de luz no será un gran avance durante bastante tiempo. Parte del problema es el sensor. El otro son los estándares de la industria para la cinematografía.

Para disparar con un equivalente de un sensor de 11MP, obtienes una imagen de video de 3MP. Y con las tasas de transferencia de datos como un cuello de botella, actualmente solo obtienen 10 fps.

Para grabar videos en 4K, efectivamente necesita tener un sensor de 1,600 megapíxeles que alcanza una velocidad de transferencia de datos cuatro veces mayor que cualquier tecnología utilizada en el cine hoy en día. El costo de tal sistema simplemente no justifica las ventajas que tiene en el procesamiento posterior.

Actualmente, la profundidad de campo para una imagen se establece ajustando la iluminación y la ISO. Parece contra-intuitivo, ¿no es así? Esto se debe a que la velocidad del obturador se fija para mantener los 24 o 30 fps sin que se produzcan movimientos bruscos. Por lo tanto, la selección de apertura debe coincidir con el nivel de iluminación para obtener una exposición adecuada. Muy brillante significa una apertura apretada, lo que significa una amplia área de profundidad de campo. La iluminación baja significa DOF apretado.

Debido a que no todas las escenas necesitan un DOF súper ajustado o “todo en foco” desde una apertura pequeña, hay cierto margen de maniobra si existen límites sobre qué tipo de iluminación puede organizar para una escena. Puede ajustar la apertura, sacrificando un DOF “ideal”, para obtener la exposición correcta para la iluminación que puede administrar. Muy importante para tomas al aire libre.

LFP no tiene tal flexibilidad. Ya no tienes una abertura. Ahora debe controlar la iluminación o sus imágenes estarán sub / sobre expuestas. O debe controlar la velocidad de obturación (como lo hacen las cámaras Lytro), en lugar de utilizar una velocidad de obturación fija. Décadas de experiencia muestran que esto produce movimientos bruscos u otros efectos indeseables.

Los detalles de la pregunta también hacen algunas afirmaciones de que esta tecnología no es compatible. No se puede cambiar la iluminación después del hecho, incluso con LFP. Tampoco se puede convertir fácilmente una toma de cámara a 3D estereoscópico porque eso requiere dos puntos de vista separados por aproximadamente cinco pulgadas. Tampoco esta tecnología es un reemplazo para Bullet Time. De hecho, los problemas de la velocidad de transferencia de datos se complican cuando aumenta la velocidad de cuadros, por lo que incluso 48 fps está fuera de alcance. Disparar la acción a cámara lenta nunca va a suceder.

Grandes respuestas. Voy a añadir un poco de pensamiento personal de cielo azul …

Las imágenes computacionales evolucionarán hasta el punto en que sean posibles las resoluciones, cuadros y respuesta de exposición apropiados. A medida que eso suceda, el papel del director de fotografía cambiará dramáticamente.

Piénsalo, ¿cuál es el propósito de una lente? Su único objetivo es filtrar un espectro de luz, un campo de visión y una percepción de profundidad (enfoque) hasta un rango lo suficientemente estrecho como para ser grabado en un medio de captura. Si la película o CMOS / CCD / Foveon / TechnologyX pudieran grabar los espectros de luz disponibles con precisión y un campo de visión de 180 grados, bueno … entonces realmente no necesitaríamos lentes.

Y en ese punto, la exposición, el campo de visión, el enfoque crítico, todas las cosas por las que se preocupan los actuales DoP y los directores, se volverían discutibles. Todo está siendo capturado, y esas decisiones se convierten en un proceso de software posterior al hecho.

Ya ha pasado con varias áreas de convergencia tecnológica en la producción. Toma “color”, por ejemplo. Antes, el equipo creativo elegía una película y pintaba la escena para que coincidiera con el rango de exposición y la colorimetría conocidos de esa película. Una vez que la película estuvo expuesta, la cantidad de opciones de color en el proceso de IP / IN fue muy limitada.

Pero con las cámaras digitales modernas de alta resolución (RED EPIC, Arri Alexa, Sony F65 / 55, etc.) el color es una cosa muy fluida y se ha convertido en gran parte en una metadata y en la manipulación del software, ya sea en el set o “cerca del set”. Muy poco está cocido, y las opciones de manipulación posterior son tremendas. Hay un segmento bastante grande de la industria de postproducción que existe en este momento que ha evolucionado alrededor de ese concepto.

El enfoque, el campo de visión y la profundidad son las próximas víctimas de la tecnología. Un sensor plenóptico de alta calidad conectado a un dispositivo teórico capaz de procesar / almacenar toda esa información solo debe protegerse del polvo, la suciedad y otras intrusiones físicas. No se necesita lente, ¡porque no es necesario filtrar los espectros o el campo de visión!

Y esa cámara computacional teórica del futuro, ya sea plenóptica o alguna otra tecnología, también es un dispositivo ideal para imágenes estéreo u holográficas. Pero para que sea útil, la tecnología de proyección y visualización también debe avanzar rápidamente.

… mi $ .02 desde el infinito y más allá.

En realidad es una pregunta bastante fascinante. Hasta ahora, la fotografía de campo de luz no ha demostrado su utilidad más allá de la fase de truco: permitir la selección del punto focal en una imagen fija básicamente significa que puedes diferir una de las muchas opciones que tomas al tomar una fotografía hasta más tarde. La artificialidad de la mayoría de las imágenes LF que encontrará (poniendo un sujeto en primer plano extremo y otro en segundo plano) enfatiza las limitaciones de las fotografías con este método.

Sin embargo, la combinación de este método con la recopilación de imágenes desde múltiples puntos de vista y (lo más importante) el software para seleccionar, combinar, interpolar y sintonizar la selección de imágenes es algo más. Esto va un poco más allá de la “simple” grabación de campo de luz, que consiste esencialmente en capturar el patrón de luz que ingresa a una lente sin tener en cuenta el punto focal, para intentar capturar toda la escena , casi como si fuera un Dios. Para reconstruir casi cualquier punto de vista después del hecho. Imagina algo como esta imagen de resolución casi ilimitada de Mt. Everest, pero desde un conjunto o ubicación de la película con control total de las distancias focales y desde cualquier ángulo (dentro de un rango determinado por el número de cámaras utilizadas). En este caso, el cineasta podría potencialmente tener acceso al “campo de luz” real, datos reales que representan la forma en que se comportaban todos los fotones en cada instante filmado. La mejor analogía que se me ocurre es la forma en que se almacenan las animaciones al estilo de Pixar, no solo (como) la animación final, sino como las acciones y ubicaciones reales de los personajes, la iluminación y otros objetos / fondos en el “espacio”. Se puede definir el ángulo de la “cámara” y crear una nueva representación de la escena.

Por supuesto, la cantidad de datos de los que estamos hablando es enorme. Un solo archivo de imagen Lytro para una imagen fija relativamente pequeña es de 16 MB, extrapolando esto a la resolución de la película, desde varias cámaras, a 24FPS o más, lo pone todo más allá de lo que es posible hoy en día, sin siquiera entrar en el poder de cómputo requerido para manipular y renderizar un producto final de tal configuración.

La tecnología es interesante pero no resuelve el desafío fundamental de elegir el mejor punto de vista.

Creo que la imagen computacional aún está en su infancia, por lo que es difícil determinar con precisión qué sucederá, pero estos son los factores que veo que funcionan a favor y en contra de la tecnología de campo de luz para películas comerciales.

1) Los directores y directores de fotografía a lo largo de los años han llegado a utilizar el enfoque como una forma de contar la historia. Son deliberados acerca de lo que creen que debes mirar cuando miras. Por lo general, lo saben de antemano o desarrollan la idea mientras disparan. LFP les permite hacer algunas elecciones más tarde, pero me imagino que ofrece el potencial de corregir en lugar de crear.

2) Alineado con el primero es que en una escena también quieres evitar algunas cosas. Las revisiones recientes de la nueva película de Hobbit mencionan casos en los que los problemas con el fondo y el maquillaje se han vuelto más visibles y distraídos. LFP no puede construir detalles donde no hay ninguno (la condición del telón de fondo) y puede exponer otros trucos comúnmente utilizados para crear una apariencia particular. En el lado positivo, también ofrece la posibilidad de corregir estos problemas después del hecho, ofreciendo vistas alternativas.

3) En última instancia, solo se proyecta un punto de vista de todos modos. No puedes tener a varias personas en la misma audiencia, teniendo en cuenta que lo mismo tiene la capacidad de elegir en qué enfocarte, por lo que al final solo la visión del creador se aplica de todos modos. Esta tecnología le da al creador más opciones, pero no ofrece mucho al consumidor.

Esta tecnología resuelve algunos problemas y crea algunas capacidades nuevas, pero creo que son de segundo orden en la naturaleza, por lo que contarán como evolución en lugar de avance.

Creo que el potencial es mayor en otras áreas como la presentación de informes o el video doméstico, donde a menudo hay menos deliberación sobre el punto de vista y, a menudo, no hay una comprensión preconcebida de qué punto de vista es, de todos modos. Aquí el reto será sobre la elección. Los reporteros se benefician porque pueden elegir rápidamente después de una edición rápida, pero la mayoría de los videos caseros no tienen edición, de modo que ¿quién tomará la decisión de elegir qué presentar?

Con suficiente poder de cómputo e información sobre lo que el espectador está mirando en la pantalla, podría usar sensores de posición de ojo y cómputo para determinar qué enfoque desea el espectador y ofrecer una experiencia muy envolvente. Creo que este es el espacio donde puede ser revolucionario y hacer que la visualización sea mucho más parecida a nuestro proceso natural. Todavía necesitamos algunas otras tecnologías complementarias para desarrollar para hacer esto posible.

En cualquier caso, no creo que el almacenamiento sea el problema clave. La resolución de la cámara y la potencia computacional son las áreas críticas para trabajar. Y los avances en el poder computacional pueden permitir que tecnologías alternativas se desarrollen y compitan con esto.

Estoy entusiasmado con el futuro de la imagen computacional. Pero creo que todavía somos muy tempranos en el juego para llamar ganadores y perdedores. Será interesante observar los cambios en la forma en que se hacen las películas y también en cómo se consumen.

Esto puede ser un poco fuera de tema, pero creo que con los avances adecuados en la potencia de procesamiento portátil, se podría crear un medio de entretenimiento completamente nuevo a partir de esta tecnología …

Piénsalo como en los libros de “elige tu propia aventura” pero en forma de video. El espectador, con un par de gafas o gafas de protección adecuadas, podría elegir las partes de la escena en las que centrarse y la historia seguiría sus preferencias. Obviamente, las posibles historias tendrían que ser finitas (¿verdad?) … pero podrían hacer que la experiencia de la “película” sea más dinámica y duradera (como las misiones secundarias en los videojuegos).

O la tecnología podría llevar a una experiencia de video totalmente envolvente en la que un usuario podría ingresar virtualmente a la escena y verla desde cualquier ángulo.

No sé … un poco por ahí, pero creo que definitivamente es una avenida muy interesante para bajar. Quiero decir, el Microsoft Kinect ya es bastante bueno en la detección de movimientos sutiles, simplemente ponga esa tecnología en un par de lentes y haga que rastree a los alumnos del espectador … podría funcionar. Puedo soñar de todos modos …

Para agregar a las respuestas existentes y bien pensadas, sugeriría que la fotografía de campo de luz tendrá su primer impacto en el cine como un medio para adquirir datos útiles en lugar de una cámara principal. Para los cineastas experimentados que pueden elegir el enfoque o agregar un estéreo después de que el hecho sea menos importante que otros usos, se puede utilizar una cámara de campo de luz, como ayudar en el seguimiento del movimiento, la profundidad de grabación, las aplicaciones de fotogrametría y proporcionar una referencia útil de iluminación y Establecer condiciones para efectos visuales. Yo predigo que las cámaras de campo claro serán muy útiles como herramientas, pero que estamos muy lejos de tomar imágenes primarias con una cámara de este tipo.