Just another WordPress.com site

Archivo para agosto, 2010

Links2

Anuncios

manual- f900

F900 Manual


Links1

http://vimeo.com/groups/eos7d

http://vimeo.com/groups/8432


hd magazine

http://www.definitionmagazine.com/


Raoul Coutard

//

Raoul Coutard

From Wikipedia, the free encyclopedia

Jump to: navigation, search

Raoul Coutard (born 16 September 1924, Paris) is a French cinematographer. He is most often associated with the nouvelle vague period and particularly for his work with director Jean-Luc Godard. Coutard also shot films for New Wave director François Truffaut as well as Jacques Demy, a contemporary frequently associated with the movement.

He shot over 75 films during a career that lasted nearly half a century.

Contents

[hide]

//

[edit] Biography

Coutard originally planned to study chemistry, but switched to photography because of the cost of tuition.[1] In 1945, Coutard was sent to participate in the French Indochina War; he lived in Vietnam for the next 11 years, working as a war photographer, eventually becoming a freelancer for Paris Match and Look. In 1956, he was approached to shoot a film by Pierre Schoendoerffer, La Passe du Diable. Coutard had never used a movie camera before, and reportedly agreed to the job because of a misunderstanding (he believed he was being hired to shoot production stills of the film).

[edit] Collaboration with Godard

Coutard’s first work collaboration with Jean-Luc Godard was Godard’s first feature, À bout de souffle, shot in 1959. He was reportedly “imposed” on Godard by producer Georges de Beauregard; the director had already settled on a different cinematographer.[1]

Coutard photographed nearly all of Godard’s work in the nouvelle vague era (1959 – 1967), with the exception of Masculin, féminin; their last work during this period was Le weekend (1967), which marked the end of Godard’s work as a ‘mainstream’ filmmaker. The two did not work together again until Passion; their final collaboration was Godard’s next feature, Prénom Carmen.

During the nouvelle vague period, Coutard’s work with Godard fell into two categories: black and white films, which were all shot full frame, and color films, which were all shot in widescreen. The black and white films, which were mostly made on lower budgets, are notable for their use of hand-held camera work and natural lighting, which lends them an unpolished quality. This “loose” style of shooting is what is most associated with the Godard-Coutard collaboration, because it does not appear in Godard’s collaborations with any other cinematographers. Though many of the color films, especially early ones like Une Femme est une femme (1961), feature handheld shooting, Godard’s increased use of color also saw an increased focus on immobile and tracking shots.

[edit] Post-nouvelle vague Career

After photographing some of the last films made during the nouvelle vague era – Le weekend for Godard and Truffaut’s The Bride Wore Black – Coutard worked on Costa-GavrasAcademy Award-winning Z (1969). [Coutard and Truffaut fought heavily over the cinematography of The Bride Wore Black, reported TCM host Robert Osborne after the cable network’s 2009 showing of the picture.]

In 1970, Coutard wrote and directed his first feature film, Hoa Binh, for which he won the Prix Jean Vigo and an award at the Cannes Film Festival. The film was also nominated for an Academy Award for Best Foreign Language Film. Coutard shot two more features over the course of the next fifteen years: La Légion saute sur Kolwezi[2] in 1980 and S.A.S. à San Salvador in 1983. Coutard’s cinematographer on all of his features was Georges Liron, who had been his frequent camera operator[3] during his collaboration with Godard and with whom he’d served as co-cinematographer on the Irish documentary Rocky Road to Dublin (1967).

As a cinematographer, Coutard was less active in 1970s than the 1960s. When he reunited with Godard in 1982, Coutard had shot only 7 films in a the last decade, with 5 of them in 1972-73.[4] After the two Godard collaborations, he began working more frequently again.

During the 1990s, Coutard began working with director Philippe Garrel; his most recent work is Garrell’s Sauvage Innocence, which was released 2001.

[edit] Selected filmography (as cinematographer)

[edit] Filmography (as director)


Henri Decaë

Henri Decaë

From Wikipedia, the free encyclopedia

Jump to: navigation, search

Henri Decaë (1915 – 1987) gained fame as a cinematographer entering the film industry as a sound engineer and sound editor. He was a photojournalist in the French army during World War II. After the war he began making documentary shorts, directing and photographing industrial and commercial films. In 1947 he made his first feature film.

Decaë is strongly associated with directors who strongly influenced, or were part of, the French New Wave. These include Jean-Pierre Melville, Louis Malle and Claude Chabrol. Decaë first worked as a cinematographer with Melville on Le Silence de la Mer (1949). Decaë also edited and mixed the sound. Although Decaë worked with Melville on Les enfants terribles, which as Williams commented (1992, p333) “…the work is more accurately to be viewed as a stunning demonstration of the cinematic possibilities of faithful literary adaptation in the hands of a gifted director”, according to Marie (p 88) it was his distinctive camera work on Bob le flambeur which caught the attention of the Cahiers critics. Malle hired him for his first two features and Chabrol for his first three features. They had been lucky as Decaë was finding it hard to get work at that time as he was being informally shunned by many after participating in a critical film about the Korean War. By the time Decaë worked for François Truffaut on The 400 Blows he came with a reputation, which meant that he was the highest-paid person on the film.

Decaë’s liking for natural light, his ability to work at speed as well as his excellent photographic sensibility led to him working with René Clément on several features beginning with Plein soleil (1960). It was Decaë “…who liberated the camera, from its fixed tripod. He made the New Wave possible, backing up Melville, Malle, Chabrol and Truffaut.” (Marie, 2003 p 89)

For bibliographical references see bibliography under Cinema of France.

[edit] Selected filmography

1949 to 1967. Mainly sourced from Internet Movie Database.

This filmography shows the close involvement of Decaë with New Wave directors prior to and after the 1958-1963 breaking of the wave. Also included are the films which he worked upon with René Clément, who had previously been chastised by Truffaut as being part of the ‘Tradition of Quality’.


EXPOSICIÓN JULIO 19 DE 2010

EXPOSICIÓN JULIO 19 DE 2010

Juan Carlos Rosero

PENDIENTES DE LA EXPOSICIÓN DE JULIO 12 DE 2010

¿Qué es el color?

El color es una percepción visual que se genera en el cerebro al interpretar las señales nerviosas que le envían los fotorreceptores de la retina del ojo y que a su vez interpretan y distinguen las distintas longitudes de onda que captan de la parte visible del espectro electromagnético.

Es un fenómeno físicoquímico asociado a las innumerables combinaciones de la luz, relacionado con las diferentes longitudes de onda en la zona visible del espectro electromagnético, que perciben las personas y animales a través de los órganos de la visión, como una sensación que nos permite diferenciar los objetos con mayor precisión.

Todo cuerpo iluminado absorbe una parte de las ondas electromagnéticas y refleja las restantes. Las ondas reflejadas son captadas por el ojo e interpretadas en el cerebro como colores según las longitudes de ondas correspondientes. El ojo humano sólo percibe las longitudes de onda cuando la iluminación es abundante. A diferentes longitudes de onda captadas en el ojo corresponden distintos colores en el cerebro.

Con poca luz se ve en blanco y negro. En la denominada síntesis aditiva (comúnmente llamada “superposición de colores luz” El color blanco resulta de la superposición de todos los colores, mientras que el negro es la ausencia de color. En la síntesis sustractiva (mezcla de pinturas, tintes, tintas y colorantes naturales para crear colores)El blanco solo se da bajo la ausencia de pigmentos y utilizando un soporte de ese color y El negro es resultado de la superposición de los colores Cian, magenta y amarillo.

La visión:

Es un sentido que consiste en la habilidad de detectar la luz y de interpretarla. La visión es propia de los animales teniendo éstos un sistema dedicado a ella llamado sistema visual. La primera parte del sistema visual se encarga de formar la imagen óptica del estímulo visual en la retina (sistema óptico), donde sus células son las responsables de procesar la información. Las primeras en intervenir son los fotorreceptores, los cuales capturan la luz que incide sobre ellos. Los hay de dos tipos: los conos y los bastones. Otras células de la retina se encargan de transformar dicha luz en impulsos electroquímicos y en transportarlos hasta el nervio óptico. Desde allí, se proyectan al cerebro. En el cerebro se realiza el proceso de formar los colores y reconstruir las distancias, movimientos y formas de los objetos observados.

Las células sensoriales de la retina reaccionan de forma distinta a la luz y a su longitud de onda. Los bastones se activan en la oscuridad, y sólo permiten distinguir el negro, el blanco y los distintos grises. Los conos sólo se activan cuando los niveles de iluminación son suficientemente elevados. Los conos captan radiaciones electromagnéticas, rayos de luz, que más tarde darán lugar a impresiones ópticas. Los conos son acumuladores de cuantos de luz, que transforman esta información en impulsos eléctricos del órgano de la vista. Hay tres clases de conos, cada uno de ellos posee un fotopigmento que sólo detecta unas longitudes de onda concretas, aproximadamente las longitudes de onda que transformadas en el cerebro se corresponden a los colores azul, rojo y verde. Los tres grupos de conos mezclados permiten formar el espectro completo de luz visible.

Esta actividad retiniana ya es cerebral, puesto que los fotorreceptores, aunque simples, son células neuronales. La información de los conos y bastones es procesada por otras células situadas inmediatamente a continuación y conectadas detrás de ellos (horizontales, bipolares, amacrinas y ganglionares). El procesamiento en estas células es el origen de dos dimensiones o canales de pares antagónicos cromáticos: ROJO -VERDE y AZUL – AMARILLO y de una dimensión acromática o canal de claroscuro. Dicho de otra manera, estas células se excitan o inhiben ante la mayor intensidad de la señal del ROJO frente al VERDE y del AZUL frente a la SUMA DE ROJO y VERDE, generando además un trayecto acromático de información relativa a la luminosidad.

La información de este procesamiento se traslada, a través del nervio óptico, a los núcleos geniculados laterales (situados a izquierda y derecha del tálamo), donde la actividad neuronal se específica respecto a la sugerencia del color y del claroscuro. Esta información precisa se transfiere al córtex visual por las vías denominadas radiaciones ópticas. La percepción del color es consecuencia de la actividad de las neuronas complejas del área de la corteza visual V4/V8, específica para el color. Esta actividad determina que las cualidades vivenciales de la visión del color puedan ser referidas mediante los atributos: luminosidad, tono y saturación.

Se denomina visión fotópica a la que tiene lugar con buenas condiciones de iluminación. Esta visión posibilita la correcta interpretación del color por el cerebro.

Muchos mamíferos de origen africano, como el ser humano, comparten estas características genéticas descritas: por eso se dice que tenemos percepción tricrómica. Sin embargo, los mamíferos de origen sudamericano únicamente tienen dos genes para la percepción del color. Existen pruebas que confirman que la aparición de este tercer gen fue debida a una mutación que duplicó uno de los dos originales.

El espectro electromagnético está constituido por todos los posibles niveles de energía de la luz. Hablar de energía es equivalente a hablar de longitud de onda; por ello, el espectro electromagnético abarca todas las longitudes de onda que la luz puede tener. De todo el espectro, la porción que el ser humano es capaz de percibir es muy pequeña en comparación con todas las existentes. Esta región, denominada espectro visible, comprende longitudes de onda desde los 380 nm hasta los 780 nm ( 1nm = 1 nanómetro = 0,000001 mm). La luz de cada una de estas longitudes de onda es percibida en el cerebro humano como un color diferente. Por eso, en la descomposición de la luz blanca en todas sus longitudes de onda, mediante un prisma o por la lluvia en el arco iris, el cerebro percibe todos los colores.

Color                          Longitud de onda

violeta ~ 380-450 nm

azul ~ 450-495 nm

verde ~ 495-570 nm

amarillo ~ 570–590 nm

naranja ~ 590–620 nm

rojo ~ 620–750 nm

http://es.wikipedia.org/wiki/Color

PROPUESTA HECHA EL 12 DE JULIO PARA LA EXPOSICIÓN DEL 19 DE JULIO:

Indicar las diferencias entre las distintas plataformas de corrección de color disponibles en el mercado.

DESARROLLO DE LA INVESTIGACIÓN

En una primera fase de investigación se cayó en cuenta rápidamente que en general las diferencias entre las distintas plataformas no está dada por las posibilidades de la herramienta, es decir, todas las plataformas ya sea basadas en hardware o software hacen esencialmente lo mismo, salvo diferencias mínimas en algunas aplicaciones. Como un alicate, todos hacen la misma acción de presión y palanca aunque algunos ofrecen otros servicios secundarios. Así como con el alicate, las diferencias entre una y otra plataforma de corrección de color no está en lo que hace sino en sus capacidades concretas, cuantas libras de presión puede aguantar el alicate, que rango de anchos de piezas es capaz de abrazar. Las capacidades en el caso de las plataformas de corrección de color está dado en términos del ancho de banda que soporta, la velocidad de transferencia con que es capaz de trabajar, los formatos que es capaz de recibir y manejar de manera dinámica. Y como en las piezas de precisión que sólo pueden ser operadas por herramientas especializadas, conviene utilizar las herramientas que recomienda el fabricante, el que conoce más que nadie su producto. Por eso a la hora de elegir una plataforma de corrección de color lo más recomendable es ajustarse a las recomendaciones del diseñador del formato que se va a usar. Por ejemplo RED recomienda que sus archivos de media REDCODE™ RAW (.R3D) se manipulen en dos fases, con FINAL CUT PRO y luego con ASSIMÍLATE SCRATCH. ARRI recomienda que sus archivos de media ARRIRAW se manipulen también con FINAL CUT PRO y luego con la plataforma NUCODA de DIGITAL VISION.

Otros formatos que son menos robustos y más populares pueden manipularse de manera adecuada con más plataformas, según las recomendaciones de sus diseñadores o según la especialización con que cada plataforma a abordado cada formato. Sólo se tomaran en cuenta las posibilidades de la herramienta cuando se quiera hacer alguna operación muy rebuscada que sólo se pueda resolver con una aplicación igualmente rebuscada que exista en una plataforma pero no en otra de las mismas especificaciones técnicas.

Sacadas estas conclusiones se decidió reorientar la investigación para analizar las posibilidades concretas que ofrece el mercado Colombiano y diseñar así el workflow que, según las recomendaciones del fabricante/diseñador, maximice las posibilidades de los formatos más robustos y populares disponibles, REDCODE™ RAW (.R3D) y ARRIRAW.

RED NATIVE EDITORIAL WORKFLOW

La cámara RED ONE genera audiovisuales de referencia en Quicktime que apuntan a archivos REDCODE™ RAW (.R3D) de resolución completa en 4K (o 2K). Esto permite la edición inmediata del material cuando se usa la última versión de Final Cut Pro.

Los archivos REDCODE™ RAW (.R3D) son codecs transformados de rata variable de bits que permite que resoluciones del sensor de hasta 4096 x 2304 se puedan comprimir lo suficiente para poder grabar de manera práctica en la cámara. Dos opciones se ofrecieron inicialmente con ratas máximas de 28 MB/s (224 megabits) y 36 MB/s (288 megabits), pero la cámara se actualizó recientemente para grabar con una opción adicional de grabación a una rata de datos de 42 MB/s (336 megabits). Comparados con los datos originales capturados por el sensor, estas ratas de bits representan ratas de compresión aproximadas a 12:1, 9:1 y 8:1 respectivamente.

Es necesario tener una version de FCP superior a 6.0.2 (ya existe el 7) corriendo bajo un sistema operativo superior a Mac OSX 10.4.11 Tiger (ya existe el Mac OSX 10.6 Snow Leopard) e instalar el codec REDCODE™ RAW de la página de RED.

Transferir el contenido entero de la tarjeta RED-FLASH o del RED-DRIVE  a otro disco para editar (Se recomienda una configuración RAID para mejor desempeño)

Importar la referencia Quicktime del audiovisual en un proyecto de FCP. Se pueden usar audiovisuales de referencia de 2K o 1K.

Seleccionar el ProRes HQ 1080p easy setup en el FCP para renderizar archivos y crear un medio renderizado HD con calidad para el online.

Finalizado en 2K o 4K DI Finish

Exportar el EDL (Edit Decisión List) de FCP a Assimilate Scratch, y sincronizar el EDL al original 4K (o 2K) media REDCODE™ RAW. Luego renderizar archivos DPX (Digital Picture Exchange, comúnmente usado para representar la densidad de cada canal de color de una imagen en un logaritmo no comprimido) o TIFF (Tagged Image File Format) en un espacio de color Logarítmico, lineal o REC709 para hacer empalme final de cuadros, corrección de color y terminado.

Usar REDCINE O RED ALERT (Se consigue en la página de RED) para exportar archivos DPX o TIFF a 2K o 4K, y después coincidir ese media al EDL para corrección de color y terminado en cualquier paquete de DI (software/hardware) que soporta archivos DPX o TIFF de 2K y/o 4K.

Las posibilidades que se tienen con la aparición del metalenguaje XML no aparecen en la página de recomendación del workflow de RED.

http://www.red.com/cameras/workflow/


Presentaciones Profe.

Bolex

HD TECHNOLOGY(2)

HD TECHNOLOGY

Alexa


VIPER FILM STREAM LDK-7500

VIPER FILM STREAM LDK-7500

Frame Transfer CCD:

Es un tipo especial de CCD. El funcionamiento de un CCD se divide en dos momentos principalmente: la lectura y almacenamiento de los fotones en sus celdas, y la transmisión de la información de cada uno de los pixeles. Mientras se transfiere la información, cada una de las celdas se desplaza hacia los extremos del sensor y mientras se desplazan siguen absorbiendo luz. De modo que si la velocidad de desplazamiento de las celdas no es lo suficientemente rápida puede haber luz que recae sobre una celda mientras está todavía transfiriendo la información. Este error se conoce como “smear vertical” causado por una fuente muy poderosa de luz, entonces se verá una fuerte de línea de luz arriba y abajo del punto exacto de la luz. Para evitar este problema se requiere de una velocidad mayor de desplazamiento de la información en el CCD, por lo tanto una velocidad mayor de lectura de la información, y esto puede crear problemas en la cantidad de información de cada celda, por ejemplo aumentar la señal de ruido electrónico.

El Frame Transfer CCD resuelve estos problemas. Este CCD tiene un área escondida que contiene tantas celdas como el CCD tenga en su área de exposición. Cuando el tiempo de exposición sobre el CCD ha acabado toda la información de las celdas se transfiere inmediatamente a esta área escondida de celdas y allí se hace la lectura de modo normal, respetando el tiempo de desplazamiento y lectura de cada celda. Este tipo de tecnología aumenta la posibilidad de mayor velocidad de transferencia y de obturación (fps)

Key Features

  • Captures raw data directly from CCDs
  • Unique 4:4:4 RGB Dual Link FilmStream output
  • Native 16:9 or 2.37:1 aspect ratios without resolution loss using Dynamic Pixel Management™ technology
  • Patented Frame Transfer (FT) CCD technology
  • Mechanical shutter guarantees no vertical smear
  • Multiple format support:
    • 1080p @ 23.98-, 24-, 25-, and 29.97 frames per second (fps)
    • 1080i @ 50 and 59.94 Hz
    • 720p @ 23.98-, 24-, 25-, 29.97-, 50-, and 59.94 fps
  • Electronic viewfinder focus assist tools: crawler and zoom

Specifications

FilmStream Camera VIPER – Model No. LDK 7500
General
Power DC 12V; 44W incl. 2″ viewfinder & FilmStream/HD Compact adapter
Temperature range Operating: -20°C to 40°C (-4°F to 104°F); Storage: -20°C to 60°C (-4°F to 140°F)
Weight 4.3 kg (9.6 lbs.) incl. 2″ viewfinder and FilmStream/CompactHD adapter
Dimensions 214 (H) x 125 (W) x 241 mm (L) with FilmStream/CompactHD adapter

Camera

Optical system F1.4 prism
Optical filter wheels 2x motorized wheels
Optical filters on first wheel Clear, 1/4 ND, 1/16 ND, 1/64 ND
Optical filters on second wheel Clear, four-point star, six-point star, soft focus
Pickup device 3 x 2/3″ 16:9 HD-DPM+ CCDs
Picture elements 9.2 million pixels 1920 (H) x 4320 (V) effective
Smear No vertical smear
Digital quantization 12-bit A/D
S/N ratio in Y signal 54 dB typical (video mode, 1080i/59.94)
Shutter Variable shutter 90° to 310°; electronic exposure down to 1/200s

Mode

HD Video – YCrCb HD Video – RGB HD Stream FilmStream
Video outputs Single HD SDI Dual HD SDI Single HD SDI Dual HD SDI
Video sampling 4:2:2 4:4:4 4:2:2 10-bit log 4:4:4 10-bit log
Video processing Full video processing >22 bits Full video processing >22 bits Limited processing (white balance only) Not active
Color balance for video outputs 3200K, 4700K, 5600K, 7200K, auto white 3200K, 4700K, 5600K, 7200K, auto white 3200K, 5600K, native (no correction) No correction
Color balance for viewing channel 3200K, 4700K, 5600K, 7200K, auto white 3200K, 4700K, 5600K, 7200K, auto white 3200K,5600K, native 3200K, 4700K, 5600K, 7200K, native
Aspect ratio 16:9 and 2.37:1 16:9 and 2.37:1 16:9 and 2.37:1 16:9 and 2.37:1
Sensitivity 2000 lux (186 ft. cd) at F9.0 (typical, 1080p24 video mode) 2000 lux (186 ft. cd) at F9.0 (typical, 1080p24 video mode) Effective ASA 320 in 16:9 and ASA 400 in 2.37:1 Effective ASA 320 in 16:9 and ASA 400 in 2.37:1
Gain -3 dB to 12 dB in 3 dB steps -3 dB to 12 dB in 3 dB steps -6 dB to +12 dB in 6 dB steps in the viewing channel -6 dB to +12 dB in 6 dB steps in the viewing channel
Temporal Frequencies
720p (with 2:3 frame repeat to give 50/59.94 Hz) 23.98 fps
720p (with 2x frame repeat to give 50/59.94 Hz) 25/29.97 fps
720p 50/59.94 fps
1080p (with 3:2 pull down to give 1080i 59.94 Hz) 23.98 fps
1080p (segmented frame output) 23.98/24/25/29.97 fps
1080i 50/59.94 Hz

Procesamiento de la señal:

La señal proveniente de cada uno de los tres CCD es convertida de análogo a digital por medio de convertidores de 12 bits, enviando de este modo una imagen en modo RGB que contiene toda la información de los pixeles capturados según un logaritmo de 10 bits (30 bits en total).El Logaritmo de 10 bits significa que la información de color se representa por 1024 valores de códigos, mucho más preciso que la normalmente usada de 8-bits (256 valores). Además el uso de un patrón logarítmico y no lineal para la información hace que se obtenga más rango dinámico y profundidad de color,  brindando más detalle en las zonas de sombra, similar a la obtenida por la película.

Esta señal (RAW) se envía en modo FilmStream al dispositivo de almacenamiento/grabación por medio de una conexión HD-SDI doble. Toda la información es almacenada: 1920X1080 progresivo para cada color RGB. No hay pre-muestreo de color, conversión del espacio de color, manipulaciones a la imagen, White balance, ni compresión.

Sin embargo, la cámara también envía la información a un procesador el cual permite obtener una señal de salida para almacenamiento en RGB HD Stream 4:2:2; HD Video RGB 4:4:4; y HD Video YCrCb 4:2:2.

Dinamic Pixel Management:

La Viper FilmStream Camera está equipada con un sensor de 1920 X 4320 pixeles efectivos. Mediante un procedimiento de agrupamiento y des agrupamiento de pixeles es posible conseguir dos tipos de aspecto: 16:9 y 2.37:1 sin la necesidad de hacer “crop” en la imagen y por lo tanto si perder resolución verticalmente.

Cuando se agrupan 4 pixeles verticales en cada línea (4320 / 4) se obtienen 1080 líneas verticales para una imagen de 1920 X 1080 y un aspecto de 16:9. Cuando se combinan 6 pixeles se obtienen 720 líneas verticales para una imagen de 1920 X 720 (16:9). Si se agrupan 3 pixeles en cada línea se obtienen 1440 líneas verticales por 1920, pero de esas 1440 se utilizan solamente 1080 líneas, obteniendo así una imagen 1920 X 1080 con un aspecto 2.37:1 (Cinemascope).


LOOK UP TABLES (LUT)

Look Up Table en informática:

Un Look Up Table es una estructura de datos que se organiza en una matriz, es decir, una forma de almacenar una cantidad de datos en una tabla de manera que se pueda tener acceso a esos datos posteriormente. Generalmente el Look Up Table se usa para reemplazar ciertas operaciones de computación que ejecutan los programas, ahorrando tiempo y procesamiento de la información.

La definición y ejemplificación más básica de un Look Up Table serían la de las Tablas de Multiplicar. Durante el colegio todos debimos aprendernos las tablas de multiplicar, almacenarlas en nuestra memoria del mismo modo que una matriz o Look Up Table, con el objetivo de ahorrar tiempo y esfuerzo a la hora de hacer operaciones matemáticas mas complejas. En este sentido, cuando debemos hacer una multiplicación para resolver un problema matemático (Ej: (3X5) + (5×6) = …) nos remitimos a nuestra Tabla de Multiplicar almacenada en la memoria y ya tenemos este dato a la mano, (Ej: 15+30 = 45) en vez de efectuar la operación matemática de la multiplicación paso por paso (Ej: (3+3+3+3+3) + (5+5+5+5+5+5) = 15+30 = 45)

Siempre recuperar un dato almacenado en la memoria es mucho mas rápido que empezar un proceso de computación donde entra un dato, se computa y sale un dato final o resultado (esta es la típica operación de input/output que se usa en procesamiento de imagen digital). Estos Look Up Tables se almacenan en programas de memoria estática (Static Memory Allocation), es decir memoria permanente y no temporal, de modo que permanecen intactos todo el tiempo y nunca son alterados.

Verificar datos de input: El Look Up Table también sirve para verificar datos de entrada (input) comparando los datos del sistema o programación con los datos del Look Up Table. Luego veremos que este proceso informático es el que sirve para configurar y verificar el display de los diferentes sistemas de imagen digital según el LUT previamente configurado.

Forma de acceder a los datos: Existen también las “Listas” en programación, que resultan ser también estructuras de datos almacenadas en una memoria permanente. Pero la diferencia entre un Look Up Table y una lista radica en la forma de almacenamiento y de acceso a la información. En una lista los datos se almacenan en un orden específico y así mismo el acceso y la búsqueda de esos datos se hace en el mismo orden; De esta manera si quiero llegar a un dato debo recorrer uno por uno los demás elementos de la lista hasta llegar al dato requerido:

Si quiero acceder al dato 5. El programa debe recorrer y leer cada uno de los 4 primeros datos hasta llegar al 5º. Si se trata de una lista de datos muy grande el desgaste de procesamiento y tiempo será cada vez mayor. Para este ejemplo supongamos que cada dato es el resultado de una operación matemática que el programa necesita efectuar con  frecuencia. O para ejemplificarlo en procesamiento de imágenes, cada dato puede ser un valor de color o luminancia.

Ej:

  1. Dato 1
  2. Dato 2
  3. Dato 3
  4. Dato 4
  5. Dato 5
  6. Dato 6
  7. Dato 7
  8. Dato 8
  9. Dato 9

10.  Dato 10

En un Look Up Table cada dato es asociado con un key (código), además los datos son almacenados y leídos de manera aleatoria. De modo que se indexa el key o código del dato requerido y el acceso a la información es mucho más rápido. El ejemplo más sencillo para entender esta forma de indexar un código a un valor o dato determinado puede ser por ejemplo una agenda telefónica: Digamos que el número 3427416 corresponde a Lucía, de esta manera “Lucía” sería el código (key input) para encontrar el dato 3427416 (output).

De esta manera podemos pensar en un Look Up Table como una tabla bidimensional de datos. Donde hay unos códigos y unos valores para encontrar ciertos datos (del mismo modo que las tablas de multiplicar):

Casa Oficina
Lucía 3427416 2813229
Camilo 7215648 5139542
Miguel 2715689 1568123

Para encontrar los datos en este ejemplo basta con definir dos parámetros de entrada (input) (Nombre y Lugar). Así no solamente se pueden almacenar datos únicos, sino combinaciones de datos y variables. Se llama bidimensional porque los datos se almacenan horizontal y verticalmente. Para procesamiento de la imagen podemos pensar en parámetros como Color y Luminancia y darle a cada una de las combinaciones un valor específico.

LUTs en Procesamiento de Imágenes Digitales:

El LUT en el trabajo digital de imágenes se usa principalmente para transformar unos datos de input (entrada) correspondientes a cada uno de los valores informáticos de la imagen, en otros datos de output, según un serie de valores indexados en un LUT previamente, con el objetivo de transformar ciertas características de la imagen de una forma más exacta, mas rápida y eficaz para el procesador de las imágenes, ya sea para corrección de color o simplemente para calibrar el display o la proyección de una imagen.

Se dice sin embargo, que el uso de un LUT puede ser un error si la información que el LUT almacena es demasiado sencilla, tanto así que el proceso de remitirse a los datos del LUT sea más demorado y complicado que hacer la transformación de los valores directamente. Por otro lado es importante que la LUT no exceda la capacidad de memoria que ha sido asignada, ya que la indexación y la búsqueda de los datos dentro de una LUT demasiado grande podría ocasionar un proceso demasiado lento y podría ocupar toda la capacidad de memoria y procesamiento de los datos.

Uno de los usos más comunes del LUT en el procesamiento de imágenes digitales es a la hora de programar y utilizar el hardware y/o software para la graficación de imágenes en un computador. En este caso hay una LUT muy común que se llama Palette, la cual contiene los datos de la cantidad y calidad de colores (saturación, cantidad de tonos e intensidad lumínica) que por ejemplo una pantalla o una tarjeta graficadora va ejecutar para leer una imagen digital. En ese sentido la LUT Palette contiene por ejemplo la información de la profundidad de color, que pueden ser de estos tipos:

  • 1 bit  -> Monocromático
  • 8 bits -> Escala de grises
  • 8 bits -> Color
  • 15/16 bits -> High Color
  • 24 bits -> True Color
    • 30/36/48 bits -> Deep Color

Este tipo de Color LUTs se usan mucho por ejemplo en los hardware de las tarjetas de video para calibrar el gamma y la temperatura de color, o también en la programación de los videojuegos, de manera que los gráficos del programa se ejecuten tal cual fueron diseñados en cualquier display.

3D LUTs

En la creación de imágenes digitales el LUT se usa para calcular y verificar las características de una imagen que se va a proyectar o emitir según una serie de parámetros de color previamente configurados, con el fin de que la imagen de la copia final corresponda fielmente al look y las características fotográficas planteadas desde el rodaje y/o la pre-producción.

Ej:

Según esta LUT. Para una entrada (input) con valor de 1 el valor de salida del Rojo sería de 25, de Verde de 34 y de Azul de 88.

Por ejemplo si los valores de entrada son (R=4, G=2, B=3), los valores de salida serían: R= 21, G=38, B=5

R          G         B

1 25        34        88

2 18        38        15

3 5          53        5

4 21        8          34

Cuando usamos los LUTs en cine (ya sea cine digital, HD, Datos, Video, Película, etc.) hablamos de 3D Luts porque son datos que funcionan en una matriz de 3 ejes; del mismo modo que entendimos las tablas de multiplicar como una matriz de dos ejes. Estos LUTs contienen la información según cada uno de los 3 componentes del color: rojo, verde y azul (RGB). Un color determinado se sitúa en algún punto dentro de esa matriz de 3 ejes y es modificado según la configuración del LUT. De esta manera un 3D LUT es una matriz que contiene datos específicos de salida (output) de color de una imagen digital.

En este caso el valor 255 sería el valor máximo de cada color. De Modo que si en todos los canales RGB el valor es 255 sería el color blanco.

Interpolación de los datos:

Sin embargo las LUTs no pueden exceder una cierta cantidad de datos porque atrofiaría las capacidades y la rapidez de procesamiento de la imagen, y también sería imposible que fueran infinitas en su capacidad de almacenamiento de datos de entrada y salida; de modo que esa matriz que se presenta como una red de datos en tres dimensiones tiene puntos específicos donde se alojan los datos y cabe la posibilidad que un dato de entrada (input) de color no coincida exactamente con ninguno de los puntos de la matriz.

Eje de valores de Rojo (R)
Eje de valores de Azul (B)
Eje de valores de Verde (G)

En esta figura podemos ver que un dato de entrada representado por el punto rojo C no coincide con ninguno de los datos almacenados en la LUT en ninguno de los ejes (RGB). En este caso se usa la interpolación, que consiste en calcular el dato faltante a partir de su relación con los datos conocidos; Un ejemplo muy simplificado sería si tengo un dato que representa 4 y otro dato que representa 10, y mi dato de entrada es un punto entre estos dos datos:

4
10
X

Puedo calcular que el punto X está más cercano a 10, aproximadamente a 2/3 de la distancia entre 4 y 10; En este caso sería fácil deducir que X corresponde a 8.

En el caso de los 3D LUTS, la interpolación para hallar estos puntos se denomina “trilineal”, ya que se hace sobre 3 ejes calculando las distancias y los promedios a cada uno de los ejes:

Hallar con exactitud los datos por medio de interpolación hace que las LUTs no necesiten ser tan grandes ni almacenar tanta cantidad de datos y se conserva la misma calidad de exactitud en los datos usados. Sin embargo el LUT no pude ser tampoco tan escaso de datos, porque la interpolación requeriría demasiados procesos matemáticos para el computador y en ese caso el objetivo de ahorrar tiempo y esfuerzo no se cumpliría.

La capacidad de un sistema, por ejemplo un sistema de proyección digital, para interpolar los datos de los LUTs logra que la lectura de la imagen sea óptima, sin embargo las diferencias entre un sistema y otro son mínimas a la hora de una comparación a simple vista.

La mayoría de los 3D LUTs son cubos de 17 puntos de datos, es decir que hay 17 puntos en cada uno de los ejes.

3D vs 1D (LUTs):

El 3D LUT en comparación con un LUT unidimensional a veces ofrece mejores resultados, ya que maneja todos los canales de color al tiempo. Un 1D LUT por ejemplo no sería capaz de separar cambios entre saturación y luminancia, esto debido a que sus valores se expresan en unas sola dimensión en cada canal sin tener en cuenta las combinaciones con los otros 3 canales; recordemos que en el sistema RGB la suma de todos los colores resulta el blanco y del otro modo resulta el negro. Sin embargo a veces un 1D LUT puede ser más preciso en los datos solamente de crominancia si se hace un LUT separado por cada canal, en el cual se pueden almacenar mucho más puntos de datos por cada LUT, mientras en un 3D LUT solo hay 17 datos por cada canal.

USOS DE LOS LUTs:

LUTs para Calibración:

El LUT de calibración nació para emparejar y verificar la correcta proyección de una película según la copia final que se obtuvo y según fue aprobada luego de la corrección de color en posproducción. Por ejemplo un uso importante de los LUTs de calibración se da a la hora de la impresión en película de un material proveniente de imagen digital. Desde que la mayoría de las películas ejecutan el intermedio digital como proceso de workflow: captura en película y escaneo para convertir a imagen digital en formato DPX Log, el cual posteriormente vuelve a ser transferido a película; todos los sistemas de impresión de digital a película esperan una imagen en formato DPX. Sin embargo puede haber la posibilidad de que la transferencia a película se haga desde un formato de vídeo digital diferente (DVCAM, HDV, XDCAM, etc.), en este caso el sistema debe ejecutar un LUT de calibración para transformar ese input de vídeo en un output que corresponda a la forma en que el formato DPX lee y reproduce la imagen antes de la impresión a película; de otro modo la transferencia sería fallida en términos de calibración de color. En este proceso además el LUT ayudará a verificar siempre la correcta calibración de la grabadora de película.

En un mundo ideal el LUT serviría no solamente para calibrar la impresión de la película, sino también para verificar y supervisar el proceso de laboratorio, de copiado y las condiciones de proyección de la película (ambiente, temperatura, luz, etc.) ya sea en proyección de 35mm o proyectores digitales. Cuidando siempre que los valores de proyección de la imagen sean exactamente los que han sido configurados en el LUT. Sin embargo las condiciones de revelado, procesamiento y copiado de la película, o de proyección digital no siempre son óptimas ni están bajo una estricta supervisión, de modo que es allí donde la imagen sufre cambios indeseados.

Diagrama del uso de LUTs para calibrar la proyección de una imagen digital:

LUTs para Monitoreo:

Uno de los grande dilemas a la hora del rodaje en medio digital es tratar de conseguir un monitoreo de la señal que corresponda a la imagen que se esta produciendo, y sobre todo que esa imagen sea igual a la imagen del producto final. En el caso del rodaje en fílmico los sistemas de video-assist ofrecen un monitoreo muy pobre de calidad y todos saben que esa imagen está muy lejos de lo que el fotógrafo está realmente capturando en la película. En un rodaje por ejemplo con la Red One, la señal proveniente del formato RAW es una imagen plana y con colores apagados, exactamente como la proyección de la imagen de una película interpositiva. Entonces entra el deseo de los miembros de la producción de visualizar una imagen que corresponda con lo que vamos a ver en el producto final (importante sobre todo para clientes y productores). En este momento es cuando se podrían usar los LUTs aplicados al sistema de monitoreo para previsualizar (no capturar) la imagen según como se espera ver en la copia final. Estos LUTs estarían calibrados para ofrecer una imagen según el formato DPX previendo que el trabajo de flujo sea un intermedio digital para copia final en película, de este modo podemos monitorear la imagen tal cual se verá en la copia de película final. Este tipo de LUTs serían de impresión y/o de corrección de color.

Por otro lado estarían los LUTs de visualización. El LUT de visualización se usaría para monitorear una imagen proveniente de un medio de captura (cámara de cine digital) de modo que imite en cierto modo el look que se le quiere dar en posproducción. Sin embargo esta visualización puede no ser precisa en términos de compaginar con el formato de impresión a copia final (DPX), y en este caso no estaríamos en realidad viendo lo que va a ser impreso en película, sino un look específico que se le está aplicando al monitoreo durante el rodaje. Lo anterior teniendo en cuenta que por lo menos hasta ahora no hay ninguna cámara que en términos de contraste y colorimetría corresponda correctamente con los parámetros de la impresión en copia final en película.

En este sentido visualizar en el set con un LUT de visualización que nos muestre “cómo queremos que sea el look final de la película” puede ser una buena opción teniendo en cuenta que hasta ahora esto no está cercano a los parámetros de impresión en película. Porque si le aplicamos un LUT de calibración para impresión la imagen va a aparecer con seguridad muy errónea en cuanto a color y contraste. Pero luego durante la corrección de color es imperativo que usen LUTs que correspondan al formato de impresión a película con el fin de que veamos lo que en realidad se va a ver en la copia final. Para esto existe la opción de aplicar el LUT calibrado para película antes o después de la corrección de color (proceso creativo). Obviamente no sería necesario aplicar este LUT si la copia final del producto no va a ser película, sino simplemente proyección o exhibición por medios digitales o análogos.

Es importante saber, sin embargo, que las condiciones de visualización de un monitor varían en un set a una sala de corrección de color bien diseñada. En este sentido hay que tener en cuenta aspectos como la misma calibración del monitor, la luz del ambiente, el ángulo y la distancia de visualización a la hora de evaluar las condiciones de la imagen monitoreada.

LUTs para Corrección de Color:

Para este caso es importante que durante el rodaje se usen LUTs de visualización, es decir, que nos muestran cómo queremos el look de la película, y son en cierto modo un acercamiento a lo que queremos lograr durante la corrección de color. Entonces lo primero a tener en cuenta es que el LUT usado durante el rodaje para la visualización del material debe ser el mismo LUT usado para la corrección de color. En este punto es donde se vuelve muy importante que las condiciones de monitoreo en el set y en la sala de corrección de color sean lo más parecidas posibles, de otro modo crear un LUT durante el rodaje va a ser totalmente inútil. Además de las configuraciones de los monitores en ambas etapas (especificaciones, temperatura de color del monitor, capacidad de luminancia, etc.). Sin embargo si las condiciones de monitoreo son imposibles de configurarse durante el rodaje de manera óptica, hay LUTs que ofrecen la posibilidad de tomar en cuenta estas variables y reproducir una imagen similar a la que se obtiene en el monitor de la sala de corrección de color.

Entonces el LUT que se obtiene durante el rodaje resulta ser el punto de partida más importante para iniciar la corrección de color en posproducción. De este modo el colorista y el sistema de procesamiento de corrección de color tienen bastante trabajo y tiempo ahorrados al obtener un LUT que representa el look deseado a partir del cual se debe trabajar la imagen.

Sin embargo, lo sistemas de monitoreo en set que puedan soportar LUTs son todavía poco populares, lo cual hace que el uso adecuado y preciso de los LUTs en rodaje no sea totalmente aprovechado. La mayoría de estos sistemas solo soportan LUTs unidimensionales.

Bibliografía:

http://en.wikipedia.org/wiki/Lookup_table

http://en.wikipedia.org/wiki/3D_LUT

http://www.lightillusion.com/usingluts.htm