Welcome to the Netflix Partner Help Center. Have a question or need help with an issue? Send us a ticket and we'll help you to a resolution.

주의: 맥락이 중요하다는 점을 기억해야 합니다. 이 정보는 창조적 의도에 따라 달라질 수 있는 주제를 포괄적으로 다루고 있습니다. 이 문서에서 다루는 정보의 맥락과 의도를 더 자세히 이해하려면 ‘2D LED 인-카메라 VFX 필드 가이드 개요’를 참고하시기 바랍니다.


 

목차

 


 

카메라 + 캡처 포맷

넷플릭스 승인 카메라 목록

넷플릭스는 전 세계 회원들에게 최고 수준의 이미지 정확도와 품질을 제공하는 데 전념하고 있습니다. 이를 위해 넷플릭스 오리지널 프로덕션에서 사용할 승인 카메라 목록을 신중하게 큐레이팅해 왔습니다. 이들 '승인 카메라'는 제조사와의 파트너십을 통해 넷플릭스 내부 평가를 거쳤으며, 아래 열거한 구체적 사양에 부합하는 장비입니다. 승인 카메라의 필요 조건을 명시하는 작업에서, 넷플릭스는 콘텐츠 창작 커뮤니티와 긴밀히 협업해 광범위한 업계 경험 및 세계적으로 인정받는 기관의 안내에 기반해 기술 사양 최소 충족 수준을 설정했습니다. ASC(미국촬영감독협회), BSC(영국촬영감독협회), AMPAS(영화예술과학아카데미) 등이 그런 기관입니다. 이 기본 필요조건은 본인의 역량과 산업 전체의 발전을 희망하는 실무 전문가의 의견 및 열망을 결합한 내용입니다. 창작자가 기술적 한계에 제한받지 않고 최고의 작품을 만들 수 있도록 돕는 한편, 높은 정확도의 아카이브 자산을 보유한 세대가 이런 노력을 이어받아 향후 작업에 사용하도록 지원하고자 합니다.

 


 

캡처 사양

버추얼 프로덕션 환경에서 LED 월과 함께 사용하기 위해 VFX 플레이트를 캡처하는 작업은 다음 사양을 추천합니다. 모든 필요 조건을 충족했는지 카메라 부서 및 플레이트 슈퍼바이저가 검토해야 합니다.

 

색 정밀도(Color Precision)

  • 10-bit 4:2:2 크로마 서브샘플링(chroma subsampling) 또는 그 이상
    • 이미지 비트 심도가 낮으면 밴딩(banding)/급격한 톤 변화(posterization) 등의 아티팩트가 발생할 확률이 높으며, 일반적인 보정 작업 중에 금세 이미지 열화가 발생합니다.

image.png

낮은 비트 심도 캡처로 인한 부드러운 그라디언트(gradient)의 밴딩 현상

    • 크로마 서브샘플링은 스캔라인(scanline)당 크로마 샘플링을 줄여 색 해상도를 낮춥니다. 크로마 서브샘플링(chroma subsampling) 때문에 발생하는 이미지 품질 저하는 급격한 색 변동이 일어나는 가장자리 근처에서 가장 흔하게 볼 수 있으며, 이로 인해 이미지의 채도가 낮아집니다.
    • 참고 사항: LED 월에 재생되는 자료에 높은 수준의 시각 효과 및 합성 작업이 필요하다면, RAW 또는 무압축 포맷 영상 캡처 방식을 진지하게 고려해야 합니다. 크로마 서브샘플링이 낮아지면 CG 렌더링한 콘텐츠와 합성할 때 곧바로 문제가 발생할 수 있습니다.

 

녹화 포맷(Record Format)

  • RAW 또는 장면 참조 이미지 데이터
    • 로그 인코딩은 노출 코드 값을 재분배해 제한된 비트 심도 포맷에서 암부(shadow)와 명부(highlight) 디테일을 더 효과적으로 유지합니다.
    • RAW는 일반적으로 최소한으로 처리된 프리-디베이어 센서 데이터로 정의됩니다.
    • 캡처한 색 공간(color space)/색역(gamut)은 디스플레이 참조(display referred) 기준이 아니라 장면 참조(scene referred) 기준이어야 합니다. 예를 들면 REDWideGamutRGB/Log3G10, S-Gamut3/S-Log3, ALEXA Wide Gamut/Log C 또는 V-Gamut/V-Log 등입니다.

 

  • RAW 또는 무압축 이미지 캡처를 사용할 수 없다면, ALL-Intra, XF-AVC, XAVC 등의 가볍게 인코딩된 인트라프레임(intra-frame) 기반 코덱을 추천합니다.
    • 인트라프레임 압축은 프레임 분석과 압축이 개별적으로 이루어집니다.
    • 인터프레임(interframe) 압축 방식은 프레임 단위로 변경되는 정보만 보유하기 위해 2개 이상의 시퀀셜 프레임(sequential frame)을 분석합니다. 데이터 전송 속도(data rate)가 줄어드는 이점이 있지만, 눈에 보이는 아티팩트가 발생할 가능성이 매우 높기 때문에 승인된 캡처 포맷은 아닙니다.

 

데이터 전송 속도(Data Rate)

  • 캡처 속도 24FPS 기준에서 240Mbps(초당 메가비트) 또는 30MB/s(초당 메가바이트)가 최소 데이터 기록 속도입니다. 프레임 레이트가 증가하면 최소 데이터 전송 속도 또한 증가합니다. 예를 들어 30FPS를 원한다면 최소 데이터 전송 속도는 ~300Mbps여야 합니다.
    • 특정 코덱의 경우 최소 데이터 전송 속도를 요구합니다. 예를 들어 24FPS인 3840x2160의 ProRes 422 HQ의 데이터 전송 속도는 704Mbps입니다. 이는 최소 요건보다 훨씬 높기 때문에 허용 가능합니다.
    • 데이터 전송 속도가 낮으면 압축 방식에 영향을 주며, 매크로블로킹(macroblocking) 등의 원치 않는 이미지 아티팩트가 발생하게 됩니다.

 

image.png

낮은 대역폭의 이미지 압축으로 발생한 매크로블로킹(macroblocking)의 예시

 

해상도(Resolution)

  • 사용하는 각각의 카메라(멀티-카메라 구성)에서 사용 가능한 포토사이트(photosite) 숫자가 최소 3840x2160이어야 합니다.
    • 업스케일링은 허용되지 않습니다. 캡처 해상도는 의도한 LED 월의 해상도와 일치해야 합니다.
    • 구형(spherical) 타입의 렌즈 캡처를 강력히 추천합니다. 다른 방식을 생각 중이라면 넷플릭스에 직접 문의해 주시기 바랍니다.
    • 카메라 어레이(array)는 이러한 작업 공간에서 일반적인 관행이지만 필수는 아닙니다. 카메라 선택에 관해서는 넷플릭스의 승인 카메라 목록을 참고하시기 바랍니다.
    • 정방형 가로세로 픽셀 비율

 

센서 판독 속도(Sensor Readout Speed)

  • VFX 플레이트를 캡처할 때는 카메라 센서의 활성 판독(readout) 속도가 ~18ms 이하여야만 기울기 현상(skew) 등의 롤링 셔터(rolling shutter) 아티팩트를 방지할 수 있습니다. 글로벌 셔터 센서(global shutter sensor)는 롤링 셔터 아티팩트를 방지하며, 특정한 상황에서 장점을 발휘합니다.
    • 센서의 판독(readout) 속도를 셔터 속도, 셔터 앵글 또는 입력 시간과 혼동하면 안 됩니다. 센서 판독 속도는 롤링 셔터 아티팩트의 정도에 영향을 미칩니다. 판독 속도가 길어질수록 젤로(jello)/왜곡(skew) 등의 롤링 셔터 아티팩트 발생도 증가합니다. 일반적인 표준 롤링 셔터 기반 CMOS 센서 디자인 대부분은 수직 해상도 증가에 따라 판독 시간이 늘어납니다.
    • 넷플릭스의 모든 승인 카메라는 넷플릭스가 추천하는 최소 판독 속도인 ~18ms에 맞거나 그 이상의 캡처 세팅이 되어있다는 점을 참고하시기 바랍니다.

 

image.png

롤링 셔터 아티팩트 예시 - 왜곡(skew)

 


 

카메라 어레이(array) 구성

멀티-카메라 어레이(array) 사용은 필수가 아닙니다. VFX 플레이트는 대부분 단일 카메라 시스템으로도 촬영이 가능합니다. 멀티-카메라 어레이가 필요한지, 필요하다면 그 시기는 언제인지는 개별 프로덕션에서 요구되는 사항에 따라 달라집니다. 플레이트 슈퍼바이저, VP 슈퍼바이저, VFX 슈퍼바이저, 촬영감독과 필요 사항을 논의하시기 바랍니다.

 

표준 카메라 어레이(array) 예시

  • 카메라 9대

    • 일반적으로 자동차 앞유리에 마운트하는 전향(front-facing) 카메라 3대

    • 자동차 뒷유리에 마운트한 후향(back-facing) 카메라 5대

    • 자동차 후드에 마운트한 상향(facing upwards) 카메라 1대(보통은 반사를 위해 사용)

  • 카메라 간 30% 오버랩 추천

    • 가장 가까이 있는 카메라에 대한 각 카메라의 적합한 로테이션은 카메라의 물리적 크기, 활성 센서 영역, 렌즈에 따라 달라집니다.

 

환경 설정 예시

적합한 카메라 어레이(array) 리그 환경 설정을 설계/선택할 때 다음의 예시를 고려하시기 바랍니다:

 

카메라 오버랩(overlap, 시야각이 중복되는 부분) 필요조건

스티칭한(stitched) 플레이트의 경우 최소 25도의 시야각(FOV, field of view) 오버랩이 필요합니다. 카메라 어레이(array)를 구성할 때는 어떤 렌즈를 사용 중인지, 그리고 카메라 포지션이 이에 부합하는지 확인하시기 바랍니다.

 

오버랩이 필요한 이유는 무엇입니까?

카메라 간에 시야각(FOV) 오버랩이 없으면 이미지를 이어 붙이는 작업에 어려움이 발생합니다. 각 프레임에서 렌즈 왜곡 특성이 제거되고 나면 시계 내부에 눈에 띄게 큰 공백이 생길 수 있습니다. 카메라 범위 내에서 공백이 발생하는 문제를 피하고, 카메라 정렬상 미세한 오류를 방지하려면, 적합한 정도의 오버랩이 필수입니다. 이는 VFX팀이 어레이(array)의 플레이트를 이어 붙이는 작업을 더 수월하게 진행할 수 있도록 돕습니다.

 

카메라 간의 시야각 오버랩을 늘리기 위해 카메라 어레이(array) 환경 설정에서 카메라가 추가로 필요할 수 있습니다. 또한 더 넓은 시야각과 렌즈값을 갖춘 렌즈를 사용하거나 어레이(array)에서 환경 설정된 카메라 각각의 위치/각도를 조정해야 할 수도 있습니다.

 

카메라 어레이(array)는 해당 프로덕션의 현재 필요 사항에 맞춰 무수히 많은 방식으로 특수 설계한 환경 설정이 가능합니다. 다음 이미지들이 그 좋은 예로, 예전에 넷플릭스 프로덕션에서 사용한 고급 솔루션 중 하나입니다.

 

플레이트 밴(plate Van)

image.png

사진 출처: RED

 

사진 출처: RED

 

사진 출처: RED

 

사진 출처: RED

 


 

캡처 프레임 레이트

플레이트를 캡처할 때는 작품에서 의도한 프레임 레이트와 캡처 레이트를 일치시키길 강력히 권장합니다. 예를 들어 프로덕션에서 23.976FPS의 프레임 레이트로 촬영할 계획이라면 플레이트 또한 23.976FPS로 캡처해야 합니다. 25FPS 또는 29.97FPS 등 다른 프레임 레이트에서도 마찬가지입니다.

 

이런 방식이 중요한 이유는 무엇입니까?

프레임 레이트 전환에는 모션 보간(motion interpolation, 아래 도표 참고)이 필요한데, 이 경우 영상의 품질이 떨어져 보기 흉한 모션 아티팩트를 유발하는 경우가 많습니다. 쉽게 설명하자면, 모션 보간은 캡처된 프레임 사이에서 누락된 이미지 데이터를 계산하기 위해 복잡한 알고리즘이 필요합니다. 이는 절대 완벽하게 계산할 수 없기 때문에 가능한 한 지양해야 합니다.

 

image.png

 

프레임 레이트를 일치시키면 플레이트에 풀다운(pulldown) 등의 다운스트림 보간을 적용할 필요성이 제한됩니다. 프로덕션과 논의를 거쳐 작품에 적합한 캡처 레이트가 일관적으로 정리됐는지 확인하시기 바랍니다.

 


 

노출/조명 일치

플레이트를 캡처할 때는 해당 장면에 적합한 노출을 설정할 수 있도록 촬영감독과 창조적 의도를 논의해야 합니다.

 

노출이 중요한 이유는 무엇입니까?

캡처 시 적절한 노출을 확보하면, 사용 가능한 지점으로 영상을 전달하는 데 필요한 포스트 작업의 양을 최소화할 수 있습니다. 노출 부족 및 노출 과다는 LED 월에 디스플레이할 때 관련 특성이 원본 캡처에 번인되므로 피하시기 바랍니다.

 


 

해상도 일치

플레이트의 캡처 해상도는 LED 월의 해상도와 같거나 그보다 높아야 합니다. LED 월의 환경 설정으로 출력할 경우 업스케일링은 추천하지 않습니다. 부적합한 업스케일링은 디스플레이 전반에 보기 흉한 에일리어싱 아티팩트를 유발할 수 있습니다(아래를 참조하시기 바랍니다).

 

사용하는 각 카메라(멀티-카메라 어레이(array) 또는 그 외)의 최소 활성 포토사이트 개수는 3840x2160이어야 하며, 플레이트의 캡처 해상도는 LED 월의 해상도와 일치해야 합니다. 이 요건을 지키면 LED 월의 환경 설정으로 출력할 때 업스케일링이 필요하지 않습니다.

  • 구면(spherical) 캡처는 광학적 왜곡 및 변형으로 발생할 수 있는 잠재적 문제를 줄이기 때문에 강력히 권장하는 방식입니다. 다른 방식을 고려 중이라면 넷플릭스에 직접 문의해 주시기 바랍니다.
  • 카메라 어레이(array)는 이러한 작업 공간에서 일반적인 관행입니다. 카메라 선택에 관해서는 넷플릭스의 승인 카메라 목록을 참고하시기 바랍니다.
  • 정방형 픽셀 종횡비(Square pixel aspect ratio)

 

낮은 해상도 캡처에서는 에일리어싱(aliasing)/모아레(moire) 패턴이 발생할 수 있습니다

image.png

에일리어싱(aliasing)/모아레(Moire) 아티팩트 예시

 

-image.png

에일리어싱(aliasing)/모아레(Moire) 아티팩트 예시


 

시점 일치

카메라를 포지셔닝할 때는 시점을 고려해야 합니다. 카메라 앵글은 어떤지, 카메라가 바닥에서 어느 정도 높이에 위치하는지, 어떤 렌즈를 사용 중인지, 해당 렌즈는 왜곡 발생이 상대적으로 덜한지, 플레이트의 시점이 촬영 감독의 창조적 의도와 충돌하지는 않는지 등을 고려할 필요가 있습니다. 이러한 위험을 피할 수 있도록 반드시 사전 작업을 통해 조율하시기 바랍니다.

 

시점이 중요한 이유는 무엇입니까?

시점이 일치하지 않으면 현장 작업자뿐만 아니라 시청자에게도 문제가 생깁니다. 촬영감독이 원래 낮은 앵글에서 촬영하려 했지만 결국 높은 앵글로 촬영한 플레이트를 상상해 보시기 바랍니다. 이러한 시점 불일치는 씬 전체를 망가뜨릴 수 있습니다.

 

특히 차량 프로세스 작업의 경우, 카메라가 마운트된 높이에 신경을 써야 합니다. 카메라가 (자동차의 낮은 쪽 후드가 아닌) 자동차 루프에 마운트되었다면, 이 차량을 타고 이동하는 인물의 시점을 적절하게 잡기에 너무 높을 수 있습니다. 시점과 앵글이 부적절하면 VFX팀에서 수정하기가 매우 어렵습니다.

 

image.png

예: 시점 일치를 높이기 위해 자동차 앞에 배치해 낮은 앵글을 확보하는 카메라 바디

 

렌즈 왜곡은 무엇이며, 피해야 하는 이유는 무엇입니까?

아래 이미지를 참고하시기 바랍니다. 왼쪽의 정방형 그리드는 왜곡이 없는 현실의 ‘사물’을 나타냅니다. 가운데와 오른쪽의 두 그리드는 렌즈를 통해 봤을 때 발생하는 왜곡의 종류를 보여줍니다.

 

완벽한 렌즈는 없습니다. 시장에 나와 있는 렌즈는 모두 어떤 형태로든 약간의 왜곡이 발생합니다. 그러나 일부 렌즈는 다른 렌즈보다 성능이 뛰어납니다. 예를 들어 장초점 렌즈는 단초점 렌즈(광각렌즈)보다 왜곡이 적습니다.

 

“왜곡이 항상 부정적인 요소인가?”라고 묻는다면, 반드시 그렇지는 않습니다. 사실 많은 촬영감독이 렌즈에 따른 독특한 왜곡 특성과 이미지에 부여하고자 하는 미묘한 불완전함을 고려해 렌즈를 선택합니다. 그러나 LED 월과 사용할 VFX 플레이트 캡처라면 왜곡을 최대한 피해야 합니다. 적합한 렌즈를 사용 중인지 확인할 수 있도록 촬영감독 및 VFX팀과 렌즈 선택에 관해 논의하시기 바랍니다. 많은 렌즈가 Cooke /i Technology, ZEISS eXtended Data, ARRI LDS 같은 유명 커뮤니케이션 프로토콜을 활용해 조리개, 초점거리, 렌즈값,
셰이딩/왜곡 등의 귀중한 정보를 메타데이터 형태로 제공합니다. 해당 렌즈 메타데이터를 수집하고 보존하면 VFX팀의 작업 효율성과 정확도에 도움이 됩니다. 가능하면 렌즈 메타데이터를 활용하시길 적극 권장합니다.

 


 

모션 케이던스(motion cadence) 일치

플레이트의 대상이 프레임에서 얼마나 빠른 속도로 움직이고 있습니까? 저더(모션 끊김 현상)가 발생했습니까? 모션의 속도가 해당 장면의 창의적 의도와 일치합니까? 예를 들어, 이 자동차가 거리를 달리는 속도는 시속 200km로 보여야 합니까, 50km로 보여야 합니까? 플레이트의 셔터 속도가 의도한 프로젝트 설정과 일치합니까? 나타나는 모션 블러(blur)가 장면과 비교했을 때 자연스럽습니까? 롤링 셔터 아티팩트가 발생했습니까? 이미지가 한 방향으로 왜곡(skew)되어 보입니까?

 

모션의 특성을 염두에 두어야 하는 이유는 무엇입니까?

저더(모션 끊김 현상)

대상이 프레임에서 너무 빠른 속도로 움직이면 저더(모션 끊김 현상)가 발생할 수 있습니다. 이는 시청할 때 대단히 눈에 거슬리는 요소입니다. 저더는 카메라 팬(pan) 작업을 너무 빠르게 수행할 때 자주 발생하는 것으로 잘 알려진 아티팩트입니다. 만약 저더가 생긴다면 플레이트 녹화 시 프레임에서 대상이 이동하는 속도를 늦춰야 합니다.

strobing04-650.gif

저더(모션 끊김 현상) 예시

 

모션 블러

관객은 영화 속 모션 블러(motion blur)에 이미 어느 수준까지는 익숙해진 상태입니다. 배경 블러와 전경 요소의 일치도가 상대적으로 떨어진다면, 시청자가 알아차릴 정도로 부자연스러운 모습을 보이게 됩니다. 이를 고려하여 프로젝트의 셔터 속도를 일치시켜야 합니다. 디지털 작업으로 모션 블러를 추가하는 일은 상대적으로 간단하지만, 제거하기는 매우 어렵다는 점을 기억해 주시기 바랍니다.

image.png

모션 블러의 다양한 수준

 

롤링 셔터 아티팩트

현대의 디지털 시네마 카메라에는 대부분 롤링 셔터(rolling shutter) 설계가 들어간 CMOS 센서가 있습니다. 플레이트 캡처에 사용하는 카메라에도 롤링 셔터가 있을 가능성이 높습니다. 롤링 셔터 설계로 인해, 대상이 프레임에서 너무 빠르게 움직일 경우 왜곡(skew)과 같은 아티팩트가 발생할 가능성이 있습니다. 촬영할 때 이 점을 명심하여 가능한 한 이런 아티팩트의 발생을 피하시기 바랍니다. 라인을 순차적으로 판독하는 롤링 셔터 기반의 센서와 달리, 글로벌 셔터(global shutter) 센서는 특정 프레임의 모든 데이터를 동시에 판독하기 때문에 이런 문제가 생기지 않습니다.

 

image.png

롤링 셔터 아티팩트 예시 - 왜곡(skew)

 


 

영상 흔들림 보정(Image Stabilization)

VFX 플레이트를 캡처할 때 매우 중요한 점은 적절한 흔들림 보정(stabilization) 실행입니다. 흔들리는 영상을 보정하는 데는 막대한 포스트 처리 작업이 필요할 수 있습니다. 이는 시간과 비용이 많이 드는 데다, 디지털로 작업할 경우 일반적으로 이미지 크롭(crop) 작업이 필요하기 때문에 캡처 해상도가 떨어집니다. 카메라 시스템의 환경을 설정하고 캡처 포맷을 선택할 때 이 점을 꼭 염두에 두시기 바랍니다.

 

촬영하는 장면의 맥락도 생각하시는 게 좋습니다. 정글에서 울퉁불퉁한 비포장도로를 달리고 있습니까? 아니면 매끈한 포장도로를 따라 달리고 있습니까? 시나리오에 따라 맥락에 맞추기 위해 서로 다른 움직임이 필요할 수 있습니다. 본격적인 의사 결정 단계에 들어가기 전에, 전체 장면 중 어느 부분에 플레이트가 어떻게 들어가야 하는지 숙지해 놓는 편이 좋습니다.

 


 

피사계 심도 일관성

피사계 심도 불일치를 피하려면, 해당 장면을 사전에 숙고해 촬영감독이 의도하는 피사계 심도와 조율해야 합니다. 플레이트가 현실적으로 보이려면 플레이트의 초점 폴오프(falloff) 및 왜곡 특성(distortion characteristics)이 장면과 일치해야 합니다. 대부분의 시나리오에서는 깊은 피사계 심도로(즉 모두 초점을 맞춰) 플레이트를 캡처하길 권장합니다. 이렇게 하면 VFX팀이 블러 특성을 필요한 대로 조정할 수 있습니다.

ThePerfectionNetflix.png

스플릿 디옵터(split diopter)에서 의도적으로 불일치시킨 피사계 심도의 예시

 


 

스티칭한 플레이트용 센서 싱크

어레이(array) 내에서 모든 카메라의 센서 싱크를 유지하는 일은 매우 중요합니다. 센서 싱크는 환경 설정된 각각의 센서가 이미지를 동시에 캡처하도록 합니다. 이는 시스템 사이의 프레임 불일치를 방지합니다. 어레이에 사용하는 카메라 시스템이 센서 싱크가 가능한지 확인하시기 바랍니다. 센서 싱크는 대부분 전용 젠록(genlock) 생성 디바이스의 젠록 입력을 통해 이루어집니다.

 

젠록 또는 센서 싱크를 염두에 두어야 하는 이유는 무엇입니까?

적합한 플레이백을 위해 LED 비디오월 패널 여러 개에 사용할 때와 마찬가지로, 복수의 카메라 시스템에 있는 CMOS 센서의 판독/재설정 사이클 싱크에도 젠록을 사용할 수 있습니다. 센서 싱크를 하지 않을 경우, 어레이(array) 내 카메라 시스템 전부가 다양한 각도에서 시간적 오프셋(offset)이 있는 프레임을 캡처하게 됩니다. 이러한 오프셋으로 인해, 여러 시야 평면에 걸쳐 이미지를 정렬하고 이어 붙이는 과정에 추가 VFX 작업이 필요해집니다. VFX팀에 추가 작업의 부담을 주지 않으려면, 카메라에서 최대한 정확하게 이미지를 포착해야 합니다.

 

image.png

센서 싱크에 사용하는 젠록의 예시

사진 출처: RED Digital Cinema

 


 

참고 사항 및 메타데이터 수집

참고 사항 및 메타데이터 수집은 프로덕션의 필수 요소입니다. 어레이(array) 셋업과 카메라 설정, 차량 속도, 렌즈 설정의 세부적인 참고 사항을 캡처 과정 동안 보관해야 하며, 캡처한 영상과 함께 편집 및 VFX팀에 전달해야 합니다. 프로젝트에 따라 다르지만, 보통 VFX 데이터 랭글러가 이 정보를 수집합니다. VFX 작업이 많은 작품의 경우, 데이터 수집은 (제1 또는 2 AC와 종종 긴밀히 협력하는) VFX 데이터 랭글러가 담당합니다. VFX 데이터 랭글러가 없다면 카메라 부서에서도 이 정보를 수집할 수 있습니다.

 

예시 메모/메타데이터:

  • 카메라 제조사/모델
  • ISO
  • 화이트 밸런스
  • 셔터 속도
  • 프레임 레이트
  • 해상도
  • 코덱
  • 색 공간
  • 감마 곡선
  • 렌즈 제조사/모델
  • 렌즈 초점 길이(focal length)
  • 렌즈 조리개
  • 렌즈 초점거리(focus distance)
  • 참고용 현장 사진
  • 카메라 배치 – 바닥으로부터의 높이, 장면과의 거리, 각도
  • 차량 속도
  • 로케이션
  • 시각(time of day)
  • 태양 위치

 


 

컨폼 사양(Conform Specifications)

LED 기반의 버추얼 프로덕션을 위한 컨폼, 컬러, 편집 필요조건의 세부 사항은 다양하고 복잡합니다. 이 사항들은 드라이빙 플레이트(driving plate)를 선택, 편집, 이어 붙이는 작업부터 스톡 영상 사용까지, 그리고 100% 컴퓨터로 생성한 그래픽까지 망라합니다. ‘하나로 모든 곳에 적용 가능한’ 사양은 없습니다. 다음 섹션은 프로덕션 및 공급업체가 촬영 계획과 제약 사항을 논의할 수 있는 출발점을 제시할 목적으로 작성됐습니다.

 

출력 코덱

  • 사용하는 플레이백 서버에 따라 전송 코덱을 선택해야 합니다. 모든 코덱이 다양한 운영 체제, 다양한 소프트웨어 패키지, 다양한 그래픽 카드에 똑같이 작동하도록 제작되지는 않습니다.
  • 최소 비트 심도가 10bit인 비디오 코덱을 선택하시기 바랍니다. 이는 밴딩 및 컬러 재현 문제를 피하기 위해 어떤 HDR 사양에서도 필수입니다. 압축 상태로 촬영할 경우 출력 코덱은 최소한 캡처 설정을 반영해야 합니다. RAW 영상으로 작업한다면 가장 높은 옵션을 반영해야 합니다.
  • 일반적인 납품 코덱 및 참고 사항:
    • ProRes 422/444 - 압축(압축 코덱), CPU 기반, 윈도우 기능에 제한이 있음(하지만 계속 확장 중)
    • Notch LC - 압축(압축 코덱), GPU 기반, 연동에 제한이 있지만 확장 중이며 플레이백이 매우 안정적이고 빠름
    • QuickTime 애니메이션 - 무압축, CPU 기반, 실시간 플레이백이 어려움
    • DNxHR444 - 압축(압축 코덱), CPU 기반, 효율성이 높지만 연동에 제한이 있음
    • HAPQ - 압축(압축 코덱), 8-bit. 이 영역에서 가장 흔히 사용되며 널리 지원되는 코덱의 하나이기 때문에 명시함
  • 현재 추천하는 컨폼 코덱은 ProRes이며, NotchLC과 DNxHR도 추천합니다. 이들 옵션은 이용 가능한 대부분의 주요 시스템 및 소프트웨어를 지원합니다. 더 자세한 사양은 콘텐츠 플레이백 관련 기술 문서를 참고하시기 바랍니다.

 

출력 해상도 / 프레임 레이트

  • 소스 해상도는 최소한으로 유지해야 합니다. 파이프라인 내 어느 부분에서든 업스케일링은 지양하시기 바랍니다.
  • 일반적으로 출력 해상도는 LED 화면 해상도와 1:1이어야 합니다. 이는 패널 공급업체, 플레이백 서버, 프로덕션 필요 사항에 따라 크게 달라질 수 있습니다.
  • 젠록 싱크를 위해 플레이백 프레임 레이트는 캡처 프레임 레이트와 동일해야 합니다.

 

컬러 파이프라인

LED 기반 촬영의 컬러 파이프라인과 워크플로는 복잡하고 다양하며, 본 가이드에서 설명한 소프트웨어 및 하드웨어의 모든 요소와 연관됩니다. 가장 중요한 사실은, LED 패널이 육안으로 시청할 디스플레이가 아니라 카메라로 캡처할 광원이라는 점입니다. 따라서 필요조건과 컬러 워크플로가 다릅니다. 현장에서 패널을 육안으로 볼 때의 모습이 아닌, 카메라가 캡처한 결과물을 반드시 확인하시기 바랍니다.

이 워크플로는 곧 공유할 개별 문서에서 더 자세히 설명할 예정입니다. 다만 촬영을 계획할 때 관련 논의를 시작하기 좋은 몇 가지 간단한 확인 사항을 알려드립니다.

  • LED 사양을 숙지하시기 바랍니다 – LED 패널 보기
  • 이미지 프로세서/LED 패널 간의 캘리브레이션 성능을 최대화하시기 바랍니다.
  • 메인 캡처 카메라(LED 패널 콘텐츠용과 메인 촬영 카메라/렌즈용 모두)를 잘 파악해야 합니다.
  • 이상적으로는, LED 패널에 맞게 매개 변수가 설정되고 카메라 캡처에 최적화된 출력 변환을 통해 콘텐츠를 출력해야 합니다.
  • 현장에서 발생할 수 있는 사소한 업데이트(화이트 포인트(white point), 노출, 명암 등)에 대비하시기 바랍니다.

예시:

  • LED 패널 최대 니트 레벨: 1500 nit
  • RGB 원본: P3
  • 전송 함수(transfer function): PQ/Gamma
  • 블랙 레벨: 0.008nit
  • 메인 카메라: ARRI Alexa Mini LF

이 예시에서 1500nit의 PQ P3로 출력 변환(output transform)을 생성할 수 있습니다. 패널을 확인하고 확정하는 기능이 있는 게 이상적입니다.

LED 패널의 콘텐츠를 ‘창의적’으로 보정하는 일은 피하시기 바랍니다 - 콘텐츠를 ‘더블-러팅(double-lutting)’하게 됩니다. 장면 참조(scene-referred) 공간에서 수행해야 하는 기본적인 CDL 컨트롤(기울기(slope), 오프셋(offset), 파워(power), 채도), 하이라이트 및 섀도 롤오프(톤 매핑), 그리고 (적절한 인버스(inverse) 수행을 위해 프로세서 및 LED 패널과 일치하는) PQ/감마 전송 함수만 있으면 됩니다.

 

도움이 되었습니까?
20명 중 20명이 도움이 되었다고 했습니다.