2015/03/24

MV制作におけるLUTを用いたBMCCのRAW収録ワークフロー(という名の宣伝)

はてさて、前回も告知で、今回も告知かw
すみません。

映画やドラマの編集グレーディングだけでなく、田巻はたまに音楽もの、MVやライブ映像なんかを撮影したり、編集したりもしております。

なんだかんだMVは年に何本かやってますが、今年1発目でございます。
これね。
横井玲さんの「言えずじまい」という曲でございます。


都内のハウススタジオで、6時間くらいで、だだだーっと、ほぼ1テイクばっかりw
みんなで見て是非再生回数あげてね。
って宣伝だけじゃどうにも、なので、ちょっとだけワークフロー紹介解説。

Blackmagic Cinema Camera MFTに私物のニコンマウントに改造したヤシカコンタックスのカールツアイスな単焦点18mm,25mm,35mm,50mm,85mmをSpeedBooster経由で装着。2.5k RAWで収録。

現場では、ResolveLiveでLUTを作り、HDLinkに入れてモニタリングしながら照明してもらいました。特に窓向けのリップとかナイターではかなりやりやすかったはず。暗部攻めやすかったしね。
(ん?そこ詳しく?)

Resolve LiveはSDI,HDMIでResolveに入力した信号をリアルタイムにグレーデイングする機能です。
UltraStudio 4K,DeckLink 4K Extremeなどの現行世代の上位機種のビデオI/Oでは1台で、それ以外の場合は、入力と出力に1台ずつのビデオI/Oを用意して、
ある程度のMacであればこなせます。
現行のMacだとGPU的にMacPro以外選択肢無しですが。

こんな子を現場に持ち込んでおりました。

MacPro(8core 64GBRAM D700)
UltraStudio 4K
SmartView 4K
HDLinkPro
Aritist Color
その他もろもろ。

もろもろをDJ用ラックに収納
UIモニタ裏にUltraStudio 4KとATEM Television Switcher

ラック背面。主要な端子はパッチ盤制作。現場で抜き差し多いから、直刺しは破損の危険増すからね。

奥まったところにHD Link、見えるかなw

信号の流れ的には
(1)色調整時
BMCC→UltraStudio4K(→Resolve→UltraStudio4K)→SmartView4K

(2)撮影時
BMCC→HDLink→SmartView4K


なぜに、ResolveLiveのまま撮影しないのかというと、一番は遅延。
7〜8フレームくらい遅れてる印象。
MVだとリップのズレがね。
ので、色作るときだけ、ResolveLiveで、そのあとは、サムネイル右クリックして、
Genelate Lutで「.cube」つくって、HDLinkにポイっです。

PomfortのLiveGrade使わんの?ってのは
状況によっては使いますが、今回は 自分が撮影も兼任なので、いじれません(爆笑)

RAWのカメラではありますが、仕上がりをある程度見られる状態で撮影できると、
敷居も下がるかな。

LUTをあてるってことは、上や下の信号はかなり捨ててる状態でのモニタリングですので、ここで写っているものは撮れてるし、さらにその外にも情報残ってますからね。

で、そんなこんなで撮影。
そのあと、撮影時に作ったLUTをあてて、ワンライト。
出来上がったProRes 422(LT)でFCPXでオフライン。
再度ResolveにXMLで戻り、RAW素材でコンフォーム。
グレーディングを行って、1本化したProRes422(HQ)で書き出して、FCPXへ。
テロップ入れたり、消し込みやら、ローリングシャッターの軽減やらなんやらして
 完成!

って感じです。

参考になるかしらw

追記:
これ、Resolve Liveにこだわらなければ、その場で、撮影、静止画状態でResolveでグレーディング、LUT作る。ならMacBook Proでも十分可能です。
で、ResolveもLiteでできると・・・・

2 件のコメント: