プロカメラマンに学ぶ写真の現像-データから見るiPhone写真の特性-
by Balshark
2024年現在、”写真 x AI”という分野においてはMidjourneyやStable Diffusionなどの画像を生成するAIにより”実際に撮影した”写真と見分けがつかない画像が生成されるだけでなく、世界的な写真コンテスト、ソニーワールドフォトグラフィーアワードでDALL-E2を使って生成された作品「The Electrician」が入賞作品に選出されるなど話題に事欠きません。
一方で、元来の写真という分野もこれまで以上の盛り上がりを見せ、2月末に開催されたCP+2024ではコロナ禍のVlogブームで沸き立った動画からシフトし、昨今の写真ブームを意識した各社の出展が目立ちました。

(写真:バルシャーク)
かく言う筆者も写真に熱中しているわけですが、撮影した写真を現像する方法がわかっていないのです。そこで本記事では、最近写真をかじり始めた筆者が図々しくもプロカメラマンのヤギシタヨシカツ氏の力をお借りして、データに基づく写真の現像と現像ソフトの細かな見方を学んでいきます。
なお、筆者がヤギシタ氏に現像を教わる様子は同氏のYouTubeチャンネルで公開される予定です。
iPhone写真をデータから解剖する

現像を学ぶにあたり筆者からヤギシタ氏にいくつか注文をさせていただきました。
- 写真をデータから”解剖”したい
- Lightroomなどの現像ソフトの見方、使い方を教えて欲しい
- 現像の練習としてiPhoneを活用したい
これらの注文の趣旨は「雰囲気で写真の現像を学ぶのではなくデータに基づいて現像の技術を学びたい」というものです。そのため、いきなり雰囲気の良い写真へ現像するのではなく、今回はiPhone写真をミラーレス機で撮影した写真に近づける現像を通して現像の技術を学びます。
本記事では、比較としてiPhone 14 Pro(標準レンズ:24mm, F1.8, 4800万画素)とSony α7CR(6000万画素)+ 24mm f2.8 gレンズの組み合わせを用いています。また現像しやすくするためiPhone写真は全てProRAW MAXという形式で保存しています。(iPhoneの「設定」→「カメラ」→「フォーマット」から選択、純正アプリでは撮影時に右上にある”RAW MAX”をオンにすることで保存できます。)


iPhone画像データを眺める-現像ソフトの見方-
早速現像ソフトCapture Oneで両機のRAW画像を見ていきます。(本記事では主にCapture Oneを使用していますが、他の現像ソフトでも同様の操作が行えます。)
iPhoneで撮るRAW画像の特性

比較した場合に写り(色味)が違うのは明らかなのですが、データを見た場合にiPhone写真にはレンズの歪みに関する情報が記録されていませんでした。通常カメラではディストーション(歪曲収差)というものが存在し、画面中央に対し膨らむ歪曲を「たる型歪曲」、画面中央に向かって歪曲する場合を「糸巻き型歪曲」と言います。なので一般的なカメラとは少しデータの見方そのものが違ってくる可能性があります。

輝度データから見えるiPhoneの特性
次に、写真の輝度データを見ていきます。現像では適切な露出に合わせる作業においてこの輝度のマップを見ていきます。

左側に表示しているのは現像ソフトで見ることができる輝度のマップで、横軸は左から右に向かって暗→明の情報、縦軸はそれぞれの明暗情報の大きさを意味します。Capture Oneでは写真上にマウスカーソルを合わせることで、その位置が輝度マップのどの明暗情報に該当するかを見ることができ、調べたところ輝度マップの最も明るい側のピークは東京駅の地面部分、最も暗い側のピーク位置は主に東京駅後方のビル部分となっていました。さて、輝度のデータを眺めるとiPhone写真について以下のような特徴が見られました。
- 輝度のヒストグラムから、明るい部分の情報が多い
- 明部と暗部の情報量の差が大きい
- 明部のピークの分布が狭い
- 最も暗い側の輝度の大きさがSony α7CRと比較して特に小さい
- 明るい側の余白がSony α7CRと比較して小さい
これらの特徴の共通点は”明るい部分がより際立つ”ことです。iPhoneの用途を考えるに、家族や友人との写真、旅先での記録が主だったものでしょうから、撮影条件に恵まれる場合(晴天で順光)では適切な設定と言えるでしょう。ただし、裏を返せば今回の写真に限って考えると以下のような欠点ともなります。
- 明部と暗部の情報量の差が大きい→暗部は背景に該当するため背景情報が減って奥行きがない
- 明部のピークの分布が狭い→明部の該当箇所の差異が小さくテクスチャが失われる
- 明るい側の余白がSony α7CRと比較して小さい→明るすぎてギラギラした写真になる
もちろん何が良い写真か?というのは状況にもよるため一括りには評価できませんが、のっぺりとした、奥行きのないスマホ写真の正体は上述のような輝度情報から分析できる内容だと思われます。
iPhone写真をミラーレス機写真のように現像する
ではここからは実際に現像作業を行います。まず手始めに先ほど見た輝度マップの各明暗のピーク位置をSony α7CRに合わせていきます。

次に写真を見ると少し彩度が高くなってしまったため、彩度を調整します。

彩度を単純に下げた結果、写真全体として黄色くなった(色温度が低くなったため)、色温度を高くします。

さてこの段階で、全体的な色味を見ていくと空の色が若干紫っぽくなっていることがわかります。実は色には色相環と呼ばれる色味の違い(色相)を円環に並べた概念があり、隣り合っている色同士が似ている色の性質をもち、180度反対に位置する色同士を隣に並べるとそれぞれが目立つような特性を持ちます。(これを補色と呼びます。)

さてこの色相上では今空の色、特に青色方向のベクトルがやや紫色側に向いている状態にあります。そこで現像ソフトの色相の項目から青色をやや水色側(色相環で見た場合に青色を挟んで紫色と逆方向)に修正します。

最後にビネット(周辺減光)を値を調整し、輝度マップの分布を調整します。

輝度マップを微調整し、最終的に出来上がった画像がこちら。

想定よりもかなり見分けがつかなくなりました。ちなみにこの画像が何で撮られたかを編集長の松尾氏が運営するテック系ポッドキャストbackspece.fmの会員限定Discordで尋ねたところ、誰もiPhoneと答える人はいませんでした。(質問が「どのカメラメーカーでしょうか?」というやや意地悪な質問ではありましたが、明らかにiPhoneだ!とも言えない写真になったようです。)
おわりに
というように、完全に筆者の私利私欲にプロカメラマンを巻き込む形で写真をデータから解剖し、写真の現像の技術について学んでいきました。今回はあくまでもiPhone写真で十分綺麗な状況を取り扱いましたが、このiPhoneの純正カメラアプリが悪い方向に働くこともあるわけです。ただしその話は次回に持ち越したいと思います。
関連
2024年現在、”写真 x AI”と…
