Appleのカメラ戦略がこれで決まる!
先日は,「2019iPhone」は,今年度と同様画面サイズになりそうだという話題をご紹介しました。
今回は,現在のスマホにおける話題の中心となっている「カメラ」に関すること。
どうやら来年のiPhoneは,「3眼レンズ搭載」となりそうです。
Appleはどうやら,カメラ戦略を中心に「多眼式レンズ」を据えることを考えているようです。
純粋な「多眼式」か,「多眼式+ソフトウエア」か?
以前,今年度の「スマホカメラ戦争」の構図を,「多眼レンズ式」VS「ソフトウエア式」としてご紹介しました。
つまり,写真撮影の際の,ポートレートモードの「ぼけ効果」等の画像処理を,レンズを増やすことで物理的に行うのか,それとも一つのレンズでソフトウエア処理をするのかという,そもそもの考え方がメーカーによって分かれてきているということです。
「多眼式」の代表格は,SamsungのGalaxyシリーズやHuawei Pro20。そして「ソフトウエア式」の代表格はGoogleのPixel3です。
iPhoneに関しては,両刀使いといった様相ですね。
iPhoneXS系は,広角レンズと望遠レンズの「2眼」ですが,ポートレートモードなどではA12Bionicのニューラルエンジンによるソフト処理も大きく影響しており,「多眼式+ソフトウエア式」といったところ。
また,iPhoneXRは「1眼」で,iPhoneXSと同様の「ぼけ効果」を発生させているということで,こちらは完全な「ソフトウエア式」といえます。
しかし,iPhoneXRの画像に関しては,「そのポートレートモードは人物限定」という噂もあり,機能が制限される可能性が大。
だとすれば,Appleの本筋はあくまでも「多眼式+ソフトウエア式」といえるでしょうか?
そして来年度のiPhoneが「3眼レンズ搭載」ということになれば,Appleとしては「完全なソフトウエア式」を本命にはしていないということが言えるでしょう。
三つのレンズの役割分担が気になる!
ここで気になるのが,三つのレンズの役割分担です。
現状のiPhoneXSでは,「広角」と「望遠」の2種類。そして,この「望遠」側を活用してポートレートモードのぼけ処理を行っています。
とすると,新たに設けられるレンズの役割は?
前掲の記事には,すでに3眼レンズを搭載しているHuawei Pro20では,三つ目のレンズは「階調とディティール精度を上げるためのモノクロレンズ」であると書かれています。
また,4眼レンズを搭載したGalaxyA9では,「上から広角用8MP(F2.4 画角120度),望遠用10MP(F2.4 光学2倍ズーム),メインとなる24MP(F1.7),そして深度測定用の5MP(F2.2)」という役割分担がされています。
さて,Appleが与える三つ目のレンズの使命とは?
恐らくポートレートモードの深度測定用
私は,ポートレートモード時のぼけ処理を高精度化するための「深度測定用レンズ」だと考えます。
iPhoneXSでも,ニューラルエンジンの飛躍的向上によって,iPhoneX時と比較すると,被写体と背景との「分離」がかなり自然な形で行われるようになりました。
しかし,まだまだ中心となる被写体の一部分が不自然に背景と溶け込んでしまうことが多いのが事実。
その原因は,被写体と背景との「距離的」な捉えが曖昧であることにつきます。
現状では,機械式の一眼レフのような距離の測定で背景をぼかしているのではなく,あくまでも画像を平面的なものとして捉え,その構図内の被写体の配置をソフト的に読み取って判断しているものと思われます。
だからこそ「誤診」が起こるのです。
この部分を「レンズによる物理的に距離測定」で補うことができたら,Appleが目指す完璧なポートレートモードに近づくことになるでしょう。
しかし,完全ソフトウエア式のPixel3は,1眼でiPhoneXSよりも高精度なポートレートモードを実現しているということですので,そのアプローチの仕方はそう単純なものではないのかもしれません。
以前にも述べましたが,ソフトウエア式でこの部分がクリアできるのであれば,コスト的にも有利ではあるはず。
レンズに対するコストをかけてでもメリットがあるという判断をしているからこそ,AppleにしてもSamsungにしても「多眼式」に進もうとしているのでしょうから,その効果を今後も見届けていきたいと思います。