iPhone14 Proはクアッドベイヤー配列センサーで高画質に?
スマホも、一時期の「カメラ性能が最大の売り」というような風潮は随分と薄まってきたようにも感じますが、それでも新機種の売りが「カメラ性能の向上」ということが目立つことには変わりありません。
それだけ新技術を投入することが難しくなっている…というのが、現在のスマホの立ち位置なのでしょう。
それでも、iPhone13 Proの「3倍ズーム」と「マクロモード」に関してはメリットが大きいとは感じます。まあ、Android機からかなり遅れての実装ですので、今更感は強いですが…。
そんな中…。
次期iPhone14 Proのカメラに関して興味深い情報が来ています。
イメージセンサーは4,800万画素になるのに、撮影した写真は1,200万画素相当になる…ってどういうこと?
余剰画素を画質向上にあてるという新感覚
記事によると、
リーカーのジョン・プロッサー氏が自身のYouTubeチャンネル「FRONT PAGE TECH」で、iPhone14 Proシリーズのイメージセンサーは4,800万画素になるが、撮影した写真は1,200万画素相当になり、画素数が増えた分は画質向上に充てられると伝えた
ということです。
一見「?」という情報ですが、これ、「クアッドベイヤー配列」のイメージセンサーを採用するということのようです。
SONYの解説ページを見ると、隣接4画素を同色センサーの組み合わせにしたクアッドベイヤー配列センサーでは、高感度撮影の際には4つのセンサーを1つのセンサーのように見立て、4倍の光量を得ることができるようですね。
これはなかなかおもしろそうなセンサーです。
ちょっとよく分からないのは、記事で言うところの「画素数が増えた分は画質向上に充てられる」という意味は「高感度限定」の話なのか…ということです。
SONYの情報では、
「日中屋外等での明るいシーンなど通常の撮影時には、高度な配列変換処理( リモザイク) により通常のBayer 配列に戻し、Bayer センサー同等の解像度を確保することも可能」
とされています。
ということは、低感度での撮影で十分という明るいシチュエーションでは、そのまま「4800万画素」の画像になる…ということなのか?
それとも、低感度の場合でも1200万画素相当の画像となり、それが従来の1200万画素の画像よりも解像感がアップしているのか?
私としては、後者を望みます。
スマホの画像に、5000万画素レベルの画質は要りません。
それよりだったら、「4画素を1画素分のデータ」として扱い、低感度の画質も向上させてもらった方がメリットが大きいと感じます。
SONY製センサーが採用されるという噂から、クアッドベイヤー配列の「IMX689」というセンサーが採用されるのでは…と、すでに型番まで予想される異例の事態ですが、この「IMX689」の低感度撮影時の処理の詳細が気になります。
まあ、すでに搭載されているスマホの情報を見ると、低感度時は通常の4800万画素を使い切る仕様なのかも知れませんね。
4800万画素…。
要らないんだけどなあ…。
撮影時の画素数を任意に選択できるようになるのかな?