文章摘要: 所以你不僅能看到 Pixel 手機 AI 拍照能讓 Pixel 手機變得和 iPhone 一樣流行嗎
剝離技術和引數的外衣,探求設計與人文的本源。
沒有太多硬體基因的 Google,對於智慧手機產品一直有著另一番理解,尤其是在拍照方面。2016 年 10 月 5 日,Google CEO 桑達爾·皮蔡(Sundar Pichai)提出了由「移動為先」轉為「AI 為先」的口號,同日亮相的初代 Pixel 手機就是這個理念的體現。
表面上看,Pixel 使用的攝像頭和更早推出的 Nexus 6P 並沒有太大變化,大家都是一樣的 1230 萬畫素和 1.55 μm 的單畫素尺寸,區別僅僅是加入了相位對焦功能,但兩者卻在 DxOMark 上獲得了完全不同的評價 —— Nexus 6P 只有不起眼的 73 分,但 Pixel 卻憑藉 89 分拿下了當時的榜首。
之後的第二代 Pixel 推出時,Google 也開始把關鍵賣點放在了拍照上,這款手機的評分漲到了 98 分,一舉超過同期的三星 Galaxy Note 8 和蘋果 iPhone X 再度登頂,DxOMark 當時給出的評語是「創下智慧手機相機質量的新記錄」。連續兩次拿下榜單首位,加上媒體和使用者的好評如潮,開始讓 Google 親兒子手機散發出一種神祕的吸引力。其中最讓人不解的是,兩代 Pixel 手機都僅憑單攝像頭就獲得了這一成績,難道 Google 的 AI 演算法真的已經強大到能無視物理硬體了嗎?
▲ 圖片來自:Gizmodo哪怕是在今天,新發布的 Pixel 3 手機也依舊沒有采用時下主流的雙攝乃至是三攝組合,這種「靠單攝獨步天下」的功力,除了 Google 你也很難再找到第二家了。但現在來看,它確實有這份「任性」的資格和底氣。Pixel 3 的攝像頭有多聰明?在大眾使用者的認知中,攝影的過程無非就是三個步驟:1)看到自己想拍的東西;2)開啟相機按下快門,記錄這個瞬間;3)獲得一張靜止不動的照片。專業攝影師就不一樣了。他們得根據現場的光照情況對應調整快門和光圈大小,選擇合適焦段的鏡頭,拍攝時會考究構圖和按快門的時機,拍完還要拿去 PS 或 LR 裡後期一下,最終才得出了我們眼中的各種「大片」。
▲ 圖片來自:Businessinsider但智慧手機的普及改變了這一切,不管是 Pixel 還是 iPhone 或其它手機,手機廠商都在淡化原本只有攝影師才懂的 ISO、曝光時間等數值,這些交給處理器和演算法完成就好了,使用者只要懂得按下快門,也能拍出一張媲美卡片機的照片。Google 顯然也懂得這個「拍照傻瓜化」的道理,只是比起尋求專用硬體來點亮更多的技能樹,它更喜歡利用 AI 和各種堆疊演算法來解決問題。這種思路很有趣,說白了,它希望讓機器自己去學習如何才能拍得更好。
在去年的 Pixel 2 系列中,Google 專門加入了一顆名為「Pixel Visual Core」的定製影象處理單元,這是 Google 與英特爾合作開發的 8 核心協處理器,目的是用來加速各種與 AI 拍照相關的任務,比如 Pixel 系列一貫主打的 HDR+。而在 Pixel 3 上,這顆 Visual Core 核心也獲得了更新,它的處理速度比去年快了 40%,意味著它能對更快地處理各種繁雜的照片源資料,在機器學習的幫助下還讓 Pixel 3 解決了一些日常拍照的痛點。
首先是名為「Top Shot」的照片精選特性,它能夠在你按下快門時自動記錄前後數秒的影像,有點類似 iPhone 中的 Live Photos,但此時 AI 還會自動將「最佳時刻」打上標籤供你挑選,所以就算是你不小心拍到別人閉眼的窘態,也可以選擇其它畫面作為最終照片。
▲「Night Sight」不僅適用於後置,也適用於前置。圖片為 Google 官方樣張至於在伸手看不清五指的場景下,Google 給出的方案是「Night Sight」夜景模式,這個功能的核心還是藉助 HDR+ 的連續取樣和多幀合成,目的是儘可能地提高照片的亮度,徹底解決「暗光拍不到」的問題。
爲了強調這個模式的出衆效果,Google 在發佈會上還對隔壁 iPhone XS 進行了一番「吊打」,也不知道蘋果此時的心情是怎麼樣的。還有一個是「Super Res Zoom」,主要是取景是變焦後圖片放大的情況,其實是將一些傳統單反中的「畫素偏移模式」用在了變焦功能上。
▲ engadget 日本使用 Pixel 3 拍攝的樣張,如果放大圖中框選的部分…圖片來自:engadget
▲ 這是 Pixel 3 放大後的樣張。圖片來自:engadget具體來說,Google 抓住了我們取景時都會輕微抖動的小細節,它會在這個過程自動根據手部運動移動感光元件,然後並連續抓拍數張照片,再借助演算法進行合成。在這個方式下,每個畫素都可以獲得足夠的 RGB 色彩資訊,最終便能實現一張擁有超高解析力的照片。按照 Android Central 的說法,哪怕是放大 8 倍,Pixel 3 的變焦照片仍然能保持和 Pixel 2 上 2 倍變焦的清晰度。這意味著就算沒有獨立的長焦鏡頭,Pixel 3 仍然可以拍出不亞於光學變焦效果的照片。Google 延展的不止是拍照的廣度,還有拍照的深度「我們已經看過所有能選擇的鏡頭組合,單純加一顆攝像頭對我們而言並沒有好處。」在 Pixel 3發佈會後,Google 的產品副總裁 Brian Rakowski 這樣說道。在他看來,Pixel 手機已經能通過感測器獲得足夠多的資訊,之後再通過機器學習等方式,同樣能產生使用者所需要的照片。
本質上看,Google 是在嘗試用「計算攝影(Computational Photography)」的概念,為傳統攝影引入 AI 機器學習等高階演算法,等同於是對解析度、光照、對焦點和景深等這類影象資訊進行一次重新梳理,以此突破單攝像頭的物理邊界。
打個比方,以 Pixel 2 中的 HDR+ 為例,表面上看你用手機拍照只是開啟取景器再咔嚓一聲,可暗地裏攝像頭在你開啟取景器後就開始採集工作了,這些資料會實時保留在手機快取中,並最終被合成演算法所呼叫。除此之外,Google 還將圖片分割成一個個獨立的方塊,保留高動態範圍和細節的同時,也會盡可能地去除模糊、鬼影和噪點。
還有像前文提到的「Top Shot」這種「先拍後選」的模式,其實也受到了計算攝影思維的影響,它們都是在使用者無法感知到的底層去實現。DPReview 近期採訪了 Pixel 的相機產品經理 Isaac Reynolds 以及計算攝影主管 Marc Levoy,他們表示,爲了保證零延遲快門的體驗,當初 Pixel 2 的安全快門值設爲了 1/15 秒,這樣哪怕是在最糟糕的暗光環境,HDR+ 也可以保證在 0.6 秒內對最高 9 張影象進行合成;若是光線充足狀態下則可以縮短到 150 毫秒。
很顯然,使用者是不會感知到這些後處理流程的,呈現在我們眼前的只是最終的成品照。而在 Pixel 3 上,用於「Super Res Zoom」變焦模式的合成影象會高達 15 張之多,而「Night Sight」夜景模式更是犧牲了零延遲快門。它和一些國產手機的超級夜景一樣,需要你在按下快門的同時保持機身穩定,此時相機會捕捉最高 15 張照片並進行合成,每張照片的快門速度最低為 1/3 秒,由此來獲得接近 5 秒曝光效果的照片,其中因手抖而糊掉的照片也會被自動剔除。
另一個不得不說的是自 Google Pixel 2 時代就備受好評的人像模式,雖然這款手機並沒有配備雙攝像頭,但依舊可以拍出不輸於同期雙攝旗艦的虛化照片。它實際上是藉助感測器的 PDAF 雙畫素特性來捕獲左右兩種視覺影象,從而得到簡單的深度資訊,然後再依靠影象分割技術,對影象輪廓進行精準定位。在這個過程中,Google 花了不少心思訓練了一個神經網路模型,它會根據深度資訊分辨出照片中哪些部分屬於人物,哪些部分是屬於背景的,畢竟只有分清前景和後景,演算法才能對正確的區域進行虛化處理,最終才能合成一張淺景深的照片。
▲上圖為機器學習參與後的深度資訊圖,下圖則是單純基於雙畫素和立體演算法的深度資訊圖,背景椅子的部分可以看到明顯的差異。圖片來自:DPReview而在 Pixel 3 上,Google 對深度對映演算法又做了新的調整,並加入了機器學習的手段。從對比圖可以看到,如果只是單純基於雙畫素和立體演算法,碰到像玻璃杯、有網格的欄杆這類前後景模糊的場景時,深度圖識別很可能會出錯。但在機器學習參與後,照片的整個虛化效果和範圍都跟以前完全不一樣了。
AI 拍照能讓 Pixel 手機變得和 iPhone 一樣流行嗎?Google 是靠搜尋和工具業務起家的,本質上不是一家硬體公司,即使是 Pixel 手機,它的整個重心都是圍繞服務和 AI 展開的。所以在歷屆 Pixel 發佈會上,最出風頭的仍然是 Google 的軟體服務。演講人不會對配置做太多的介紹,更多會去強調那些「只有 Pixel 手機才能用上的功能和服務」,這其中就有各種 AI 拍照的身影。
▲ 圖片來自:Post and Courier但面對蘋果、亞馬遜等巨頭公司的步步緊逼,Google 又不得不做硬體,就像 Google 的硬體負責人 Rick Osterloh 所說的那樣,他要找到更多的方法讓 Google 智慧助手出現在人們面前。所以你不僅能看到 Pixel 手機,還有各種音箱、耳機與平板電腦。這並不是一個主流的玩法,在很多人看來,智慧手機是一門硬體生意,推動消費者每年換手機的動力來自更好看的外觀、更強的處理器和更多的攝像頭,各種手機產品的橫評也只是硬體引數的對比,而無法量化的軟體只能一筆帶過。畢竟,大家本質上用的都是 Android 作為底層,跑同樣的 apk 應用,也唯獨只有硬體能做出比較大的差異。
可 Pixel 手機依舊和其它 Android 不一樣,這是 Google 親自參與的,只有它能夠將 Android 系統改造成自己想要的東西,不然你也不會看到那麼多基於底層的拍照演算法,還有額外的定製晶片。在 Google 的 AI 加持下,沒人能猜到 Pixel 手機還能帶來多少我們所不知道的光影玩法。
▲ 圖片來自:Nagisa Ichikawa但 AI 並非無所不能,Pixel 3 上依舊有隻能靠硬體來實現的特性。比如說新加入的 800 萬前置廣角鏡頭,就是專門用來拍多人集體照和大場景自拍的,這兩種場景都沒辦法靠標準鏡頭實現。還有那顆 Visual Core 核心,如果沒有它的協助,Pixel 3 的 AI 拍照也無從談起。歸根結底,手機中的 AI 仍然要依靠足夠的計算力來驅動,沒有優秀的硬體做基礎,軟體體驗顯然得打個對摺。但 Google 顯然為手機攝影帶來了另一條發展方向,這也給那些原本就有強大物理硬體加持的同僚們更多啟示,當然,也無疑讓消費者們對手機拍照有了更大的期待。題圖來源:ETtoday 新聞雲
三分鐘帶你弄懂英特爾酷睿處理器的型號