蓋世汽車訊 在計算機視覺的一些應用中,例如增強現實和自動駕駛汽車,估計物體和相機之間的距離是一項重要任務。聚焦/散焦深度是利用圖像中的模糊作為線索來實現這一過程的技術之一。聚焦/散焦深度通常需要一堆以不同焦距拍攝的同一場景的圖像,這種技術稱為“焦點堆?!薄?/p>
在過去的十幾年里,科學家們提出許多不同的聚焦/散焦深度方法,其中大多數可以分為兩類。第一類包括基于模型的方法,使用數學和光學模型根據清晰度或模糊度來估計場景深度。然而,此類方法的主要問題是它們無法處理無紋理的表面,而無紋理的表面在整個焦點堆棧上看起來幾乎相同。
第二類包括基于學習的方法,可以訓練這些方法以有效地執行聚焦/散焦深度,即使對于無紋理的表面也是如此。然而,如果用于輸入焦點堆棧的攝像頭設置與訓練數據集中使用的攝像頭設置不同,這些方法就會失敗。
據外媒報道,日本研究人員克服了這些限制,開發出創新的聚焦/散焦深度方法,可以同時解決上述問題。該相關研究由日本奈良先端科學技術大學院大學的Yasuhiro Mukaikawa和Yuki Fujimura領導,且已發表在《International Journal of Computer Vision》上。
聲明:以上內容為本網站轉自其它媒體,相關信息僅為傳遞更多企業信息之目的,不代表本網觀點,亦不代表本網站贊同其觀點或證實其內容的真實性。投資有風險,需謹慎。