XR與三維重建技術分享
XR、AR、VR、MR
概念區分
1。VR:VR 通常(但非必須)要求使用者佩戴頭部顯示器,以模擬的視覺元件完全取代使用者的視野,並佩戴耳機,以向用戶提供配套的音訊。
VR 的阻斷隔離式的沉浸感是優點也是缺點
,但是因為和現實的脫節,導致其實用性不足,因此分化出第二條發展路線 AR
2。AR:AR 是指向使用者提供其他資訊或人工生成的物件或內容覆蓋其當前環境的影象。此類附加資訊或內容通常是視覺或聽覺的,並且對當前環境的觀察可以是直接的。
3。MR:虛擬元素被融入到物理場景中,目的是提供一種虛擬和現實結合的場景,即這些元素是真實場景的一部分 。在 MR 場景下,大部分虛擬內容基於現實理解而產生,因此比純虛擬化的場景更具有體驗上的真實感。
AR與MR的區分:
AR典型例項:
MR典型例項如上:
4。XR:XR 是指由計算機技術和可穿戴裝置生成的所有真實和虛擬組合環境以及人機互動。
典型裝置
VR典型裝置:
2。AR典型裝置:
如果想要對XR技術有更加深入的理解,可以檢視下面的這篇文章
https://
mp。weixin。qq。com/s?
__biz=MzkwNDIxNjgwNw==&mid=2247511015&idx=1&sn=8402312ee3d5ee54ffbf9db9d3729013&source=41#wechat_redirect
三維重建
機器人導航、自動物流車、掃地機、人臉等
多視角重建
演算法原理:
典型多視角重建:
現有產品:
相機陣列:
現有產品:
2。演算法原理:
光場相機(微透鏡陣列):
典型產品:
2。原理
谷歌展示突破性光場顯示屏Project Starline
谷歌的project Starline是採用光場顯示來實現的;
鐳射雷達(Lidar)
1.字面拆解:
Li:Light(光),雷達發射出人肉眼無法看到的光。
d:detection(檢測),靠發射出的鐳射束找到障礙物。
a:and
r:ranging(測距離),靠返回的光束判斷物體距離。
2。
功能拆解:鐳射-->訊號源;雷達-->探測回波+掃描-->周圍環境測距
補充說明:線代表著什麼?
3.典型鐳射雷達原理
三角測距
TOF(Time of Flight)測距原理
鐳射器發射一個鐳射脈衝,並由計時器記錄下出射的時間,回返光經接收器接收,並由計時器記錄下回返的時間。兩個時間相減即得到了光的“飛行時間”,而光速是一定的,因此在已知速度和時間後很容易就可以計算出距離。
Time of Flight 分為兩種:direct ToF 和 indirect ToF
dToF
直接測量飛行時間,對測量器件要求很高。
Iphone Lidar功能展示:
不支援在 Docs 外貼上 block
端側三維重建app
:3D scanner app、Polycam、Record3D、Scaniverse、SiteScape、Everypoint;
手機端搭載的優勢:節省算力
RGBD深度相機
應用場景:AR/VR的裝置,刷臉支付,部分手機
RGB-iToF相機
iToF
最常用的tof技術。發射端發射調製方波/正弦波,接收端快門和發射做同步,利用飛行時間差導致的接受光強變化,得出飛行時間算出距離。
接收端
接收端一般使用背照式的cmos sensor,感光波長為不可見光的850nm或940nm。室內採用850nm,室外採用940nm。原因:陽光(干擾光)中的940nm因水汽吸收,強度較弱。室內使用850nm因為感測器QE在850nm的時候較強。
深度相機的每個畫素包含兩個子畫素b1和b2,兩個畫素能做快速切換。相機上的控制單元開啟光源然後再關閉,發出一個調製光脈衝,同時b1處於曝光狀態,接收到光強記為s0。在b1曝光結束後,緊接著b2開始曝光,曝光時間同b1,接收到光強記為s1
因為單個光脈衝的持續時間非常短,此過程會重複幾千次,直到達到曝光時間。然後感光感測器中的值會被讀出,實際距離可以根據這些值來計算。記光的速度為c,tp為光脈衝的持續時間, S0表示較早的快門收集的電荷, S1表示延遲的快門收集的電荷,那麼距離d可以由如下公式計算:
發射端
供應鏈和成本
RGB-結構光相機
現有產品(具備相對完備的產品矩陣)
2。產品原理與優勢:
產品原理與優勢:
優勢:重建精度是所有方法中最高的,常用於要求較高的工業質檢場景中。
參考文獻:
鐳射雷達原理秒懂
鐳射雷達工作原理介紹
(3條訊息) 鐳射雷達(二)——三角測距法和TOF原理_a063225的部落格-CSDN部落格_鐳射雷達測距原理
深度相機(TOF)的工作原理 - 知乎 (zhihu。com)
(3條訊息) 軟體經驗|使用消費級無人機幹測繪(三)Pix4Dmapper軟體介紹_海洋GISer成長記-CSDN部落格_pix4dmapper