【導讀】機器人想要進行自主移動,便需要擁有3D感知(3D perception)功能,必須利用各種的傳感器來實時掌握機器人在空間中的位置,其中以LiDAR(激光雷達)能夠提供高精度的位置傳感,最受到業(yè)界的重視。此外,機器人也需要通過電機驅動,來執(zhí)行自身或四肢的精準移動。本文將為您介紹LiDAR技術的發(fā)展,以及由ROHM推出的LiDAR與電機驅動解決方案。
激光雷達帶動新服務的創(chuàng)新
近未來的AI機器人是指通過給自主移動機器人(AMR)增加3D感知功能,使機器人能夠在三維空間中判斷自己的位置并識別自身的動作,從而實現(xiàn)高級自主移動和各種運動控制的機器人。AMR要進行各種運動控制,不僅需要確認自身所處位置,還需要進行實時3D感知數(shù)據(jù)處理(比如對周邊物體進行分類、進行物體跟蹤等),因此使用LiDAR和攝像頭的技術架構已經(jīng)成為業(yè)界主流。
隨著實時3D感知數(shù)據(jù)量的不斷增加,構建深度學習模型已經(jīng)成為當前的技術發(fā)展趨勢。由于深度學習模型的學習環(huán)境通常是處于理想條件下的,因此能夠準確地進行狀態(tài)推斷。然而,在機器人的實際工作環(huán)境中,難免要面對不完整的傳感器信息和復雜的移動控制等問題。
機器人用的LiDAR模塊對LD(激光二極管)的分辨率要求很高,因此對所用LD的性能主要有以下兩項要求,首先光源的尺寸要盡量小,其次則是光束的發(fā)散角要盡量小。通常,從半導體激光二極管發(fā)出的光具有一定的發(fā)散角,因此,需要使用準直透鏡將光變?yōu)槠叫泄猓▓D1)。
圖1:光源大小對光斑尺寸的影響
然而,準直透鏡并不能將半導體激光二極管發(fā)出的光完全轉變?yōu)槠叫泄?。通常,從透鏡射出的光束具有一定的發(fā)散角(θ),該發(fā)散角是由光源尺寸和透鏡焦距這兩個參數(shù)所組成的關系式(公式1)決定的。
公式1:θ~ d / f
(d表示光源大小,f表示透鏡焦距)
要想實現(xiàn)高分辨率,就需要進一步減小從透鏡射出的光束的發(fā)散角(圖1中的θ)。關于LD的光源尺寸,因為從透鏡射出的光束的發(fā)散角(θ)和LD的光源尺寸(d)呈正比例,所以如果d減小50%,則θ也會減小50%。關于光束發(fā)散角,從公式1可以看出,焦距越長,從透鏡射出的光束的發(fā)散角越小,因此,最好選用發(fā)散角小的LD。
圖2是表示LD光束發(fā)散角為20deg和25deg時的焦距差異的示意圖。在透鏡直徑相同的情況下,如果使用光束發(fā)散角為20deg的LD,則可以選擇焦距長約25%的透鏡。這樣,從透鏡射出的光束的發(fā)散角(θ)也可以減小20%左右,光斑尺寸也能縮小20%。
圖2:光束發(fā)散角與焦距的關系(20deg和25deg時的比較)
可實現(xiàn)自主工作的AI機器人
高精度LiDAR解決方案
針對這些實際工作環(huán)境問題,ROHM推出了LiDAR解決方案,由具有優(yōu)異的邊緣檢測能力且可輸出高精度點云數(shù)據(jù)的激光二極管、可以高速驅動激光二極管的GaN HEMT、以及用來驅動GaN HEMT的柵極驅動器IC構成,通過能夠獲取穩(wěn)定的3D感知數(shù)據(jù)的端到端模型,可實現(xiàn)自主工作的AI機器人。
ROHM用于LiDAR的半導體激光二極管產(chǎn)品陣容非常豐富,其中包括實現(xiàn)業(yè)界超小光源尺寸(35μm ×10μm)的RLD90QZWA、以及光源尺寸為270μm ×10μm的大功率RLD90QZW8等多種產(chǎn)品(表1)。
表1:用于LiDAR的ROHM LD產(chǎn)品陣容
將產(chǎn)品用在機器人應用中時,其關鍵在于對周邊10~20m左右的環(huán)境的準確感知。對于需要進行近距離精準測距的機器人應用,推薦采用2022年投入量產(chǎn)的產(chǎn)品RLD90QZWA,這款產(chǎn)品的光源尺寸達到了業(yè)界超小水平,只有35μm×10μm大小,而且光束發(fā)散角(快軸方向)為20deg。與以往產(chǎn)品RLD90QZW5(光源尺寸70μm×10μm,θ⊥=25deg)相比,其透鏡出射光束的發(fā)散角縮小了60%。選用這款RLD90QZWA,不僅可以選擇焦距更長的透鏡,還能夠獲取更高精度的點云數(shù)據(jù)。
提升開發(fā)速度的GaN HEMT
激光驅動參考設計
通常,LiDAR多采用ToF(Time of Flight,飛行時間)方式的測距方法。ToF方式是通過測量從光源發(fā)射出來的光經(jīng)目標物反射后返回至接收器所用時間,再計算出距離的一種測距方法。如果脈沖寬度過大,則接收器接收到的光脈沖信號容易混疊在一起,這樣就難以區(qū)分距離接近的兩個以上的目標物了。因此,要提高分辨率,就需要降低脈沖寬度。ROHM為了構建能夠通過窄脈沖信號獲得更高精度點云數(shù)據(jù)的系統(tǒng),開發(fā)出將激光二極管驅動中的關鍵 — GaN HEMT(EcoGaN?)與GaN HEMT驅動用的單通道高速柵極驅動器IC相結合的參考設計 ―“REFLD002”,并已在ROHM官網(wǎng)上公布了相關的設計信息。
圖3:GaN HEMT激光驅動參考設計“REFLD002”
要想充分激發(fā)出GaN HEMT可高速驅動的特性,就必須使用高速柵極驅動器進行驅動。ROHM開發(fā)的GaN HEMT驅動用的單通道高速柵極驅動器IC“BD2311NVX-LB(工業(yè)設備用)/-C(車載用)”已經(jīng)開始提供樣品。該款產(chǎn)品采用的驅動方式在保持高轉換速率的同時,還可以減少10%左右的過沖,領先于業(yè)內(nèi)的同類產(chǎn)品。此外,普通GaN HEMT的柵極-源極間耐壓為6V,而ROHM的EcoGaN? 則達到了8V。基于這些產(chǎn)品優(yōu)勢,用戶將不必再擔心驅動電路開關時的過沖所造成的破壞,電路設計將會變得更加容易。
圖4:激光二極管“RLD90QZWA”的驅動波形
另外,ROHM官網(wǎng)上還公開了一款免費仿真工具“ROHM Solution Simulator”,并配有相應的仿真電路,用戶可以利用該仿真工具輕松地確認不同電路常數(shù)下的波形變化情況,這對于前期的設計研究會有很大幫助。
不僅如此,ROHM的官網(wǎng)上還公開了產(chǎn)品單體的應用指南、仿真模型(SPICE模型、Ray數(shù)據(jù))以及PCB庫數(shù)據(jù)。用戶通過直接使用參考設計,并有效利用參考設計的電路仿真及相關產(chǎn)品數(shù)據(jù),可以大幅削減設計工時和評估工時,大大縮短相關產(chǎn)品導入市場的周期。
小型高效的電機驅動解決方案
機器人應用與電機驅動密切相關,由ROHM推出的電機驅動解決方案中,包括了由機器人自主移動相關的輪系和機器人的各種運動控制相關的控制器的電機驅動中不可或缺的MOSFET,以及用來驅動MOSFET的柵極驅動器IC構成,具有小型、高效的特點。
對于用電池驅動的自主移動機器人而言,主流的電源方案為DC24~72V電源,而對于工業(yè)機器人而言,則主要使用DC48V電源。隨著AI、傳感(圖像識別)以及驅動能力提升等技術的發(fā)展,機器人的功能不斷升級,相應地,就需要消耗更多的電力。在這種背景下,功率轉換技術的問題日益凸顯,并已成為亟待解決的課題,而AI機器人技術領域的功率轉換效率也成為一項至關重要的因素。
ROHM通過將可驅動外置Nch MOSFET、非常適用于DC48V應用的電機驅動、耐壓為100V的高低邊柵極驅動器IC“BD2320UEFJ-LA”與采用了銅夾片結構、封裝小巧、功率損耗低的Nch MOSFET“RS6xxxxBx/RH6xxxxBx系列”相結合的解決方案,降低了開關損耗和導通損耗,非常有助于提高應用產(chǎn)品的工作效率。
圖5:ROHM的柵極驅動器IC和Nch MOSFET產(chǎn)品封裝示意圖
舉個例子,當在工業(yè)設備用的電源評估板上比較電源效率時,在穩(wěn)態(tài)工作時的輸出電壓范圍內(nèi),RS6xxxxBx/RH6xxxxBx系列的電源效率在峰值時高達95.01%。
圖6:RS6xxxxBx/RH6xxxxBx系列與普通產(chǎn)品的效率比較
結語
機器人搭配3D感知的LiDAR解決方案,再結合上AI技術,將使機器人應用邁向新的世代。ROHM針對AI機器人技術領域的高級自主移動和各種運動控制所用的LiDAR模塊,推出了ROHM LiDAR解決方案,通過將擁有業(yè)界超小光源尺寸的激光二極管和可高速驅動激光二極管的GaN HEMT(EcoGaN?),以及用來驅動GaN HEMT的柵極驅動器IC組合起來,助力構建能夠獲得更高精度點云數(shù)據(jù)的系統(tǒng)。
另外,ROHM還推出了電機驅動解決方案,通過將非常適用于電機驅動的高低邊柵極驅動器IC與采用了銅夾片結構、封裝小巧、功率損耗低的Nch MOSFET相結合,助力應用產(chǎn)品進一步提高工作效率。不僅如此,ROHM還在官網(wǎng)上公開了相關的參考設計以及免費的仿真工具“ROHM Solution Simulator”,有效利用這些資源可以幫助用戶削減設計工時和評估工時,大大縮短相關產(chǎn)品導入市場的周期,將會是相關機器人應用的理想選擇。
免責聲明:本文為轉載文章,轉載此文目的在于傳遞更多信息,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請聯(lián)系小編進行處理。
推薦閱讀: