當(dāng)波士頓動(dòng)力的Atlas完成高難度后空翻,特斯拉的Optimus嘗試在工廠中靈活抓取零件時(shí),人形機(jī)器人似乎正在從實(shí)驗(yàn)室邁向現(xiàn)實(shí)世界。然而,這些“鋼鐵之軀”距離真正的自主智能仍隔著一道鴻溝:如何像人類一樣甚至超越人類,通過感知精準(zhǔn)“看清”環(huán)境、理解復(fù)雜環(huán)境,理解三維空間的距離、物體的語義信息以及動(dòng)態(tài)變化,并實(shí)現(xiàn)靈巧的物理交互?
在各類移動(dòng)智能機(jī)器人逐漸滲透工業(yè)、服務(wù)、醫(yī)療等領(lǐng)域的今天,感知能力已經(jīng)成為決定其自主性與智能水平的關(guān)鍵。具身智能的崛起,更是讓這一問題變得愈發(fā)緊迫。與依賴云端算力的虛擬AI不同,具身智能要求機(jī)器人通過“身體”與物理世界實(shí)時(shí)互動(dòng),需要進(jìn)化為物理AI,需要“看見”并識(shí)別動(dòng)態(tài)障礙物的毫米級(jí)位移,判斷抓取物體的表面紋理與剛性,甚至理解人類手勢的微妙意圖,才能完成導(dǎo)航、避障、交互、抓取等復(fù)雜任務(wù)。
然而,傳統(tǒng)視覺技術(shù)長期受限于環(huán)境光干擾、測距精度不足、多傳感器協(xié)同低效等問題,導(dǎo)致機(jī)器人難以在復(fù)雜場景中實(shí)現(xiàn)穩(wěn)定、高效的感知能力,多個(gè)獨(dú)立傳感器融合的方案又過于復(fù)雜臃腫不易部署和量產(chǎn)。2025年3月28日,RoboSense速騰聚創(chuàng)正式發(fā)布機(jī)器人視覺全新品類Active Camera的首款產(chǎn)品AC1及AI-Ready生態(tài),為行業(yè)提供顛覆性的機(jī)器人感知開發(fā)一站式解決方案。
非常值得關(guān)注的是,速騰聚創(chuàng)所推出的AC1提供深度、色彩、運(yùn)動(dòng)姿態(tài)硬件級(jí)融合信息,讓機(jī)器人感知構(gòu)型擺脫堆疊傳感器的傳統(tǒng)方法,進(jìn)化為簡潔高效、便于大規(guī)模量產(chǎn)的商用方案;同時(shí),AI-Ready生態(tài)更是為開發(fā)者提基礎(chǔ)軟件工具與開源算法,提升開發(fā)效率,縮短開發(fā)周期。通過硬件級(jí)融合技術(shù)與AI-Ready開發(fā)者生態(tài),有望重新定義機(jī)器人視覺的邊界,開創(chuàng)AI感知的新范式,用真正稀缺的智能機(jī)器人之眼,開啟機(jī)器人視覺的新進(jìn)化。
▍傳統(tǒng)方案的桎梏
在機(jī)器人視覺領(lǐng)域,主流技術(shù)路線包括傳統(tǒng)攝像頭、雙目視覺、結(jié)構(gòu)光、iToF(間接飛行時(shí)間)以及多傳感器融合方案,但這些方案均存在顯著缺陷,暴露出三大致命短板:

(1)被動(dòng)視覺的天然短板
傳統(tǒng)結(jié)構(gòu)光視覺依賴環(huán)境光被動(dòng)成像,其成像質(zhì)量極易受光照條件影響。在強(qiáng)光或昏暗環(huán)境下,圖像信息丟失嚴(yán)重,導(dǎo)致機(jī)器人無法準(zhǔn)確識(shí)別物體輪廓或距離。例如,傳統(tǒng)AGV\AMR若遭遇陽光直射或陰影交錯(cuò),可能因視覺失效而頻繁宕機(jī)。又例如人形機(jī)器人在家庭或工業(yè)場景中常面臨快速移動(dòng)的障礙物(如突然跑過的寵物、滑落的工具)。傳統(tǒng)結(jié)構(gòu)光相機(jī)因幀率低、數(shù)據(jù)處理延遲高,難以實(shí)時(shí)更新環(huán)境模型,導(dǎo)致機(jī)器人動(dòng)作滯后甚至碰撞。
(2)雙目與結(jié)構(gòu)光的精度之殤
雙目攝像頭雖能通過視差計(jì)算深度信息,但其測距精度隨距離增加急劇下降,且抗環(huán)境光干擾能力弱。結(jié)構(gòu)光方案雖能提供較高精度的近距離三維重建,但受限于投射圖案的易損性,在遠(yuǎn)距離(超過5米)或戶外強(qiáng)光場景中幾乎失效。iToF技術(shù)雖能實(shí)現(xiàn)快速測距,但其信號(hào)易受多路徑反射干擾,導(dǎo)致數(shù)據(jù)噪聲大、魯棒性差。當(dāng)機(jī)械臂需要抓取一枚雞蛋或擰動(dòng)精密螺絲時(shí),視覺系統(tǒng)必須提供亞厘米級(jí)精度的深度信息。然而,傳統(tǒng)視覺方案在強(qiáng)光下精度驟降且近距離易出現(xiàn)視差誤差,最終導(dǎo)致抓取失敗率居高不下。
(3)多傳感器堆疊的“臃腫陷阱”
為彌補(bǔ)單一傳感器的不足,部分廠商嘗試將攝像頭與激光雷達(dá)(dToF)結(jié)合,通過多傳感器融合提升感知能力。然而,這種方案需要復(fù)雜的硬件部署、繁瑣的標(biāo)定校準(zhǔn),以及高昂的算力成本。開發(fā)者為實(shí)現(xiàn)時(shí)間同步、數(shù)據(jù)對(duì)齊和算法融合,往往耗費(fèi)數(shù)月時(shí)間,最終仍可能因系統(tǒng)復(fù)雜度高而難以規(guī)?;涞?。尤其在具身智能趨勢下,需要融合視覺、觸覺、力反饋等多維度數(shù)據(jù),但傳統(tǒng)方案中攝像頭、激光雷達(dá)、觸覺傳感器的輸出往往存在時(shí)空錯(cuò)位。開發(fā)者不得不耗費(fèi)數(shù)月進(jìn)行標(biāo)定與同步,即便如此,系統(tǒng)仍可能在復(fù)雜場景中出現(xiàn)感知斷層。

這些技術(shù)瓶頸不僅限制了機(jī)器人的場景適應(yīng)性,更拖累了整個(gè)行業(yè)的創(chuàng)新速度。開發(fā)者被迫將精力消耗在底層工具鏈搭建上,而非聚焦于功能優(yōu)化與場景拓展。
RoboSense速騰聚創(chuàng)推出的Active Camera系列首款產(chǎn)品AC1,以硬件級(jí)多模態(tài)融合與AI-Ready開發(fā)者生態(tài),直擊上述核心難題。它不僅是傳統(tǒng)3D相機(jī)的顛覆者,更是具身智能邁向大規(guī)模應(yīng)用的“視覺基石”。
▍顛覆性突破:硬件級(jí)融合重構(gòu)感知維度
AC1并非傳統(tǒng)3D相機(jī)的升級(jí),而是通過硬件層面的深度創(chuàng)新,實(shí)現(xiàn)了三維感知能力的質(zhì)的飛躍。其核心優(yōu)勢可歸結(jié)為三個(gè)維度:精準(zhǔn)測距、環(huán)境魯棒性、全場景適應(yīng)性。
首先,AC1實(shí)現(xiàn)了硬件級(jí)融合,使得多模態(tài)數(shù)據(jù)達(dá)到了時(shí)空統(tǒng)一。由于AC1首次將激光雷達(dá)的數(shù)字化信號(hào)與攝像頭視覺信息在硬件層面深度融合。通過自研的芯片級(jí)算法,AC1實(shí)現(xiàn)了深度信息、色彩信息及運(yùn)動(dòng)姿態(tài)信息的時(shí)空同步輸出。這一技術(shù)突破解決了傳統(tǒng)方案中多傳感器數(shù)據(jù)異步、標(biāo)定誤差累積的難題。例如,在動(dòng)態(tài)避障場景中,AC1可實(shí)時(shí)輸出高精度點(diǎn)云與語義圖像,確保機(jī)器人同步感知障礙物的位置、形狀及運(yùn)動(dòng)趨勢。

其次,AC1還達(dá)到了超越人眼的性能指標(biāo)。由于測距能力達(dá)到傳統(tǒng)3D相機(jī)的600%,最大測距范圍擴(kuò)展至70米,且精度始終穩(wěn)定在3厘米以內(nèi)。其融合視場角(FoV)提升至120°×60°,是傳統(tǒng)3D相機(jī)的170%,覆蓋更廣闊的環(huán)境區(qū)域。
更重要的是,AC1的測距性能不受光照條件影響——無論是正午陽光照射還是夜間無光環(huán)境,其輸出的深度數(shù)據(jù)均保持高度一致。這意味著,機(jī)器人既能識(shí)別精準(zhǔn)的三維環(huán)境距離信息,又能感知豐富的視覺語義信息,并且可以克服強(qiáng)烈明暗變化等環(huán)境干擾影響,真正擁有了超越人類的視覺能力,讓機(jī)器人首次擁有了全天候、全地形的“視覺自由”。
最后,AC1還有著極簡的部署與成本優(yōu)勢。不同于傳統(tǒng)多傳感器堆疊方案需要復(fù)雜的機(jī)械結(jié)構(gòu)設(shè)計(jì),AC1憑借高度集成化的硬件,體積僅為傳統(tǒng)方案的1/3,可靈活部署于AGV、無人機(jī)、服務(wù)機(jī)器人、人形機(jī)器人等各類載體。同時(shí),其單設(shè)備成本較“攝像頭+激光雷達(dá)”組合降低40%,為大規(guī)模商業(yè)化鋪平道路。
國家地方共建人形機(jī)器人創(chuàng)新中心算法工程師李玥萱認(rèn)為,“現(xiàn)有人形機(jī)器人可部署傳感器的空間有限,不同傳感器分開標(biāo)定和校準(zhǔn)麻煩,也缺乏方便使用的多傳感融合算法。AC1節(jié)省部署空間,能直接融合圖像、點(diǎn)云、IMU等算法,并實(shí)現(xiàn)出色的SLAM、感知、定位效果?!?/p>
“我們的感知和硬件團(tuán)隊(duì)對(duì)AC1都很滿意?!膘`寶CASBOT聯(lián)合創(chuàng)始人兼運(yùn)動(dòng)智能研發(fā)中心負(fù)責(zé)人楊國棟表示,“既免去了以前不同傳感器分開標(biāo)定和校準(zhǔn)的繁瑣工作,又減少了硬件數(shù)量,節(jié)省內(nèi)部空間占用,對(duì)于身材緊湊人形機(jī)器人設(shè)計(jì)非常友好?!?/p>
▍生態(tài)賦能開發(fā)者,釋放創(chuàng)新潛能
技術(shù)突破僅是AC1價(jià)值的一部分,速騰聚創(chuàng)更深層的戰(zhàn)略在于構(gòu)建了開發(fā)者友好型生態(tài),有望徹底改變機(jī)器人行業(yè)的開發(fā)范式。
傳統(tǒng)開發(fā)中,80%的精力被消耗在傳感器驅(qū)動(dòng)開發(fā)、數(shù)據(jù)標(biāo)定、時(shí)間同步等基礎(chǔ)環(huán)節(jié)。AC1的AI-Ready生態(tài)提供了一套完整的開源工具包,包括驅(qū)動(dòng)程序、數(shù)據(jù)采集節(jié)點(diǎn)、標(biāo)定工具、多模態(tài)數(shù)據(jù)融合接口,甚至預(yù)置的交叉編譯環(huán)境。開發(fā)者可直接調(diào)用開源工具鏈的套件,將開發(fā)周期從數(shù)月縮短至數(shù)周,讓開發(fā)者從重復(fù)“造輪子”過渡到快速“搭積木”的轉(zhuǎn)變中。
例如SLAM與定位模塊,AC1支持視覺-激光融合SLAM,適應(yīng)動(dòng)態(tài)環(huán)境下的高精度定位;又例如AC1支持3D高斯濺射,能更快幫助開發(fā)者實(shí)現(xiàn)稀疏點(diǎn)云的高效重建,降低算力消耗;AC1還支持語義分割與目標(biāo)識(shí)別功能模塊,讓開發(fā)者能夠基于預(yù)訓(xùn)練模型,快速實(shí)現(xiàn)工業(yè)零件、行人、車輛等數(shù)十類對(duì)象的實(shí)時(shí)識(shí)別。
不僅如此,Active Camera可以通過功能豐富的SDK滿足不同場景任務(wù)需要。例如基于點(diǎn)云與視覺數(shù)據(jù)的自動(dòng)關(guān)聯(lián),AC1的多模態(tài)融合特性有望大幅提升場景理解維度。開發(fā)者可以通過SDK直接調(diào)用SLAM建圖、3D高斯、定位、避障等能力,節(jié)省傳感器驅(qū)動(dòng)開發(fā),數(shù)據(jù)標(biāo)定、數(shù)據(jù)融合的時(shí)間,無需從零訓(xùn)練模型,可直接基于現(xiàn)有算法進(jìn)行場景化調(diào)優(yōu),甚至通過API快速集成語義分割、目標(biāo)識(shí)別、避障、路徑規(guī)劃等高級(jí)功能。
針對(duì)不同行業(yè)需求,在未來,Active Camera還將推出不同類型的產(chǎn)品,滿足不同的測距、精度、分辨率、抗環(huán)境光干擾等需求。開發(fā)者可根據(jù)任務(wù)需求選擇不同的分辨率、測距范圍、功耗等級(jí)。例如,物流機(jī)器人可優(yōu)先選擇大視場角與抗干擾模式,而醫(yī)療機(jī)器人則可啟用高精度模式以確保安全避障。這種靈活性使得Active Camera能夠覆蓋從工業(yè)巡檢到家庭服務(wù)的全場景需求。開發(fā)者也可以選擇不同等級(jí)的算力消耗、功耗等,實(shí)現(xiàn)不同原理的傳感器在各個(gè)場景下的取長補(bǔ)短。
目前,速騰聚創(chuàng)已與全球眾多開發(fā)者社區(qū)、高校實(shí)驗(yàn)室達(dá)成合作,共同完善算法庫與工具鏈。同時(shí),其在美國、歐洲、亞太設(shè)立的技術(shù)支持中心,確保全球開發(fā)者能夠無縫接入生態(tài)。
▍結(jié)語與未來
速騰聚創(chuàng)作為全球領(lǐng)先的機(jī)器人技術(shù)平臺(tái)企業(yè),通過AC1與AI-Ready生態(tài),有望成為智能機(jī)器人產(chǎn)業(yè)的“感知標(biāo)準(zhǔn)制定者”。
傳統(tǒng)機(jī)器人零部件供應(yīng)商往往提供孤立的功能模塊(如攝像頭、雷達(dá)、IMU),迫使企業(yè)自行解決集成難題。速騰聚創(chuàng)則以“感知-決策-執(zhí)行”全鏈路思維,提供從硬件到算法的閉環(huán)融合解決方案,有望顯著降低機(jī)器人的研發(fā)門檻。
同時(shí),借助速騰聚創(chuàng)的技術(shù)積累與產(chǎn)業(yè)化能力,AC1具備高性價(jià)比與易用性,使中小型企業(yè)甚至初創(chuàng)團(tuán)隊(duì)也能快速開發(fā)出具備高級(jí)感知能力的機(jī)器人產(chǎn)品,有望加速智能機(jī)器人在農(nóng)業(yè)、建筑、零售等長尾場景的滲透。
AC1的誕生,標(biāo)志著機(jī)器人視覺從“被動(dòng)成像”邁入“主動(dòng)感知”時(shí)代。它不僅是傳統(tǒng)3D相機(jī)的替代者,更解決了多視覺傳感器堆疊融合方案在應(yīng)用的限制與兼容性上的問題,代表了一種全新的技術(shù)哲學(xué)——通過硬件與算法的深度融合,讓機(jī)器人感知真正超越人類感官的局限,向空間智能邁進(jìn)。
對(duì)開發(fā)者而言,AC1的AI-Ready生態(tài)意味著從“工具使用者”到“創(chuàng)新主導(dǎo)者”的蛻變;對(duì)行業(yè)而言,這是一場效率革命,更是智能機(jī)器人再進(jìn)化的開端。
未來,隨著Active Camera產(chǎn)品線的擴(kuò)展,速騰聚創(chuàng)將持續(xù)推動(dòng)機(jī)器人感知技術(shù)的進(jìn)化。當(dāng)更多機(jī)器人搭載“超越人眼”的視覺系統(tǒng)時(shí),物理世界的數(shù)字化與智能化將不再是科幻場景,而是觸手可及的現(xiàn)實(shí)。
熱門跟貼