本發(fā)明涉及一種基于多傳感器融合的多機器人相對定位方法,旨在實現(xiàn)多無人機協(xié)同運輸時的構型感知功能,為控制模塊進行陣型保持提供位姿信息。所采用的技術方案包括以下步驟:單機對視覺可見范圍內其他無人機的視覺位姿估計;IMU信息與視覺估計和UWB測距信息融合;多機間定位結果融合。由于采用了確定尺寸的合作標識,使得視覺定位的魯棒性、精度和計算速度均得以提高,加快觀測更新頻率;采用了IMU預測+UWB測距+視覺圖像觀測的多傳感器組合解算,使得多機器人間的定位精度得以進一步提高,并且可以在不依靠GPS信息的情況下保持系統(tǒng)相對構型。采用了環(huán)形網(wǎng)絡拓撲進行陣型估計,使得系統(tǒng)在部分觀測失效的情況下仍能保持運作,具有一定的冗余性。
聲明:
“基于多傳感器融合的多機器人相對定位方法” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業(yè)用途,請聯(lián)系該技術所有人。
我是此專利(論文)的發(fā)明人(作者)