首頁 > 期刊 > 自然科學與工程技術 > 信息科技 > 自動化技術 > 機器人 > 基于循環卷積神經網絡的單目視覺里程計 【正文】
摘要:提出了一種基于卷積長短期記憶(LSTM)網絡和卷積神經網絡(CNN)的單目視覺里程計方法,命名為LSTMVO(LSTM visual odometry).LSTMVO采用無監督的端到端深度學習框架,對單目相機的6-DoF位姿以及場景深度進行同步估計.整個網絡框架包含位姿估計網絡以及深度估計網絡,其中位姿估計網絡是以端到端方式實現單目位姿估計的深度循環卷積神經網絡(RCNN),由基于卷積神經網絡的特征提取和基于循環神經網絡(RNN)的時序建模組成,深度估計網絡主要基于編碼器和解碼器架構生成稠密的深度圖.同時本文還提出了一種新的損失函數進行網絡訓練,該損失函數由圖像序列之間的時序損失、深度平滑度損失和前后一致性損失組成.基于KITTI數據集的實驗結果表明,通過在原始單目RGB圖像上進行訓練,LSTMVO在位姿估計精度以及深度估計精度方面優于現有的主流單目視覺里程計方法,驗證了本文提出的深度學習框架的有效性.
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社