本發(fā)明公開了一種基于深度學(xué)習(xí)的無人機(jī)多目標(biāo)車輛跟蹤方法,把深度特征融合網(wǎng)絡(luò)引入聯(lián)合模型,在小步長(zhǎng)下采樣率的網(wǎng)絡(luò)結(jié)構(gòu)中提取目標(biāo)的特征圖,減小量化誤差并且在應(yīng)用于小目標(biāo)的俯瞰場(chǎng)景時(shí)引入了OrientedR?CNN方法進(jìn)行車輛方向的檢測(cè)。在網(wǎng)絡(luò)上采樣過程中引入最新的可變卷積,提高對(duì)不同尺寸目標(biāo)的適應(yīng)能力。以多個(gè)頭部的方式并行實(shí)現(xiàn)目標(biāo)檢測(cè)和學(xué)習(xí)Re?ID特征。在內(nèi)部軌跡關(guān)聯(lián)上,以交并比(IOU)匹配的方式,將車輛的Re?ID特征指定給對(duì)應(yīng)車輛軌跡,預(yù)測(cè)串聯(lián)軌跡在當(dāng)前視頻幀中的位置以完成跟蹤。算法有效改善了模型使用基于Anchor的骨干網(wǎng)絡(luò)學(xué)習(xí)Re?ID特征不佳而導(dǎo)致的ID切換、檢測(cè)失效問題,提高了車輛多目標(biāo)跟蹤算法的魯棒性。
聲明:
“基于深度學(xué)習(xí)的無人機(jī)多目標(biāo)車輛跟蹤方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請(qǐng)聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)