本發(fā)明公開了一種基于深度神經(jīng)網(wǎng)絡(luò)的視頻壓縮方法,步驟如下:收集并整理視頻圖像數(shù)據(jù)集,構(gòu)建神經(jīng)網(wǎng)絡(luò)訓(xùn)練集、測試集和交叉驗證集;建立多層的深度神經(jīng)網(wǎng)絡(luò);對于幀間預(yù)測,利用運動估計算法尋找最佳匹配塊,并計算殘差和幀間預(yù)測的均方差;預(yù)測完成后將殘差作為新的訓(xùn)練數(shù)據(jù)訓(xùn)練殘差編碼網(wǎng)絡(luò),殘差網(wǎng)絡(luò)模型包括幀內(nèi)殘差和幀間殘差;預(yù)測和殘差神經(jīng)網(wǎng)絡(luò)的輸出數(shù)據(jù)經(jīng)過量化和無損熵編碼一起作為固定長度碼流的壓縮數(shù)據(jù);解碼端通過與編碼端對稱的神經(jīng)網(wǎng)絡(luò)將壓縮數(shù)據(jù)還原,并重建恢復(fù)出壓縮后圖像。本發(fā)明的視頻壓縮方法,與傳統(tǒng)H.264視頻編碼方法在大量測試視頻序列上的同等比較中,可以在相同質(zhì)量上平均節(jié)省26%左右的碼率。
聲明:
“基于深度神經(jīng)網(wǎng)絡(luò)的視頻壓縮方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)