本發(fā)明公開了一種基于空間-時間多預測模式的無損壓縮方法,包括:(1)利用星載成像系統(tǒng)獲取序列圖像f;(2)把步驟(1)獲取的每一幀圖像fk, k=1, 劃分成互不重疊且大小為M×N的子塊fk, i, i=1, 2Su, m.I,SumI為子塊總數,M,N為預設值;(3)令步驟(2)中第3j+1, j=0, 1, ...幀圖像為參考幀圖像,進行分塊JPEG-LS編碼;(4)第3j+2和3j+3幀圖像參考第3j+1幀圖像進行空間-時間多預測幀間無損編碼。本發(fā)明還提供了相應的基于空間-時間多預測模式的無損壓縮系統(tǒng)。本發(fā)明方法綜合了圖像在空間和時間上的相關性來改進預測方式,把圖像分成若干子塊,對不同子塊自適應選擇最優(yōu)預測方式進行預測,從而使預測器對圖像不同特征的區(qū)域具有自適應性,因此基于空間-時間多預測模式的無損編碼方法對序列圖像的壓縮效果較好。
聲明:
“基于空間-時間多預測模式的無損壓縮方法與系統(tǒng)” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業(yè)用途,請聯(lián)系該技術所有人。
我是此專利(論文)的發(fā)明人(作者)