本發(fā)明提供了一種基于Transformer模型和深度強(qiáng)化學(xué)習(xí)的密碼猜測(cè)系統(tǒng)及方法,包括分詞模塊,采用文本詞條化工具對(duì)密碼集進(jìn)行詞條概率統(tǒng)計(jì),按照設(shè)置生成詞表,并對(duì)密碼集進(jìn)行詞條切分操作,生成分詞后的密碼集;語言模型模塊,負(fù)責(zé)根據(jù)分詞后的密碼集,訓(xùn)練Transformer語言模型,生成下一可能詞條的概率表;強(qiáng)化學(xué)習(xí)解碼模塊,負(fù)責(zé)根據(jù)Transformer語言模型的輸出結(jié)果動(dòng)態(tài)調(diào)整解碼時(shí)的采樣“溫度”,持續(xù)生成碰撞率最高的密碼訓(xùn)練集;工具模塊,負(fù)責(zé)清洗數(shù)據(jù)集,將生成的密碼訓(xùn)練集與密碼測(cè)試集進(jìn)行匹配碰撞?;诒景l(fā)明的技術(shù)方案,能夠改善傳統(tǒng)集束搜索解碼方式耗費(fèi)資源多以及解碼時(shí)間長(zhǎng)的情況,提高了密碼猜測(cè)集的碰撞效率,且占用內(nèi)存資源少,生成猜測(cè)集也十分方便。
聲明:
“基于Transformer模型和深度強(qiáng)化學(xué)習(xí)的密碼猜測(cè)系統(tǒng)及方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請(qǐng)聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)