本周任務(wù):LycorisNet的工具類(utils類)設(shè)計 工具類需要包含神經(jīng)網(wǎng)絡(luò)必備的一些函數(shù)锋玲,諸如各種激活函數(shù):relu宙枷,sigmoid锨天,t...
本周任務(wù):完成http 服務(wù)器設(shè)計,可以實現(xiàn)api的遠(yuǎn)程調(diào)用 采取這種解決方案的原因:每次調(diào)用模型,需要使用重新解釋模型,需要耗費較多的時間,因...
本周任務(wù):進(jìn)一步調(diào)整模型婉商,優(yōu)化效果。 單向lstm神經(jīng)網(wǎng)絡(luò)已經(jīng)不能滿足我們的數(shù)據(jù)模型渣叛,由于標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)在時序上處...
本周任務(wù):按照標(biāo)準(zhǔn)的數(shù)據(jù)集劃分丈秩,即訓(xùn)練集:2 測試集:1的比例劃分?jǐn)?shù)據(jù),測試模型效果淳衙。 首先蘑秽,劃分?jǐn)?shù)據(jù)集饺著,按照上述的比例,源數(shù)據(jù)...
參數(shù)設(shè)計好之后肠牲,需要理解tensorflow存儲數(shù)據(jù)的方式:使用占位符(參考tensorflow的英文文檔) # x y placeholder...
首先幼衰,介紹一下lstm神經(jīng)網(wǎng)絡(luò): 長短期記憶(英語:Long Short-Term Memory,LSTM)是一種時間遞歸神經(jīng)網(wǎng)絡(luò)(RNN)[1...
通過缀雳,上一周對lstm的初步了解渡嚣,可以開始處理本次實訓(xùn)的數(shù)據(jù),因為都是中文文本的信息肥印,采用word2vec來對中文信息進(jìn)行向量化识椰。 如果要一句話...
本周,我們完成整體的環(huán)境搭建:python3.6深碱, Tensorflow1.7.0腹鹉。 學(xué)習(xí),實踐各自負(fù)責(zé)的算法部分敷硅,如RNN算法功咒,我使用goog...