本周任務(wù):LycorisNet的工具類(utils類)設(shè)計(jì) 工具類需要包含神經(jīng)網(wǎng)絡(luò)必備的一些函數(shù)违诗,諸如各種激活函數(shù):relu,sigmoid,tanh等,還有一些結(jié)構(gòu)層,例如...
本周任務(wù):LycorisNet的工具類(utils類)設(shè)計(jì) 工具類需要包含神經(jīng)網(wǎng)絡(luò)必備的一些函數(shù)违诗,諸如各種激活函數(shù):relu,sigmoid,tanh等,還有一些結(jié)構(gòu)層,例如...
本周任務(wù):完成http 服務(wù)器設(shè)計(jì)偷仿,可以實(shí)現(xiàn)api的遠(yuǎn)程調(diào)用 采取這種解決方案的原因:每次調(diào)用模型,需要使用重新解釋模型宵蕉,需要耗費(fèi)較多的時(shí)間酝静,因此采用這種方式,讓模型一直加載...
本周任務(wù):進(jìn)一步調(diào)整模型羡玛,優(yōu)化效果别智。 單向lstm神經(jīng)網(wǎng)絡(luò)已經(jīng)不能滿足我們的數(shù)據(jù)模型,由于標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)在時(shí)序上處理序列稼稿,他們往往忽略了未來的上...
本周任務(wù):按照標(biāo)準(zhǔn)的數(shù)據(jù)集劃分薄榛,即訓(xùn)練集:2 測試集:1的比例劃分?jǐn)?shù)據(jù),測試模型效果让歼。 首先敞恋,劃分?jǐn)?shù)據(jù)集,按照上述的比例谋右,源數(shù)據(jù):71532條硬猫,訓(xùn)練集;500...
參數(shù)設(shè)計(jì)好之后改执,需要理解tensorflow存儲數(shù)據(jù)的方式:使用占位符(參考tensorflow的英文文檔) # x y placeholderx = tf.placehol...
首先啸蜜,介紹一下lstm神經(jīng)網(wǎng)絡(luò): 長短期記憶(英語:Long Short-Term Memory,LSTM)是一種時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)(RNN)[1]辈挂,論文首次發(fā)表于1997年衬横。...
通過冕香,上一周對lstm的初步了解蛹尝,可以開始處理本次實(shí)訓(xùn)的數(shù)據(jù),因?yàn)槎际侵形奈谋镜男畔⑾の玻捎脀ord2vec來對中文信息進(jìn)行向量化突那。 如果要一句話概括詞向量的用處,就是提供了一...
本周,我們完成整體的環(huán)境搭建:python3.6惫霸, Tensorflow1.7.0猫缭。 學(xué)習(xí),實(shí)踐各自負(fù)責(zé)的算法部分壹店,如RNN算法猜丹,我使用google提供的手寫體識別的MINS...