本周任務(wù):LycorisNet的工具類(utils類)設(shè)計(jì) 工具類需要包含神經(jīng)網(wǎng)絡(luò)必備的一些函數(shù)朗伶,諸如各種激活函數(shù):relu挥吵,sigmoid诀诊,t...
本周任務(wù):完成http 服務(wù)器設(shè)計(jì)嵌戈,可以實(shí)現(xiàn)api的遠(yuǎn)程調(diào)用 采取這種解決方案的原因:每次調(diào)用模型,需要使用重新解釋模型,需要耗費(fèi)較多的時(shí)間,因...
本周任務(wù):進(jìn)一步調(diào)整模型,優(yōu)化效果塞祈。 單向lstm神經(jīng)網(wǎng)絡(luò)已經(jīng)不能滿足我們的數(shù)據(jù)模型,由于標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)在時(shí)序上處...
本周任務(wù):按照標(biāo)準(zhǔn)的數(shù)據(jù)集劃分帅涂,即訓(xùn)練集:2 測試集:1的比例劃分?jǐn)?shù)據(jù)议薪,測試模型效果。 首先媳友,劃分?jǐn)?shù)據(jù)集笙蒙,按照上述的比例,源數(shù)據(jù)...
參數(shù)設(shè)計(jì)好之后庆锦,需要理解tensorflow存儲數(shù)據(jù)的方式:使用占位符(參考tensorflow的英文文檔) # x y placeholder...
首先捅位,介紹一下lstm神經(jīng)網(wǎng)絡(luò): 長短期記憶(英語:Long Short-Term Memory,LSTM)是一種時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)(RNN)[1...
通過搂抒,上一周對lstm的初步了解艇搀,可以開始處理本次實(shí)訓(xùn)的數(shù)據(jù),因?yàn)槎际侵形奈谋镜男畔⑶缶В捎脀ord2vec來對中文信息進(jìn)行向量化焰雕。 如果要一句話...
本周,我們完成整體的環(huán)境搭建:python3.6芳杏, Tensorflow1.7.0矩屁。 學(xué)習(xí)辟宗,實(shí)踐各自負(fù)責(zé)的算法部分,如RNN算法吝秕,我使用goog...