像認(rèn)真記錄生活一樣記錄Bug. 未經(jīng)允許颇象,不得轉(zhuǎn)載播演,謝謝~~ 1. 從autograd.Variable中取Tensor BUG:RuntimeError: copy fr...
市場(chǎng)有自己的時(shí)間觀念冻晤。股票投資就如同任何人類互動(dòng)一樣苇羡,耐心是一項(xiàng)美德”腔。——羅伯特·D·愛德華《股市趨勢(shì)技術(shù)分析》 引言 TA-Lib设江,全稱“Technical Analysi...
pytorch保存模型非常簡(jiǎn)單温数,主要有兩種方法: 只保存參數(shù)绣硝;(官方推薦) 保存整個(gè)模型 (結(jié)構(gòu)+參數(shù))。由于保存整個(gè)模型將耗費(fèi)大量的存儲(chǔ)撑刺,故官方推薦只保存參數(shù)鹉胖,然后在建好模...
時(shí)間序列是在一段時(shí)間內(nèi)測(cè)量得到的數(shù)據(jù)甫菠,數(shù)據(jù)的順序決定了序列的類別。根據(jù)H.I. Fawaz et al 的實(shí)驗(yàn)結(jié)果冕屯,ResNet在時(shí)間序列分類上有很好的表現(xiàn)[1]寂诱, 所以本文...
之前使用TensorFlow構(gòu)建LSTM模型時(shí)痰洒,被各種shape煩死瓢棒。最近嘗試了keras,發(fā)現(xiàn)好用很多丘喻,但網(wǎng)上看了很多教程脯宿,里面的time_step都是為1,在實(shí)際的時(shí)序數(shù)...
對(duì)于時(shí)序數(shù)據(jù)or圖像泉粉,不同的filters连霉、kernel_size、strides意味著輸出不同的高維特征嗡靡。 同一份數(shù)據(jù)跺撼,如何增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力。使得更寬的網(wǎng)絡(luò)能達(dá)到相較深度...
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks) 人對(duì)一個(gè)問題的思考不會(huì)完全從頭開始。比如你在閱讀本片文章的時(shí)点骑,你會(huì)根據(jù)之前理解過的信息來理解下面看到的文字...