240 發(fā)簡信
IP屬地:江西
  • 120
    轉(zhuǎn)載:Sublime Text 全程指南

    Sublime Text 全程指南 2014年 9月27日|評論 作者:Lucida 微博:@peng_gong 豆瓣:@figure9 原文鏈接:http://lucida...

  • 【008】【炒股】股票基本面分析

    初學(xué)炒股呀洲,基本面信息是離不開的绽昼。因為基本面與股價的變動密切相關(guān)埋涧,這一點是有目共睹的。想要拋開這一點僵刮,一般人是做不到的递礼。 基本面主要包括宏觀經(jīng)濟(jì)運行態(tài)勢和上市公...

  • 120
    建立一個搜索引擎(信息檢索系統(tǒng))的點點滴滴

    建立一個簡單搜索引擎的點點滴滴。 數(shù)據(jù)只作測試用盾计,markdown一些細(xì)節(jié)和坑吧售担。記錄點點滴滴赁遗。 IDE平臺:eclipse;lucene3.6族铆;jdk1.8岩四;tomcat7...

  • 不敢下筆熊咽,永遠(yuǎn)都寫不好文章

    親親親愛的讀者: 曾經(jīng)我看到一篇文章來自位作者的憤慨莫鸭,很早了,一兩年了横殴。 她是簡書的簽約作者被因,在校大學(xué)生一枚,也算挺有名氣衫仑。文章內(nèi)容是說有人以她的名字幫她出了本書氏身,利用不明確...

  • 120
    好看的皮囊千篇一律,有趣的靈魂并沒附體

    置頂消息~ 不刷抖音惑畴,不看快手蛋欣,不追劇,不追星如贷! (有沒有一樣滴陷虎,四無青年,露個爪~) 登錄地球: 2000年3月15日 標(biāo)簽 :無敵青春可愛的大一新生一枚 專業(yè) :工商管理...

  • 我也在寫簡書杠袱,然而怎么能月入過萬呢:smirk:

    簡書經(jīng)歷尚猿,帶來怎樣的收獲和經(jīng)驗?

    開始在簡書發(fā)表文章將近有一個月的時間楣富,我收獲了什么凿掂?在三個月的時間我收獲了幾千個贊,成為簡書簽約作者。我的寫作心得與寫作方法庄萎。 no,這些都是寫作大神說出的話踪少,我這樣的小白只...

  • 優(yōu)化算法總結(jié)

    簡介 本文介紹一下機器學(xué)習(xí)和深度學(xué)習(xí)中常用的優(yōu)化算法和優(yōu)化器以及一些其他我知道的優(yōu)化算法,部分算法我也沒有搞懂,就先記錄下來以后慢慢研究吧.*_*. 1.梯度下降算法(Gra...

  • 120
    激活函數(shù)總結(jié)

    簡介 因為神經(jīng)網(wǎng)絡(luò)是線性組合,激活函數(shù)給神經(jīng)元引入了非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以任意逼近任何非線性函數(shù),這樣神經(jīng)網(wǎng)絡(luò)就可以應(yīng)用到眾多的非線性模型中.好用的激活函數(shù)具有可求且方...

  • 120
    信息熵相關(guān)知識總結(jié)

    前言 學(xué)習(xí)決策樹時會接觸到一些信息熵,條件熵和信息增益的知識,此外還有互信息,相對熵,交叉熵和互信息,KL散度等等亂七八糟的知識和名字,我本人已經(jīng)記得大腦混亂了,還沒有全部記...

  • 120
    Transformer-《Attention is All You Need》

    簡介 Transformer是谷歌提出的只基于Attention的網(wǎng)絡(luò)模型,它也是一種Encoder-Decoder的網(wǎng)絡(luò)結(jié)構(gòu),但是沒有使用任何CNN或者RNN的結(jié)構(gòu),而是全...

  • 最強NLP模型-BERT

    簡介: BERT,全稱BidirectionalEncoderRepresentations fromTransformers,是一個預(yù)訓(xùn)練的語言模型,可以通過它得到文本表示...

  • 文本相似度算法-BM25

    BM25算法,通常用于計算兩個文本,或者文本與文檔之間的相關(guān)性.所以可以用于文本相似度計算和文本檢索等應(yīng)用場景.它的主要思想是:對于文本query中的每個詞qi,計算qi與候...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品