240 發(fā)簡(jiǎn)信
IP屬地:天津
  • Resize,w 360,h 240
    bert模型簡(jiǎn)單使用&app分類場(chǎng)景前期效果驗(yàn)證

    好久沒更新了进每,更新一個(gè)前一段時(shí)間做的項(xiàng)目的前期效果調(diào)研過程罢杉,目前已經(jīng)在走工程化流程。 1惋耙、項(xiàng)目背景 基于app推送的文本內(nèi)容隱含地表示了app的...

  • Resize,w 360,h 240
    基于keras 實(shí)現(xiàn)的驗(yàn)證碼ocr識(shí)別

    自從app2vec工作告一段落后,在公司招聘面試過程中發(fā)現(xiàn)了一個(gè)有意思的東西OCR(Optical Character Recognition)...

  • Resize,w 360,h 240
    多通道cnn+lstm+dense復(fù)雜網(wǎng)絡(luò)測(cè)試(附單通道效果對(duì)比)

    對(duì)于時(shí)序數(shù)據(jù)or圖像蝠咆,不同的filters冰更、kernel_size、strides意味著輸出不同的高維特征贱勃。 同一份數(shù)據(jù)井赌,如何增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力...

  • Resize,w 360,h 240
    深度學(xué)習(xí) batch size 參數(shù)的設(shè)置的思考

    從實(shí)際使用的感受來說,數(shù)據(jù)及其他參數(shù)一致時(shí)贵扰,batch size設(shè)置過大仇穗,回歸類任務(wù)的mse會(huì)增大;而在分類任務(wù)中戚绕,預(yù)測(cè)精度在batch siz...

  • keras lstm return sequence參數(shù)理解

    使用keras構(gòu)建多層lstm網(wǎng)絡(luò)時(shí)纹坐,除了最后一層lstm,中間過程的lstm中的return sequence參數(shù)需要設(shè)置為true列肢。 lst...

  • Resize,w 360,h 240
    GraphX 介紹&簡(jiǎn)單樣例

    一恰画、總體框架 總體框架分為三個(gè)部分: l 存儲(chǔ)層和原語層:Graph類是圖計(jì)算的核心類宾茂,內(nèi)部含有VertextRDD、EdgeRDD拴还、RDD[E...

  • GraphX Label Propagation算法改進(jìn)

    label propagation算法介紹 標(biāo)簽傳播算法(label propagation)的核心思想非常簡(jiǎn)單:相似的數(shù)據(jù)應(yīng)該具有相同的lab...

  • Resize,w 360,h 240
    樹模型中特征重要性是如何計(jì)算的

    使用sklearn里決策樹的包跨晴,以及iris的數(shù)據(jù)集,使用基尼系數(shù)作為切割點(diǎn)劃分依據(jù) 數(shù)據(jù)集如下image.png 構(gòu)建決策樹片林,使用gini系數(shù)...

  • Resize,w 360,h 240
    使用keras構(gòu)建帶time_step的LSTM模型

    之前使用TensorFlow構(gòu)建LSTM模型時(shí)端盆,被各種shape煩死。最近嘗試了keras费封,發(fā)現(xiàn)好用很多焕妙,但網(wǎng)上看了很多教程,里面的time_s...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品