240 發(fā)簡信
IP屬地:北京
  • @石磊1998 哈哈,正解

    最大熵模型+最大似然估計

    前言 最近在回顧李航的統(tǒng)計學(xué)習(xí)方法[1], 看到這一章, 準(zhǔn)備好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在這一章介紹了最大熵模型并且推導(dǎo)了對偶函數(shù)的極大化等價于...

  • 不好意思傻铣。偷懶沒敲公式,粘鍋來的祥绞。

    最大熵模型+最大似然估計

    前言 最近在回顧李航的統(tǒng)計學(xué)習(xí)方法[1], 看到這一章, 準(zhǔn)備好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在這一章介紹了最大熵模型并且推導(dǎo)了對偶函數(shù)的極大化等價于...

  • 120
    真正的人工智能遠(yuǎn)非大數(shù)據(jù)學(xué)習(xí)

    由于所從事行業(yè)的原因非洲,幾年來一直關(guān)注AI項目的落地和發(fā)展鸭限。這兩年AI項目可謂熱到燙手,可是到行業(yè)應(yīng)用中就會發(fā)現(xiàn)離理想還太遠(yuǎn)两踏。除了較為成熟的人臉識別败京、語音交互外幾乎都無法...

  • 120
    學(xué)儒筆記:緣起

    十年前棄文從商,望以實業(yè)興家梦染。孰料落魄困頓赡麦,數(shù)度無可持守。筋骨可勞帕识,體膚可餓泛粹,然行皆拂亂,無以有成渡冻,此最是難熬戚扳。觀世之英豪,創(chuàng)業(yè)能成者族吻,無不屢經(jīng)困苦帽借,誰能例外。常讀東坡...

  • 不能同意更多超歌,私以為只有更深入地理解了人腦運行地機制砍艾,在meta-learning上突破了,才能真正實現(xiàn)人工智能巍举。

    真正的人工智能遠(yuǎn)非大數(shù)據(jù)學(xué)習(xí)

    由于所從事行業(yè)的原因脆荷,幾年來一直關(guān)注AI項目的落地和發(fā)展。這兩年AI項目可謂熱到燙手懊悯,可是到行業(yè)應(yīng)用中就會發(fā)現(xiàn)離理想還太遠(yuǎn)蜓谋。除了較為成熟的人臉識別、語音交互外幾乎都無法...

  • 120
    RNN

    最近真是心態(tài)炸了,標(biāo)題都寫錯了. 前言 在之前已經(jīng)復(fù)習(xí)過了CNN的主要內(nèi)容, CNN在處理圖像與文本的任務(wù)上有非常好的表現(xiàn), 可以認(rèn)為CNN側(cè)重于構(gòu)造單個結(jié)構(gòu)性樣本的相鄰區(qū)域...

  • 120
    CNN, 從圖像到NLP

    CNN研究的歷史 私以為,神經(jīng)網(wǎng)絡(luò)這一大類的算法,是仿生學(xué)與數(shù)學(xué)結(jié)合的一次突破,不管是最原始的神經(jīng)網(wǎng)絡(luò)還是現(xiàn)在非常常見各種變種,都是在參考人類大腦的某一工作原理的工作方式,并...

  • Word2Vec原理(二)-Negative Sampling與工具包參數(shù)

    上文提到了word2vec的核心原理,本質(zhì)上是對bengio的NNLM模型進行的改進, 介紹了cbow與skipgram以及Hierarchical Softmax這一實現(xiàn)細(xì)...

  • 120
    Word2Vec原理(一)-Cbow與SkipGram

    詞嵌入 什么是EmbeddingEmbedding在數(shù)學(xué)上表示一個maping, , 也就是一個映射函數(shù)呀忧。通俗的翻譯可以認(rèn)為是向量嵌入师痕,就是把X所屬空間的向量映射為到Y(jié)空間的...

  • 挖坑

    做NLP也有一年半了,也占據(jù)了我工作近兩年主要的工作內(nèi)容,挖個坑回顧一下主要的算法相關(guān)內(nèi)容把. 機器學(xué)習(xí)算法 word2vec原理: cbow與skipgram,Hierar...

  • 120
    XGBoost與GBDT(二)-算法推導(dǎo)

    前言 XGBoost跟GBDT是兩種應(yīng)用非常廣泛的樹模型,之前在幾種最優(yōu)化方法對比中,簡單回顧了一下幾種常見的最優(yōu)化方法,算是對這篇內(nèi)容的簡單鋪墊. 形象地來說, XGBoo...

  • 120
    XGBoost與GBDT(一)-幾種最優(yōu)化方法對比

    前言 發(fā)現(xiàn)了作者的一個pptGBDT算法原理與系統(tǒng)設(shè)計簡介,從頭復(fù)習(xí)了一波相關(guān)的內(nèi)容,寫兩篇記錄下來.從根本上來說, GBDT 與XGBoost最大的區(qū)別在于二者用的優(yōu)化方法...

  • 最大似然估計+最大后驗估計+LR

    前言 現(xiàn)代機器學(xué)習(xí)的終極問題都會轉(zhuǎn)化為解目標(biāo)函數(shù)的優(yōu)化問題,MLE和MAP是生成這個函數(shù)的很基本的思想而账,因此我們對二者的認(rèn)知是非常重要的胰坟。最近有時間, 我查了些資料, 加深了...

  • 最大熵模型+最大似然估計

    前言 最近在回顧李航的統(tǒng)計學(xué)習(xí)方法[1], 看到這一章, 準(zhǔn)備好好梳理一下, 更加深入地理解原理以及背后的思想. 作者在這一章介紹了最大熵模型并且推導(dǎo)了對偶函數(shù)的極大化等價于...

  • 120
    年中記錄與挖坑

    記錄 前一段時間李航大佬跳槽前總結(jié)過(原文鏈接) 計算機上達到和人同等的對話能力還非常困難。現(xiàn)在的技術(shù)福扬,一般是數(shù)據(jù)驅(qū)動腕铸,基于機器學(xué)習(xí)的惜犀。單輪對話有基于分析的,基于檢索的狠裹,基于...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品