240 發(fā)簡信
IP屬地:遼寧
  • 120
    歸納&總結(jié)

    機(jī)器學(xué)習(xí)技能樹整理 按問題類型劃分 分類問題 Logistic Regression 總結(jié):特征的線性組合+非線性映射奢赂。推導(dǎo)時(shí)從單個(gè)樣本開始陪白,單個(gè)樣本經(jīng)過sigmoid函數(shù)后...

  • CRF:Conditional Random Fields

    概率無向圖模型: 又稱作馬爾科夫隨機(jī)場(chǎng)咱士。所謂隨機(jī)場(chǎng),其實(shí)是由一種服從某種分布的隨機(jī)變量組成的,場(chǎng)中某些點(diǎn)之間存在依賴關(guān)系序厉,進(jìn)而形成聯(lián)合概率分布锐膜。 設(shè)一個(gè)聯(lián)合概率分布P(Y)和...

  • 非常棒

    CRF:Conditional Random Fields

    概率無向圖模型: 又稱作馬爾科夫隨機(jī)場(chǎng)。所謂隨機(jī)場(chǎng)脂矫,其實(shí)是由一種服從某種分布的隨機(jī)變量組成的枣耀,場(chǎng)中某些點(diǎn)之間存在依賴關(guān)系,進(jìn)而形成聯(lián)合概率分布庭再。 設(shè)一個(gè)聯(lián)合概率分布P(Y)和...

  • 120
    牛頓法捞奕、擬牛頓法

    牛頓法: 根據(jù)二階泰勒展開,用一階和二階倒數(shù)確定參數(shù)迭代步長和方向 設(shè)初始向量拄轻,它在處的泰勒展開如下: 颅围,當(dāng)時(shí) 注:矩陣求導(dǎo)公式: 對(duì)上式相對(duì)于求導(dǎo): ① 因此可以得到處的迭...

  • 120
    Attention機(jī)制概念整理

    深度學(xué)習(xí)中的注意力機(jī)制(Attention Macheanism): Attention機(jī)制較為廣泛的應(yīng)用是為了解決LSTM長輸入序列在編碼成固定長度向量后,解碼受限于該固定...

  • 120
    Attention機(jī)制概念整理

    深度學(xué)習(xí)中的注意力機(jī)制(Attention Macheanism): Attention機(jī)制較為廣泛的應(yīng)用是為了解決LSTM長輸入序列在編碼成固定長度向量后恨搓,解碼受限于該固定...

  • 120
    RNN LSTM BI-LSTM

    RNN 循環(huán)神經(jīng)網(wǎng)絡(luò) RNN主要處理有時(shí)序關(guān)系的變長序列問題院促。每個(gè)神經(jīng)元在每一時(shí)刻都一個(gè)特殊的hidden狀態(tài)h(t),由當(dāng)前節(jié)點(diǎn)的輸入I(t)和上一時(shí)刻t-1隱藏狀態(tài)h(t...

  • 120
    RNN LSTM BI-LSTM

    RNN 循環(huán)神經(jīng)網(wǎng)絡(luò) RNN主要處理有時(shí)序關(guān)系的變長序列問題斧抱。每個(gè)神經(jīng)元在每一時(shí)刻都一個(gè)特殊的hidden狀態(tài)h(t)常拓,由當(dāng)前節(jié)點(diǎn)的輸入I(t)和上一時(shí)刻t-1隱藏狀態(tài)h(t...

  • 推薦系統(tǒng)基本算法:協(xié)同過濾

    協(xié)同過濾的本質(zhì)其實(shí)就是向量間的相似度計(jì)算,例如歐氏距離和cosine相似度等辉浦。 UserCF UserCF基于用戶對(duì)物品的偏好找到相鄰鄰居用戶弄抬,然后將鄰居用戶喜歡的推薦給當(dāng)前...

  • 推薦系統(tǒng)基本算法:協(xié)同過濾

    協(xié)同過濾的本質(zhì)其實(shí)就是向量間的相似度計(jì)算,例如歐氏距離和cosine相似度等宪郊。 UserCF UserCF基于用戶對(duì)物品的偏好找到相鄰鄰居用戶掂恕,然后將鄰居用戶喜歡的推薦給當(dāng)前...

  • 120
    在線學(xué)習(xí):從梯度截?cái)嗟紽TRL

    什么是在線學(xué)習(xí),為什么要用在線學(xué)習(xí) 在一些大型互聯(lián)網(wǎng)公司的廣告系統(tǒng)中弛槐,Logistic Regression的權(quán)重更新非嘲猛觯看重速度,否則無法應(yīng)對(duì)超大規(guī)模的數(shù)據(jù)集和在線數(shù)據(jù)流乎串,...

  • 120
    推薦系統(tǒng)中矩陣分解的應(yīng)用

    參考知乎這篇文章整理: https://zhuanlan.zhihu.com/p/34497989 矩陣分解解決什么問題 推薦系統(tǒng)中的評(píng)分矩陣是高度稀疏的店枣,存儲(chǔ)開銷較大,因此...

  • 120
    在線學(xué)習(xí):從梯度截?cái)嗟紽TRL

    什么是在線學(xué)習(xí)叹誉,為什么要用在線學(xué)習(xí) 在一些大型互聯(lián)網(wǎng)公司的廣告系統(tǒng)中艰争,Logistic Regression的權(quán)重更新非常看重速度桂对,否則無法應(yīng)對(duì)超大規(guī)模的數(shù)據(jù)集和在線數(shù)據(jù)流甩卓,...

  • 120
    LTR方法總結(jié)

    PointWise 這種方法沒有考慮到排序的一些特征,比如文檔之間的排序結(jié)果針對(duì)的是給定查詢下的文檔集合蕉斜,而Pointwise方法僅僅考慮單個(gè)文檔的絕對(duì)相關(guān)度逾柿;另外缀棍,在排序中...

  • 120
    推薦系統(tǒng)中矩陣分解的應(yīng)用

    參考知乎這篇文章整理: https://zhuanlan.zhihu.com/p/34497989 矩陣分解解決什么問題 推薦系統(tǒng)中的評(píng)分矩陣是高度稀疏的,存儲(chǔ)開銷較大机错,因此...

  • (譯)Collaborative Memory Network for Recommendation Systems

    Abstract: Recommendation systems play a vital role to keep users engaged with personali...

  • (譯)Collaborative Memory Network for Recommendation Systems

    Abstract: Recommendation systems play a vital role to keep users engaged with personali...

  • 120
    牛頓法爬范、擬牛頓法

    牛頓法: 根據(jù)二階泰勒展開,用一階和二階倒數(shù)確定參數(shù)迭代步長和方向 設(shè)初始向量弱匪,它在處的泰勒展開如下: 青瀑,當(dāng)時(shí) 注:矩陣求導(dǎo)公式: 對(duì)上式相對(duì)于求導(dǎo): ① 因此可以得到處的迭...

  • 貝葉斯個(gè)性化推薦

    Key Point1: 能夠使用貝葉斯做推薦排序的假設(shè)有兩個(gè): 1.用戶U對(duì)商品和的偏好和其他用戶無關(guān)(即用戶間的獨(dú)立性) 2. 用戶U對(duì)商品和的偏好和該用戶喜歡的其他商品無...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品