240 發(fā)簡(jiǎn)信
IP屬地:北京
  • 120
    如何理解K-L散度(相對(duì)熵)

    Kullback-Leibler Divergence,即K-L散度,是一種量化兩種概率分布P和Q之間差異的方式初狰,又叫相對(duì)熵。在概率學(xué)和統(tǒng)計(jì)學(xué)上雷滋,我們經(jīng)常會(huì)使用一種更簡(jiǎn)單的内狗、...

  • 力扣數(shù)據(jù)庫(kù)刷題--關(guān)于case when那些事兒

    整理一下力扣中關(guān)于case when那些事兒https://leetcode-cn.com/problems/calculate-salaries/[https://leet...

  • 力扣數(shù)據(jù)庫(kù)刷題--關(guān)于連續(xù)那些事兒

    關(guān)于連續(xù)問(wèn)題的那些事兒鏈接:https://leetcode-cn.com/problems/active-users[https://leetcode-cn.com/pro...

  • CS224n Assignment 1

    https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1174/syllabus.html 第一次作業(yè)筆記 Soft...

  • 這一篇可能也要被鎖定了

    文章被鎖定了

    今天我在簡(jiǎn)書(shū)上的文章被鎖定了大概有 20 篇凫碌,也沒(méi)給個(gè)說(shuō)法啦膜,有點(diǎn)不知道說(shuō)什么好有送。內(nèi)心真是不滿。 很多話不能隨便說(shuō)僧家,尤其現(xiàn)在這個(gè)時(shí)代雀摘,一片盛世氣象,怎么能隨便抱怨八拱?怎么能隨便說(shuō)...

  • 120
    矩陣分解(MF)和交替最小平方法(ALS)

    矩陣分解是一種常用的推薦系統(tǒng)阵赠,通常研究者們只有用戶-物品評(píng)分矩陣烁落,如何從該矩陣中獲得用戶的個(gè)性偏好以及物品自身屬性為交替最小二乘法的實(shí)現(xiàn)目標(biāo)。轉(zhuǎn)自:https://iii.r...

  • Logistic 回歸

    最近看到了Logistic 回歸豌注,LR模型主要用于分類模型(不是回歸),細(xì)心的人不難發(fā)現(xiàn)LR模型在線性回歸模型上加了一個(gè)sigmoid轉(zhuǎn)換灯萍。 sigmoid轉(zhuǎn)換的優(yōu)勢(shì) 求梯度...

  • 感知機(jī)

    感知機(jī)對(duì)應(yīng)于輸入空間中將實(shí)例劃分為正負(fù)梁磊的分離超平面轧铁,屬于判別模型。 感知機(jī) 基礎(chǔ)神經(jīng)網(wǎng)絡(luò)旦棉,其實(shí)就是多層感知機(jī)…… 感知機(jī)模型 感知器要解決的問(wèn)題是二分類(很簡(jiǎn)單)齿风,對(duì)于輸...

  • 樸素貝葉斯法(2) 之 惡意留言過(guò)濾

    攜程筆試的時(shí)候碰到了這個(gè)題目,當(dāng)時(shí)其實(shí)沒(méi)多想绑洛。貝葉斯這個(gè)路子怕也太過(guò)氣了吧... 攜程也真是... 回顧思路 計(jì)算先驗(yàn)概率 計(jì)算條件概率 不同類別概率估計(jì) 原始數(shù)據(jù)集 代碼 ...

  • 樸素貝葉斯法(1) 之 基礎(chǔ)概念

    筆記來(lái)自《統(tǒng)計(jì)學(xué)習(xí)方法》第四章救斑。 大體分析 樸素貝葉斯的優(yōu)缺點(diǎn) 優(yōu)點(diǎn): 樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ)真屯,以及穩(wěn)定的分類效率脸候。 NBC模型所需估計(jì)的參數(shù)很...

  • 120
    SVM(2) 之 線性可分支持向量機(jī)學(xué)習(xí)方法

    上一篇大概講了一下拉格朗日對(duì)偶法以及KKT條件,這一篇推導(dǎo)一下SVM的公式绑蔫。下一篇舉個(gè)例子运沦,差不多就結(jié)束了。 線性可分支持向量機(jī) 首先配深,考慮一下原始問(wèn)題 間隔 間隔分為兩種携添,...

  • SVM(1) 之 拉格朗日乘子法和KKT條件

    其實(shí)我之前看過(guò)這個(gè)地方,但是當(dāng)時(shí)感觸不深(或者說(shuō)根本沒(méi)看懂,也可能是忘了)篓叶,所以重新推導(dǎo)一下烈掠。《西瓜書(shū)》 缸托、《統(tǒng)計(jì)學(xué)習(xí)方法》 還有網(wǎng)上講的其實(shí)有點(diǎn)點(diǎn)的不一樣左敌,這里以《統(tǒng)計(jì)學(xué)習(xí)...

  • 感知機(jī)

    感知機(jī)(perceptron)是二分類的線性分類模型,輸入為實(shí)例的特征向量嗦董,輸出為實(shí)例的類別(取+1和-1)母谎。感知機(jī)對(duì)應(yīng)于輸入空間中將實(shí)例劃分為兩類的分離超平面。 感知機(jī)旨在...

  • CS224n自然語(yǔ)言處理與深度學(xué)習(xí) Lecture Notes Two

    本筆記主要內(nèi)容翻譯自斯坦福大學(xué)CS224n: Natural Language Processing with Deep Learning Lecture Notes: Pa...

  • 循環(huán)神經(jīng)網(wǎng)絡(luò) RNN

    概述 循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks 京革,以下簡(jiǎn)稱RNN)奇唤,它廣泛的用于自然語(yǔ)言處理中的語(yǔ)音識(shí)別,手寫書(shū)別以及機(jī)器翻譯等領(lǐng)域匹摇。 更多見(jiàn) iii...

  • 120
    條件隨機(jī)場(chǎng)CRF

    條件隨機(jī)場(chǎng)(conditional random field咬扇,簡(jiǎn)稱 CRF),是一種鑒別式機(jī)率模型廊勃,是隨機(jī)場(chǎng)的一種懈贺,常用于標(biāo)注或分析序列資料经窖,如自然語(yǔ)言文字或是生物序列。 更...

  • 隱馬爾科夫模型HMM

    隱馬爾可夫模型 是統(tǒng)計(jì)模型梭灿,它用來(lái)描述一個(gè)含有隱含未知參數(shù)的馬爾可夫過(guò)程画侣。其難點(diǎn)是從可觀察的參數(shù)中確定該過(guò)程的隱含參數(shù)。然后利用這些參數(shù)來(lái)作進(jìn)一步的分析堡妒,例如模式識(shí)別配乱。 更...

  • 120
    Stripe開(kāi)發(fā)使用指南--國(guó)際支付(支付寶)

    這個(gè)開(kāi)發(fā)過(guò)程就是一堆坑,中文教程都沒(méi)有皮迟,心累搬泥。 更多內(nèi)容見(jiàn)個(gè)人博客 :https://iii.run/ 權(quán)限 請(qǐng)確保對(duì)應(yīng)的權(quán)限是支持的 Checkout Checkout 最...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品