分享人工智能方向優(yōu)質(zhì)博客

想要閱讀更多關(guān)于人工智能技術(shù)博客,請關(guān)注微信公眾號:人工智能大講堂

?專注人工智能底層數(shù)學(xué)原理和應(yīng)用幅恋,專欄包括線性代數(shù)杏死,概率統(tǒng)計,機(jī)器學(xué)習(xí),深度學(xué)習(xí)淑翼。

線性代數(shù)博客匯總

線性代數(shù)博客合集

線性代數(shù)本質(zhì)(一):向量腐巢,線性組合,線性相關(guān)玄括,基

線性代數(shù)本質(zhì)(二):矩陣與線性變換

線性代數(shù)本質(zhì)(三):逆矩陣冯丙,列空間,秩與零空間

線性代數(shù)本質(zhì)(四):克萊姆法則

線性代數(shù)本質(zhì)(五):非方陣

線性代數(shù)本質(zhì)(六):點(diǎn)積與對偶性

線性代數(shù)本質(zhì)(七):叉積

線性代數(shù)本質(zhì)(八):以線性變換眼光看叉積

線性代數(shù)本質(zhì)(九):基變換

線性代數(shù)本質(zhì)(十):特征向量與特征值

MIT線性代數(shù)課程筆記(一)

MIT線性代數(shù)課程筆記(二)

MIT線性代數(shù)課程筆記(三)

MIT線性代數(shù)課程筆記(四)

MIT線性代數(shù)課程筆記(五)

MIT線性代數(shù)課程筆記(六)

MIT線性代數(shù)課程筆記(七)

MIT線性代數(shù)課程筆記(八)

線性代數(shù)應(yīng)用(一):線性回歸分析

線性代數(shù)應(yīng)用(二):線性代數(shù)在游戲中的應(yīng)用

線性代數(shù)應(yīng)用(三):PCA數(shù)據(jù)降維

線性代數(shù)應(yīng)用(四):奇異值分解數(shù)據(jù)降維

線性代數(shù)應(yīng)用(五):線性代數(shù)在圖像配準(zhǔn)中的應(yīng)用

線性代數(shù)應(yīng)用(六):線性代數(shù)進(jìn)行信息檢索

線性代數(shù)應(yīng)用(七):協(xié)同過濾實(shí)現(xiàn)推薦系統(tǒng)

線性代數(shù)應(yīng)用(八):PageRank分析

線性代數(shù)應(yīng)用(九):奇異值的物理意義

線性代數(shù)應(yīng)用(十):線性代數(shù)在你的領(lǐng)域有哪些應(yīng)用遭京?

線性代數(shù)應(yīng)用(十一):ICP點(diǎn)云配準(zhǔn)背后的數(shù)學(xué)原理

線性代數(shù)應(yīng)用(十二):介紹幾種矩陣分解算法和應(yīng)用

線性代數(shù)應(yīng)用(十三):Jacobian矩陣和Hessian矩陣的作用是什么胃惜?

線性代數(shù)應(yīng)用(十四):向量的點(diǎn)積和光線追蹤

線性代數(shù)應(yīng)用(十五):學(xué)習(xí)線性代數(shù)有什么用?

線性代數(shù)應(yīng)用(十六):菜市場里的矩陣乘法

線性代數(shù)應(yīng)用(十七):線性代數(shù)在數(shù)據(jù)科學(xué)中的應(yīng)用

線性代數(shù)應(yīng)用(十八):看線性代數(shù)如何進(jìn)行人臉識別

線性代數(shù)應(yīng)用(十九):求解線性方程組的迭代方法

矩陣求導(dǎo)上

矩陣求導(dǎo)下

線性代數(shù)可視化工具:manim

線性代數(shù)知識點(diǎn)串燒

無處不在的迭代思想

概率統(tǒng)計博客匯總

概率統(tǒng)計博客合集

概率的本質(zhì)是什么哪雕?

統(tǒng)計學(xué)到底是個啥船殉?

中心極限定理應(yīng)用

正態(tài)分布為什么常見?

大數(shù)定理的通俗理解

通俗易懂講解“協(xié)方差”與“相關(guān)系數(shù)”

機(jī)器學(xué)習(xí)為什么需要概率與統(tǒng)計斯嚎?

概率統(tǒng)計在自然語言處理中的應(yīng)用

通過熵和信息增益進(jìn)行特征選擇

使用貝葉斯進(jìn)行水果分類

從數(shù)學(xué)角度解釋個人單身原因

如何用數(shù)學(xué)知識去計算后宮三千佳麗的寵幸問題

機(jī)器學(xué)習(xí)博客匯總

機(jī)器學(xué)習(xí)博客合集

機(jī)器學(xué)習(xí)知識點(diǎn)串燒

線性回歸分析

線性回歸的N種求解方法

為什么回歸問題用 MSE利虫?

回歸的多種寫法:線性回歸-貝葉斯線性回歸-高斯過程回歸

三種能夠處理離群值的線性回歸模型

正則化到底是什么?

機(jī)器學(xué)習(xí)源碼分析:邏輯回歸

常見的幾種最優(yōu)化方法

梯度下降背后的數(shù)學(xué)之美

最大似然估計和最小二乘法怎么理解

機(jī)器學(xué)習(xí)源碼分析-EM

機(jī)器學(xué)習(xí)源碼分析-K-最近鄰

機(jī)器學(xué)習(xí)源碼分析-支持向量機(jī)SVM

拉格朗日乘子法與對偶問題

機(jī)器學(xué)習(xí)源碼分析:貝葉斯

機(jī)器學(xué)習(xí)源碼分析-聚類

10種頂流聚類算法及實(shí)現(xiàn)

深度學(xué)習(xí)聚類的綜述

決策樹(一):信息熵和信息增益

決策樹(二):ID3堡僻,C4.5糠惫,CART

決策樹防止過擬合方法:剪枝

決策樹(中)——Random Forest、Adaboost苦始、GBDT (非常詳細(xì))

使用隨機(jī)森林進(jìn)行數(shù)據(jù)降維

Isolation Forest(孤立森林)進(jìn)行異常檢測

特征值分解

如何通俗易懂地講解PCA寞钥?

奇異值分解

高斯過程(一)

高斯過程(二)

高斯過程(三)

概率圖模型

圖解馬爾科夫鏈慌申,PCA陌选,貝葉斯

深刻地理解隨機(jī)過程的含義

一文搞懂馬爾科夫鏈

集成學(xué)習(xí)(一)

集成學(xué)習(xí)(二)

GBDT基礎(chǔ):回歸樹

GBDT基礎(chǔ):提升樹

深入理解LightGBM

梯度提升算法決策過程的逐步可視化

由過擬合欠擬合引出模型選擇的思考

各種機(jī)器學(xué)習(xí)算法的特點(diǎn)以及應(yīng)用場景對比

機(jī)器學(xué)習(xí)中的明星模型

圖解最常用的10大機(jī)器學(xué)習(xí)算法!

用戶留存分析

時間序列和回歸分析的本質(zhì)區(qū)別

如何通過顯著性檢驗(yàn)蹄溉,判斷你的A/B測試結(jié)果是不是巧合咨油?(上)

如何通過顯著性檢驗(yàn),判斷你的A/B測試結(jié)果是不是巧合柒爵?(下)

主動學(xué)習(xí)(Active Learning)概述及最新研究

常用監(jiān)督學(xué)習(xí)速查表

機(jī)器學(xué)習(xí)的“難”與“易”

機(jī)器學(xué)習(xí)中的“假設(shè)”思想

如何處理不平衡數(shù)據(jù)集

給大家推薦幾個資源

到底什么泰勒公式役电?

數(shù)學(xué)基礎(chǔ)

機(jī)器學(xué)習(xí)應(yīng)補(bǔ)充哪些數(shù)學(xué)基礎(chǔ)?

深度學(xué)習(xí)博客匯總

深度學(xué)習(xí)博客合集

深度學(xué)習(xí)損失函數(shù)優(yōu)化過程的數(shù)學(xué)原理

Adam優(yōu)化算法的優(yōu)點(diǎn)

關(guān)于優(yōu)化算法的億點(diǎn)思考

梯度下降法棉胀、牛頓法和擬牛頓法

Adam那么棒法瑟,為什么還對SGD念念不忘?一文看懂深度學(xué)習(xí)優(yōu)化算法

梯度和法向量的關(guān)系

深度學(xué)習(xí)數(shù)學(xué)基礎(chǔ)知識

深度學(xué)習(xí)背后的數(shù)學(xué)原理

到底什么是深度學(xué)習(xí)唁奢?

深度學(xué)習(xí)綜述

深度學(xué)習(xí)領(lǐng)域有哪些瓶頸霎挟?

分享一些調(diào)參經(jīng)驗(yàn)

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識1.基礎(chǔ)知識

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識2.距離計算

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識3.評價指標(biāo)

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識4.優(yōu)化策略

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識5.激活函數(shù)

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識6.損失函數(shù)

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識7.模型調(diào)優(yōu)

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識8.歸一化方法

ResetNet到底解決了什么問題?

計算機(jī)視覺綜述

CNN基礎(chǔ)知識1.綜述

CNN基礎(chǔ)知識2.池化

CNN基礎(chǔ)知識3.CNN中模型的參數(shù)量與FLOPs計算

CNN基礎(chǔ)知識4.卷積算子

YOLOv3原理與實(shí)踐下

YOLOv3原理與實(shí)踐上

CNN到底具不具有平移不變性麻掸?

目標(biāo)檢測任務(wù)中酥夭,各類樣本不均衡問題總數(shù)

到底什么是強(qiáng)化學(xué)習(xí)?

應(yīng)用強(qiáng)化學(xué)習(xí)進(jìn)行集成電路設(shè)計(英文)

強(qiáng)化學(xué)習(xí)

圖學(xué)習(xí)初印象

圖神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理總結(jié)

什么是圖神經(jīng)網(wǎng)絡(luò)?

圖神經(jīng)網(wǎng)絡(luò)與圖注意力網(wǎng)絡(luò)

圖表示學(xué)習(xí)技術(shù)在藥物推薦系統(tǒng)中的應(yīng)用

【理論+實(shí)踐】自動編碼器(AutoEncoder)基本概念及應(yīng)用(飛漿)

自編碼器AutoEncoder實(shí)現(xiàn)CT圖像降噪

ChatGPT初體驗(yàn)

ChatGPT訓(xùn)練過程梳理解析

自然語言處理綜述

一個完整的深度學(xué)習(xí)例子:項(xiàng)目簡介

一個完整的深度學(xué)習(xí)例子:環(huán)境搭建

一個完整的深度學(xué)習(xí)例子:數(shù)據(jù)準(zhǔn)備

一個完整的深度學(xué)習(xí)例子:模型訓(xùn)練

一個完整的深度學(xué)習(xí)例子:推理

AutoML(一):概述

AutoML(二):微軟NNI框架

AutoML(三):利用貝葉斯優(yōu)化進(jìn)行超參數(shù)搜索

How to Build a Winning Recommendation System, Part 1

How to Build a Deep Learning Powered Recommender System, Part 2

How to Build a Winning Recommender System-Part 3

深度學(xué)習(xí)下的圖像配準(zhǔn)

AI在影像設(shè)備全流程工作周期應(yīng)用

醫(yī)療影像領(lǐng)域AI軟件開發(fā)流程

圖像處理技術(shù)的心酸史

AI中的數(shù)學(xué)思想

稠密物體計數(shù)的演進(jìn)之路

OpenCV不止能解決AI最后一公里的問題

圖像分割演進(jìn)之路

換個角度看問題

深度學(xué)習(xí)下的圖像分割

當(dāng)圖像分割遇上關(guān)鍵點(diǎn)檢測

華為天才少年謝凌曦:關(guān)于視覺識別領(lǐng)域發(fā)展的個人觀點(diǎn)

如何實(shí)現(xiàn)高速卷積熬北?深度學(xué)習(xí)庫使用了這些「黑魔法」

深度學(xué)習(xí)在自動駕駛領(lǐng)域的應(yīng)用

深度學(xué)習(xí):知識蒸餾

有哪些深度學(xué)習(xí)效果不如傳統(tǒng)方法的經(jīng)典案例疙描?

通過醫(yī)療領(lǐng)域深度學(xué)習(xí)框架MONAI實(shí)現(xiàn)醫(yī)療圖像配準(zhǔn)

在OpenCV中基于深度學(xué)習(xí)的邊緣檢測

為什么深度學(xué)習(xí)去噪都采用高斯白噪聲?

神經(jīng)網(wǎng)絡(luò)能否代替決策樹算法讶隐?

復(fù)現(xiàn)深度學(xué)習(xí)模型的幾點(diǎn)建議

能否使用神經(jīng)網(wǎng)絡(luò)來判斷奇偶數(shù)起胰?

既然DNN可以擬合任何復(fù)雜函數(shù),那為什么還要CNN整份,RNN待错,GNN?

為什么Batch Normalization那么有用烈评?

為什么模型喜歡“深”而不是“寬”

一篇適合新手的深度學(xué)習(xí)綜述

史上最全的深度學(xué)習(xí)面經(jīng)總結(jié)(附答案詳解)

神經(jīng)網(wǎng)絡(luò)的參數(shù)如何初始化火俄?

深度學(xué)習(xí)中高斯噪聲:為什么以及如何使用

分享幾本人工智能基礎(chǔ)好書

神經(jīng)網(wǎng)絡(luò)反向傳播的數(shù)學(xué)原理

GAN背后的數(shù)學(xué)原理

想要閱讀更多關(guān)于人工智能技術(shù)博客,請關(guān)注微信公眾號:人工智能大講堂

專注人工智能底層數(shù)學(xué)原理和應(yīng)用讲冠,專欄包括線性代數(shù)瓜客,概率統(tǒng)計,機(jī)器學(xué)習(xí)竿开,深度學(xué)習(xí)谱仪。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市否彩,隨后出現(xiàn)的幾起案子疯攒,更是在濱河造成了極大的恐慌,老刑警劉巖列荔,帶你破解...
    沈念sama閱讀 218,122評論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件敬尺,死亡現(xiàn)場離奇詭異,居然都是意外死亡贴浙,警方通過查閱死者的電腦和手機(jī)砂吞,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,070評論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來崎溃,“玉大人蜻直,你說我怎么就攤上這事≡” “怎么了概而?”我有些...
    開封第一講書人閱讀 164,491評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長囱修。 經(jīng)常有香客問我赎瑰,道長,這世上最難降的妖魔是什么蔚袍? 我笑而不...
    開封第一講書人閱讀 58,636評論 1 293
  • 正文 為了忘掉前任乡范,我火速辦了婚禮配名,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘晋辆。我一直安慰自己渠脉,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,676評論 6 392
  • 文/花漫 我一把揭開白布瓶佳。 她就那樣靜靜地躺著芋膘,像睡著了一般。 火紅的嫁衣襯著肌膚如雪霸饲。 梳的紋絲不亂的頭發(fā)上为朋,一...
    開封第一講書人閱讀 51,541評論 1 305
  • 那天,我揣著相機(jī)與錄音厚脉,去河邊找鬼习寸。 笑死,一個胖子當(dāng)著我的面吹牛傻工,可吹牛的內(nèi)容都是我干的霞溪。 我是一名探鬼主播,決...
    沈念sama閱讀 40,292評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼中捆,長吁一口氣:“原來是場噩夢啊……” “哼鸯匹!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起泄伪,我...
    開封第一講書人閱讀 39,211評論 0 276
  • 序言:老撾萬榮一對情侶失蹤殴蓬,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后蟋滴,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體染厅,經(jīng)...
    沈念sama閱讀 45,655評論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,846評論 3 336
  • 正文 我和宋清朗相戀三年脓杉,在試婚紗的時候發(fā)現(xiàn)自己被綠了糟秘。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片简逮。...
    茶點(diǎn)故事閱讀 39,965評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡球散,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出散庶,到底是詐尸還是另有隱情蕉堰,我是刑警寧澤,帶...
    沈念sama閱讀 35,684評論 5 347
  • 正文 年R本政府宣布悲龟,位于F島的核電站屋讶,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏须教。R本人自食惡果不足惜皿渗,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,295評論 3 329
  • 文/蒙蒙 一斩芭、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧乐疆,春花似錦划乖、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,894評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至仰美,卻和暖如春迷殿,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背咖杂。 一陣腳步聲響...
    開封第一講書人閱讀 33,012評論 1 269
  • 我被黑心中介騙來泰國打工庆寺, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人诉字。 一個月前我還...
    沈念sama閱讀 48,126評論 3 370
  • 正文 我出身青樓止邮,卻偏偏與公主長得像,于是被迫代替她去往敵國和親奏窑。 傳聞我的和親對象是個殘疾皇子导披,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,914評論 2 355

推薦閱讀更多精彩內(nèi)容