Day1
一惕耕、上午
- 傳統(tǒng)程序:數(shù)據(jù) + 程序 -> 電腦 -> 輸出
機器學(xué)習(xí):數(shù)據(jù) + 輸出 -> 電腦 -> 程序 - 條件概率幸海、邊緣概率慨丐、聯(lián)合概率赂乐、參考;
貝葉斯公式咖气、貝葉斯網(wǎng)絡(luò)、概率的鏈?zhǔn)椒▌t(重點理解)挖滤、參考崩溪;
概率圖模型(自學(xué),即貝葉斯網(wǎng)絡(luò)和馬爾柯夫網(wǎng)絡(luò)); - 概率密度函數(shù)斩松、Transformed Densities(不理解)伶唯、參考;
最大似然估計惧盹、最大后驗估計乳幸、參考; - 自信息:不確定性的消除钧椰;
概率:事件的不確定性程度粹断;
熵、聯(lián)合熵嫡霞、條件熵瓶埋、相對熵、交叉熵诊沪、參考 - 導(dǎo)數(shù)的鏈?zhǔn)角髮?dǎo)法則
二养筒、下午
- 數(shù)據(jù)、代價函數(shù)端姚、最小化代價函數(shù)晕粪、
- 最小二乘法(推導(dǎo))、正則化渐裸、梯度下降巫湘、線性回歸(FIT,擬合)
- 線性分類橄仆、支持向量機(軟間隔剩膘、hinge loss)、各種損失函數(shù)
- 隨機梯度下降盆顾、批次隨機梯度下降(節(jié)約內(nèi)存)
- Adma(AdaGrad + RMSProp)(重點理解怠褐!面試必考!)
AdaGrad:適用于稀疏梯度您宪;當(dāng)梯度較小時奈懒,下一步跑得慢奠涌;梯度較大時,下一步跑得快磷杏。
RMSProp:自適應(yīng)學(xué)習(xí)率溜畅。 - 牛頓法:每一步梯度都由一個 xxx 矩陣確定,但是復(fù)雜度高极祸。(自學(xué))
-
優(yōu)化算法:分布式(中心化(工業(yè)界常用)慈格、去中心化)、量化
三遥金、晚上
- Linux(環(huán)境變量浴捆、常用命令)
man: Linux 下的幫助指令。
which:用于查找并顯示給定命令的絕對路徑稿械。
free:顯示當(dāng)前系統(tǒng)未使用和已使用的內(nèi)在數(shù)目选泻。-h:以可讀的方式顯示。
df:顯示磁盤分區(qū)上的可用空間美莫。掛載點
top:系統(tǒng)的運行情況页眯。(load:1、5厢呵、15 分鐘的負(fù)載情況)
- GPU 的基礎(chǔ)概念
- Docker的基礎(chǔ)概念
- NVIDIA Docker 的基礎(chǔ)概念 (deepo窝撵、docker hub)
- 實驗、及相關(guān)代碼
Day2
一述吸、上午
大綱
1. 線性模型:單層感知機(sign -> (-1, 1))忿族、邏輯回歸(sigmoid -> (0,1))。
2. 決策樹(詳見《機器學(xué)習(xí)》):
2.1. 純度:the degree that the samples in one leaf node belong to the same class
2.2. 信息熵:平均而言發(fā)生一個事件我們得到的信息量大小蝌矛。
2.3. 信息增益:熵 - 條件熵道批,在一個條件下,信息不確定性減少的程度入撒。(ID3)
2.4. 增益率:懲罰參數(shù) * 信息增益隆豹。(C4.5)
2.5. 基尼系數(shù):是一種與信息熵類似的做特征選擇的方式,可以用來數(shù)據(jù)的不純度茅逮。(CART)
3. 集成學(xué)習(xí)(詳見《機器學(xué)習(xí)》)
3.1. 基分類器
3.2. 加性模型
4. AdaBoost(如何訓(xùn)練璃赡、合并、更新數(shù)據(jù)分布)(一堆數(shù)學(xué)公式……)
4.1. 流程:
4.2. 偽代碼:
4.3. 理論分析:錯誤率有上界献雅;模型自由率比較小碉考,不容易過擬合;
4.4. AdaBoost 的局限性:等價對待正例和負(fù)例挺身。
4.5. 解決:代價敏感學(xué)習(xí)
4.6. AdaCost
5. GBDT(基于回歸樹)
5.1.動機
5.2. 訓(xùn)練基分類器
5.3. 組合分類器:加性模型
5.4. 改變數(shù)據(jù)分布:殘差侯谁。
5.5 偽代碼
6. XGBoost
6.1. 過擬合、欠投合、偏差墙贱、方差
6.2. XGBoost 目標(biāo)函數(shù)
6.3. How to learn? (……一堆公式+一堆例子热芹,這一部分完全沒聽懂)
7. 剪枝、正則化
8.準(zhǔn)確度
9.總結(jié)
10. 附件: XGBoost的實驗手冊惨撇、調(diào)參
二伊脓、下午
大綱
沒怎么聽……不太感興趣……
三、晚上
如何做實驗及管理實驗
1. Research Workflow
2.模型設(shè)計
3. 訓(xùn)練數(shù)據(jù)
4. 目錄結(jié)構(gòu)
checkpoints:用來保存中間結(jié)果魁衙。
opts(即 configure):放所有超參數(shù)等各種設(shè)置报腔。
main:訓(xùn)練和測試的代碼。
5. 命名及注釋
6. 管理結(jié)果
Day6
一剖淀、上午 推薦系統(tǒng)
1. 流程
2. 協(xié)同過濾:過對用戶歷史行為數(shù)據(jù)的挖掘發(fā)現(xiàn)用戶的偏好榄笙,基于不同的偏好對用戶進行群組劃分并推薦品味相似的商品。
2.1. 協(xié)同過濾分類
2.2. 協(xié)同過濾的基本方法
3. User-based 模型
3.1. 基本問題
3.1.1 相似度(套一個PCC公式祷蝌,皮爾森)
3.1.2. 計算總分
3.1.3. 取幾個近鄰(經(jīng)驗值)
3.2. 模型的優(yōu)化
3.3 模型分析
4. Item-based 模型
4.1 模型的直觀理解:利用其他相似值相同的 item帆卓,來評估 target item巨朦。
4.2 相似度計算:PCC 或者 余弦相似度
4.3 預(yù)測
[圖片上傳失敗...(image-749553-1532742673361)]
4.4 優(yōu)勢:可以做離線預(yù)測。
5. 以上兩個模型的基本問題:冷啟動(content-based, 遷移學(xué)習(xí))
6. Model-based 模型(難)
7. 聚類模型
8. 概率模型
[圖片上傳中...(image.png-952044-1532744092074-0)]