謝謝泪喊,收藏了
得到APP 《何帆的北大讀書(shū)俱樂(lè)部》老師推薦書(shū)單完整版注:帶序號(hào)為選讀書(shū)氯质,不帶序號(hào)為精讀書(shū) 第一單元 蘇格拉底之道 柏拉圖直焙,《蘇格拉底的申辯》 1、色諾芬吞琐,《回憶蘇格拉底》 2仰迁、柏拉圖,《游敘弗倫》《拉凱斯篇》《會(huì)飲篇》《理想國(guó)...
謝謝泪喊,收藏了
得到APP 《何帆的北大讀書(shū)俱樂(lè)部》老師推薦書(shū)單完整版注:帶序號(hào)為選讀書(shū)氯质,不帶序號(hào)為精讀書(shū) 第一單元 蘇格拉底之道 柏拉圖直焙,《蘇格拉底的申辯》 1、色諾芬吞琐,《回憶蘇格拉底》 2仰迁、柏拉圖,《游敘弗倫》《拉凱斯篇》《會(huì)飲篇》《理想國(guó)...
注:帶序號(hào)為選讀書(shū)顽分,不帶序號(hào)為精讀書(shū) 第一單元 蘇格拉底之道 柏拉圖,《蘇格拉底的申辯》 1施蜜、色諾芬卒蘸,《回憶蘇格拉底》 2、柏拉圖翻默,《游敘弗倫》《拉凱斯篇》《會(huì)飲篇》《理想國(guó)...
1缸沃、模型原理 (另一臺(tái)電腦上,待補(bǔ)充)回顧下線(xiàn)性回歸的損失函數(shù)修械,由于線(xiàn)性回歸是連續(xù)的趾牧,所以可以使用模型誤差的的平方和來(lái)定義損失函數(shù)。但是邏輯回歸不是連續(xù)的肯污,自然線(xiàn)性回歸損失函...
為解決過(guò)擬合問(wèn)題翘单,加入正則化項(xiàng)或者規(guī)則項(xiàng),對(duì)模型的復(fù)雜程度進(jìn)行懲罰蹦渣,讓模型更加簡(jiǎn)單哄芜。 規(guī)則化函數(shù)Ω(w)通常可以選擇L1柬唯、L2范數(shù)认臊。 λ 在這里我們稱(chēng)做正則化參數(shù)。它是用來(lái)平...
1锄奢、模型原理 失晴。 2、計(jì)算步驟: 拘央。但由于很多樣本取值在訓(xùn)練集中根本沒(méi)有出現(xiàn)涂屁,即很多P(x│c)=0,因此直接使用頻率來(lái)估計(jì)P(x│c) 顯然不可行堪滨,因?yàn)?quot;未被觀(guān)測(cè)到"與"出...
轉(zhuǎn)載于 Python numpy函數(shù):zeros()、ones()遏乔、empty() 在給數(shù)組賦初始值的時(shí)候义矛,經(jīng)常會(huì)用到0數(shù)組,而Python中盟萨,我們使用zero()函數(shù)來(lái)實(shí)現(xiàn)...
調(diào)用sklearn中現(xiàn)有的機(jī)器學(xué)習(xí)函數(shù)包凉翻,往往都會(huì)有很多參數(shù)設(shè)置,如knn中捻激,你需要選擇k的數(shù)值制轰,需要選擇距離計(jì)算方法,需要選擇是不是要按照距離遠(yuǎn)近給不同點(diǎn)的不同的權(quán)重胞谭,等等...
在對(duì)模型進(jìn)行預(yù)測(cè)時(shí)垃杖,如使用sklearn中的KNN模型, 會(huì)報(bào)錯(cuò) ValueError: Expected 2D array, got 1D array instead:Re...
loc中的數(shù)據(jù)是列名,是字符串旺垒,所以前后都要炔士狻;iloc中數(shù)據(jù)是int整型先蒋,所以是Python默認(rèn)的前閉后開(kāi) 一骇钦、loc函數(shù) 構(gòu)建數(shù)據(jù)集df loc函數(shù)主要通過(guò)行標(biāo)簽索引行數(shù)...
一、類(lèi)別變量中“有序”和“無(wú)序”的區(qū)分 類(lèi)別變量轉(zhuǎn)化為數(shù)字竞漾,需要區(qū)分是否是有序類(lèi)別眯搭,如 male和female,就是無(wú)序的业岁,應(yīng)該轉(zhuǎn)化成(1,0)和(0,1)坦仍,但衣服大小,M叨襟,...
以前沒(méi)了解過(guò)柴靜繁扎,她拍的蒼穹之下也一直沒(méi)看,只是隱約知道有這么個(gè)女媒體人糊闽,現(xiàn)在《看見(jiàn)》這本書(shū)看完了也只是對(duì)她有了一個(gè)基本的認(rèn)識(shí)梳玫。 以往讀書(shū),不愛(ài)看帶有作者太多...
主要內(nèi)容: 導(dǎo)入導(dǎo)出本地?cái)?shù)據(jù)pd.read_csv()pd.to_csv()pd.read_excel()pd.read_pickle & pd.to_pickle 本地?cái)?shù)據(jù)...
1右犹、模型原理 (一)原理 1提澎、原理:引入信息熵(不確定程度)的概念,通過(guò)計(jì)算各屬性下的信息增益程度(信息增益越大念链,則意味著使用該屬性來(lái)進(jìn)行劃分所獲得的“純度提升”越大)盼忌,增益...
1积糯、模型原理 (一)原理1、原理:是一種常用的監(jiān)督學(xué)習(xí)方法谦纱,給定測(cè)試樣本看成,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個(gè)訓(xùn)練樣本,然后基于這k個(gè)“鄰居”的信息來(lái)進(jìn)行預(yù)測(cè)跨嘉。也有無(wú)...
第一部分:sklearn主要模塊和使用方法 1. sklearn的六大板塊: 分類(lèi): Classification 回歸: Regression 聚類(lèi):Clustering...
第一步 win+r 調(diào)出命令行第二步 輸入cmd第三步 輸入相關(guān)命令 查找一個(gè)包的路徑川慌,只需要打印輸出該包的file屬性即可。如查找os包的安裝路徑: 多種方法可...
1祠乃、查詢(xún)/切換操作目錄 Python有默認(rèn)執(zhí)行的操作目錄梦重,可以用以下代碼進(jìn)行操作目錄切換。 2亮瓷、路徑的表達(dá)方式 三種: 3琴拧、文件讀取 (1) open 和 withopen ...