作者:hooly
微信公眾號:一口袋星光
目錄:
1.說明洒宝;
2.概念;
3.bias-variance trade-off薇正;
4.評估方法
5.性能度量
說明:本文大部分內(nèi)容來自于《機器學(xué)習(xí)》讀書的筆記洛心,對機器學(xué)習(xí)感興趣的同學(xué),非常推薦閱讀周志華的這本書:
1.概念
錯誤率&精度:分類錯誤的樣本數(shù)占樣本總數(shù)的比例是“錯誤率”葬毫,如果m個樣本中有α個分類錯誤镇辉,則錯誤率E = α/m,相應(yīng)的精度為1-E = 1-α/m
“訓(xùn)練誤差”&泛化誤差:對于模型來說贴捡,在訓(xùn)練集上的誤差叫做“訓(xùn)練誤差”忽肛,“訓(xùn)練誤差”是被允許的,因為我們真正關(guān)心的是在訓(xùn)練集上學(xué)到的模型在新樣本數(shù)據(jù)上的表現(xiàn)烂斋。在新樣本上的誤差是“泛化誤差”屹逛。
“過擬合”&“欠擬合”:如果模型對于訓(xùn)練集的數(shù)據(jù)學(xué)習(xí)的太好,那么可能造成“過擬合”汛骂;如果“訓(xùn)練誤差”都很大罕模,那么可能是“欠擬合。
2.bias-variance trade-off:
bias :誤差
variance:方差
noise:噪聲
bias:估計的均值模型與實際模型之間的距離
variance:不同模型與估計的均值模型之間的平均距離
在實際訓(xùn)練過程中帘瞭,我們往往不會只使用一個樣本訓(xùn)練一次淑掌,我們會使用多個樣本,訓(xùn)練出多個不同的模型蝶念。
不同的訓(xùn)練集訓(xùn)練出不同的模型抛腕。這就要求:
第一,在不同訓(xùn)練集下訓(xùn)練出的模型媒殉,我們希望這些模型的均值越接近實際模型越好阶界,即bias越小越好盅粪;
第二践付,這組模型粘室,本身的方差不要太大。也就是不同訓(xùn)練集訓(xùn)練的模型之間,不要差別太大刹悴,即variance越小越好给猾。
3.評估方法
3.1.對數(shù)據(jù)集進(jìn)行劃分,分為訓(xùn)練集和測試集兩部分颂跨;數(shù)據(jù)集D敢伸、訓(xùn)練集S、測試集T
3.2.在測試集上恒削,訓(xùn)練模型池颈,得到“測試誤差”,作為“泛化誤差”的近似
3.3.調(diào)參和最終確定模型
3.1數(shù)據(jù)集的劃分方法:
通常有以下三種:
留出法 ?
交叉驗證法
自助法
3.1.1留出法:
留出法是直接將數(shù)據(jù)集D劃分為兩個互斥的集合钓丰,其中一個集合作為訓(xùn)練集S躯砰,另一個作為測試集T,我們需要注意的是在劃分的時候要盡可能保證數(shù)據(jù)分布的一致性携丁,即避免因數(shù)據(jù)劃分過程引入額外的偏差而對最終結(jié)果產(chǎn)生影響琢歇。
為了保證數(shù)據(jù)分布的一致性,通常我們采用分層采樣的方式來對數(shù)據(jù)進(jìn)行采樣梦鉴。
但是樣本的不同劃分方式會導(dǎo)致模型評估的相應(yīng)結(jié)果也會有差別李茫,通常我們都會進(jìn)行多次隨機劃分、重復(fù)進(jìn)行實驗評估后取平均值作為留出法的評估結(jié)果肥橙。
留出法的缺點:對于留出法魄宏,如果我們的對數(shù)據(jù)集D劃分后,訓(xùn)練集S中的樣本很多存筏,接近于D宠互,其訓(xùn)練出來的模型與D本身訓(xùn)練出來的模型可能很接近,但是由于T比較小椭坚,這時候可能會導(dǎo)致評估結(jié)果不夠準(zhǔn)確穩(wěn)定予跌;如果S樣本很少,又會使得訓(xùn)練出來的樣本與D所訓(xùn)練出來的樣本相差很大善茎。通常券册,會將D中大約2/3?4/5的樣本作為訓(xùn)練集,其余的作為測試集巾表。
3.1.2.交叉驗證法:
k折交叉驗證通常把數(shù)據(jù)集D分為k份汁掠,其中的k-1份作為訓(xùn)練集略吨,剩余的那一份作為測試集集币,這樣就可以獲得k組訓(xùn)練/測試集,可以進(jìn)行k次訓(xùn)練與測試翠忠,最終返回的是k個測試結(jié)果的均值鞠苟。、
這里數(shù)據(jù)集的劃分依然是依據(jù)分層采樣的方式來進(jìn)行。對于交叉驗證法当娱,其k值的選取往往決定了評估結(jié)果的穩(wěn)定性和保真性吃既。常見的K的取值有:5、10跨细、20鹦倚。與留出法類似,通常我們會進(jìn)行多次劃分得到多個k折交叉驗證冀惭,最終的評估結(jié)果是這多次交叉驗證的平均值震叙。比如“10次10折交叉驗證法”。(10次10折交叉驗證和100次留出法散休,都是進(jìn)行了100次實驗)
假設(shè)數(shù)據(jù)集D里面包含m個樣本媒楼,當(dāng)k=m的時候,我們稱之為留一法戚丸,我們可以發(fā)現(xiàn)留一法并不需要多次劃分划址,因為其劃分方式只有一種,因為留一法中的S與D很接近限府,因此S所訓(xùn)練出來的模型應(yīng)該與D所訓(xùn)練出來的模型很接近夺颤,因此通常留一法得到的結(jié)果是比較準(zhǔn)確的。但是當(dāng)數(shù)據(jù)集很大的時候胁勺,訓(xùn)練m個模型的計算開銷可能是無法忍受的拂共。
3.1.3.自助法:
留出法與交叉驗證法都是使用分層采樣的方式進(jìn)行數(shù)據(jù)采樣與劃分,而自助法則是使用有放回重復(fù)采樣的方式進(jìn)行數(shù)據(jù)采樣姻几,即我們每次從數(shù)據(jù)集D中取一個樣本作為訓(xùn)練集中的元素宜狐,然后把該樣本放回,重復(fù)該行為m次蛇捌,這樣我們就可以得到大小為m的訓(xùn)練集D'抚恒,在這里面有的樣本重復(fù)出現(xiàn),有的樣本則沒有出現(xiàn)過络拌,我們把那些沒有出現(xiàn)過的樣本D-D'作為測試集俭驮。
這種方法對于那些數(shù)據(jù)集小、難以有效劃分訓(xùn)練/測試集時很有用春贸,但是由于該方法改變了數(shù)據(jù)的初始分布導(dǎo)致會引入估計偏差混萝。
總結(jié)
對于數(shù)據(jù)量充足的時候,通常采用留出法或者k折交叉驗證法來進(jìn)行訓(xùn)練/測試集的劃分萍恕;
對于數(shù)據(jù)集小且難以有效劃分訓(xùn)練/測試集時使用自助法逸嘀;
對于數(shù)據(jù)集小且可有效劃分的時候最好使用留一法來進(jìn)行劃分,因為這種方法最為準(zhǔn)確
3.2訓(xùn)練模型
模型的訓(xùn)練過程本文不做論述
3.3調(diào)參和最終確定模型
在機器學(xué)習(xí)過程中允粤,除了要進(jìn)行模型的選擇崭倘,也需要進(jìn)行參數(shù)的設(shè)定翼岁,這就是通常所說的“參數(shù)調(diào)節(jié)”簡稱“調(diào)參”。
注意:學(xué)習(xí)算法的很多參數(shù)是在實數(shù)范圍內(nèi)取值的司光,對于每種參數(shù)的配置都訓(xùn)練一個模型出來是不可能的琅坡,常用的做法是對每個參數(shù)設(shè)置一個變化范圍和步長,比如在[0残家,2]之間榆俺,以0.05為步長,實際要評估的值是5個坞淮,最終也會從這5個候選值中產(chǎn)生選定值谴仙。這個值可能并不是最佳值,但是這是在性能和開銷之間進(jìn)行這種的結(jié)果碾盐,通過折中晃跺,學(xué)習(xí)這個過程才變得可行。假設(shè)有3個參數(shù)毫玖,每個參數(shù)有5個候選值掀虎,那么一共就是5*5*5=125個模型需要考察,所以即使是折中后付枫,調(diào)參仍然是很困難的烹玉。
需要注意的是,我們會把訓(xùn)練集另外劃分成訓(xùn)練集和驗證集(validation set)阐滩,基于驗證集上的性能來進(jìn)行模型選擇和調(diào)優(yōu)二打,用測試集上的判別效果來估計模型在實際使用時的泛化能力。
4.性能度量
對于模型的性能度量掂榔,我們通常用以下幾種方法來進(jìn)行度量:
1. 錯誤率/精度(accuracy)
2. 準(zhǔn)確率(查準(zhǔn)率继效,precision)/召回率(查全率,recall)
3. P-R曲線装获,F(xiàn)1度量
4. ROC曲線/AUC(最常用)
5. 代價曲線
接下來瑞信,我們將會更加詳細(xì)的來介紹這些概念以及那些度量方法是最常用的。
3.4.1錯誤率/精度(accuracy)
假設(shè)我們擁有m個樣本個體穴豫,分類錯誤的樣本數(shù)占樣本總數(shù)的比例是“錯誤率”凡简,如果m個樣本中有α個分類錯誤,則錯誤率E = α/m精肃,相應(yīng)的精度為1-E = 1-α
3.4.2準(zhǔn)確率(查準(zhǔn)率)/召回率(查全率)
準(zhǔn)確率=預(yù)測為真且實際也為真的個體個數(shù)預(yù)測為真的個體個數(shù)
召回率=預(yù)測為真且實際也為真的個體個數(shù)實際為真的個體個數(shù)
我們將準(zhǔn)確率記為P秤涩,召回率記為R,通過下面的混淆矩陣我們有
其中司抱,TP(true positive)筐眷,F(xiàn)P(false positive),F(xiàn)N(false negative)状植,TN(true negative)
P=TPTP+FP
R=TPTP+FN
通過上面對準(zhǔn)確率和召回率的描述我們可以發(fā)現(xiàn)浊竟,準(zhǔn)確率更care的是在已經(jīng)預(yù)測為真的結(jié)果中怨喘,預(yù)測正確的比例津畸,這時候我們可以發(fā)現(xiàn)如果我們預(yù)測為真的個體數(shù)越少振定,準(zhǔn)確率越高的可能性就會越大,即如果我們只預(yù)測最可能為真的那一個個體為真肉拓,其余的都為假后频,那么這時候我們的準(zhǔn)確率很可能為100%,但此時召回率就會很低暖途;而召回率care的是在所有為真的個體中卑惜,被預(yù)測正確的個體所占的比例,那么可以看到如果我們預(yù)測為真的個體越多驻售,那么召回率更高的可能性就會越大露久,即如果我們把所有的個體都預(yù)測為真,那么此時的召回率必然為100%欺栗,但是準(zhǔn)確率此時就會很低毫痕。因此這兩個度量往往是相互對立的,即準(zhǔn)確率高則召回率通常比較低迟几,召回率高則準(zhǔn)確率往往會很低消请。因此我們分別用準(zhǔn)確率或召回率對模型的預(yù)測結(jié)果進(jìn)行評價會有片面性,故接下來介紹P-R曲線來對模型進(jìn)行更準(zhǔn)確的評價类腮。
3.4.3?P-R曲線/F1度量
P-R曲線是以召回率R為橫軸臊泰,準(zhǔn)確率P為縱軸,然后根據(jù)模型的預(yù)測結(jié)果對樣本進(jìn)行排序蚜枢,把最有可能是正樣本的個體排在前面缸逃,而后面的則是模型認(rèn)為最不可能為正例的樣本,再按此順序逐個把樣本作為正例進(jìn)行預(yù)測并計算出當(dāng)前的準(zhǔn)確率和召回率得到的曲線厂抽。
通過上圖我們可以看到察滑,當(dāng)我們只把最可能為正例的個體預(yù)測為正樣本時,其準(zhǔn)確率最高位1.0修肠,而此時的召回率則幾乎為0贺辰,而我們?nèi)绻阉械膫€體都預(yù)測為正樣本的時候,召回率為1.0嵌施,此時準(zhǔn)確率則最低饲化。但是我們?nèi)绾瓮ㄟ^PR曲線來判斷哪個模型更好呢?這里有以下集中判斷方式:
基于曲線是否覆蓋來進(jìn)行判斷吗伤。即如果模型B的PR曲線此時完全包住了模型C的PR曲線吃靠,此時我們認(rèn)為模型B對于該問題更優(yōu)于模型C,這也可以理解足淆,因為在相同召回率的情況下巢块,模型B的準(zhǔn)確率要比模型C的更高礁阁,因此B必然更優(yōu)一些。但是這種方法在曲線有交叉的時候不好判斷族奢;
基于平衡點來進(jìn)行判斷姥闭。平衡點即為召回率與準(zhǔn)確率相等的點,如果該點的值越大越走,則認(rèn)為模型越優(yōu)棚品,但這樣的判斷過于簡單;
利用F1度量來進(jìn)行判斷廊敌。F1=2?P?RP+R铜跑,F(xiàn)1的值越大越好,可以發(fā)現(xiàn)骡澈,F(xiàn)1是一個準(zhǔn)確率和召回率的調(diào)和平均數(shù)锅纺,其更care較小值,因此如果P與R中一個值太小會對F1產(chǎn)生更大的影響肋殴,但是這樣的判斷都是以準(zhǔn)確率和召回率同等重要為基礎(chǔ)的囤锉,但是對于很多問題,其會更care其中的一個指標(biāo)疼电,例如癌癥的判斷嚼锄,其更關(guān)注的是召回率而不是準(zhǔn)確率,因為如果我們更關(guān)注準(zhǔn)確率蔽豺,就會使得很多的癌癥患者被誤診為不是癌癥区丑,從而造成患者的死亡率會更高;
利用Fβ來判斷修陡。Fβ=(1+β2)?P?Rβ2?P+R沧侥,當(dāng)β=1的時候,即為F1度量魄鸦,當(dāng)β>1的時候宴杀,召回率有更大的影響,反之準(zhǔn)確率有更大的影響拾因,這個很好理解旺罢,我們把Fβ轉(zhuǎn)換一下又Fβ=11+β2(β2R+1P),通過該公式我們可以看到當(dāng)β>1的時候绢记,R對于Fβ的影響更大扁达。
但是對于PR曲線,其對于樣本類別是否平衡非常的敏感蠢熄,在這里我們可以做一個證明:
假設(shè)我們擁有n個樣本跪解,我們首先對樣本進(jìn)行排序,把在該模型下最可能預(yù)測為正例的樣本放在前面叉讥,把最不可能為正例的樣本放在后面罐盔,然后我們選取閾值c帚豪,那么在c之前的樣本我們會預(yù)測為正,c之后的樣本我們會預(yù)測為負(fù)。p(fp)表示我們對樣本預(yù)測為正的概率,那么我們有:
TP=n∫c?∞p(Y=1|fp)p(fp)dfp=n∫c?∞p(Y=1,fp)dfp=n∫c?∞p(fp|Y=1)P(Y=1)dfp=nP(Y=1)∫c?∞p(fp|Y=1)dfp
FP=n∫c?∞p(Y=0|fp)p(fp)dfp=n∫c?∞p(Y=0,fp)dfp=n∫c?∞p(fp|Y=0)P(Y=0)dfp=nP(Y=0)∫c?∞p(fp|Y=0)dfp
TN=n∫∞cp(Y=0|fp)p(fp)dfp=n∫∞cp(Y=0,fp)dfp=n∫∞cp(fp|Y=0)P(Y=0)dfp=nP(Y=0)∫∞cp(fp|Y=0)dfp
FN=N∫∞cp(Y=1|fp)p(fp)dfp=n∫∞cp(Y=1,fp)dfp=n∫∞cp(fp|Y=1)P(Y=1)dfp=nP(Y=1)∫∞cp(fp|Y=1)dfp
那么準(zhǔn)確率
P=TPTP+FP=nP(Y=1)∫c?∞p(fp|Y=1)dfpnP(Y=1)∫c?∞p(fp|Y=1)dfp+nP(Y=0)∫c?∞p(fp|Y=0)dfp
我們可以看到準(zhǔn)確率P與數(shù)據(jù)的先驗分布P(Y)有很大的關(guān)系,當(dāng)我們采的樣本不均衡的時候,P(Y)會有變化,從而導(dǎo)致準(zhǔn)確率也會發(fā)生變化,因此PR曲線對于數(shù)據(jù)采樣的均衡性具有很高的敏感度
3.4.4?ROC曲線/AUC
ROC曲線則是以假正例率FPR為橫軸,真正例率TPR為縱軸。其中
FPR=FPFP+TN
TPR=TPTP+FN
我們可以看到真正例率與召回率是一樣的疟游,那么ROC曲線圖如下圖所示:
該曲線與繪制PR曲線類似另绩,也是首先將樣本按照正例的可能性進(jìn)行排序椭员,然后按順序逐個把樣本預(yù)測為正例(其實相當(dāng)于取不同的閾值)侍芝,然后計算FPR值和TPR值,即可獲得該曲線。
對于該曲線,我們首先有4個特殊的點要說明一下:
(0,0)點:我們把所有的個體都預(yù)測為假,那我們可以知道TP與FP都為0,因為TP表示預(yù)測為真實際也為真,而FP表示預(yù)測為真實際為假的個體;
(0,1)點:我們所有預(yù)測為真的個體都正確晚凿,這是我們最理想的情況燥筷,此時TP=TP+FN,而FP=0亚脆;
(1,0)點:這是預(yù)測最糟糕的情況做院,即所有的預(yù)測都是錯誤的盲泛,那么此時TP=0濒持,而FP=FP+TN;
(1,1)點:因為其是在y=x的這條直線上寺滚,因此其相當(dāng)于隨機預(yù)測柑营,即我預(yù)測一個個體為真還是假都是隨機的。
因此我們可以發(fā)現(xiàn)如果一個模型的ROC曲線越靠近與左上角村视,那么該模型就越優(yōu)官套,其泛化性能就越好,但是對于兩個模型蚁孔,我們?nèi)绾闻袛嗄膫€模型的泛化性能更優(yōu)呢奶赔?這里我們有主要以下兩種方法:
如果模型A的ROC曲線完全包住了模型B 的ROC曲線,那么我們就認(rèn)為模型A要優(yōu)于模型B杠氢;
如果兩條曲線有交叉的話站刑,我們就通過比較ROC與X,Y軸所圍得曲線的面積來判斷鼻百,面積越大绞旅,模型的性能就越優(yōu),這個面積我們稱之為AUC(area under ROC curve)
由于我們的樣本通常是有限的温艇,因此所繪制出來的曲線并不是光滑的因悲,而是像曲線b那樣,因此我們可以通過以下公式來計算AUC
AUC=12∑i=1m?1(xi?1?xi)?(yi+yi+1)
根據(jù)FPR以及TPR的定義我們有
TPR=TPTP+FN=nP(Y=1)∫c?∞p(fp|Y=1)dfpnP(Y=1)∫c?∞p(fp|Y=1)dfp+nP(Y=1)∫∞cp(fp|Y=1)dfp=∫c?∞p(fp|Y=1)dfp∫c?∞p(fp|Y=1)dfp+∫∞cp(fp|Y=1)dfp
FPR=FPFP+TN=nP(Y=0)∫c?∞p(fp|Y=0)dfpnP(Y=0)∫c?∞p(fp|Y=0)dfp+nP(Y=0)∫∞cp(fp|Y=0)dfp=∫c?∞p(fp|Y=0)dfp∫c?∞p(fp|Y=0)dfp+∫∞cp(fp|Y=0)dfp
通過上面的公式運算勺爱,我們發(fā)現(xiàn)ROC曲線對于樣本類別是否平衡并不敏感晃琳,即其并不受樣本先驗分布的影響,因此在實際工作中,更多的是用ROC/AUC來對模型的性能進(jìn)行評價
3.4.5?代價曲線
在上面所描述的衡量模型性能的方法都是基于誤分類同等代價來開展的卫旱,即我們把True預(yù)測為False與把False預(yù)測為True所導(dǎo)致的代價是同等的视哑,但是在很多情況下其實并不是這樣的,我們依然以癌癥診斷為例誊涯,如果我們把一個患有癌癥的患者預(yù)測為不患有與把不患有癌癥的患者預(yù)測為患有明顯其造成的損失是不同的挡毅,因此在這種情況下發(fā)我們是不可能以同等代價來進(jìn)行預(yù)測。故這里引入了二分類代價矩陣
在這里我們給誤分類賦予了一個代價指標(biāo)暴构。在非均等代價下跪呈,我們的目標(biāo)就轉(zhuǎn)化為最小化總體代價,那么代價敏感的錯誤率可以通過如下公式進(jìn)行計算
e=1m(∑xi∈D+I(f(xi)≠yi)?cost01+∑xi∈D?I(f(xi)≠yi)?cost10)
由于在非均等代價下取逾,ROC曲線并不能反映出模型的期望總體代價耗绿,因此引入了代價曲線,其中橫軸為正例概率代價砾隅,縱軸為歸一化代價误阻。正例概率代價計算方式為:
P(+)cost=p?cost01p?cost01+(1?p)?cost10
歸一化代價計算方式為:
costnorm=FNR?p?cost01+FPR?(1?p)?cost10p?cost01+(1?p)?cost10
前面介紹了各種性能度量方式,但是其度量的是模型在測試集下的測試誤差的性能狀況晴埂,雖然其可以近似代替泛化性能究反,但畢竟與真實的泛化性能有一定的距離,在這里我們介紹通過假設(shè)檢驗的方式儒洛,利用測試誤差來預(yù)估泛化誤差從而得到模型的泛化性能情況精耐,即基于假設(shè)檢驗結(jié)果我們可以推斷出若在測試集上觀察到模型A比B好,那么A的泛化性能在統(tǒng)計意義上優(yōu)于B的概率有多大
假設(shè)檢驗就是數(shù)理統(tǒng)計中依據(jù)一定的假設(shè)條件琅锻,由樣本推斷總體的一種方法卦停。其步驟如下所示:
1. 根據(jù)問題的需要對所研究的總體做某種假設(shè),記為H0
2. 選取合適的統(tǒng)計量恼蓬,這個統(tǒng)計量的選取要使得在假設(shè)H0成立時惊完,其分布是已知的(統(tǒng)計量我們可以視為樣本的函數(shù))
3. 由實測的樣本計算出統(tǒng)計量的值,根據(jù)預(yù)先給定的顯著性水平進(jìn)行檢驗处硬,做出拒絕或接受假設(shè)H0的判斷
根據(jù)以上三步我們知道首先我們要對所研究的總體做出某種假設(shè)小槐,在我們所研究的問題中就是對模型泛化錯誤率分布做出某種假設(shè)或猜想。通常郁油,測試錯誤率與泛化誤差率的差別很小本股,因此我們可以通過測試誤差率來估計泛化誤差率。我們知道泛化誤差率為?的模型在m個樣本中被測得的測試錯誤率為??的概率為
P(??,?)=(mm???)????m(1??)m????m
我們可以看到該概率的格式滿足二項分布桐腌,那么?在取什么值的時候拄显,概率P最大?讓P對?求導(dǎo)后我們可以發(fā)現(xiàn)當(dāng)?=??的時候案站,概率值是最大的躬审,二項分布示意圖如下所示:
因此,我們可以假設(shè)泛化誤差率?≤?0,那么在1?α的概率內(nèi)所能觀測到的最大錯誤率可以通過下式計算得到:
?ˉ=max?s.t.∑i=?0?m+1m(mi)?i(1??)(m?i)<α
即我們最多能夠誤分的樣本數(shù)為上圖陰影部分乘上其相應(yīng)的概率承边,故當(dāng)測試錯誤率??≤?0時遭殉,在α的顯著度下是接受的,即能夠以1?α的置信度認(rèn)為模型的泛化錯誤率不大于?0
大多數(shù)情況下博助,我們會使用多次留出或交叉驗證法险污,因此我們會得到多組測試誤差率,此時我們可以使用t檢驗的方式來進(jìn)行泛化誤差的評估富岳。
即假定我們得到了k個測試誤差率蛔糯,??1,??1,...,??k,則平均測試錯誤率μ和方差σ2為
μ=1k∑i=1k??i
σ2=1k?1∑i=1k(??i?μ)
由于這k個測試誤差率可以看做泛化誤差率?0的獨立采樣窖式,因此變量τt=k√(μ??0)σ服從自由度為k-1的t分布蚁飒。對于假設(shè)μ=?0和顯著度α,我們可以計算出當(dāng)前錯誤率均值為?0時萝喘,在1?α概率內(nèi)能觀測到的最大錯誤率淮逻,即臨界值。這樣我們就可以對我們的假設(shè)做出拒絕或接受阁簸。
作者:hooly
微信公眾號:一口袋星光
我會在微信公號上持續(xù)更新我的文章爬早,你來討論我很歡迎。