????????random_state 相當(dāng)于隨機(jī)數(shù)種子random.seed() 编饺。random_state 與 random seed 作用是相同的涌矢。
隨機(jī)數(shù)種子代碼演示:在1-100中取10個(gè)隨機(jī)數(shù)
????????第一段和第二段代碼完全相同宅荤,都沒(méi)有設(shè)置 random seed。它每次取的結(jié)果就不同求摇,它的隨機(jī)數(shù)種子與當(dāng)前系統(tǒng)時(shí)間有關(guān)峰鄙。
????????第三段和第四段代碼設(shè)置了相同的 random seed(123),它們?nèi)〉碾S機(jī)數(shù)就完全相同套蒂,多運(yùn)行幾次也是這樣钞支。
????????第五段和第六段代碼設(shè)置了 不同的random seed ,于是運(yùn)行取隨機(jī)數(shù)的結(jié)果也不同操刀。
????????如果你在需要設(shè)置隨機(jī)數(shù)種子的地方都設(shè)置好烁挟,那么當(dāng)別人重新運(yùn)行你的代碼的時(shí)候就能得到完全一樣的結(jié)果,復(fù)現(xiàn)和你一樣的過(guò)程骨坑。
random_state參數(shù):
? ? ? ?例如:在sklearn可以隨機(jī)分割訓(xùn)練集和測(cè)試集(交叉驗(yàn)證)撼嗓,只需要在代碼中引入model_selection.train_test_split就可以了:
from sklearn import model_selection
x_train, x_test, y_train,y_test=model_selection.train_test_split(x,y,test_size=0.2,random_state=0)
????????這里的random_state就是為了保證程序每次運(yùn)行都分割一樣的訓(xùn)練集和測(cè)試集。否則欢唾,同樣的算法模型在不同的訓(xùn)練集和測(cè)試集上的效果不一樣且警。
????????當(dāng)你用sklearn分割完測(cè)試集和訓(xùn)練集,確定模型和初始參數(shù)以后礁遣,你會(huì)發(fā)現(xiàn)程序每運(yùn)行一次斑芜,都會(huì)得到不同的準(zhǔn)確率,無(wú)法調(diào)參祟霍。這個(gè)時(shí)候就是因?yàn)闆](méi)有加random_state押搪。加上以后就可以調(diào)參了。
參考文獻(xiàn):sklearn中的random_state