4.9 更多關(guān)于k近鄰算法的思考 K近鄰算法是解決分類問題理张,天然可以解決多分類問題。不僅如此,思想簡單缰揪,效果強大脓规。使用K近鄰算法還可以解決回歸問...
4.8 scikit-learn中的Scaler 上節(jié)講了數(shù)據(jù)歸一化宫峦,但是真正用到機器學習算法中的時候禁灼,一個注意事項就是谤绳,之前將原始數(shù)據(jù)集拆分成...
4.6網(wǎng)格搜索與k近鄰算法中更多的超參數(shù) 關(guān)于網(wǎng)格搜索碉考,sklearn為我們提供了一個方法塌计,叫Grid Search在使用它之前,我們首先要定義...
數(shù)據(jù)歸一化 Feature Scaling 首先我們開看一下為什么要進行數(shù)據(jù)歸一化侯谁。我們使用前邊說道的腫瘤的例子: 那么這兩個樣本的距離是多少呢...
4.5 超參數(shù) 超參數(shù)就是指在運行機器學習算法之前锌仅,需要指定的參數(shù)。 模型參數(shù):算法過程中學習的參數(shù)墙贱。 KNN算法沒有模型參數(shù)热芹,k是典型的超參數(shù)...
4.1 K近鄰算法 思想極度簡單 應(yīng)用數(shù)學知識少 可以解釋機器學習算法使用過程中的很多細節(jié)問題 更完整的刻畫機器學習的應(yīng)用流程 ??K近鄰算法的...
3.9 Numpy中的比較和Fancy Indexing Fancy Indexing 運行結(jié)果為:array([ 0, 1, 2, 3,...
4.2 scikit-learn中的機器學習算法的封裝 新建文件夾myscript,創(chuàng)建KNN.py 在jupyter中調(diào)用封裝好的knn方法,...
4.3訓練數(shù)據(jù)集伊脓、測試數(shù)據(jù)集 1.判斷機器學習算法的性能 測試我們的算法 train_test_split 將原始數(shù)據(jù)集拆分成兩部分,一部分是訓...