240 發(fā)簡信
IP屬地:江蘇
  • 120
    字符串樸素匹配算法和KMP算法

    字符串的匹配在平常的編碼過程中非常常用,在編程語言中通常是調(diào)用一個內(nèi)置函數(shù)就可以實現(xiàn)字符串的匹配嫌术,當不讓使用內(nèi)置的函數(shù)哀澈,而是自己編寫一個函數(shù)來實現(xiàn)匹配的功能,應該如何來寫呢度气?...

  • 鏈表介紹及python的實現(xiàn)

    鏈表是線性表的一種實現(xiàn)方式日丹,它的基本想法是: 將表中的元素分別存放在各個獨立的存儲區(qū)內(nèi),存儲區(qū)又稱為結(jié)點蚯嫌; 在表中,可以通過任意結(jié)點找到與之相關的下一個結(jié)點丙躏; 在前一個結(jié)點上...

  • 在大數(shù)據(jù)下應用機器學習算法

    大量的數(shù)據(jù)對機器學習算法的研究很有幫助择示,當我們直到算法有較高的方差(variance)時,增加m會有助于改善算法晒旅。但是當m很大時栅盲,比如m=100,000,000時,在這種情況...

  • 小批量梯度下降算法

    批量梯度下降是每一次迭代中對所有樣本求和后求梯度項废恋,隨機梯度下降是對每一個樣本求梯度項谈秫,小批量梯度下降介于兩者之間。 小批量梯度下降取的樣本數(shù)一般在2-100之間:例如樣本總...

  • 120
    隨機梯度下降算法

    以線性回歸為例:預測函數(shù)為:代價函數(shù): 重復:{} 當數(shù)據(jù)量過大時鱼鼓,梯度下降的算法會變得很慢拟烫,因為要對所有的數(shù)據(jù)進行求和。因為每次重復梯度下降都是所有數(shù)據(jù)全部求和迄本,所以梯度下...

  • 推薦系統(tǒng)和協(xié)同過濾算法

    推薦系統(tǒng)是目前非常流行的機器學習應用硕淑。特征值對機器學習是非常重要的,而對特征值的選擇會直接影響到算法的好壞嘉赎,推薦系統(tǒng)能夠自動幫助學習一些優(yōu)良的特征值置媳,幫助更好的實現(xiàn)算法。 舉...

  • 120
    異常檢測(Anomaly Detection)

    異常檢測(Anomaly Detection)是機器學習算法的一個常見應用公条。它主要用于非監(jiān)督學習拇囊,但又類似一些監(jiān)督學習問題。 異常檢測常用在對網(wǎng)站異常用戶的檢測靶橱;還有在工程上...

  • 120
    PCA降維算法

    降維是機器學習中很重要的一種思想寥袭。在機器學習中經(jīng)常會碰到一些高維的數(shù)據(jù)集路捧,它們會占用計算機的內(nèi)存和硬盤空間,而且在運算時會減緩速度纠永。降維能夠使得數(shù)據(jù)量被壓縮鬓长,加快運算速度,減...

  • K均值算法介紹

    從沒有標記過的數(shù)據(jù)中學習稱之為非監(jiān)督學習尝江。在非監(jiān)督學習中涉波,通過算法來定義一些數(shù)據(jù)的結(jié)構(gòu),將數(shù)據(jù)分別聚合到這些子集中炭序,這種算法稱之為聚類算法啤覆。 K均值 (K-means) 算法...

  • 120
    核函數(shù)的概念以及在SVM上的應用

    高斯核函數(shù) 激勵函數(shù)中 現(xiàn)在準備用新的特征值 來替換 將定義為兩個向量的相似度: 例如,有一個標記向量惭聂,某個樣本的特征向量和其的相似度為: PS: 是 x向量的范數(shù)窗声。 該核函...

  • 120
    支持向量機算法(SVM)介紹

    在解決復雜的非線性分類問題時,除了邏輯回歸和神經(jīng)網(wǎng)絡辜纲,還有一種更為強大的算法:叫做支持向量機(Support Vector Machines)笨觅,簡稱SVM。 代價函數(shù) 在分類...

  • 120
    查準率(Precision)和召回率(Recall)

    在處理分類問題時耕腾,會遇到一種情況: 假設一個二元分類問題:假設我們的預測算法是:见剩,這個算法忽略特征值,不管任何情況下都是預測等于0扫俺。 毫無疑問這是一個糟糕的算法苍苞,但是在測試集...

  • 120
    評估學習算法

    在使用學習算法解決機器學習問題時,可能預測函數(shù)的誤差很小狼纬,但是這個學習算法不確定是不是準確的羹呵,因為可能出現(xiàn)過擬合的情況。 因為僅僅用一個訓練集來判斷學習算法是否準確是不行的疗琉,...

  • 神經(jīng)網(wǎng)絡的反向傳播算法的使用

    參數(shù)展開 在神經(jīng)網(wǎng)絡中冈欢,我們有一些參數(shù)矩陣,例如: 有時為了使用方便盈简,需要將這些矩陣統(tǒng)一到一個向量中去 這樣就合并了三個矩陣涛癌,假如 是一個的矩陣,是一個的矩陣送火,是一個的矩陣則...

  • 120
    神經(jīng)網(wǎng)絡代價函數(shù)和反向傳播算法

    定義一些參數(shù): = 神經(jīng)網(wǎng)絡的層數(shù) = 層的單元數(shù)拳话,但不包括偏差單元 = 輸出層的單元數(shù),二元分類是1种吸,大于二的就是k 邏輯回歸的代價函數(shù)為: 神經(jīng)網(wǎng)絡的代價函數(shù): 是一個K...

  • 120
    神經(jīng)網(wǎng)絡算法介紹

    在解決分類問題時弃衍,可以用邏輯回歸算法,但當解決復雜的非線性分類器時坚俗,這并不是一個好的選擇镜盯。如果用邏輯回歸來解決岸裙,首先要構(gòu)造一個包含很多非線性項的邏輯回歸函數(shù)。使用邏輯回歸會構(gòu)...

  • 分類算法中多元分類

    判斷垃圾郵件速缆,這個分類問題的輸出是[0, 1]降允,只有固定的兩個輸出值,這稱之為二元分類問題艺糜。在生活中有許多另外的分類問題剧董,給定一張數(shù)字的圖像,判斷是數(shù)字幾破停;自動將郵件歸類翅楼,歸...

  • 120
    過擬合(Overfitting)和正則化(Regularized)

    在應用線性回歸和邏輯回歸去解決某些機器學習的實際應用時,它們可能會出現(xiàn)一種叫做“過度擬合”(Overfitting)的問題真慢。這會使得學習的結(jié)果很糟糕毅臊。 什么是過擬合 用預測房...

  • 關于邏輯回歸模型的梯度下降算法

    邏輯回歸的代價函數(shù): 與線性回歸一樣,它的梯度下降算法類似: 重復直到收斂 {} 計算后會得到: 計算后得到的和線性回歸的看上去沒有區(qū)別黑界,但是兩者的不同管嬉。線性回歸的是:邏輯回...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品