我們什么叫硬Train呢叔营,就是看起來(lái)好像不能train的東西脐雪,我們用機(jī)器學(xué)習(xí)train出來(lái)腐魂,比如之前有個(gè)人應(yīng)聘IT公司蛾娶,HR讓他用機(jī)器學(xué)習(xí)做出來(lái)如下事情坛缕,輸入一個(gè)數(shù)礼饱,我們?nèi)绻?的倍數(shù)就輸出Fizz,如果是5的倍數(shù)就輸出Buzz缸兔,如果都是就是FizzBuzz诗充,如果既不是3的倍數(shù)也不是5的倍數(shù)就輸出自身
插圖1
代碼很可惜沒有搞到回俐,但是當(dāng)增加了神經(jīng)元個(gè)數(shù)時(shí)發(fā)現(xiàn)準(zhǔn)確率可以有效提高
我自己寫的代碼入口https://fishc.com.cn/forum.php?mod=viewthread&tid=132415&extra=page%3D1%26filter%3Dtypeid%26typeid%3D393
代碼解釋:
感覺沒什么好說的逛腿,就是自己造數(shù)據(jù),但是問題來(lái)了仅颇,我第一次將x_train設(shè)為前1000個(gè)數(shù)字单默,結(jié)果用1001-5000train準(zhǔn)確率只有50%,但是后來(lái)將數(shù)據(jù)顛倒過來(lái)準(zhǔn)確率就到0.994了忘瓦,我的分析是樣本分布的問題搁廓,因?yàn)閿?shù)字小的時(shí)候并沒有對(duì)二進(jìn)制高階位很好的模擬,所以模型學(xué)習(xí)不到