摘要 深度學(xué)習(xí)模型能過夠準(zhǔn)確的預(yù)測分子屬性蓖扑,并使得潛在的藥物候選研究更快更有效率。許多現(xiàn)存的方法都是純文本驅(qū)動的台舱,聚焦于探索分子的內(nèi)在拓?fù)浣Y(jié)構(gòu)...
病態(tài)矩陣: 求解方程組時如果對數(shù)據(jù)進(jìn)行較小的擾動律杠,則得出的結(jié)果具有很大波動潭流,這樣的矩陣稱為病態(tài)矩陣。 病態(tài)矩陣是一種特殊矩陣柜去。指條件數(shù)很大的非奇...
梯度下降: 需要選擇初始值,進(jìn)行多次迭代嗓奢,特征很多效果也很好 最小二乘法(正規(guī)方程): 不需要選擇初始值讼撒,不進(jìn)行多次迭代,特征很多運算很慢 數(shù)據(jù)...
1.如果訓(xùn)練集上的loss很大時: 此時先不用考慮測試集的問題股耽,因為本身訓(xùn)練的結(jié)果就不好根盒; 可以考慮從以下兩點出發(fā): 1.模型的bias不合適,...
1.正向傳播: forward pass= 2.反向傳播: backward pass= 假設(shè)只有一層N矧Q字汀!
1.Sigmoid函數(shù) 2.ReLU函數(shù): Sigmoid和ReLU的轉(zhuǎn)換:
學(xué)習(xí)速率learning rate一般為正茬末,因此如若微分為正厂榛,則說明當(dāng)前參數(shù)的右側(cè)loss在增大,應(yīng)適當(dāng)減小w參數(shù)丽惭;如若微分為負(fù)击奶,測說明當(dāng)前w參...
損失函數(shù):定義當(dāng)前用于進(jìn)行機器學(xué)習(xí)任務(wù)的參數(shù)的好壞的函數(shù) 如果y和都是表示概率的參數(shù),則loss一般使用cross-entropy(交叉熵) l...