摘要 深度學(xué)習(xí)模型能過(guò)夠準(zhǔn)確的預(yù)測(cè)分子屬性赛不,并使得潛在的藥物候選研究更快更有效率惩嘉。許多現(xiàn)存的方法都是純文本驅(qū)動(dòng)的,聚焦于探索分子的內(nèi)在拓?fù)浣Y(jié)構(gòu)...
病態(tài)矩陣: 求解方程組時(shí)如果對(duì)數(shù)據(jù)進(jìn)行較小的擾動(dòng)踢故,則得出的結(jié)果具有很大波動(dòng)文黎,這樣的矩陣稱為病態(tài)矩陣。 病態(tài)矩陣是一種特殊矩陣殿较。指條件數(shù)很大的非奇...
梯度下降: 需要選擇初始值耸峭,進(jìn)行多次迭代,特征很多效果也很好 最小二乘法(正規(guī)方程): 不需要選擇初始值淋纲,不進(jìn)行多次迭代劳闹,特征很多運(yùn)算很慢 數(shù)據(jù)...
1.如果訓(xùn)練集上的loss很大時(shí): 此時(shí)先不用考慮測(cè)試集的問(wèn)題,因?yàn)楸旧碛?xùn)練的結(jié)果就不好; 可以考慮從以下兩點(diǎn)出發(fā): 1.模型的bias不合適本涕,...
1.正向傳播: forward pass= 2.反向傳播: backward pass= 假設(shè)只有一層R堤!菩颖!
1.Sigmoid函數(shù) 2.ReLU函數(shù): Sigmoid和ReLU的轉(zhuǎn)換:
學(xué)習(xí)速率learning rate一般為正样漆,因此如若微分為正,則說(shuō)明當(dāng)前參數(shù)的右側(cè)loss在增大晦闰,應(yīng)適當(dāng)減小w參數(shù)放祟;如若微分為負(fù),測(cè)說(shuō)明當(dāng)前w參...
損失函數(shù):定義當(dāng)前用于進(jìn)行機(jī)器學(xué)習(xí)任務(wù)的參數(shù)的好壞的函數(shù) 如果y和都是表示概率的參數(shù)呻右,則loss一般使用cross-entropy(交叉熵) l...