240 發(fā)簡信
IP屬地:湖南
  • 120
    Knowledge graph-enhanced molecular contrastive learning with functional prompt

    摘要 深度學習模型能過夠準確的預測分子屬性煌妈,并使得潛在的藥物候選研究更快更有效率坝锰。許多現(xiàn)存的方法都是純文本驅動的劳曹,聚焦于探索分子的內在拓撲結構和結構規(guī)則哪雕,而沒有關注任何化學...

  • 120
    2023-10-10機器學習

    病態(tài)矩陣: 求解方程組時如果對數(shù)據(jù)進行較小的擾動蚕键,則得出的結果具有很大波動,這樣的矩陣稱為病態(tài)矩陣。 病態(tài)矩陣是一種特殊矩陣轴术。指條件數(shù)很大的非奇異矩陣[https://bai...

  • 2023-10-09機器學習

    梯度下降: 需要選擇初始值,進行多次迭代钦无,特征很多效果也很好 最小二乘法(正規(guī)方程): 不需要選擇初始值逗栽,不進行多次迭代,特征很多運算很慢 數(shù)據(jù)預處理: 去噪:移動窗口平均:...

  • 120
    機器學習訓練決策樹

    1.如果訓練集上的loss很大時: 此時先不用考慮測試集的問題铃诬,因為本身訓練的結果就不好祭陷; 可以考慮從以下兩點出發(fā): 1.模型的bias不合適,我們自定義的函數(shù)集太過簡單趣席,導...

  • 120
    正向傳播和反向傳播

    1.正向傳播: forward pass= 2.反向傳播: backward pass= 假設只有一層1尽!宣肚!

  • 120
    激活函數(shù)

    1.Sigmoid函數(shù) 2.ReLU函數(shù): Sigmoid和ReLU的轉換:

  • 120
    優(yōu)化器optimization

    學習速率learning rate一般為正想罕,因此如若微分為正,則說明當前參數(shù)的右側loss在增大霉涨,應適當減小w參數(shù)按价;如若微分為負,測說明當前w參數(shù)的右側loss減小笙瑟,應適當增...

  • 120
    損失函數(shù)LOSS

    損失函數(shù):定義當前用于進行機器學習任務的參數(shù)的好壞的函數(shù) 如果y和都是表示概率的參數(shù)楼镐,則loss一般使用cross-entropy(交叉熵) loss的大小跟w和b有關(以線...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品