240 發(fā)簡信
IP屬地:廣東
  • Resize,w 360,h 240
    如何寫操作系統(tǒng)_實驗

    1. 實驗概述 2. 實驗內容 3. Lab1:Bootloader/Interrupt/Debug 4. Lab2:物理內存管理 5. Lab...

  • Resize,w 360,h 240
    如何寫操作系統(tǒng)_01

    1. 操作系統(tǒng)原理與實現 2. uCore 實驗 3. rCore 實驗 4. 預備知識 5. 操作系統(tǒng)定義(管-控-改-支) 6. 操作系統(tǒng)內...

  • Resize,w 360,h 240
    遷移學習-Question

    1. 講下BERT抠忘。 雙向二階段預訓練模型-word-piece。 Special Token:[CLS]砂竖、[SEP]遂蛀。 BERT_Base(1...

  • Resize,w 360,h 240
    歸一化與正則化-Question

    1. 介紹BN谭跨。 BN動機:神經網絡訓練過程的本質是學習數據分布,如果訓練數據與測試數據的分布不同將大大降低網絡的泛化性能,因此我們需要在訓練開...

  • 激活函數和損失函數-Question

    1. 有哪些激活函數螃宙,有什么用蛮瞄? ReLU、Sigmoid谆扎、Tanh挂捅。作用:非線性變換。 2. ReLU堂湖、Sigmoid闲先、Tanh函數和導數。 ...

  • Resize,w 360,h 240
    統(tǒng)計機器學習(LR无蜂、SVM)-Question

    1. 手寫LR的目標函數伺糠? 目標函數(objective function)= 損失函數(loss function)= 代價函數(cost f...

  • Resize,w 360,h 240
    Transformer(編解碼架構)-Question

    1. Transformer 模型架構說一下? 2. Transformer 結構斥季, BERT有幾種Embedding編碼训桶,分詞方法? Tran...

  • 循環(huán)神經網絡-Question

    1. 如何進行句子編碼酣倾,提取句子的特征向量舵揭,有哪幾種方式(CNN、LSTM灶挟、Attention)琉朽,各種方式的優(yōu)缺點毒租。 CNN稚铣、LSTM、Tran...

  • Resize,w 360,h 240
    詞向量-Question

    1. 了解過哪些embedding技術墅垮? one-hot vector SVD Based MethodsWord-Document Matri...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品