1. 實驗概述 2. 實驗內(nèi)容 3. Lab1:Bootloader/Interrupt/Debug 4. Lab2:物理內(nèi)存管理 5. Lab...
1. 操作系統(tǒng)原理與實現(xiàn) 2. uCore 實驗 3. rCore 實驗 4. 預(yù)備知識 5. 操作系統(tǒng)定義(管-控-改-支) 6. 操作系統(tǒng)內(nèi)...
1. 講下BERT。 雙向二階段預(yù)訓(xùn)練模型-word-piece。 Special Token:[CLS]花竞、[SEP]钟沛。 BERT_Base(1...
1. 介紹BN。 BN動機:神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程的本質(zhì)是學(xué)習(xí)數(shù)據(jù)分布判族,如果訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)的分布不同將大大降低網(wǎng)絡(luò)的泛化性能奖恰,因此我們需要在訓(xùn)練開...
1. 有哪些激活函數(shù),有什么用寨躁? ReLU穆碎、Sigmoid、Tanh职恳。作用:非線性變換所禀。 2. ReLU、Sigmoid放钦、Tanh函數(shù)和導(dǎo)數(shù)色徘。 ...
1. 手寫LR的目標(biāo)函數(shù)操禀? 目標(biāo)函數(shù)(objective function)= 損失函數(shù)(loss function)= 代價函數(shù)(cost f...
1. Transformer 模型架構(gòu)說一下褂策? 2. Transformer 結(jié)構(gòu), BERT有幾種Embedding編碼颓屑,分詞方法斤寂? Tran...
1. 如何進(jìn)行句子編碼,提取句子的特征向量揪惦,有哪幾種方式(CNN遍搞、LSTM、Attention)器腋,各種方式的優(yōu)缺點溪猿。 CNN、LSTM蒂培、Tran...
1. 了解過哪些embedding技術(shù)再愈? one-hot vector SVD Based MethodsWord-Document Matri...