模型問題
介紹 depth conv Depthwise separable convolution
LSTM介紹 : 主要是為了解決長(zhǎng)序列訓(xùn)練過程中的梯度消失和梯度爆炸問題 「1」
clip多模態(tài)大模型簡(jiǎn)單介紹 「1」
自注意力機(jī)制碍彭,手寫自注意力 「1 理解」 「2 理解」 「3 理解」 「4 卷積注意力實(shí)現(xiàn)」 「5 Transformer實(shí)現(xiàn)」
KNN算法的基本原理和實(shí)現(xiàn) 「1」
CNN的平移不變性是什么无拗?「1」
ResNet到底解決了什么問題掂之?「1」
FPN 為什么能提高小目標(biāo)檢測(cè)精度 「1」
yolov5正負(fù)樣本分配 【1 代碼解讀】 【2 其他系列】 【5 7 X】 【騷騷騷】 【其他模型】 【v5 loss】
caffe 怎么實(shí)現(xiàn)自定義層:編譯時(shí)候打開
WITH_PYTHON_LAYER:=1
突那,在$PYTHONPAT
下實(shí)現(xiàn)對(duì)應(yīng)的Mylayer逗威,也可以手動(dòng)導(dǎo)入然后添加 【1】【2】
import sys
caffe_root='/home/yourname/caffe/'
sys.path.insert(0,caffe_root+'python')
機(jī)器學(xué)習(xí)問題
- SVM介紹,支持向量介紹【1】 【2】
- 正則化的手段有哪些糜值?先答了L1 L2。后來問正則化的概念是什么坯墨,回答說是為了減小經(jīng)驗(yàn)風(fēng)險(xiǎn)和泛化風(fēng)險(xiǎn)的差距寂汇,然后從VC維和過擬合的角度回答 【1】 【2】
- Pytorch Dropout L1 L2 解釋+可視化 【1】【2】
- 對(duì)傳統(tǒng)的機(jī)器學(xué)習(xí)熟悉哪些,介紹一下隨機(jī)森林 【模型】 【隨機(jī)森林】
- 判別模型 生成模型 【1】
- GBDT和XGBoost的區(qū)別 【1】 【2】 【3知乎簡(jiǎn)答】
- SGD陷入局部最優(yōu)解怎么辦 【1 念念不忘】 【2 優(yōu)化】
- 隨機(jī)森林和xgboost區(qū)別 「1」
- KL 散度的概率和公式【1】
- 機(jī)器學(xué)習(xí)的集成方法【1】
- 過擬合捣染,欠擬合問題及各自解決方案
- 小樣本骄瓣,預(yù)訓(xùn)練范式,域泛化概念
- 樣本分布不均有哪些解決方案耍攘,長(zhǎng)尾...
Pytorch知識(shí)
1.DP是單進(jìn)程多線程的實(shí)現(xiàn)方式,DDP是采用多進(jìn)程的方式
2.DP只能在單機(jī)上使用蕾各,DDP單機(jī)和多機(jī)都可以使用
3.DDP相比于DP訓(xùn)練速度要快
基礎(chǔ)知識(shí)
- NMS的作用和步驟 * 代碼實(shí)現(xiàn)1 ** 代碼實(shí)現(xiàn)2
- 手寫nms
- BN層介紹
- 常用的數(shù)據(jù)增強(qiáng)算法:顏色扒磁,角度,噪聲式曲,縮放妨托,cutmix,mixup,mosaic始鱼,隨機(jī)擦除【1】
- BN LN GN的用法和區(qū)別 「1」 「2」
- torchscript解讀 jit trace 【1】
計(jì)算機(jī)基礎(chǔ)知識(shí)
- 負(fù)數(shù)在計(jì)算機(jī)怎么表示仔掸,補(bǔ)碼,反碼医清,【1】(有無(wú)符號(hào))左移右移【2】
- 進(jìn)程起暮,線程,協(xié)程 【任務(wù)分配1】【任務(wù)分配 2】 【概念區(qū)別1】【概念生動(dòng)介紹1】
多線程適合IO密集型任務(wù)
多進(jìn)程適合計(jì)算密集型任務(wù)
- python 協(xié)程: 協(xié)程就是一種用戶態(tài)內(nèi)的上下文切換技術(shù) 【1】 看具體示例
- 兩個(gè)大數(shù)的乘法 fp16 fp32 假設(shè)cpu計(jì)算基本乘加效率都一樣 哪個(gè)更快
ans:?jiǎn)沃噶顔螖?shù)據(jù)fp16跟fp32是一樣的会烙,單指令多數(shù)據(jù)可以做流水的話fp16快 - 基礎(chǔ)的cpu架構(gòu)上 量化到int8還是fp16 哪個(gè)更快
ans:分cpu,定點(diǎn)計(jì)算在ALU算负懦,浮點(diǎn)計(jì)算在FPN算,有些FPN設(shè)計(jì)的好比定點(diǎn)計(jì)算速度快
數(shù)學(xué)問題
- 卷積的參數(shù)量柏腻,計(jì)算量怎么算纸厉?「1」 「2」
- GFL損失函數(shù)介紹
- focal loss 數(shù)學(xué)形式,作用介紹
-
寫一下Focal Loss公式
- 感受野大小計(jì)算:https://zhuanlan.zhihu.com/p/40267131
- 特征圖大小計(jì)算:https://www.cnblogs.com/tianqizhi/p/9706344.html
-
甲乙扔硬幣五嫂,扔到正面獲勝颗品,甲先扔,獲勝概率沃缘,等比數(shù)列求和 2/3
- 交叉墑求導(dǎo):https://blog.csdn.net/chaipp0607/article/details/101946040