240 發(fā)簡(jiǎn)信
IP屬地:北京
  • 關(guān)于模型新數(shù)據(jù)更新

    對(duì)于一個(gè)模型讼庇,來(lái)新數(shù)據(jù)后需要將新數(shù)據(jù)加入訓(xùn)練集。如果重新訓(xùn)練孝治,相當(dāng)于扔掉了之前的訓(xùn)練逼肯,這樣是比較浪費(fèi)的胎围。更好的做法是什么留攒?

  • 問(wèn)題解決:IPython無(wú)法使用TAB補(bǔ)全坚洽,無(wú)法導(dǎo)入模塊

    新安裝的Ubuntu 20.04系統(tǒng)捌斧,Python 3.8.5笛质,發(fā)現(xiàn)在IPython里無(wú)法使用TAB鍵補(bǔ)全,無(wú)法導(dǎo)入Numpy等模塊捞蚂,退出時(shí)還有一大堆報(bào)錯(cuò)信息妇押,其中重點(diǎn)是這一...

  • 交叉熵理解

    可以從最大似然估計(jì)的角度理解交叉熵:例如一個(gè)圖片,該圖片的類別服從一個(gè)分布P(x)姓迅,在N次獨(dú)立同分布實(shí)驗(yàn)中(例如讓N個(gè)人去判斷這個(gè)圖片的類別)敲霍,該圖片類別的觀察值為x的次數(shù)為...

  • KL 散度理解

    一、信息量一個(gè)事件發(fā)生的概率為p丁存,則該事件的信息量為-logp肩杈,概率高的事件,其信息量低解寝。二扩然、熵熵為一個(gè)隨機(jī)變量(分布)信息量的期望:三、KL散度KL散度為分布到分布信息量變...

  • docker 代理

    當(dāng)linux服務(wù)器無(wú)法訪問(wèn)外網(wǎng)時(shí)聋伦,docker pull等命令無(wú)法使用夫偶,可以通過(guò)設(shè)置docker代理實(shí)現(xiàn):創(chuàng)建以下文件夾: 編輯以下文件: 文件內(nèi)容: 重啟docker: 參...

  • apt-get代理

    linux服務(wù)器無(wú)法連接外網(wǎng)時(shí),需要通過(guò)代理連接外網(wǎng)觉增,設(shè)置方式:修改/etc/apt/apt.conf兵拢, 參考:鏈接[https://blog.csdn.net/baidu_...

  • 向用戶組添加用戶

    1、查看文件的權(quán)限以及所屬的用戶名和用戶組: 輸出的含義參見(jiàn)鏈接[https://www.cnblogs.com/zhi-leaf/p/11442878.html] 2逾礁、向用...

  • 卷積實(shí)現(xiàn)

    設(shè)input tensor的shape為N, c_in, h_in, w_in说铃,output tensor的shape為N, c_out, h_out, w_out.kern...

  • RetinaNet

    cls head 和 reg head 在四個(gè)stage的feature map是共享的,然而,這些feature map的分布是不同的截汪,可不可以在這幾個(gè)feature ma...

  • Dilation convolution

    假設(shè)kernel size為k,dilation為d植捎,則加上dilation后的kernel size為d * (k - 1) + 1衙解,可以這么理解:原始的kernel,相鄰...

  • Group Convolution

    令 m = nn.Conv2d(32, 64, 3, groups=4)焰枢,則weight的shape為[64, 8, 3, 3]蚓峦,bias的shape為[64],可以理解為济锄,...

  • Attention

    關(guān)于attention的疑惑:attention普遍采用feature的相似度作為權(quán)重暑椰,然而,假設(shè)在一個(gè)句子的self attention中荐绝,一個(gè)單詞與較遠(yuǎn)處的另一個(gè)單詞相同...

  • Graph matching

    在tracking的matching部分一汽,一個(gè)object在graph中的位置是一個(gè)匹配的有效信息〉吞玻可以用GCN召夹,attention等方法利用graph信息,使得object...

  • Multi-head attention

    采用不同的head數(shù)的參數(shù)量不變:因?yàn)樵趇n-projection以及out-projection時(shí)是不分組的恕沫,和head數(shù)無(wú)關(guān)监憎。在計(jì)算attention時(shí),是分組的婶溯,將em...

  • mAP

    mAP即PR曲線的面積鲸阔,PR曲線繪制時(shí)需要將預(yù)測(cè)框的置信度從大到小排序,遍歷每個(gè)預(yù)測(cè)框迄委,求累計(jì)的precision和recall值褐筛,當(dāng)遍歷到一個(gè)置信度為p的預(yù)測(cè)框時(shí),求得的p...

  • DCN

    DCN使得卷積的采樣位置發(fā)生了變化跑筝,但是不同位置的卷積核權(quán)重仍相同死讹,能否讓卷積核權(quán)重也做到自適應(yīng)?用self attention曲梗? 將DCN用于3D卷積中赞警? DCN對(duì)于分類應(yīng)...

  • 書(shū)單

    Multiple View Geometry in Computer Vision 視覺(jué)SLAM 14講

  • DETR

    為什么不需要NMS?為什么set based global loss通過(guò)bipartite matching能夠force unique predictions虏两??jī)蓚€(gè)pred...

  • Relaxed Transformer Decoders for Direct Action Proposal Generation

    該文章將DETR應(yīng)用于action proposal generation愧旦。encoder沒(méi)有采用self attention,而是采用了boundary attention...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品