1 寫在前面 論文解讀系列斷更很久了癞己,感覺自己還是挺喜歡文字的,這次先從介紹我們自己發(fā)表在ECCV24工作開始恢復(fù)一下~ 主要信息 文章:https://arxiv.org/...
1 寫在前面 論文解讀系列斷更很久了癞己,感覺自己還是挺喜歡文字的,這次先從介紹我們自己發(fā)表在ECCV24工作開始恢復(fù)一下~ 主要信息 文章:https://arxiv.org/...
1. main info iccv2019 task: Small-Data Object Detection main idea: using generative mod...
@94dceb4caf4d 你是作者嗎哈哈
論文簡(jiǎn)記 | Deep Voxels 文章解讀《Deep Voxels: Learning Persistent 3D Feature Embeddings》一 寫在前面 未經(jīng)允許径玖,不得轉(zhuǎn)載晰韵,謝謝~~~ 開始嘗試一下論文簡(jiǎn)記逛尚,簡(jiǎn)單記錄論文的精華搪花,對(duì)于真的非常需要細(xì)讀的文章后續(xù)再擴(kuò)充,立一個(gè)每周可以輸出兩篇簡(jiǎn)記的flag (趕論文除...
1 basic info OVTrack: Open-Vocabulary Multiple Object Tracking paper[https://openaccess...
1 寫在前面 https://arxiv.org/pdf/2207.12978.pdf[https://arxiv.org/pdf/2207.12978.pdf] ECCV2...
1. 寫在前面 https://arxiv.org/abs/2111.09452[https://arxiv.org/abs/2111.09452] 從經(jīng)典的OD到OVD的最...
寫在前面 文章出處: ECCV 2022 模型名字: Detic 整體概括:這篇文章跟最開始的OVD-Net一樣薯嗤,都是從pretraining的角度解決open vocabu...
1 introduction 1.1 main story OVD: training text category as text embedding rather than...
1. 寫在前面 簡(jiǎn)略地了解一下基于LLMs的embodied AI進(jìn)展 2. paper:Embodied Task Planning with Large Languag...
一 寫在前面 之前沒有太了解segmentation任務(wù)是怎么做的顽爹,重溫一下經(jīng)典的u net結(jié)構(gòu)。 U-Net: Convolutional Networks for Bio...
1 basic github.com/alirezazareian/ovr-cnn the first paper which proposes the task of "o...
1 intro we propose an Additive Angular Margin Loss (ArcFace) to obtain highly discrimin...
1 introduction iccv23 task: source-free domain generalization common practice of DG: U...
1 intro code: https://github.com/ChengHan111/E2VPT[https://github.com/ChengHan111/E2VPT...
1. Introduction paper for Ego4D challenge task: Long-Term Action Anticipation (LTA) tas...
方法類似骆姐,獲取想要可視化那層的特征就好了
PyTorch | 提取神經(jīng)網(wǎng)絡(luò)中間層特征進(jìn)行可視化一 寫在前面 未經(jīng)允許镜粤,不得轉(zhuǎn)載,謝謝玻褪。 這篇博客主要記錄了如何提取特定層的特征肉渴,然后對(duì)它進(jìn)行可視化。 二 主要的實(shí)現(xiàn)思路: 處理單張圖片作為網(wǎng)絡(luò)輸入带射。 根據(jù)給定的layer...
@顏清酒子 隨便放哪里都行同规,放好之后把代碼里的路徑和json里的路徑修改成對(duì)應(yīng)的就可以了
論文 | ACM MM 2021: Meta-FDMixup: Cross-Domain Few-Shot Learning Guided by Labeled Target Data一 寫在前面 未經(jīng)允許,不得轉(zhuǎn)載,謝謝~~ 這篇文章是我們團(tuán)隊(duì)發(fā)在ACM Multimedia2021上的工作券勺,主要是做cross-domain few-shot learn...
@b8302fe3d505 本來(lái)就是白底的绪钥,直接截圖就好了哈哈
讀書筆記001 | 《大山里的小詩(shī)人》一 寫在前面 最近這段日子沒有那么忙了,準(zhǔn)備開始陸陸續(xù)續(xù)寫點(diǎn)東西关炼。 之前在B站倒騰過幾個(gè)視頻程腹,感覺還是沒有找到可以長(zhǎng)期穩(wěn)定輸出的內(nèi)容。 近期打算恢復(fù)學(xué)術(shù)論文的blog更新儒拂,也...
@伊兒小 不夠的就復(fù)制寸潦,最后support跟query可能會(huì)有重復(fù),但是也沒關(guān)系社痛,只是相當(dāng)于每次的分類難度降低见转,另外我們的mixup在一定程度上也會(huì)解決這個(gè)重復(fù)的問題
論文 | ACM MM 2021: Meta-FDMixup: Cross-Domain Few-Shot Learning Guided by Labeled Target Data一 寫在前面 未經(jīng)允許,不得轉(zhuǎn)載褥影,謝謝~~ 這篇文章是我們團(tuán)隊(duì)發(fā)在ACM Multimedia2021上的工作池户,主要是做cross-domain few-shot learn...