ResNet是何凱明大神在2015發(fā)表的力作爸邢,影響深遠(yuǎn)哄辣,不得不說大佬真滴強(qiáng)绅作。先甩上論文原文:https://arxiv.org/abs/1512...
在我的理解中Loss應(yīng)該是整個(gè)模型中相當(dāng)重要的一部分捶牢。一般而言深度學(xué)習(xí)模型解決問題的整體流程:1剧劝、問題的定義陆赋,也就是說task是什么肥照,或者說背景...
深度學(xué)習(xí)模型訓(xùn)練的第一步就是準(zhǔn)備數(shù)據(jù),制作標(biāo)簽(gt, ground truth)歹河。然后根據(jù)gt和預(yù)測(cè)的值之差通過梯度下降的方法優(yōu)化模型參數(shù)掩浙。C...
這篇文章解析以下CTPN的模型結(jié)構(gòu)。不多說秸歧,先上代碼厨姚,用的是tensorflow1中的slim庫。 然后我們一句句來看寥茫。 這一句遣蚀,是因?yàn)橐话闶褂?..
CTPN代碼中使用的backbone是VGG16。介紹VGG16的文章實(shí)在是太多了纱耻,我就不寫了芭梯。 直接上代碼吧。 這是tensorflow1中s...
科普環(huán)節(jié) 這一節(jié)弄喘,對(duì)目標(biāo)檢測(cè)有基本概念的同學(xué)別看了玖喘,去看下面的正文吧,我是在科普蘑志。 anchor或者說anchor box就是一個(gè)框累奈。目標(biāo)檢測(cè)任...
CTPN 論文地址:https://arxiv.org/abs/1609.03605 代碼github地址:https://github.com...
Linux yum指令的一個(gè)小坑 報(bào)錯(cuò)信息: http://bigtoprepos.s3.amazonaws.com/releases/1.0....
淺談數(shù)據(jù)結(jié)構(gòu)中Hash Hash在中文中有時(shí)被稱作“散列”,也有時(shí)直接叫“哈霞钡”澎媒。 基本概念:給定一個(gè)值(Key),進(jìn)過 hash函數(shù)(f)映射...