CCN - Content Centric Networking 內(nèi)容中心網(wǎng)絡(luò)
CNN -?Convolutional Neural Networks?卷積神經(jīng)網(wǎng)絡(luò)
ICN工作原理簡(jiǎn)單介紹:
當(dāng)我們想要獲取某項(xiàng)信息時(shí)适荣,我們所獲得的信息并不一定是信息所在的服務(wù)器傳輸過(guò)來(lái)的,而是由最近節(jié)點(diǎn)中緩存?zhèn)鬏斶^(guò)來(lái)的等舔。
CCN是研究最多的ICN的一種具體實(shí)現(xiàn)怎囚。
在CCN中主要有兩種數(shù)據(jù)包:內(nèi)容請(qǐng)求包(interest packet)和內(nèi)容數(shù)據(jù)包(data packet)
在CCN中惧盹,通過(guò)對(duì)內(nèi)容的標(biāo)識(shí)來(lái)確定內(nèi)容搀绣,類似于IP地址前綴振乏,例如"/aaa.cn/video/wigeta.mpg”恢准,其中aaa.cn是全網(wǎng)可識(shí)別名稱魂挂,video是內(nèi)容類型,wigeta.mpg是內(nèi)容名稱顷歌。
請(qǐng)求數(shù)據(jù)包用于發(fā)送對(duì)內(nèi)容的請(qǐng)求锰蓬,接收到該請(qǐng)求的節(jié)點(diǎn)如果能夠滿足該請(qǐng)求就通過(guò)內(nèi)容數(shù)據(jù)包來(lái)發(fā)送響應(yīng)數(shù)據(jù)幔睬。
CCN節(jié)點(diǎn)模型:
CCN節(jié)點(diǎn)承擔(dān)數(shù)據(jù)包的存儲(chǔ)眯漩,轉(zhuǎn)發(fā)和路由任務(wù)。典型的CCN節(jié)點(diǎn)主要包含內(nèi)容存儲(chǔ)器(CS)content store麻顶,待定請(qǐng)求表(PIT)pending interest table赦抖,前向轉(zhuǎn)發(fā)表(FIB)forwarding information base。
CS(content store):類似于IP路由器的緩存辅肾,但是每次通信后不會(huì)清空緩存的內(nèi)容队萤,可以將該內(nèi)容用于下次通信,這是CCN非常關(guān)鍵的理念矫钓,可以幫助減少內(nèi)容下載時(shí)間和網(wǎng)絡(luò)帶寬占用要尔。
PIT(pending interest table):用于記錄經(jīng)過(guò)的請(qǐng)求信息,依次實(shí)現(xiàn)所請(qǐng)求的內(nèi)容順利地傳回請(qǐng)求節(jié)點(diǎn)新娜。內(nèi)容數(shù)據(jù)包按照PIT提示赵辕,一步步轉(zhuǎn)發(fā)回內(nèi)容請(qǐng)求者,當(dāng)內(nèi)容傳回概龄,該條目從PIT刪除还惠。
FIB(forwarding information base):將請(qǐng)求數(shù)據(jù)包發(fā)往目的端,可以同時(shí)向多個(gè)方向轉(zhuǎn)發(fā)請(qǐng)求私杜。
CNN轉(zhuǎn)發(fā)機(jī)制:
1.接收到請(qǐng)求數(shù)據(jù)包蚕键,首先匹配內(nèi)容緩存救欧,如果有相關(guān)內(nèi)容,直接發(fā)送锣光,否則在PIT中查詢笆怠。
2.如果PIT有相關(guān)的條目,添加請(qǐng)求端口到列表中嫉晶,在這一過(guò)程中骑疆,將請(qǐng)求數(shù)據(jù)包截留是為了防止同樣的數(shù)據(jù)的重復(fù)請(qǐng)求。當(dāng)有內(nèi)容數(shù)據(jù)包回應(yīng)時(shí)替废,將此內(nèi)容發(fā)送給所有請(qǐng)求數(shù)據(jù)的端口箍铭。
3.若PIT中沒(méi)有相關(guān)內(nèi)容條目,則查詢FIB椎镣。按照FIB的指示將該數(shù)據(jù)包轉(zhuǎn)發(fā)到下一CCN節(jié)點(diǎn)诈火。
CNN的優(yōu)勢(shì):
安全性。CNN網(wǎng)絡(luò)不存在數(shù)據(jù)通道的安全状答,因?yàn)閿?shù)據(jù)沒(méi)有固定的通道冷守,可以從任意緩存處取得。
性能惊科。CNN在動(dòng)態(tài)內(nèi)容拍摇,點(diǎn)對(duì)點(diǎn)通信上具有和IP網(wǎng)絡(luò)相當(dāng)?shù)男阅堋2⒕哂斜菼P更高的靈活性馆截,安全性和魯棒性充活。
流量調(diào)節(jié)。CNN具有自然的流量調(diào)節(jié)能力蜡娶,在數(shù)據(jù)轉(zhuǎn)發(fā)時(shí)混卵,可以根據(jù)鏈路狀況,選擇轉(zhuǎn)發(fā)策略窖张,從而均衡整個(gè)網(wǎng)絡(luò)流量幕随。
----------------------------------
卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介(Convolutional Neural Networks,簡(jiǎn)稱CNN)
卷積神經(jīng)網(wǎng)絡(luò)是近年發(fā)展起來(lái)宿接,并引起廣泛重視的一種高效識(shí)別方法赘淮。20世紀(jì)60年代,Hubel和Wiesel在研究貓腦皮層中用于局部敏感和方向選擇的神經(jīng)元時(shí)發(fā)現(xiàn)其獨(dú)特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效地降低反饋神經(jīng)網(wǎng)絡(luò)的復(fù)雜性睦霎,繼而提出了卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks-簡(jiǎn)稱CNN)∩倚叮現(xiàn)在,CNN已經(jīng)成為眾多科學(xué)領(lǐng)域的研究熱點(diǎn)之一碎赢,特別是在模式分類領(lǐng)域低剔,由于該網(wǎng)絡(luò)避免了對(duì)圖像的復(fù)雜前期預(yù)處理,可以直接輸入原始圖像,因而得到了更為廣泛的應(yīng)用襟齿。 K.Fukushima在1980年提出的新識(shí)別機(jī)是卷積神經(jīng)網(wǎng)絡(luò)的第一個(gè)實(shí)現(xiàn)網(wǎng)絡(luò)姻锁。隨后,更多的科研工作者對(duì)該網(wǎng)絡(luò)進(jìn)行了改進(jìn)猜欺。其中位隶,具有代表性的研究成果是Alexander和Taylor提出的“改進(jìn)認(rèn)知機(jī)”,該方法綜合了各種改進(jìn)方法的優(yōu)點(diǎn)并避免了耗時(shí)的誤差反向傳播开皿。
一般地涧黄,CNN的基本結(jié)構(gòu)包括兩層,其一為特征提取層赋荆,每個(gè)神經(jīng)元的輸入與前一層的局部接受域相連笋妥,并提取該局部的特征。一旦該局部特征被提取后窄潭,它與其它特征間的位置關(guān)系也隨之確定下來(lái)春宣;其二是特征映射層,網(wǎng)絡(luò)的每個(gè)計(jì)算層由多個(gè)特征映射組成嫉你,每個(gè)特征映射是一個(gè)平面月帝,平面上所有神經(jīng)元的權(quán)值相等。特征映射結(jié)構(gòu)采用影響函數(shù)核小的sigmoid函數(shù)作為卷積網(wǎng)絡(luò)的激活函數(shù)幽污,使得特征映射具有位移不變性嚷辅。此外,由于一個(gè)映射面上的神經(jīng)元共享權(quán)值距误,因而減少了網(wǎng)絡(luò)自由參數(shù)的個(gè)數(shù)簸搞。卷積神經(jīng)網(wǎng)絡(luò)中的每一個(gè)卷積層都緊跟著一個(gè)用來(lái)求局部平均與二次提取的計(jì)算層,這種特有的兩次特征提取結(jié)構(gòu)減小了特征分辨率深寥。
CNN主要用來(lái)識(shí)別位移攘乒、縮放及其他形式扭曲不變性的二維圖形贤牛。由于CNN的特征檢測(cè)層通過(guò)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí)惋鹅,所以在使用CNN時(shí),避免了顯示的特征抽取殉簸,而隱式地從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí)闰集;再者由于同一特征映射面上的神經(jīng)元權(quán)值相同,所以網(wǎng)絡(luò)可以并行學(xué)習(xí)般卑,這也是卷積網(wǎng)絡(luò)相對(duì)于神經(jīng)元彼此相連網(wǎng)絡(luò)的一大優(yōu)勢(shì)武鲁。卷積神經(jīng)網(wǎng)絡(luò)以其局部權(quán)值共享的特殊結(jié)構(gòu)在語(yǔ)音識(shí)別和圖像處理方面有著獨(dú)特的優(yōu)越性,其布局更接近于實(shí)際的生物神經(jīng)網(wǎng)絡(luò)蝠检,權(quán)值共享降低了網(wǎng)絡(luò)的復(fù)雜性沐鼠,特別是多維輸入向量的圖像可以直接輸入網(wǎng)絡(luò)這一特點(diǎn)避免了特征提取和分類過(guò)程中數(shù)據(jù)重建的復(fù)雜度。