Abstract
主要建模和實驗評估CCN的緩存特征摧冀。首先作者對單個路由器稽物,根據(jù)連續(xù)時間馬爾科夫鏈樱哼,建立了一個數(shù)學模型,評估指定內(nèi)容被緩存的時間比例梯醒。這個模型可以通過近似擴展到多路由器。并且通過仿真來驗證所謂packer-level緩存的動態(tài)性切黔,和流無關(guān)暮的。
1.Introduction
NNC方案將整個互聯(lián)網(wǎng)流模型從發(fā)送者驅(qū)動,TCP緩存/擁塞的控制環(huán)境轉(zhuǎn)變?yōu)榻邮苷唑?qū)動感挥,緩存模型缩搅。CCN中的每個數(shù)據(jù)包可以通過名稱區(qū)別,并且充分利用一個事實:一個數(shù)據(jù)包可以同時被多個接受者感興趣触幼。即取代今天的互聯(lián)網(wǎng)硼瓣,緩存一個包,并且轉(zhuǎn)發(fā)到相應(yīng)的剛興趣用戶之后置谦,丟棄數(shù)據(jù)包的形式堂鲤,CCN可以“記住”這個包,直到包“過期”媒峡。
本文主要解決對于一個給定的包瘟栖,即網(wǎng)絡(luò)中的興趣包,在給定網(wǎng)絡(luò)拓撲和請求率的條件下谅阿,在用戶到服務(wù)器的路徑上緩存多久半哟。主要研究內(nèi)容:單獨緩存和多級緩存的數(shù)學模型,多種緩存假設(shè)的正確性和Monte-Carlo仿真來檢查假設(shè)签餐,在分析模型基礎(chǔ)上建立的Java模型寓涨。
得到結(jié)論如下:對于流行的內(nèi)容,在網(wǎng)絡(luò)上有性能提升氯檐,但是這種提升:i)對于不流行的內(nèi)容基本為0缅茉,ii)更普遍的情況,非常依賴路由器緩存的大小男摧,iii)當路由器距離源數(shù)據(jù)服務(wù)器近和遠時也不同蔬墩。
1.1 Macro- VS Micro-Caching
策略性的內(nèi)容副本技術(shù)有i)Web Proxy Caching ii)Content Delivery Networks。不管怎樣耗拓,最重要的一個問題是把副本內(nèi)容靜態(tài)或動態(tài)的放在網(wǎng)絡(luò)中最合適的位置拇颅。Web-Proxy緩存,ISP決定副本放置在哪里乔询,而CDNs中樟插,相關(guān)的公司的代理服務(wù)器完成此角色。總之黄锤,proxy/surrogate服務(wù)器提前就已經(jīng)固定了搪缨。
此外,當用戶同時對相同的內(nèi)容感興趣時鸵熟,IP多播技術(shù)應(yīng)用和廣泛副编。但是IP多播技術(shù)服務(wù)的用戶僅屬于同一個組,并且會獲得組用戶希望獲取的全部內(nèi)容流强。
CCNs在micro-level上完成了上述技術(shù)痹届,而Web-Caching和CDNs是macro-Caching策略,他們的目標是整個對象打月《痈總之,以上技術(shù)是固定和預(yù)先被定義好的奏篙,而CCNs的內(nèi)容緩存是多播且"on the fly"柴淘,只要是被請求或者即將流行的內(nèi)容。
1.2 獨立vs多級緩存系統(tǒng)模型
現(xiàn)階段多數(shù)緩存研究集中在獨立緩存上秘通,主要考慮:i)在特定緩存上特定內(nèi)容的請求數(shù)量悠就,ii)在上面特定緩存上其他內(nèi)容的請求數(shù)量。iii)緩存的大小和iv)packet請求的相關(guān)性
CCN緩存和IP buffers一樣充易,但是替代策略不一樣梗脾。緩存系統(tǒng)的建模問題是一個多空間問題,需要考慮的是內(nèi)容client到內(nèi)容服務(wù)器的路徑上的路由器/緩存問題盹靴。獨立緩存的復(fù)雜度是O(KB)炸茧,B是緩存大小,K是有顯著概率不同的條目的個數(shù)稿静。當B和K足夠大時梭冠,建立一個系統(tǒng)的loss rates的近似模型很必要。本文的研究重點正是在此:建立一個獨立緩存模型改备,足夠簡單當擴展到end-to-end路徑的多級緩存時控漠,仍然可以用。
上述模型估計一個特殊的內(nèi)容content悬钳,Packet of Interest盐捷,PoI,在任何緩存上保留多上時間默勾,輸出PoI在緩存上保留的時間碉渡,同時也反映了PoI的緩沖丟失率。
2.Modeling CCN using Markov chains
2.1 單個路由器的模型
假設(shè)獨立路由器的PoI請求滿足參數(shù)λ的泊松過程母剥,無論何時滞诺,請求到達形导,路由器把請求包到上層路由器上。發(fā)送到上層緩存的請求滿足參數(shù)μ的泊松過程习霹。這個過程可以簡化成一個連續(xù)時間的齊次馬爾科夫鏈朵耕,鏈的狀態(tài)代表了包當前用的緩存的的確切槽位置。
- 狀態(tài)1是PoI在緩存的上層(請求即獲得)淋叶,
- 狀態(tài)N指的包在緩存的底端(任何包的請求不在緩存里會被推送至緩存之外)阎曹,
- 狀態(tài)N+1代表包不在緩存。
具體鏈如Fig.1(Left)
所有狀態(tài)(除狀態(tài)1)由參數(shù)λ到狀態(tài)1的傳遞(另一個對于包的請求到達爸吮,包移動至緩存的上層)芬膝,所有狀態(tài) i ,1≤i≤N到狀態(tài)i+1,有傳遞參數(shù)μ望门,(包沿著緩存由高到低傳遞)
π=(π1,π2,....,πN+1)為鏈的均衡概率形娇,直接的物理解釋是,PoI在緩存?zhèn)€位置上的花費單位時間比例(πN+1單位時間上包不在緩存的概率)筹误,得到πi和πN+1. πN+1為cache miss的概率桐早,也是流向上傳播的平均比例,(在本cache上沒有然后發(fā)送到下一cache)。這可以推廣到系統(tǒng)多級緩存厨剪,詳細如Fig.1(right)哄酝。
Router R1有N1層內(nèi)存槽,Router2有N2層內(nèi)存槽祷膳,F(xiàn)(x)代表參數(shù)x的到達過程(不局限于Poisson)陶衅,F(xiàn)(λi)和F(μi)為假設(shè)的Poisson過程,F(xiàn)(φi)過程代表Router Ri中cache miss的包請求.
2.2 多路由器系統(tǒng)的Markov鏈建模
模型圖如Fig.1(right)由2.1可以得到φ1,所以Router R2的請求到達率是φ1+λ2直晨,即為λ2'.現(xiàn)在問題是R2路由器上包在緩存的時間比例搀军,也可以理解成一個Markov chain。此時狀態(tài)有N1*N2個勇皇,(i,j)代表興趣包在R1和R2緩存的位置罩句。i=N1+1,代表包不在R1敛摘,j=N+2代表包不在R2上门烂。π(i,j)代表PoI在R1狀態(tài)i和R2狀態(tài)j的均衡概率。π(i, )為R1所有狀態(tài)的均衡概率兄淫,獨立R2屯远。事實證明它和單個路由器的概率一樣。 計算π( ,j)就困難許多捕虽,
π( ,1)可以計算出氓润。
從上述計算結(jié)果可以得到C是正的,π( ,1)近似為,隨著N1的增加薯鳍,λ2'/(μ2+λ2')咖气。這是在Poisson分布下得到的方程挨措。隨著N1的增加,可以得到C趨于0.
為了確保聚合崩溪,N1和N2的值不能很大浅役。N1=6,N2=4,λ1=λ2=μ1=μ2=1.0伶唯,π( ,j)近似為Possion分布觉既。當φ1比λ2大很多時,假設(shè)
N1=6,N2=4乳幸,λ1=100.0瞪讼,μ1=10,000,λ2=0.1粹断,μ2=100.0符欠,π( ,j)的Possion性質(zhì)會弱很多。
本節(jié)瓶埋,對于CCN一個接著一個的緩存結(jié)構(gòu)希柿,可以從簡單緩存模型的結(jié)構(gòu)中啟發(fā)式建模。one cache的miss rate可以被用來作為輸入建立最終的多路由器模型养筒。在此模型中曾撤,PoI的miss rate可以通過假設(shè)路由器的輸入rate為次路由器請求的直接rate和流經(jīng)此路由器的其他路由器未緩存流的疊加。
2.3 深入研究μ過程
很顯然PoI的沿著cache的向下移動有兩個相關(guān)的過程晕粪。一個可能性是到達的包沒有在緩存中被緩存挤悉。由于這一部分沒看太懂,略去
2.4 數(shù)學模型分析的總結(jié)
section 2.1解析了對于PoI的請求是λ的Poisson巫湘,move the PoI further down the cache 的請求是μ的Poisson