Communication-Efficient Learning of Deep Networks from Decentralized Data


Communication-Efficient Learning of Deep Networks from Decentralized Data是最早提出Federated learning這個(gè)概念的論文懒浮,可以說是FL的開山之作。

We advocate an alternative that leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates. We term this decentralized approach Federated Learning.

之前被論文里的FedSGDFedAvg(兩個(gè)都是非常重要的算法)搞混,現(xiàn)在對(duì)他們總結(jié)一下岖研。

FederatedSGD (or FedSGD)是指只有一個(gè)batch(a single batch)和Epoch數(shù)為1的算法显押。
BE分別對(duì)應(yīng)與本地客戶(lcoal client)的Batch-Size和Epoch數(shù),那么FedSGD對(duì)應(yīng)于B=∞E=1叔汁。
直觀理解:傳統(tǒng)的SGD算法可以看成是梯度更新速度最快的優(yōu)化算法统求,因?yàn)槊恳粋€(gè)sample就更新一次梯度了检碗,這里也是一樣,F(xiàn)edSGD是應(yīng)用FL時(shí)梯度或模型更新速度最快的算法球订,它只要求每個(gè)local client計(jì)算一次平均梯度就可以上傳到central server進(jìn)行加權(quán)平均了后裸,所以它需要的computation power是最少的(the lowest)。這也是論文把他當(dāng)做基線(baseline)的原因冒滩。


因?yàn)樽髡呦胙芯咳绾瓮ㄟ^利用額外的計(jì)算容量來降低通信損失微驶,而無疑基線就是計(jì)算容量最小的FedSGD算法了。這樣作者就能夠增加計(jì)算能力來看通信損失的變化开睡。

由此可知因苹,只要B≠∞E≠1,那么此時(shí)的算法就叫做FedAvg篇恒。而FedAvg(FederatedAveraging )算法是指local client先在本地計(jì)算多次梯度并且更新權(quán)值扶檐,這時(shí)的計(jì)算成本是提升的。

上圖的上半部分說的是胁艰,當(dāng)我們用FedSGD算法是款筑,具體的distributed optimization可以寫成公式
其中,代表在當(dāng)前模型上通過它的本地?cái)?shù)據(jù)集計(jì)算出的平均梯度。
我們知道對(duì)任何一個(gè)客戶腾么,有奈梳,
故有

其中
上式等式說明了將每個(gè)local client的平均梯度上傳到server再對(duì)這個(gè)梯度進(jìn)行 加權(quán)平均后更新模型的效果是和先在每個(gè)local client算出梯度并且用梯度更新本地模型\omega _{t}^{k}后在server上對(duì)這個(gè)更新后的模型取加權(quán)平均的效果是一樣的。

或者說解虱,該等式使得從原先的上傳梯度值(g_{k})模式變成了上傳模型(\omega ^{k}_{t+1})模式了攘须。

這就引出了上圖的下半部分,即每個(gè)local client可以先在本地多次迭代更新模型\omega _{t}^{k}殴泰,然后再上傳到server上執(zhí)行averaging step
即當(dāng)我們使用FedAvg算法時(shí)于宙,假設(shè)在t時(shí)刻,每個(gè)local client的模型為\forall k:\omega _{t}^{k}(注意如果不加右上角的k則代表t時(shí)刻的全局模型)悍汛,則在Epoch=E捞魁,Batchsize=B時(shí),local client k的模型更新為\omega_{t}^{k}\overset{-\eta g_{k1}}{\rightarrow} \omega _{t1}^{k}\overset{-\eta g_{k2}}{\rightarrow} \omega _{t2}^{k}\overset{-\eta g_{k3}}{\rightarrow}\cdot \cdot \cdot \overset{-\eta g_{ki}}{\rightarrow}\omega _{ti}^{k}
意思是模型\omega_{t}^{k}在將模型上傳到server前本地更新了i次离咐。
接著有\omega _{t+1}^{k}\leftarrow \omega _{ti}^{k}\omega _{t+1}\leftarrow \sum_{k=1}^{K}\frac{n_k}{n}\omega_{t+1}^{k}署驻。
最后將在t+1時(shí)刻的全局模型\omega_{t+1}賦值給每個(gè)local client作為t+1時(shí)刻的新模型
\forall k:\omega _{t+1}^{k}\leftarrow \omega_{t+1}

有意思的是,可以把FedAvg算法看成是I/O過程中的緩沖機(jī)制(Buffer)健霹,與其一點(diǎn)一點(diǎn)往上傳旺上,還不如收集多一點(diǎn)再網(wǎng)上傳,這樣可以有效減小I/O次數(shù)糖埋。

具體算法:
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末宣吱,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子瞳别,更是在濱河造成了極大的恐慌征候,老刑警劉巖杭攻,帶你破解...
    沈念sama閱讀 216,744評(píng)論 6 502
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異疤坝,居然都是意外死亡兆解,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,505評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門跑揉,熙熙樓的掌柜王于貴愁眉苦臉地迎上來锅睛,“玉大人,你說我怎么就攤上這事历谍∠志埽” “怎么了?”我有些...
    開封第一講書人閱讀 163,105評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵望侈,是天一觀的道長印蔬。 經(jīng)常有香客問我,道長脱衙,這世上最難降的妖魔是什么侥猬? 我笑而不...
    開封第一講書人閱讀 58,242評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮捐韩,結(jié)果婚禮上退唠,老公的妹妹穿的比我還像新娘。我一直安慰自己奥帘,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,269評(píng)論 6 389
  • 文/花漫 我一把揭開白布仪召。 她就那樣靜靜地躺著寨蹋,像睡著了一般。 火紅的嫁衣襯著肌膚如雪扔茅。 梳的紋絲不亂的頭發(fā)上已旧,一...
    開封第一講書人閱讀 51,215評(píng)論 1 299
  • 那天,我揣著相機(jī)與錄音召娜,去河邊找鬼运褪。 笑死,一個(gè)胖子當(dāng)著我的面吹牛玖瘸,可吹牛的內(nèi)容都是我干的秸讹。 我是一名探鬼主播,決...
    沈念sama閱讀 40,096評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼雅倒,長吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼璃诀!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起蔑匣,我...
    開封第一講書人閱讀 38,939評(píng)論 0 274
  • 序言:老撾萬榮一對(duì)情侶失蹤劣欢,失蹤者是張志新(化名)和其女友劉穎棕诵,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體凿将,經(jīng)...
    沈念sama閱讀 45,354評(píng)論 1 311
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡校套,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,573評(píng)論 2 333
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了牧抵。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片笛匙。...
    茶點(diǎn)故事閱讀 39,745評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖灭忠,靈堂內(nèi)的尸體忽然破棺而出膳算,到底是詐尸還是另有隱情,我是刑警寧澤弛作,帶...
    沈念sama閱讀 35,448評(píng)論 5 344
  • 正文 年R本政府宣布涕蜂,位于F島的核電站,受9級(jí)特大地震影響映琳,放射性物質(zhì)發(fā)生泄漏机隙。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,048評(píng)論 3 327
  • 文/蒙蒙 一萨西、第九天 我趴在偏房一處隱蔽的房頂上張望有鹿。 院中可真熱鬧,春花似錦谎脯、人聲如沸葱跋。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,683評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽娱俺。三九已至,卻和暖如春废麻,著一層夾襖步出監(jiān)牢的瞬間荠卷,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,838評(píng)論 1 269
  • 我被黑心中介騙來泰國打工烛愧, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留油宜,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 47,776評(píng)論 2 369
  • 正文 我出身青樓怜姿,卻偏偏與公主長得像慎冤,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子沧卢,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,652評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容

  • 有前面的知識(shí)粪薛,我們知道如何構(gòu)建目標(biāo)函數(shù)了,當(dāng)目標(biāo)函數(shù)構(gòu)建出來后搏恤,如何求其參數(shù)使的目標(biāo)函數(shù)最小化呢违寿?這就是這一小節(jié)的...
    李濤AT北京閱讀 909評(píng)論 0 0
  • 優(yōu)化算法 第一課:小批量梯度下降 本周學(xué)習(xí)加快神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度的優(yōu)化算法湃交。 我們之前學(xué)習(xí)過矢量化可以讓你有效的計(jì)算...
    帶刺的小花_ea97閱讀 1,150評(píng)論 0 5
  • 機(jī)器學(xué)習(xí)術(shù)語表 本術(shù)語表中列出了一般的機(jī)器學(xué)習(xí)術(shù)語和 TensorFlow 專用術(shù)語的定義。 A A/B 測(cè)試 (...
    yalesaleng閱讀 1,964評(píng)論 0 11
  • 文/Min藤巢,圖/網(wǎng)絡(luò) 想你的夜不會(huì)孤單 在孤單的夜里想你才傷心
    Min_06閱讀 623評(píng)論 3 6
  • 01 五一放假搞莺,這兩天過的有點(diǎn)喪,沒有出去掂咒。本來早就下好了幾部電影才沧,買的書還沒有拆。但最后和同事吃飯绍刮,打打麻將温圆,有...
    岸左同學(xué)閱讀 805評(píng)論 1 2