不同的業(yè)務(wù)采用不同的系統(tǒng)架構(gòu),會(huì)有自己的一些特色架構(gòu)難題溉贿。今天我們來學(xué)習(xí)下電商業(yè)務(wù)中的訂單中心的架構(gòu)設(shè)計(jì)看疙,以及會(huì)遇到哪些技術(shù)挑戰(zhàn)豆拨。
一、背景
隨著用戶量級(jí)的快速增長能庆,vivo 官方商城 v1.0 的單體架構(gòu)逐漸暴露出弊端:模塊愈發(fā)臃腫施禾、開發(fā)效率低下、性能出現(xiàn)瓶頸搁胆、系統(tǒng)維護(hù)困難弥搞。
從2017年開始啟動(dòng)的 v2.0 架構(gòu)升級(jí),基于業(yè)務(wù)模塊進(jìn)行垂直的系統(tǒng)物理拆分渠旁,拆分出來業(yè)務(wù)線各司其職攀例,提供服務(wù)化的能力,共同支撐主站業(yè)務(wù)顾腊。
訂單模塊是電商系統(tǒng)的交易核心粤铭,不斷累積的數(shù)據(jù)即將達(dá)到單表存儲(chǔ)瓶頸,系統(tǒng)難以支撐新品發(fā)布和大促活動(dòng)期間的流量杂靶,服務(wù)化改造勢在必行梆惯。
本文將介紹 vivo 商城 訂單系統(tǒng)建設(shè)的過程中遇到的問題和解決方案,分享架構(gòu)設(shè)計(jì)經(jīng)驗(yàn)吗垮。
二垛吗、系統(tǒng)架構(gòu)
將訂單模塊從商城拆分出來,獨(dú)立為訂單系統(tǒng)烁登,使用獨(dú)立的數(shù)據(jù)庫职烧,為商城相關(guān)系統(tǒng)提供訂單、支付、物流蚀之、售后等標(biāo)準(zhǔn)化服務(wù)蝗敢。
系統(tǒng)架構(gòu)如下圖所示:
三、技術(shù)挑戰(zhàn)
3.1 數(shù)據(jù)量和高并發(fā)問題
首先面對(duì)的挑戰(zhàn)來自存儲(chǔ)系統(tǒng):
-
數(shù)據(jù)量問題
隨著歷史訂單不斷累積足删,MySQL中訂單表數(shù)據(jù)量已達(dá)千萬級(jí)寿谴。
我們知道InnoDB存儲(chǔ)引擎的存儲(chǔ)結(jié)構(gòu)是B+樹,查找時(shí)間復(fù)雜度是O(log n)失受,因此當(dāng)數(shù)據(jù)總量n變大時(shí)讶泰,檢索速度必然會(huì)變慢, 不論如何加索引或者優(yōu)化都無法解決拂到,只能想辦法減小單表數(shù)據(jù)量痪署。
數(shù)據(jù)量大的解決方案有:數(shù)據(jù)歸檔、分表
-
高并發(fā)問題
商城業(yè)務(wù)處于高速發(fā)展期兄旬,下單量屢創(chuàng)新高狼犯,業(yè)務(wù)復(fù)雜度也在提升,應(yīng)用程序?qū)ySQL的訪問量越來越高领铐。
單機(jī)MySQL的處理能力是有限的悯森,當(dāng)壓力過大時(shí),所有請求的訪問速度都會(huì)下降绪撵,甚至有可能使數(shù)據(jù)庫宕機(jī)瓢姻。
并發(fā)量高的解決方案有:使用緩存、讀寫分離音诈、分庫
下面對(duì)這些方案進(jìn)行簡單描述:
-
數(shù)據(jù)歸檔
訂單數(shù)據(jù)具備時(shí)間屬性幻碱,存在熱尾效應(yīng),大部分情況下檢索的都是最近的訂單细溅,而訂單表里卻存儲(chǔ)了大量使用頻率較低的老數(shù)據(jù)收班。
那么就可以將新老數(shù)據(jù)分開存儲(chǔ),將歷史訂單移入另一張表中谒兄,并對(duì)代碼中的查詢模塊做一些相應(yīng)改動(dòng),便能有效解決數(shù)據(jù)量大的問題社付。
-
使用緩存
使用Redis作為MySQL的前置緩存承疲,可以擋住大部分的查詢請求,并降低響應(yīng)時(shí)延鸥咖。
緩存對(duì)商品系統(tǒng)這類與用戶關(guān)系不大的系統(tǒng)效果特別好燕鸽,但對(duì)訂單系統(tǒng)而言,每個(gè)用戶的訂單數(shù)據(jù)都不一樣啼辣,緩存命中率不算高啊研,效果不是太好。
-
讀寫分離
主庫負(fù)責(zé)執(zhí)行數(shù)據(jù)更新請求,然后將數(shù)據(jù)變更實(shí)時(shí)同步到所有從庫党远,用多個(gè)從庫來分擔(dān)查詢請求削解。
但訂單數(shù)據(jù)的更新操作較多,下單高峰時(shí)主庫的壓力依然沒有得到解決沟娱。且存在主從同步延遲氛驮,正常情況下延遲非常小,不超過1ms济似,但也會(huì)導(dǎo)致在某一個(gè)時(shí)刻的主從數(shù)據(jù)不一致矫废。
那就需要對(duì)所有受影響的業(yè)務(wù)場景進(jìn)行兼容處理,可能會(huì)做一些妥協(xié)砰蠢,比如下單成功后先跳轉(zhuǎn)到一個(gè)下單成功頁蓖扑,用戶手動(dòng)點(diǎn)擊查看訂單后才能看到這筆訂單。
-
分庫
分庫又包含垂直分庫和水平分庫台舱。
① 水平分庫:把同一個(gè)表的數(shù)據(jù)按一定規(guī)則拆到不同的數(shù)據(jù)庫中律杠,每個(gè)庫可以放在不同的服務(wù)器上。
② 垂直分庫:按照業(yè)務(wù)將表進(jìn)行分類柿赊,分布到不同的數(shù)據(jù)庫上面俩功,每個(gè)庫可以放在不同的服務(wù)器上,它的核心理念是專庫專用碰声。
-
分表
分表又包含垂直分表和水平分表诡蜓。
****① 水平分表:在同一個(gè)數(shù)據(jù)庫內(nèi),把一個(gè)表的數(shù)據(jù)按一定規(guī)則拆到多個(gè)表中胰挑。
****② 垂直分表:將一個(gè)表按照字段分成多表蔓罚,每個(gè)表存儲(chǔ)其中一部分字段。
我們綜合考慮了改造成本瞻颂、效果和對(duì)現(xiàn)有業(yè)務(wù)的影響豺谈,決定直接使用最后一招:分庫分表
3.2 分庫分表技術(shù)選型
分庫分表的技術(shù)選型主要從這幾個(gè)方向考慮:
客戶端sdk開源方案
中間件proxy開源方案
公司中間件團(tuán)隊(duì)提供的自研框架
自己動(dòng)手造輪子
參考之前項(xiàng)目經(jīng)驗(yàn),并與公司中間件團(tuán)隊(duì)溝通后贡这,采用了開源的Sharding-JDBC方案〔缒現(xiàn)已更名為Sharding-Sphere。
-
Github:
文檔:官方文檔比較粗糙盖矫,但是網(wǎng)上資料丽惭、源碼解析、demo比較豐富
社區(qū):活躍
特點(diǎn):jar包方式提供辈双,屬于client端分片责掏,支持xa事務(wù)
3.2.1 分庫分表策略
結(jié)合業(yè)務(wù)特性,選取用戶標(biāo)識(shí)作為分片鍵湃望,通過計(jì)算用戶標(biāo)識(shí)的哈希值再取模來得到用戶訂單數(shù)據(jù)的庫表編號(hào).
假設(shè)共有n個(gè)庫换衬,每個(gè)庫有m張表痰驱,
則庫表編號(hào)的計(jì)算方式為:
庫序號(hào):Hash(userId) / m % n
表序號(hào):Hash(userId) % m
路由過程如下圖所示:
3.2.2 分庫分表的局限性和應(yīng)對(duì)方案
分庫分表解決了數(shù)據(jù)量和并發(fā)問題,但它會(huì)極大限制數(shù)據(jù)庫的查詢能力瞳浦,有一些之前很簡單的關(guān)聯(lián)查詢担映,在分庫分表之后可能就沒法實(shí)現(xiàn)了,那就需要單獨(dú)對(duì)這些Sharding-JDBC不支持的SQL進(jìn)行改寫术幔。
除此之外另萤,還遇到了這些挑戰(zhàn):
(1)全局唯一ID設(shè)計(jì)
分庫分表后,數(shù)據(jù)庫自增主鍵不再全局唯一诅挑,不能作為訂單號(hào)來使用四敞,但很多內(nèi)部系統(tǒng)間的交互接口只有訂單號(hào),沒有用戶標(biāo)識(shí)這個(gè)分片鍵拔妥,如何用訂單號(hào)來找到對(duì)應(yīng)的庫表呢忿危?
原來,我們在生成訂單號(hào)時(shí)没龙,就將庫表編號(hào)隱含在其中了铺厨。這樣就能在沒有用戶標(biāo)識(shí)的場景下,從訂單號(hào)中獲取庫表編號(hào)硬纤。
(2)歷史訂單號(hào)沒有隱含庫表信息
用一張表單獨(dú)存儲(chǔ)歷史訂單號(hào)和用戶標(biāo)識(shí)的映射關(guān)系解滓,隨著時(shí)間推移,這些訂單逐漸不在系統(tǒng)間交互筝家,就慢慢不再被用到洼裤。
(3)管理后臺(tái)需要根據(jù)各種篩選條件,分頁查詢所有滿足條件的訂單
將訂單數(shù)據(jù)冗余存儲(chǔ)在搜索引擎Elasticsearch中溪王,僅用于后臺(tái)查詢腮鞍。
3.3 怎么做 MySQL 到 ES 的數(shù)據(jù)同步
上面說到為了便于管理后臺(tái)的查詢,我們將訂單數(shù)據(jù)冗余存儲(chǔ)在Elasticsearch中莹菱,那么移国,如何在MySQL的訂單數(shù)據(jù)變更后,同步到ES中呢道伟?
這里要考慮的是數(shù)據(jù)同步的時(shí)效性和一致性迹缀、對(duì)業(yè)務(wù)代碼侵入小、不影響服務(wù)本身的性能等蜜徽。
-
MQ方案
ES更新服務(wù)作為消費(fèi)者祝懂,接收訂單變更MQ消息后對(duì)ES進(jìn)行更新
-
Binlog方案
ES更新服務(wù)借助canal等開源項(xiàng)目,把自己偽裝成MySQL的從節(jié)點(diǎn)娜汁,接收Binlog并解析得到實(shí)時(shí)的數(shù)據(jù)變更信息,然后根據(jù)這個(gè)變更信息去更新ES兄朋。
其中BinLog方案比較通用掐禁,但實(shí)現(xiàn)起來也較為復(fù)雜怜械,我們最終選用的是MQ方案。
因?yàn)镋S數(shù)據(jù)只在管理后臺(tái)使用傅事,對(duì)數(shù)據(jù)可靠性和同步實(shí)時(shí)性的要求不是特別高缕允。
考慮到宕機(jī)和消息丟失等極端情況,在后臺(tái)增加了按某些條件手動(dòng)同步ES數(shù)據(jù)的功能來進(jìn)行補(bǔ)償蹭越。
3.4 如何安全地更換數(shù)據(jù)庫
如何將數(shù)據(jù)從原來的單實(shí)例數(shù)據(jù)庫遷移到新的數(shù)據(jù)庫集群障本,也是一大技術(shù)挑戰(zhàn)
不但要確保數(shù)據(jù)的正確性,還要保證每執(zhí)行一個(gè)步驟后响鹃,一旦出現(xiàn)問題驾霜,能快速地回滾到上一個(gè)步驟。
我們考慮了停機(jī)遷移和不停機(jī)遷移的兩種方案:
(1)不停機(jī)遷移方案:
把舊庫的數(shù)據(jù)復(fù)制到新庫中买置,上線一個(gè)同步程序粪糙,使用 Binlog等方案實(shí)時(shí)同步舊庫數(shù)據(jù)到新庫。
上線雙寫訂單新舊庫服務(wù)忿项,只讀寫舊庫蓉冈。
開啟雙寫,同時(shí)停止同步程序轩触,開啟對(duì)比補(bǔ)償程序寞酿,確保新庫數(shù)據(jù)和舊庫一致。
逐步將讀請求切到新庫上脱柱。
讀寫都切換到新庫上伐弹,對(duì)比補(bǔ)償程序確保舊庫數(shù)據(jù)和新庫一致。
下線舊庫褐捻,下線訂單雙寫功能掸茅,下線同步程序和對(duì)比補(bǔ)償程序。
(2)停機(jī)遷移方案:
上線新訂單系統(tǒng)柠逞,執(zhí)行遷移程序?qū)蓚€(gè)月之前的訂單同步到新庫昧狮,并對(duì)數(shù)據(jù)進(jìn)行稽核。
將商城V1應(yīng)用停機(jī)板壮,確保舊庫數(shù)據(jù)不再變化逗鸣。
執(zhí)行遷移程序,將第一步未遷移的訂單同步到新庫并進(jìn)行稽核绰精。
上線商城V2應(yīng)用撒璧,開始測試驗(yàn)證,如果失敗則回退到商城V1應(yīng)用(新訂單系統(tǒng)有雙寫舊庫的開關(guān))笨使。
考慮到不停機(jī)方案的改造成本較高卿樱,而夜間停機(jī)方案的業(yè)務(wù)損失并不大,最終選用的是停機(jī)遷移方案硫椰。
3.5 分布式事務(wù)問題
電商的交易流程中繁调,分布式事務(wù)是一個(gè)經(jīng)典問題萨蚕,比如:
用戶支付成功后,需要通知發(fā)貨系統(tǒng)給用戶發(fā)貨蹄胰。
用戶確認(rèn)收貨后岳遥,需要通知積分系統(tǒng)給用戶發(fā)放購物獎(jiǎng)勵(lì)的積分。
我們是如何保證微服務(wù)架構(gòu)下數(shù)據(jù)的一致性呢裕寨?
不同業(yè)務(wù)場景對(duì)數(shù)據(jù)一致性的要求不同浩蓉,業(yè)界的主流方案中,用于解決強(qiáng)一致性的有兩階段提交(2PC)宾袜、三階段提交(3PC)捻艳,解決最終一致性的有TCC、本地消息试和、事務(wù)消息和最大努力通知等讯泣。
這里不對(duì)上述方案進(jìn)行詳細(xì)的描述,介紹一下我們正在使用的本地消息表方案:在本地事務(wù)中將要執(zhí)行的異步操作記錄在消息表中阅悍,如果執(zhí)行失敗好渠,可以通過定時(shí)任務(wù)來補(bǔ)償。
下圖以訂單完成后通知積分系統(tǒng)贈(zèng)送積分為例节视。
3.6 系統(tǒng)安全和穩(wěn)定性
-
網(wǎng)絡(luò)隔離
只有極少數(shù)第三方接口可通過外網(wǎng)訪問拳锚,且都會(huì)驗(yàn)證簽名,內(nèi)部系統(tǒng)交互使用內(nèi)網(wǎng)域名和RPC接口寻行。
-
并發(fā)鎖
任何訂單更新操作之前霍掺,會(huì)通過數(shù)據(jù)庫行級(jí)鎖加以限制,防止出現(xiàn)并發(fā)更新。
-
冪等性
所有接口均具備冪等性,不用擔(dān)心對(duì)方網(wǎng)絡(luò)超時(shí)重試所造成的影響灭忠。
-
熔斷
使用Hystrix組件,對(duì)外部系統(tǒng)的實(shí)時(shí)調(diào)用添加熔斷保護(hù)兔魂,防止某個(gè)系統(tǒng)故障的影響擴(kuò)大到整個(gè)分布式系統(tǒng)中。
-
監(jiān)控和告警
通過配置日志平臺(tái)的錯(cuò)誤日志報(bào)警举娩、調(diào)用鏈的服務(wù)分析告警析校,再加上公司各中間件和基礎(chǔ)組件的監(jiān)控告警功能,讓我們能夠能夠第一時(shí)間發(fā)現(xiàn)系統(tǒng)異常铜涉。
3.7 踩過的坑
采用MQ消費(fèi)的方式同步數(shù)據(jù)庫的訂單相關(guān)數(shù)據(jù)到ES中智玻,遇到的寫入數(shù)據(jù)不是訂單最新數(shù)據(jù)問題
下圖左邊是原方案:
在消費(fèi)訂單數(shù)據(jù)同步的MQ時(shí),如果線程A在先執(zhí)行芙代,查出數(shù)據(jù)吊奢,這時(shí)候訂單數(shù)據(jù)被更新了,線程B開始執(zhí)行同步操作纹烹,查出訂單數(shù)據(jù)后先于線程A一步寫入ES中页滚,線程A執(zhí)行寫入時(shí)就會(huì)將線程B寫入的數(shù)據(jù)覆蓋谬泌,導(dǎo)致ES中的訂單數(shù)據(jù)不是最新的。
解決方案是在查詢訂單數(shù)據(jù)時(shí)加行鎖逻谦,整個(gè)業(yè)務(wù)執(zhí)行在事務(wù)中,執(zhí)行完成后再執(zhí)行下一個(gè)線程陪蜻。
sharding-jdbc 分組后排序分頁查詢出所有數(shù)據(jù)問題
示例:select a from temp group by a邦马,b order by a desc limit 1,10。
執(zhí)行是Sharding-jdbc里group by 和 order by 字段和順序不一致是將10置為Integer.MAX_VALUE, 導(dǎo)致分頁查詢失效宴卖。
io.shardingsphere.core.routing.router.sharding.ParsingSQLRouter#processLimit
正確的寫法應(yīng)該是 select a from temp group by a desc 滋将,b limit 1,10 ; 使用的版本是sharing-jdbc的3.1.1症昏。
ES分頁查詢?nèi)绻判蜃侄未嬖谥貜?fù)的值随闽,最好加一個(gè)唯一的字段作為第二排序條件,避免分頁查詢時(shí)漏掉數(shù)據(jù)肝谭、查出重復(fù)數(shù)據(jù)掘宪,比如用的是訂單創(chuàng)建時(shí)間作為唯一排序條件,同一時(shí)間如果存在很多數(shù)據(jù)攘烛,就會(huì)導(dǎo)致查詢的訂單存在遺漏或重復(fù)魏滚,需要增加一個(gè)唯一值作為第二排序條件或者直接使用唯一值作為排序條件。
四坟漱、成果
一次性上線成功鼠次,穩(wěn)定運(yùn)行了一年多
核心服務(wù)性能提升十倍以上
系統(tǒng)解耦,迭代效率大幅提升
能夠支撐商城至少五年的高速發(fā)展
五芋齿、結(jié)語
我們在系統(tǒng)設(shè)計(jì)時(shí)并沒有一味追求前沿技術(shù)和思想腥寇,面對(duì)問題時(shí)也不是直接采用主流電商的解決方案,而是根據(jù)業(yè)務(wù)實(shí)際狀況來選取最合適的辦法觅捆。
個(gè)人覺得赦役,一個(gè)好的系統(tǒng)不是在一開始就被大牛設(shè)計(jì)出來的,一定是隨著業(yè)務(wù)的發(fā)展和演進(jìn)逐漸被迭代出來的惠拭,持續(xù)預(yù)判業(yè)務(wù)發(fā)展方向扩劝,提前制定架構(gòu)演進(jìn)方案,簡單來說就是:走到業(yè)務(wù)的前面去职辅!