在線體驗:Seata實驗室
一. 前言
相信 youlai-mall 的實驗室大家有曾在項目中見到過,但應(yīng)該都還處于陌生的階段,畢竟在此之前實驗室多是以概念般的形式存在解寝,所以我想借著此次的機會邪狞,對其進行一個詳細的說明。
實驗室模塊的建立初衷和開源項目的成立一致的肺孵,都是為了提升開發(fā)成員的技術(shù)能力傻挂,只不過開源項目是從技術(shù)棧廣度上(全棧)叹坦,而實驗室則是從技術(shù)棧深度方面切入害淤,更重要的它是一種更深刻而又高效的學(xué)習(xí)方式扇雕。為什么能夠這么說?因為實驗室是結(jié)合真實的業(yè)務(wù)場景把中間件的作用可視化出來窥摄,達到通過現(xiàn)象去看本質(zhì)(<span style="color:red">原理和源碼</span>)的目的镶奉,再也不是被動式輸入的短期記憶學(xué)習(xí)。
實驗室未來計劃是將工作和面試常見的中間件(Spring崭放、MyBatis哨苛、Redis、Seata币砂、MQ建峭、MySQL、ES等)做進來决摧,本篇就以 Seata 為例正式為有來實驗室拉開一個序幕亿蒸。
二. Seata 概念
Seata 是一款開源的分布式事務(wù)解決方案,致力于提供高性能和簡單易用的分布式事務(wù)服務(wù)掌桩。Seata 將為用戶提供了 AT祝懂、TCC、SAGA 和 XA 事務(wù)模式拘鞋,為用戶打造一站式的分布式解決方案砚蓬。
術(shù)語 | |
---|---|
TC (Transaction Coordinator) - 事務(wù)協(xié)調(diào)者 | 維護全局和分支事務(wù)的狀態(tài),驅(qū)動全局事務(wù)提交或回滾盆色。 |
TM (Transaction Manager) - 事務(wù)管理器 | 定義全局事務(wù)的范圍:開始全局事務(wù)灰蛙、提交或回滾全局事務(wù)。 |
RM (Resource Manager) - 資源管理器 | 管理分支事務(wù)處理的資源隔躲,與TC交談以注冊分支事務(wù)和報告分支事務(wù)的狀態(tài)摩梧,并驅(qū)動分支事務(wù)提交或回滾。 |
三. Seata 服務(wù)端部署
中間件聲明
中間件 | 版本 | 服務(wù)器IP | 端口 |
---|---|---|---|
Seata | 1.5.2 | 192.168.10.100 | 8091宣旱、7091 |
Nacos | 2.0.3 | 192.168.10.99 | 8848 |
MySQL | 8.0.27 | 192.168.10.98 | 3306 |
官方鏈接
Seata 數(shù)據(jù)庫
Seata 表結(jié)構(gòu)MySQL腳本在線地址: https://github.com/seata/seata/blob/1.5.2/script/server/db/mysql.sql
執(zhí)行以下腳本完成 Seata 數(shù)據(jù)庫創(chuàng)建和表的初始化:
-- 1. 執(zhí)行語句創(chuàng)建名為 seata 的數(shù)據(jù)庫
CREATE DATABASE seata DEFAULT CHARACTER SET utf8mb4 DEFAULT COLLATE utf8mb4_general_ci;
-- 2.執(zhí)行腳本完成 Seata 表結(jié)構(gòu)的創(chuàng)建
use seata;
-- the table to store GlobalSession data
CREATE TABLE IF NOT EXISTS `global_table`
(
`xid` VARCHAR(128) NOT NULL,
`transaction_id` BIGINT,
`status` TINYINT NOT NULL,
`application_id` VARCHAR(32),
`transaction_service_group` VARCHAR(32),
`transaction_name` VARCHAR(128),
`timeout` INT,
`begin_time` BIGINT,
`application_data` VARCHAR(2000),
`gmt_create` DATETIME,
`gmt_modified` DATETIME,
PRIMARY KEY (`xid`),
KEY `idx_status_gmt_modified` (`status` , `gmt_modified`),
KEY `idx_transaction_id` (`transaction_id`)
) ENGINE = InnoDB
DEFAULT CHARSET = utf8mb4;
-- the table to store BranchSession data
CREATE TABLE IF NOT EXISTS `branch_table`
(
`branch_id` BIGINT NOT NULL,
`xid` VARCHAR(128) NOT NULL,
`transaction_id` BIGINT,
`resource_group_id` VARCHAR(32),
`resource_id` VARCHAR(256),
`branch_type` VARCHAR(8),
`status` TINYINT,
`client_id` VARCHAR(64),
`application_data` VARCHAR(2000),
`gmt_create` DATETIME(6),
`gmt_modified` DATETIME(6),
PRIMARY KEY (`branch_id`),
KEY `idx_xid` (`xid`)
) ENGINE = InnoDB
DEFAULT CHARSET = utf8mb4;
-- the table to store lock data
CREATE TABLE IF NOT EXISTS `lock_table`
(
`row_key` VARCHAR(128) NOT NULL,
`xid` VARCHAR(128),
`transaction_id` BIGINT,
`branch_id` BIGINT NOT NULL,
`resource_id` VARCHAR(256),
`table_name` VARCHAR(32),
`pk` VARCHAR(36),
`status` TINYINT NOT NULL DEFAULT '0' COMMENT '0:locked ,1:rollbacking',
`gmt_create` DATETIME,
`gmt_modified` DATETIME,
PRIMARY KEY (`row_key`),
KEY `idx_status` (`status`),
KEY `idx_branch_id` (`branch_id`),
KEY `idx_xid_and_branch_id` (`xid` , `branch_id`)
) ENGINE = InnoDB
DEFAULT CHARSET = utf8mb4;
CREATE TABLE IF NOT EXISTS `distributed_lock`
(
`lock_key` CHAR(20) NOT NULL,
`lock_value` VARCHAR(20) NOT NULL,
`expire` BIGINT,
primary key (`lock_key`)
) ENGINE = InnoDB
DEFAULT CHARSET = utf8mb4;
INSERT INTO `distributed_lock` (lock_key, lock_value, expire) VALUES ('AsyncCommitting', ' ', 0);
INSERT INTO `distributed_lock` (lock_key, lock_value, expire) VALUES ('RetryCommitting', ' ', 0);
INSERT INTO `distributed_lock` (lock_key, lock_value, expire) VALUES ('RetryRollbacking', ' ', 0);
INSERT INTO `distributed_lock` (lock_key, lock_value, expire) VALUES ('TxTimeoutCheck', ' ', 0);
Seata 配置
這里采用 Nacos 作為配置中心的方式仅父,所以需要把 Seata 的外置配置 放置在Nacos上
1. 獲取 Seata 外置配置
獲取Seata 配置在線地址:https://github.com/seata/seata/blob/1.5.2/script/config-center/config.txt
完整配置如下:
#For details about configuration items, see https://seata.io/zh-cn/docs/user/configurations.html
#Transport configuration, for client and server
transport.type=TCP
transport.server=NIO
transport.heartbeat=true
transport.enableTmClientBatchSendRequest=false
transport.enableRmClientBatchSendRequest=true
transport.enableTcServerBatchSendResponse=false
transport.rpcRmRequestTimeout=30000
transport.rpcTmRequestTimeout=30000
transport.rpcTcRequestTimeout=30000
transport.threadFactory.bossThreadPrefix=NettyBoss
transport.threadFactory.workerThreadPrefix=NettyServerNIOWorker
transport.threadFactory.serverExecutorThreadPrefix=NettyServerBizHandler
transport.threadFactory.shareBossWorker=false
transport.threadFactory.clientSelectorThreadPrefix=NettyClientSelector
transport.threadFactory.clientSelectorThreadSize=1
transport.threadFactory.clientWorkerThreadPrefix=NettyClientWorkerThread
transport.threadFactory.bossThreadSize=1
transport.threadFactory.workerThreadSize=default
transport.shutdown.wait=3
transport.serialization=seata
transport.compressor=none
#Transaction routing rules configuration, only for the client
service.vgroupMapping.default_tx_group=default
#If you use a registry, you can ignore it
service.default.grouplist=127.0.0.1:8091
service.enableDegrade=false
service.disableGlobalTransaction=false
#Transaction rule configuration, only for the client
client.rm.asyncCommitBufferLimit=10000
client.rm.lock.retryInterval=10
client.rm.lock.retryTimes=30
client.rm.lock.retryPolicyBranchRollbackOnConflict=true
client.rm.reportRetryCount=5
client.rm.tableMetaCheckEnable=true
client.rm.tableMetaCheckerInterval=60000
client.rm.sqlParserType=druid
client.rm.reportSuccessEnable=false
client.rm.sagaBranchRegisterEnable=false
client.rm.sagaJsonParser=fastjson
client.rm.tccActionInterceptorOrder=-2147482648
client.tm.commitRetryCount=5
client.tm.rollbackRetryCount=5
client.tm.defaultGlobalTransactionTimeout=60000
client.tm.degradeCheck=false
client.tm.degradeCheckAllowTimes=10
client.tm.degradeCheckPeriod=2000
client.tm.interceptorOrder=-2147482648
client.undo.dataValidation=true
client.undo.logSerialization=jackson
client.undo.onlyCareUpdateColumns=true
server.undo.logSaveDays=7
server.undo.logDeletePeriod=86400000
client.undo.logTable=undo_log
client.undo.compress.enable=true
client.undo.compress.type=zip
client.undo.compress.threshold=64k
#For TCC transaction mode
tcc.fence.logTableName=tcc_fence_log
tcc.fence.cleanPeriod=1h
#Log rule configuration, for client and server
log.exceptionRate=100
#Transaction storage configuration, only for the server. The file, DB, and redis configuration values are optional.
store.mode=file
store.lock.mode=file
store.session.mode=file
#Used for password encryption
store.publicKey=
#If `store.mode,store.lock.mode,store.session.mode` are not equal to `file`, you can remove the configuration block.
store.file.dir=file_store/data
store.file.maxBranchSessionSize=16384
store.file.maxGlobalSessionSize=512
store.file.fileWriteBufferCacheSize=16384
store.file.flushDiskMode=async
store.file.sessionReloadReadSize=100
#These configurations are required if the `store mode` is `db`. If `store.mode,store.lock.mode,store.session.mode` are not equal to `db`, you can remove the configuration block.
store.db.datasource=druid
store.db.dbType=mysql
store.db.driverClassName=com.mysql.jdbc.Driver
store.db.url=jdbc:mysql://127.0.0.1:3306/seata?useUnicode=true&rewriteBatchedStatements=true
store.db.user=username
store.db.password=password
store.db.minConn=5
store.db.maxConn=30
store.db.globalTable=global_table
store.db.branchTable=branch_table
store.db.distributedLockTable=distributed_lock
store.db.queryLimit=100
store.db.lockTable=lock_table
store.db.maxWait=5000
#These configurations are required if the `store mode` is `redis`. If `store.mode,store.lock.mode,store.session.mode` are not equal to `redis`, you can remove the configuration block.
store.redis.mode=single
store.redis.single.host=127.0.0.1
store.redis.single.port=6379
store.redis.sentinel.masterName=
store.redis.sentinel.sentinelHosts=
store.redis.maxConn=10
store.redis.minConn=1
store.redis.maxTotal=100
store.redis.database=0
store.redis.password=
store.redis.queryLimit=100
#Transaction rule configuration, only for the server
server.recovery.committingRetryPeriod=1000
server.recovery.asynCommittingRetryPeriod=1000
server.recovery.rollbackingRetryPeriod=1000
server.recovery.timeoutRetryPeriod=1000
server.maxCommitRetryTimeout=-1
server.maxRollbackRetryTimeout=-1
server.rollbackRetryTimeoutUnlockEnable=false
server.distributedLockExpireTime=10000
server.xaerNotaRetryTimeout=60000
server.session.branchAsyncQueueSize=5000
server.session.enableBranchAsyncRemove=false
server.enableParallelRequestHandle=false
#Metrics configuration, only for the server
metrics.enabled=false
metrics.registryType=compact
metrics.exporterList=prometheus
metrics.exporterPrometheusPort=9898
2. 導(dǎo)入配置至 Nacos
在 Nacos 默認的 public 命名空間下 ,新建配置 Data ID 為 seataServer.properties 浑吟,Group 為 SEATA_GROUP 的配置
3. 修改 Seata 外置配置
把默認 Seata 全量配置導(dǎo)入 Nacos 之后笙纤,本篇這里僅需修存儲模式為db以及對應(yīng)的db連接配置
# 修改store.mode為db,配置數(shù)據(jù)庫連接
store.mode=db
store.db.dbType=mysql
store.db.driverClassName=com.mysql.cj.jdbc.Driver
store.db.url=jdbc:mysql://192.168.10.98:3306/seata?useUnicode=true&rewriteBatchedStatements=true
store.db.user=root
store.db.password=123456
- **store.mode=db **存儲模式選擇為數(shù)據(jù)庫
- 192.168.10.98 MySQL主機地址
- store.db.user=root 數(shù)據(jù)庫用戶名
- store.db.password=123456 數(shù)據(jù)庫密碼
Seata 部署
Seata 官方部署文檔:https://seata.io/zh-cn/docs/ops/deploy-by-docker.html
1. 獲取應(yīng)用配置
按照官方文檔描述使用自定義配置文件的部署方式组力,需要先創(chuàng)建臨時容器把配置copy到宿主機
創(chuàng)建臨時容器
docker run -d --name seata-server -p 8091:8091 -p 7091:7091 seataio/seata-server:1.5.2
創(chuàng)建掛載目錄
mkdir -p /mnt/seata/config
復(fù)制容器配置至宿主機
docker cp seata-server:/seata-server/resources/ /mnt/seata/config
注意復(fù)制到宿主機的目錄省容,下文啟動容器需要做宿主機和容器的目錄掛載
過河拆橋,刪除臨時容器
docker rm -f seata-server
2. 修改啟動配置
在獲取到 seata-server 的應(yīng)用配置之后燎字,因為這里采用 Nacos 作為 seata 的配置中心和注冊中心腥椒,所以需要修改 application.yml 里的配置中心和注冊中心地址阿宅,詳細配置我們可以從 application.example.yml 拿到。
application.yml 原配置
修改后的配置(參考 application.example.yml 示例文件)笼蛛,以下是需要調(diào)整的部分洒放,其他配置默認即可
seata:
config:
type: nacos
nacos:
server-addr: 192.168.10.99:8848
namespace:
group: SEATA_GROUP
data-id: seataServer.properties
registry:
type: nacos
preferred-networks: 30.240.*
nacos:
application: seata-server
server-addr: 192.168.10.99:8848
namespace:
group: SEATA_GROUP
cluster: default
# 存儲模式在外置配置(Nacos)中,Nacos 配置加載優(yōu)先級大于application.yml滨砍,會被application.yml覆蓋拉馋,所以此處注釋
#store:
#mode: file
- 192.168.10.99 是Nacos宿主機的IP地址,Docker部署別錯填 localhost 或Docker容器的IP(172.17. * . *)
- namespace nacos命名空間id惨好,不填默認是public命名空間
- data-id: seataServer.properties Seata外置文件所處Naocs的Data ID煌茴,參考上小節(jié)的 導(dǎo)入配置至 Nacos
- group: SEATA_GROUP 指定注冊至nacos注冊中心的分組名
- cluster: default 指定注冊至nacos注冊中心的集群名
3. 啟動容器
docker run -d --name seata-server --restart=always \
-p 8091:8091 \
-p 7091:7091 \
-e SEATA_IP=192.168.10.100 \
-v /mnt/seata/config:/seata-server/resources \
seataio/seata-server:1.5.2
/mnt/seata/config Seata應(yīng)用配置掛載在宿主機的目錄
192.168.10.100 Seata 宿主機IP地址
在 nacos 控制臺 的 public 命名空間下服務(wù)列表里有 seata-server 說明部署啟動成功
如果啟動失敗或者未注冊到 nacos , 基本是粗心的結(jié)果,請仔細檢查下自己 application.yml 的注冊中心配置或查看日志
docker logs -f --tail=100 seata-server
以上就完成對 Seata 服務(wù)端的部署和配置日川,接下來就是 SpringBoot 與 Seata 客戶端的整合蔓腐。
四. Seata 客戶端搭建
1. Maven 依賴
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
<!-- 默認seata客戶端版本比較低,排除后重新引入指定版本-->
<exclusions>
<exclusion>
<groupId>io.seata</groupId>
<artifactId>seata-spring-boot-starter</artifactId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>io.seata</groupId>
<artifactId>seata-spring-boot-starter</artifactId>
<version>1.5.2</version>
</dependency>
2. undo_log 表
undo_log表腳本: https://github.com/seata/seata/blob/1.5.2/script/client/at/db/mysql.sql
-- for AT mode you must to init this sql for you business database. the seata server not need it.
CREATE TABLE IF NOT EXISTS `undo_log`
(
`branch_id` BIGINT NOT NULL COMMENT 'branch transaction id',
`xid` VARCHAR(128) NOT NULL COMMENT 'global transaction id',
`context` VARCHAR(128) NOT NULL COMMENT 'undo_log context,such as serialization',
`rollback_info` LONGBLOB NOT NULL COMMENT 'rollback info',
`log_status` INT(11) NOT NULL COMMENT '0:normal status,1:defense status',
`log_created` DATETIME(6) NOT NULL COMMENT 'create datetime',
`log_modified` DATETIME(6) NOT NULL COMMENT 'modify datetime',
UNIQUE KEY `ux_undo_log` (`xid`, `branch_id`)
) ENGINE = InnoDB
AUTO_INCREMENT = 1
DEFAULT CHARSET = utf8mb4 COMMENT ='AT transaction mode undo table';
AT模式兩階段提交協(xié)議的演變:
- 一階段:業(yè)務(wù)數(shù)據(jù)和回滾日志記錄在同一個本地事務(wù)中提交龄句,釋放本地鎖和連接資源回论。
- 二階段:
- 提交異步化,非撤中快速地完成傀蓉。
- 回滾通過一階段的回滾日志進行反向補償。
Seata的AT模式下之所以在第一階段直接提交事務(wù)职抡,依賴的是需要在每個RM創(chuàng)建一張undo_log表葬燎,記錄業(yè)務(wù)執(zhí)行前后的數(shù)據(jù)快照。
如果二階段需要回滾缚甩,直接根據(jù)undo_log表回滾谱净,如果執(zhí)行成功,則在第二階段刪除對應(yīng)的快照數(shù)據(jù)擅威。
3. 客戶端配置
# Seata配置
seata:
enabled: true
# 指定事務(wù)分組至集群映射關(guān)系壕探,集群名default需要與seata-server注冊到Nacos的cluster保持一致
service:
vgroup-mapping:
mall_tx_group: default
# 事務(wù)分組配置
tx-service-group: mall_tx_group
registry:
type: nacos
nacos:
application: seata-server
# nacos 服務(wù)地址
server-addr: 192.168.10.99:8848
namespace:
group: SEATA_GROUP
以上3點就是 Seata 客戶端需要做的事項,下面就 Seata 如何實戰(zhàn)應(yīng)用進行展開詳細說明郊丛。
五. Seata 實戰(zhàn)
Seata 官網(wǎng)示例: http://seata.io/zh-cn/docs/user/quickstart.html
需求
用戶購買商品訂單支付的業(yè)務(wù)邏輯李请。整個業(yè)務(wù)邏輯由3個微服務(wù)提供支持:
- 商品服務(wù):扣減商品庫存。
- 訂單服務(wù):修改訂單狀態(tài)【已支付】厉熟。
- 會員服務(wù):扣減賬戶余額导盅。
架構(gòu)圖
- TM:事務(wù)管理器(有來實驗室:laboratory)
- RM:資源管理器(商城服務(wù):mall-pms;會員服務(wù):mall-ums庆猫;訂單服務(wù):mall-oms)
- TC :事務(wù)協(xié)調(diào)者(Seata服務(wù)端:seata-server)
代碼實現(xiàn)
有來實驗室
實驗室在“訂單支付”案例中扮演的是【事務(wù)管理器】的角色认轨,其工作內(nèi)容是開始全局事務(wù)、提交或回滾全局事務(wù)月培。
按照 【第三節(jié)-Seata客戶端搭建 】 在 laboratory 模塊添加 Maven 依賴和客戶端的配置嘁字。
訂單支付關(guān)鍵代碼片段(SeataServiceImpl#payOrderWithGlobalTx),通過注解 GlobalTransactional 開啟全局事務(wù)杉畜,通過對商品 Feign 客戶端和訂單 Feign 客戶端的調(diào)用完成訂單支付的流程纪蜒,這是全局事務(wù)開始的地方。
/**
* 訂單支付(全局事務(wù))
*/
@GlobalTransactional
public boolean payOrderWithGlobalTx(SeataForm seataForm) {
log.info("========扣減商品庫存========");
skuFeignClient.deductStock(skuId, 1);
log.info("========訂單支付========");
orderFeignClient.payOrder(orderId, ...);
return true;
}
商品服務(wù)
按照 【第三節(jié)-Seata客戶端搭建 】 在 mall-pms 模塊添加 Maven 依賴和客戶端的配置此叠,在 mall-pms 數(shù)據(jù)庫創(chuàng)建 undo_log 表纯续。
扣減庫存關(guān)鍵代碼:
/**
* 「實驗室」扣減商品庫存
*/
public boolean deductStock(Long skuId, Integer num) {
boolean result = this.update(new LambdaUpdateWrapper<PmsSku>()
.setSql("stock_num = stock_num - " + num)
.eq(PmsSku::getId, skuId)
);
return result;
}
訂單服務(wù)
按照 【第三節(jié)-Seata客戶端搭建 】 在 mall-oms 模塊添加 Maven 依賴和客戶端的配置,在 mall-oms 數(shù)據(jù)庫創(chuàng)建 undo_log 表灭袁。
訂單支付關(guān)鍵代碼:
/**
* 「實驗室」訂單支付
*/
public Boolean payOrder(Long orderId, SeataOrderDTO orderDTO) {
Long memberId = orderDTO.getMemberId();
Long amount = orderDTO.getAmount();
// 扣減賬戶余額
memberFeignClient.deductBalance(memberId, amount);
// 【關(guān)鍵】如果開啟異常猬错,全局事務(wù)將會回滾
Boolean openEx = orderDTO.getOpenEx();
if (openEx) {
int i = 1 / 0;
}
// 修改訂單【已支付】
boolean result = this.update(new LambdaUpdateWrapper<OmsOrder>()
.eq(OmsOrder::getId, orderId)
.set(OmsOrder::getStatus, OrderStatusEnum.WAIT_SHIPPING.getValue())
);
return result;
}
會員服務(wù)
按照 【第三節(jié)-Seata客戶端搭建 】 在 mall-ums 模塊添加 Maven 依賴和客戶端的配置,在 mall-ums 數(shù)據(jù)庫創(chuàng)建 undo_log 表茸歧。
扣減余額關(guān)鍵代碼:
@ApiOperation(value = "「實驗室」扣減會員余額")
@PutMapping("/{memberId}/balances/_deduct")
public Result deductBalance(@PathVariable Long memberId, @RequestParam Long amount) {
boolean result = memberService.update(new LambdaUpdateWrapper<UmsMember>()
.setSql("balance = balance - " + amount)
.eq(UmsMember::getId, memberId));
return Result.judge(result);
}
測試
以上就基于 youlai-mall 商城訂單支付的業(yè)務(wù)簡單實現(xiàn)的 Seata 實驗室倦炒,接下來通過測試來看看 Seata 分布式事務(wù)的能力。
未開啟事務(wù)
未開啟事務(wù)前提: 訂單狀態(tài)因為異常修改失敗软瞎,但這并未影響到商品庫存扣減和余額扣減成功的結(jié)果逢唤,明顯這不是希望的結(jié)果。
開啟事務(wù)
開啟事務(wù)前提:訂單狀態(tài)修改發(fā)生異常涤浇,同時也回滾了扣減庫存鳖藕、扣減余額的行為,可見 Seata 分布式事務(wù)生效只锭。
六. Seata 源碼
因為 Seata 源碼牽涉角色比較多著恩,需要在本地搭建 seata-server 然后和 Seata 客戶端交互調(diào)試,后面整理出來會單獨拿一篇文章進行進行具體分析蜻展。
七. 結(jié)語
本篇通過 Seata 1.5.2 版本部署到實戰(zhàn)講述了 Seata 分布式事務(wù)AT模式在商城訂單支付業(yè)務(wù)場景的應(yīng)用页滚,相信大家對 Seata 和有來實驗室有個初步的認知,但這里還只是一個開始铺呵,后續(xù)會有更多的熱門中間件登上實驗室舞臺裹驰。當然,可見這個舞臺很大片挂,所以也希望有興趣或者有想法同學(xué)加入有來實驗室的開發(fā)幻林。
附. 源碼
本文源碼已推送至gitee和github倉庫
gitee | github | |
---|---|---|
后端工程 | https://gitee.com/youlaitech/youlai-mall | https://github.com/youlaitech/youlai-mall |
前端工程 | https://gitee.com/youlaiorg/mall-admin | https://github.com/youlaitech/mall-admin |