1. 創(chuàng)新點
1.1. 內(nèi)容
利用CNN進行the complex temporal radio signal domain 的研究
1.2. 效果
相對于手動提取特征管引,CNN從原始數(shù)據(jù)中自動提取特征的性能好很多
2. 介紹
2.1. 機器學(xué)習(xí)的技術(shù)在CV和語音識別中運用廣泛且非常好
2.2. 傳統(tǒng)的無線電通信技術(shù)提取專家特征非常難以繼續(xù)突破
2.3. 利用機器學(xué)習(xí)實現(xiàn)無線電通信特征提取是一個很好的方法
3. 調(diào)制識別
3.1. Dynamic Spectrum Access (DSA)
避免自己的無線電影響或被其他的無線電所影響挫掏,導(dǎo)致無法接受目標(biāo)無線電信號
3.2. Modulation Recognition
是一個識別任務(wù)夺刑,這種識別任務(wù)基于帶有噪聲的接受信號缘揪,基于何種通信規(guī)范被使用枣购,及何種頻譜類型被使用,因為這三者可能會導(dǎo)致信號失真
3.4. Expert Cyclic-Moment Features
廣泛用于調(diào)制識別和分析決策樹,從而實現(xiàn)對調(diào)制類別進行分類
m階統(tǒng)計量
n階時變或延遲接受信號r(t)的功率
3.5. Convolutional Feature Learning
原始無線電時序信號r(t)以窗口形式輸入到卷積神經(jīng)網(wǎng)絡(luò)中
r(t)樣本以2xN矢量輸入到2D卷積神經(jīng)網(wǎng)絡(luò)中
正交和同步抽樣的IQ樣本可以組成2維信號數(shù)據(jù)
4. 數(shù)據(jù)
4.1. introduction
特點
在機器學(xué)習(xí)領(lǐng)域有點不合適
在無線電通信領(lǐng)域卻可以在某種時候等同于真實系統(tǒng)
方式
把真實語音和文本數(shù)據(jù)調(diào)制到信號中
再加入白噪聲
方法
利用GUN Radio 通道模式生成數(shù)據(jù)集
利用128樣本的矩形窗口再把數(shù)據(jù)集分割成一個測試集
結(jié)果
- 大約500MB的數(shù)據(jù)存儲在python pickle file 中
4.2. Dataset Availability
- benchmark in the field
4.3. Dataset Parameters
11種調(diào)制類型
8中數(shù)字調(diào)制:BPSK, QPSK, 8PSK, 16QAM, 64QAM, BFSK, CPFSK, and PAM4
3種模擬調(diào)制:WB-FM, AM-SSB, AM-DSB
- 調(diào)制類別
4.4. Dataset Plots
時域中可以看到不同調(diào)制類別的的相似性和不同點,但由于脈沖整流信號的原因畔师,無法被專家感知
頻域中科院看到這些信號的功率,從設(shè)計上可以看到信號具有相同的包絡(luò)牧牢,但也無法被專家感知
4.5. Modulated Information
4.6. Effects on the Modulated Signal
白噪聲:硬件的溫度
發(fā)射機與接收機導(dǎo)致碼元時域偏移看锉、采樣率偏移塔鳍,載波頻率偏移伯铣,相位偏差
多徑衰弱
4.7. Generating a dataset
實際中廣泛使用的離散二進制字母表(數(shù)字調(diào)制)和連續(xù)字母表(模擬調(diào)制)
把已知的數(shù)據(jù)調(diào)制到調(diào)制解調(diào)器中,并利用GNU Radio暴露在信道中
把時序信號利用窗技術(shù)分段存儲轮纫,從128采樣中獲得其中的64采樣數(shù)據(jù)
樣本信息包含
4.1. 調(diào)制數(shù)據(jù)bits
4.2. 如何被調(diào)制的
4.3. 信號在信道中傳播的影響
4.4. 有關(guān)發(fā)射機和接收機設(shè)備狀態(tài)和包含的隨機過程的信息
5. 技術(shù)方法
5.1. introduction
CNN會自動根據(jù)時序特征學(xué)習(xí)每一種調(diào)制信號的匹配濾波器
在低SNR下能有些匹配濾波器還能放大增益
5.2. Learning Invariance
- 很多無線電通信系統(tǒng)恢復(fù)的過程都被認(rèn)為是與線性疊加腔寡、旋轉(zhuǎn)、時移掌唾、放大縮小蹬蚁、卷積等不變性有關(guān)的
5.3. Evaluation Network
4層CNN,2個卷積層郑兴,2個全連接層
前3層使用ReLU激活函數(shù)犀斋,最后一層使用softmax激活函數(shù)
使用正則化防止過擬合
3.1. 卷積層使用L-2范數(shù)
3.2. 第一個全連接層使用h1范數(shù)
Dropout用于預(yù)防網(wǎng)絡(luò)單元的specialization
利用交叉熵作為損失函數(shù)
利用Adam作為優(yōu)化器,此優(yōu)化器是一個基于梯度下降法有效的迭代計算器
5.4. Training Complexity
- Software & Hardward
1.1. Keras with TensorFlow
1.2. NVIDIA CUDA enabled Titan X GPU
- Training
2.1. 數(shù)據(jù)個數(shù):900,000個
batch sizes:1024
epoches:24 epochs
單個耗時:22s
總耗時:大約9min
5.5. Learned Features
看看CNN到底學(xué)到了什么特征信息
第1個卷積層:主要看I&Q通道
第2個卷積層
6. 結(jié)果
6.1. 訓(xùn)練數(shù)據(jù)
12M復(fù)雜樣本中分為了11種調(diào)制類型
96,000樣本訓(xùn)練情连,64,000樣本測試和驗證(每個樣本的長度是128)
數(shù)據(jù)集的SNR的分布于-20dB~20dB
6.2. 訓(xùn)練結(jié)果
在測試集上大約獲得64.4%的正確率
8PSK被誤分類成QPSK, WBFM誤分類成AM-DSB
6.3. 分析
6.3.1. an 8PSK symbol containing the correct bits/symbols for a certain number of subsequent symbols is indiscernible from QPSK since the QPSK constellation points are spanned by that subset of 8PSK.
6.4. 對比
SNR分別取-10dB, 0dB, 10dB
模型:決策樹叽粹,3NN,SVM却舀,CNN
6.6. 結(jié)論
SNR = -10dB: 除了CNN能夠正確分類部分類別虫几,其他的基本上不行
SNR = 0dB: 除了CNN基本上可以對大多數(shù)類分類正確,其他的基本上停留在CNN為-10dB的水平
SNR = 10dB: CNN已經(jīng)在0dB時飽和了挽拔,正確率不再變化辆脸,其他的相對于自身在0dB時已經(jīng)好點了,但還是不如CNN
7. 模型復(fù)雜度
7.1. 訓(xùn)練時間
CNN訓(xùn)練需要大量數(shù)據(jù)螃诅,但相對于SVM模型啡氢,在矩陣求逆中花的時間更少
7.2. 分類效率
CNN在分類時比SVM好,比DTree和GaussianNB差點
7.3. 結(jié)論
CNN在整體來說是比其他的要好點