2021-01-12 IJCAI-20 Learning regional attention convolutional neural network for motion intentio...

Learning regional attention convolutional neural network for motion intention based on EEG

? 這篇論文創(chuàng)新點:

1、特征是頻域-空間-時域的特征,和以往特征相比,更加全面专甩。

2破停、 論文提出了RACNN, 適應性激活了不同腦區(qū)综膀。

3、 論文集合了區(qū)域特征琼了,這些區(qū)域特征通過cnn 這樣的主框架,保證了一個固定長度的embedding。然后受啟發(fā)于左右大腦的不對稱猜谚,使用了不同region attention loss,保證了最高attention 的區(qū)域是最重要的區(qū)域败砂。

Emotive:

這里邊選擇了九個通道作為運動想象通道,準確率其實沒有提高太多魏铅,最重要它通過這種方式是真的減少了通道數(shù)目昌犹。

充分利用了time-frequency的特征,但是使用filter-bank的想法并不是作者提出的览芳,是在FBCSP 中已經(jīng)提出來斜姥。

小波變換---離散小波變換---后來是可以改變的小波變換,也就是傅里葉變換---- 再后來是濾波bank的共同空間模式沧竟,但是這樣的算法铸敏,一般都使用了machine learning. 一般使用了矩陣分解,沒有使用神經(jīng)網(wǎng)絡悟泵。

這篇論文之所以能中頂會杈笔,主要是提出了創(chuàng)新性的attention, 在小數(shù)據(jù)模型中盡量減少參數(shù)糕非。

第一層 attention

是論文中用參數(shù)最少的attention蒙具,使用cnn中的golbal pooling average, 來完成。 然后使用了tanh函數(shù)變成一個權重朽肥。 tanh 函數(shù)禁筏,把權值把原有的差異性變大。


tan


第二層 attention

其中self-attention? 也不是作者的創(chuàng)新衡招,經(jīng)典的self-attention.以下才是attention

N* feature 加入attention =? ?feature* attention ,其中 attention = softmax( N*feature* Q). 篱昔,也就是文章中的 β。

softmax 也就是歸一化蚁吝,但是作者沒有使用簡單的attention * feature.?F = \sum\nolimits_{i= 1}^m β_i F_r^{(i)} 旱爆, 而是增加了一個最小的region-attention 的\lambda ,是所在區(qū)域中最小的注意力參數(shù)窘茁。也就是說這里邊除了有一個\beta 這樣的注意力之前怀伦,還增加了一個所在區(qū)的最小注意力的權重。 同時最后的featrue 又乘以所有權重和的導數(shù)山林。這個值是所有feature 都相乘的權重房待,有什么用?同樣倍數(shù)的增大驼抹,和同事乘以1000 是一樣的效果桑孩。

相乘倒數(shù)這件事,并沒有什么用框冀。能做大的可能是差異性流椒。最有用的還是 每個區(qū)的最小權重和學習出的權重相乘,對最后feature造成影響明也。

論文最后的attention_loss宣虾, 文章提到希望能找出最好區(qū)域惯裕,但是最后的公式

\zeta _a  = max\{  0, \delta -(a_{max}- a_{min})        \}, 很明顯绣硝,想找出最重要的通道蜻势。。鹉胖。握玛。


所以我在想,作者這筆是不是應該寫為:

\zeta _a  = max\{  0, \delta -(\beta _{max}- \beta _{min})        \}, 這樣才能找到權重不一樣的區(qū)域甫菠。

我的想法:

在消融實驗中挠铲,第一個結果是 74.6%,沒有使用attention loss, 第二個使用了attention loss,但是結果是70.1. 這是證明了結論了么淑蔚?

第三個實驗市殷, 使用了log baseline 和 第二個參數(shù)下的結果,76.8.? 為什么不跑沒有attention + log baseline的結果呢刹衫? 這里的結論有點虛啊醋寝。

感覺不是很好地證明了attention loss的重要性,而且我自己跑的結果也發(fā)現(xiàn)带迟,attention 加入后音羞,一般效果會更差一些。

實驗有沒有可以提高的部分

1仓犬、因為這篇論文跑的是運動想象嗅绰,結果都不是太好,另外一個數(shù)據(jù)集準確率在37.9%搀继,有點太低了窘面。

2、最后average pool + tanh 真的可以作為每個channel的權重么叽躯? 特別是枕葉區(qū)财边,作為視覺腦電通道,它的頻率高点骑,agerage 肯定值可能會比較大酣难,最后的權重也大么?? 不科學昂诘巍憨募!

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市袁辈,隨后出現(xiàn)的幾起案子菜谣,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,539評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件葛菇,死亡現(xiàn)場離奇詭異甘磨,居然都是意外死亡,警方通過查閱死者的電腦和手機眯停,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,594評論 3 396
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來卿泽,“玉大人莺债,你說我怎么就攤上這事∏┴玻” “怎么了齐邦?”我有些...
    開封第一講書人閱讀 165,871評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長第租。 經(jīng)常有香客問我措拇,道長,這世上最難降的妖魔是什么慎宾? 我笑而不...
    開封第一講書人閱讀 58,963評論 1 295
  • 正文 為了忘掉前任丐吓,我火速辦了婚禮,結果婚禮上趟据,老公的妹妹穿的比我還像新娘券犁。我一直安慰自己,他們只是感情好汹碱,可當我...
    茶點故事閱讀 67,984評論 6 393
  • 文/花漫 我一把揭開白布粘衬。 她就那樣靜靜地躺著,像睡著了一般咳促。 火紅的嫁衣襯著肌膚如雪稚新。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,763評論 1 307
  • 那天跪腹,我揣著相機與錄音褂删,去河邊找鬼。 笑死尺迂,一個胖子當著我的面吹牛笤妙,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播噪裕,決...
    沈念sama閱讀 40,468評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼蹲盘,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了膳音?” 一聲冷哼從身側響起召衔,我...
    開封第一講書人閱讀 39,357評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎祭陷,沒想到半個月后苍凛,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體趣席,經(jīng)...
    沈念sama閱讀 45,850評論 1 317
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,002評論 3 338
  • 正文 我和宋清朗相戀三年醇蝴,在試婚紗的時候發(fā)現(xiàn)自己被綠了宣肚。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,144評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡悠栓,死狀恐怖霉涨,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情惭适,我是刑警寧澤笙瑟,帶...
    沈念sama閱讀 35,823評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站癞志,受9級特大地震影響往枷,放射性物質發(fā)生泄漏。R本人自食惡果不足惜凄杯,卻給世界環(huán)境...
    茶點故事閱讀 41,483評論 3 331
  • 文/蒙蒙 一错洁、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧盾舌,春花似錦墓臭、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,026評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至膝舅,卻和暖如春嗡载,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背仍稀。 一陣腳步聲響...
    開封第一講書人閱讀 33,150評論 1 272
  • 我被黑心中介騙來泰國打工洼滚, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人技潘。 一個月前我還...
    沈念sama閱讀 48,415評論 3 373
  • 正文 我出身青樓遥巴,卻偏偏與公主長得像,于是被迫代替她去往敵國和親享幽。 傳聞我的和親對象是個殘疾皇子铲掐,可洞房花燭夜當晚...
    茶點故事閱讀 45,092評論 2 355

推薦閱讀更多精彩內(nèi)容