![240](https://cdn2.jianshu.io/assets/default_avatar/2-9636b13945b9ccf345bc98d0d81074eb.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
摘要:在深度學(xué)習(xí)之前已經(jīng)有很多生成模型碾阁,但苦于生成模型難以描述難以建模,科研人員遇到了很多挑戰(zhàn)些楣,而深度學(xué)習(xí)的出現(xiàn)幫助他們解決了不少問題瓷蛙。本章介紹基于深度學(xué)習(xí)思想的生成模型——...
[::-1]順序相反操作 例如: a=[1,2,3,4,5,6] b=a[::-1] [6,5,4,3,2,1] b=a[4::-1] [5,4,3,2,1]
NLP中大火的Transformer和GAT本質(zhì)在做一樣的事情。Transformer利用self-attention機(jī)制將輸入中的每個(gè)單詞用其上下文的加權(quán)來表示戈毒,而GAT則...
分享日常學(xué)習(xí)中總結(jié)的學(xué)習(xí)筆記泞当,歡迎大家一起學(xué)習(xí)交流并指正迹蛤,尋找學(xué)習(xí)路上的搭檔!=笫俊盗飒! 我們先說一下DataFrame是什么: 1、DataFrame是一種數(shù)據(jù)框結(jié)構(gòu),相當(dāng)于是一...