1.配置公鑰 刪除原來的公鑰進入.ssh文件夾,將文件夾中的所有內(nèi)容都刪除 git輸入你的用戶名和郵箱,配置相關(guān)信息 打開終端 輸入 輸入下面代碼,郵箱是你的郵箱,連續(xù)回車三...
![240](https://cdn2.jianshu.io/assets/default_avatar/3-9a2bcc21a5d89e21dafc73b39dc5f582.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
今天我再跑一個開源的項目,人家給我了一個環(huán)境列表,長下面這個樣子: 我想要把他變成下面這個樣子,然后放到虛擬機中去批量下載這些包: 詳情見代碼
一将宪、常用魔術(shù)方法 特點:不需要人工調(diào)用,在特定的時刻自動執(zhí)行. 1.__ init __ :初始化魔術(shù)方法(最重要) 觸發(fā)時機:實例化對象之后觸發(fā) 作用:為對象添加所屬成員 ...
導入繪圖庫 讀取數(shù)據(jù)(數(shù)據(jù)來源是一個EXCLE表格,這里演示的是如何將數(shù)據(jù)可視化出來) 1.折線圖 plt.plot(x,y,ls=,lw=,c=,marker=,marke...
1.中文命名實體識別 1.原始數(shù)據(jù)格式 2.讀取數(shù)據(jù) 將數(shù)據(jù)中的文本和對應的標簽,讀取成下面的one-hot格式 3.處理數(shù)據(jù)成為Bert的輸入格式 首先創(chuàng)建一個標簽的字典庫...
1.二頭注意機制 引入二頭這里二頭注意力機制,其實就是將前面的q,k,v進行細分,分成兩個,這樣關(guān)注的信息就被細化了.image.png將權(quán)重w拆分成wq,1,wq,2兩個權(quán)...
1.引入Slef-Attention的原因 在自然語言處理中杆查,使用RNN(這里指的的是LSTM)處理輸入輸出數(shù)據(jù)的時候勾怒,LSTM可以解決長文本依賴队寇,因為他可以依賴于前面的文本...
可解釋性法律判斷預測的迭代詢問與回答論文閱讀報告 摘要 本文創(chuàng)建一個名字叫做“QAjudge”模型咽扇,進行法律判決預測猾担,并且進行可視化益眉。QAjudge遵循兩個法律體系的基本原則...
因為在做實驗的時候,需要記錄數(shù)據(jù),為了方便記錄數(shù)據(jù),可以使用tensorboard在運行的過程中就將實驗結(jié)果記錄其中,以對比那次實驗的結(jié)果是最好的.tensorboard常用...
單機單卡訓練模式 單機多卡訓練模式 Single Machine Data Parallel(單機多卡模式)這個版本已經(jīng)淘汰image.png 首先會把所有數(shù)據(jù)分發(fā)到列表上的...
在做NLP任務的時候,需要分批加載數(shù)據(jù)集進行訓練,這個時候可以繼承pytorch.utils.data中的Dataset類,就可以進行分批加載數(shù)據(jù),并且可以將數(shù)據(jù)轉(zhuǎn)換成ten...
這是我在自己做實驗中總結(jié)的一些工具方法,對于我這種菜鳥來說,經(jīng)常不記得這些方法,可以拿出來使用使用.后續(xù)會持續(xù)更新. 1. 數(shù)據(jù)持久化成pkl格式\json格式,保存和獲取p...
使用word2vec+回歸模型完全成一個分類預測任務數(shù)據(jù)集 鏈接:https://pan.baidu.com/s/1d8IbyXcyo-uG65ZPdgkXzg[https:...
1.神經(jīng)網(wǎng)絡(luò)原理簡單理解 如圖所示這個神經(jīng)網(wǎng)絡(luò)分為: 輸入層其中的輸入層的每一個節(jié)點代表的是一個對象的其中的一個特征空繁,這個些特征可以用一個矩陣x表示,因為這是我們?nèi)祟惪吹亩?..
1.utils模塊 一般存放一些輔助函數(shù),其他包不能放的都可以放到這個包里面 2.trainer模塊 訓練模塊 3.model模塊 loss.py:損失函數(shù)metric.py...