前言 首先在Shell中礼饱,括號表示條件測試方法崇呵。主要用在if-then瘟裸、case等需要條件判斷的語句結(jié)構(gòu)中镊掖。 最近在看bash,括號搞的我一頭霧水屡立,所以總結(jié)一下直晨,理清思路! ...
![240](https://cdn2.jianshu.io/assets/default_avatar/7-0993d41a595d6ab6ef17b19496eb2f21.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
前言 首先在Shell中礼饱,括號表示條件測試方法崇呵。主要用在if-then瘟裸、case等需要條件判斷的語句結(jié)構(gòu)中镊掖。 最近在看bash,括號搞的我一頭霧水屡立,所以總結(jié)一下直晨,理清思路! ...
1.RNA ??RNA提出的時間要比RNN-T晚膨俐,但是實(shí)際上是介于CTC和RNN-T之間的一種結(jié)構(gòu)勇皇,在CTC中,有一個假設(shè)是輸出之間相互獨(dú)立的焚刺,但是這種假設(shè)其實(shí)不是很好敛摘,因?yàn)?..
@Johann_Liang 我又看了下bert代碼,bert雖然會將一個句子重復(fù)10遍乳愉,但每次隨機(jī)選取的隨機(jī)種子是相同的兄淫,所以10遍都是一樣的
改進(jìn)版的RoBERTa到底改進(jìn)了什么屯远?在XLNet全面超越Bert后沒多久,F(xiàn)acebook提出了RoBERTa(a Robustly Optimized BERT Pretraining Approach)捕虽。再...
在示例中慨丐,引入π這個隱變量是不是有點(diǎn)多此一舉,利用不同概率分布計算一個樣本的概率密度值后泄私,直接標(biāo)準(zhǔn)化不就知道該樣本屬于不同分布的概率是多大嗎房揭?
機(jī)器學(xué)習(xí)筆記 - 19. EM算法(講師:鄒博)前言 EM算法,在學(xué)術(shù)界的重視程度晌端,要高于在工業(yè)界捅暴。它是一個做數(shù)據(jù)優(yōu)化的方法。比如現(xiàn)在如果遇到問題咧纠,如果想對問題做優(yōu)化伶唯,大家或許只會用最大似然估計(MLE)寫目標(biāo)函數(shù),當(dāng)然也...
前言 EM算法惧盹,在學(xué)術(shù)界的重視程度,要高于在工業(yè)界瞪讼。它是一個做數(shù)據(jù)優(yōu)化的方法钧椰。比如現(xiàn)在如果遇到問題,如果想對問題做優(yōu)化符欠,大家或許只會用最大似然估計(MLE)寫目標(biāo)函數(shù)嫡霞,當(dāng)然也...
有時候,我們用Git的時候有可能commit提交代碼后希柿,發(fā)現(xiàn)這一次commit的內(nèi)容是有錯誤的诊沪,那么有兩種處理方法:1、修改錯誤內(nèi)容曾撤,再次commit一次 2端姚、使用git r...
博主磷杏,你好,我看了一下bert產(chǎn)生數(shù)據(jù)的源碼捏卓?每次重復(fù)mask位置都是隨機(jī)抽取的极祸?為什么說bert是static mask了?
改進(jìn)版的RoBERTa到底改進(jìn)了什么怠晴?在XLNet全面超越Bert后沒多久遥金,F(xiàn)acebook提出了RoBERTa(a Robustly Optimized BERT Pretraining Approach)。再...
[線上環(huán)境部署Django稿械,nginx+uwsgi 和nginx+gunicorn,這兩種方案冲粤,應(yīng)該如何選擇美莫?] 大家是采用的何種部署方式? 第一種,高并發(fā)穩(wěn)定一點(diǎn) 我們公司...
堆就是用數(shù)組實(shí)現(xiàn)的二叉樹梯捕,所以它沒有使用父指針或者子指針厢呵。堆根據(jù)“堆屬性”來排序,“堆屬性”決定了樹中節(jié)點(diǎn)的位置傀顾。 堆的常用方法: 構(gòu)建優(yōu)先隊列 支持堆排序 快速找出一個集合...
對于java起手的程序猿,python的計算多維度數(shù)組的方式真的是有點(diǎn)蛋疼短曾。最近看代碼的時候需要弄明白tf.slice()的具體操作方法寒砖。去看了看官方的注釋和例子還是一頭霧水...
簡單來說,make 是編譯嫉拐,make install 是安裝哩都。 總結(jié):linux編譯安裝中configure、make和make install各自的作用 ./configu...
【續(xù)】--Tensorflow踩坑記之tf.metrics 欠下的帳總歸還是要還的婉徘,之前一直拖著茅逮,總是懶得寫tf.metrics這個API的一些用法,今天總算是克服了懶癌判哥,總...
博主献雅,你好,請問你用序列標(biāo)注判斷一個字是否出錯塌计,模型效果如何挺身?召回率和準(zhǔn)確率是多高?
拼音型簡單錯誤語料獲取與處理在自然語言處理領(lǐng)域中锌仅,語料是非常關(guān)鍵的一個部分章钾。然而墙贱,中文的自然語言處理領(lǐng)域在大的通用型語料上雖然不少,但在特定方向上的語料仍然匱乏贱傀。在要進(jìn)行拼音型文本糾錯任務(wù)過程中惨撇,我發(fā)現(xiàn)...
最近在登錄github網(wǎng)站的時候,發(fā)現(xiàn)很多時候圖片沒法加載或者加載速度很慢府寒,以為是掛代理的原因魁衙,后來驗(yàn)證了一下并不是。如下圖中圖片沒有正常加載: 解決辦法: 為了提高速度株搔,可...
博主剖淀,請問你在文中提到的散串是什么意思?能夠舉一個具體例子嗎
中文語音識別后檢錯糾錯(二):LSTM句子檢錯糾錯在構(gòu)建了基于n-gram的糾錯檢錯模型之后纤房,我們自然不能放過如今大紅大紫的神經(jīng)網(wǎng)絡(luò)纵隔,鑒于神經(jīng)網(wǎng)絡(luò)的靈活性和訓(xùn)練的耗時性,我們在方法嘗試和模型訓(xùn)練上花了很多時間炮姨,期間走過不少彎...