1捌肴、信息量 信息量是通過概率來定義的:如果一件事情的概率很低,那么它的信息量就很大捺檬;反之再层,如果一件事情的概率很高,它的信息量就很低堡纬。簡(jiǎn)而言之聂受,概率小的事件信息量大,因此信息量...
1捌肴、信息量 信息量是通過概率來定義的:如果一件事情的概率很低,那么它的信息量就很大捺檬;反之再层,如果一件事情的概率很高,它的信息量就很低堡纬。簡(jiǎn)而言之聂受,概率小的事件信息量大,因此信息量...
五分鐘倒數(shù)已經(jīng)可以計(jì)時(shí)了隐轩。 三步完成免費(fèi)個(gè)人博客搭建, 這是一篇小白也能看懂的文章渤早,本文主要針對(duì)mac OS 职车,Windows 除了軟件安裝方式和命令有些區(qū)別(裝了git b...
今天聽了《重塑幸福》 里面的幾句話值得細(xì)細(xì)品: 在都市里打拼的我們登下,只有改變我們的價(jià)值觀茫孔,才能克服焦慮叮喳,活成自己想要的模樣。 別奢望沒有問題的生活缰贝,那是根本沒有的事兒馍悟。幸福的...
在使用Matplotlib畫圖時(shí),我遇到了一個(gè)尷尬的情況剩晴,那就是當(dāng)x軸的標(biāo)簽名字很長(zhǎng)的時(shí)候锣咒,在繪制圖形時(shí),發(fā)生了x軸標(biāo)簽互相重疊的情況赞弥。本文主要通過一個(gè)簡(jiǎn)單的示例毅整,探索了以上...
本篇文章主要是解讀模型主體代碼modeling.py。在閱讀這篇文章之前希望讀者們對(duì)bert的相關(guān)理論有一定的了解绽左,尤其是transformer的結(jié)構(gòu)原理悼嫉,網(wǎng)上的資料很多,本...
以下為個(gè)人學(xué)習(xí)TextRNN的學(xué)習(xí)歷程(僅作為本人學(xué)習(xí)使用,如有侵權(quán)請(qǐng)私信) 未學(xué)習(xí)前的知識(shí)儲(chǔ)備 傳統(tǒng)機(jī)器學(xué)習(xí)的算法妇菱;使用過ML的算法進(jìn)行項(xiàng)目實(shí)戰(zhàn)承粤;對(duì)深度學(xué)習(xí)有一定的了解;用...