240 發(fā)簡(jiǎn)信
IP屬地:四川
  • 學(xué)習(xí)張量

    建議大家可以配合跟著B(niǎo)站的跟李沐學(xué)AI沈跨。但是datawhale 也是講的非常好的課程减途。 代碼演示部分:配合本章學(xué)習(xí)材料使用 第一部分:張量運(yùn)算示...

  • 安裝pytorch

    (1) 使用DSW安裝cpu 版的pytorch和pyg 在Pytorch 官網(wǎng); !pip 的方法安裝!pip install torch 安...

  • 數(shù)據(jù)重構(gòu)

    動(dòng)手學(xué)數(shù)據(jù)分析 TASK3 數(shù)據(jù)重構(gòu) 開(kāi)始前褐荷,導(dǎo)入numpy逸绎、pandas包和數(shù)據(jù) #導(dǎo)入基本庫(kù) import numpy as np impo...

  • 數(shù)據(jù)清洗

    【回顧&引言】前面一章的內(nèi)容大家可以感覺(jué)到我們主要是對(duì)基礎(chǔ)知識(shí)做一個(gè)梳理管宵,讓大家了解數(shù)據(jù)分析的一些操作懊悯,主要做了數(shù)據(jù)的各個(gè)角度的觀察炸渡。那么在這里...

  • Task01:數(shù)據(jù)加載及探索性數(shù)據(jù)分析(第一章第1,2,3節(jié))(2天)

    1 第一章:數(shù)據(jù)加載: 任務(wù)一:導(dǎo)入python庫(kù) import numpy as np import pandas as pd import ...

  • 第一周 循環(huán)序列模型(Recurrent Neural Networks)

    1.1 為什么選擇序列模型瓶逃?(Why Sequence Models?) 在本課程中你將學(xué)會(huì)序列模型束铭,它是深度學(xué)習(xí)中最令人激動(dòng)的內(nèi)容之一。循環(huán)神...

  • Task04?編寫(xiě)B(tài)ERT模型

    1 BertTokenizer(Tokenization分詞) 組成結(jié)構(gòu):BasicTokenizer和WordPieceTokenizer B...

  • Task04?編寫(xiě)B(tài)ERT模型

    1 BertTokenizer(Tokenization分詞) 組成結(jié)構(gòu):BasicTokenizer和WordPieceTokenizer B...

  • Task03?學(xué)習(xí)BERT和GPT

    1 BERT 1.1 BERT前景 易用性:NLP社區(qū)提供強(qiáng)大的組件厢绝,下載并方便的使用 突破:BERT模型打破了基于語(yǔ)言處理任務(wù)的幾個(gè)記錄 好處...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品