建議大家可以配合跟著B站的跟李沐學(xué)AI雏节。但是datawhale 也是講的非常好的課程。 代碼演示部分:配合本章學(xué)習材料使用 第一部分:張量運算示例 這里將演示Tensor的一...
(1) 使用DSW安裝cpu 版的pytorch和pyg 在Pytorch 官網(wǎng); !pip 的方法安裝!pip install torch 安裝torch 在anacond...
動手學(xué)數(shù)據(jù)分析 TASK3 數(shù)據(jù)重構(gòu) 開始前跨嘉,導(dǎo)入numpy跳夭、pandas包和數(shù)據(jù) #導(dǎo)入基本庫 import numpy as np import pandas as pd...
【回顧&引言】前面一章的內(nèi)容大家可以感覺到我們主要是對基礎(chǔ)知識做一個梳理岸浑,讓大家了解數(shù)據(jù)分析的一些操作陷猫,主要做了數(shù)據(jù)的各個角度的觀察秫舌。那么在這里,我們主要是做數(shù)據(jù)分析的流程性...
1 第一章:數(shù)據(jù)加載: 任務(wù)一:導(dǎo)入python庫 import numpy as np import pandas as pd import os from matplot...
1.1 為什么選擇序列模型绣檬?(Why Sequence Models?) 在本課程中你將學(xué)會序列模型足陨,它是深度學(xué)習中最令人激動的內(nèi)容之一。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)之類的模型在語...
1 BertTokenizer(Tokenization分詞) 組成結(jié)構(gòu):BasicTokenizer和WordPieceTokenizer BasicTokenizer主要...
1 BertTokenizer(Tokenization分詞) 組成結(jié)構(gòu):BasicTokenizer和WordPieceTokenizer BasicTokenizer主要...
1 BERT 1.1 BERT前景 易用性:NLP社區(qū)提供強大的組件赋元,下載并方便的使用 突破:BERT模型打破了基于語言處理任務(wù)的幾個記錄 好處:組件化忘蟹,節(jié)省從零開始訓(xùn)練語言...
1.1 seq2seq模型[https://relph1119.github.io/my-team-learning/#/transformers_nlp28/task02?...
安裝環(huán)境,進入天池dsw: !pip install transformers==4.4.2 !pip install dataset==1.6.2 查看torch 版本 i...
動手學(xué)深度學(xué)習(pytorc版) https://github.com/ShusenTang/Dive-into-DL-PyTorch# 檢查 pytorch 版本 impo...
CNN架構(gòu)[https://datawhalechina.github.io/leeml-notes/#/chapter21/chapter21?id=cnn%e6%9e%b...
深度學(xué)習(Deep Learing)是機器學(xué)習的一個分支領(lǐng)域:它是從數(shù)據(jù)中學(xué)習表示的一種新方法搁凸,強調(diào)從連續(xù)的層中進行學(xué)習媚值,這些層對應(yīng)于越來越有意義的表示。 其實深度學(xué)習就是機...
從本章開始护糖,我們將探索深度學(xué)習的奧秘褥芒。作為機器學(xué)習的一類,深度學(xué)習通车樟迹基于神經(jīng)網(wǎng)絡(luò)模型逐級表示越來越抽象的概念或模式锰扶。我們先從線性回歸和 softmax 回歸這兩種單層神經(jīng)網(wǎng)...
(1)偏差 實際值與預(yù)估值的偏差。 (2)方差 一次模型的方差就比較小的寝受,也就是是比較集中坷牛,離散程度較小。而5次模型的方差就比較大很澄,同理散布比較廣京闰,離散程度較大。 所以用比較...
(1)第一個步驟就是找一個function甩苛,第二個步驟讓machine可以衡量一個function是好還是不好蹂楣,第三個步驟是讓machine有一個自動的方法,有一個好演算法可...
GNN 學(xué)習告一段落讯蒲,從: 基本的圖論知識痊土、常規(guī)的圖預(yù)測任務(wù)和PyG庫的安裝與使用: 在這一節(jié)里完成了圖論的基礎(chǔ)學(xué)習,使用pytorch 安裝PYG庫墨林,并基本會使用.: 搭建...