TensorFlow Js

tensorFlow.js出現(xiàn)于2018年,2019年發(fā)布第一個(gè)穩(wěn)定版本 1.0版本和悦,2020年5月發(fā)布2.0版本,2021年發(fā)布3.0版本

張量和操作

1. 張量(tensor)

tensorFlow.js中數(shù)據(jù)的中央單元為tf.tensor:一組形狀為一維或多維數(shù)組的值渠缕。tf.tensor與多維數(shù)組非常相似鸽素。tf.tensor包含一下屬性

  • rank:定義張量包含的維度
  • shape:定義數(shù)據(jù)每個(gè)維度的大小
  • dtype:定義張量的數(shù)據(jù)類型(默認(rèn)為float32,還有bool亦鳞,int32,complex64和字符串?dāng)?shù)據(jù)類型)
使用tf.tensor()方法從數(shù)組創(chuàng)建tf.tensor
// Create a rank-2 tensor (matrix) matrix tensor from a multidimensional array.
const a = tf.tensor([[1, 2], [3, 4]]);
console.log('shape:', a.shape);
a.print();

// Or you can create a tensor from a flat array and specify a shape.
const shape = [2, 2];
const b = tf.tensor([1, 2, 3, 4], shape);
console.log('shape:', b.shape);
b.print();

const a = tf.tensor([[1, 2], [3, 4]], [2, 2], 'int32');
console.log('shape:', a.shape);
console.log('dtype', a.dtype);
a.print();

更改張量的形狀

tf.Tensor 中元素的數(shù)量是其形狀大小的乘積馍忽。由于通常可以有多個(gè)具有相同大小的形狀燕差,因此將 tf.Tensor 重塑為具有相同大小的其他形狀通常非常實(shí)用遭笋。這可以通過(guò) reshape() 方法實(shí)現(xiàn):

const a = tf.tensor([[1, 2], [3, 4]]);
console.log('a shape:', a.shape);
a.print();

const b = a.reshape([4, 1]);
console.log('b shape:', b.shape);
b.print();

從張量中獲取值

可以使用 Tensor.array() 或 Tensor.data() 方法從 tf.Tensor 中獲取值:

 const a = tf.tensor([[1, 2], [3, 4]]);
 // Returns the multi dimensional array of values.
 a.array().then(array => console.log(array));
 // Returns the flattened data that backs the tensor.
 a.data().then(data => console.log(data));

同步獲取

const a = tf.tensor([[1, 2], [3, 4]]);
// Returns the multi dimensional array of values.
console.log(a.arraySync());
// Returns the flattened data that backs the tensor.
console.log(a.dataSync());

2. 運(yùn)算

張量可用于存儲(chǔ)數(shù)據(jù),而運(yùn)算則可以用于操作改數(shù)據(jù)徒探。TensorFlow.js 還提供了可對(duì)張量執(zhí)行的適用于線性代數(shù)和機(jī)器學(xué)習(xí)的多種運(yùn)算

對(duì) tf.Tensor 中的所有元素執(zhí)行 x2 計(jì)算:

const x = tf.tensor([1, 2, 3, 4]);
const y = x.square();  // equivalent to tf.square(x)
y.print();

對(duì)兩個(gè) tf.Tensor 的元素執(zhí)行逐元素相加:

const a = tf.tensor([1, 2, 3, 4]);
const b = tf.tensor([10, 20, 30, 40]);
const y = a.add(b);  // equivalent to tf.add(a, b)
y.print();

由于張量是不可變的瓦呼,因此這些運(yùn)算不會(huì)改變其值。相反测暗,return 運(yùn)算總會(huì)返回新的 tf.Tensor央串。

運(yùn)算方法

  • tf.add() (加法)
  • tf.sub() (減法)
  • tf.mul() (乘法)
  • tf.div() (除法)

3. 內(nèi)存

使用WebGL后端時(shí),必須顯示管理tf.Tensor內(nèi)存(即使 tf.Tensor 超出范圍也不足以釋放其內(nèi)存)碗啄。

要銷毀 tf.Tensor 的內(nèi)存蹋辅,您可以使用 dispose() 方法或 tf.dispose():

const a = tf.tensor([[1, 2], [3, 4]]);
a.dispose(); // Equivalent to tf.dispose(a)

模型

模型和層

在機(jī)器學(xué)習(xí)中,模型是一個(gè)帶有可學(xué)習(xí)參數(shù)的函數(shù)挫掏,可將輸入映射至輸出。通過(guò)在數(shù)據(jù)上訓(xùn)練模型獲得最佳參數(shù)秩命。訓(xùn)練好的模型可以提供從輸入到所需輸出的準(zhǔn)確映射尉共。

可以通過(guò)兩種方式創(chuàng)建機(jī)器學(xué)習(xí)模型:

  1. 使用Layers API(使用層構(gòu)建模型)
  2. 使用Core API(借助低級(jí)運(yùn)算,例如tf.matMul()弃锐、tf.add()等)

1袄友、使用Layers API創(chuàng)建模型

Layers API模型分為:序貫?zāi)P秃秃瘮?shù)模式

序貫?zāi)P?/h5>

最常見(jiàn)的模型是 <a data-md-type="link">Sequential</a> 模型,序貫?zāi)P褪菍拥木€性堆疊霹菊。您可以通過(guò)將層列表傳遞到 <a data-md-type="link">sequential()</a> 函數(shù)來(lái)創(chuàng)建 Sequential 模型:

訓(xùn)練模型

在TensorFlow.js 中剧蚣,可以通過(guò)兩種方式訓(xùn)練機(jī)器學(xué)習(xí)模型:

  1. 使用 Layers API 與 <a data-md-type="link">LayersModel.fit()</a> 或 <a data-md-type="link">LayersModel.fitDataset()</a>支竹。
  2. 使用 Core API 與 <a data-md-type="link">Optimizer.minimize()</a>。

簡(jiǎn)介

機(jī)器學(xué)習(xí)模型是一種具有可學(xué)習(xí)參數(shù)的函數(shù)鸠按,可將輸入映射到所需輸出礼搁。基于數(shù)據(jù)訓(xùn)練模型可以獲得最佳參數(shù)目尖。

訓(xùn)練模型涉及到的步驟:

  • 獲取一批次數(shù)據(jù)來(lái)訓(xùn)練模型
  • 讓模型做出預(yù)測(cè)
  • 將該預(yù)測(cè)與真實(shí)值進(jìn)行對(duì)比
  • 確定每個(gè)參數(shù)的更改幅度馒吴,使模型在未來(lái)能夠針對(duì)改批次數(shù)據(jù)做出更好的預(yù)測(cè)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市瑟曲,隨后出現(xiàn)的幾起案子饮戳,更是在濱河造成了極大的恐慌,老刑警劉巖洞拨,帶你破解...
    沈念sama閱讀 218,036評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件扯罐,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡烦衣,警方通過(guò)查閱死者的電腦和手機(jī)歹河,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,046評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)琉挖,“玉大人启泣,你說(shuō)我怎么就攤上這事∈颈玻” “怎么了寥茫?”我有些...
    開(kāi)封第一講書人閱讀 164,411評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)矾麻。 經(jīng)常有香客問(wèn)我纱耻,道長(zhǎng),這世上最難降的妖魔是什么险耀? 我笑而不...
    開(kāi)封第一講書人閱讀 58,622評(píng)論 1 293
  • 正文 為了忘掉前任弄喘,我火速辦了婚禮,結(jié)果婚禮上甩牺,老公的妹妹穿的比我還像新娘蘑志。我一直安慰自己,他們只是感情好贬派,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,661評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布急但。 她就那樣靜靜地躺著,像睡著了一般搞乏。 火紅的嫁衣襯著肌膚如雪波桩。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書人閱讀 51,521評(píng)論 1 304
  • 那天请敦,我揣著相機(jī)與錄音镐躲,去河邊找鬼储玫。 笑死,一個(gè)胖子當(dāng)著我的面吹牛萤皂,可吹牛的內(nèi)容都是我干的撒穷。 我是一名探鬼主播,決...
    沈念sama閱讀 40,288評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼敌蚜,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼桥滨!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起弛车,我...
    開(kāi)封第一講書人閱讀 39,200評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤齐媒,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后纷跛,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體喻括,經(jīng)...
    沈念sama閱讀 45,644評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,837評(píng)論 3 336
  • 正文 我和宋清朗相戀三年贫奠,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了唬血。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,953評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡唤崭,死狀恐怖拷恨,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情谢肾,我是刑警寧澤腕侄,帶...
    沈念sama閱讀 35,673評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站芦疏,受9級(jí)特大地震影響冕杠,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜酸茴,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,281評(píng)論 3 329
  • 文/蒙蒙 一分预、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧薪捍,春花似錦笼痹、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 31,889評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至昆稿,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間息拜,已是汗流浹背溉潭。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 33,011評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工净响, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人喳瓣。 一個(gè)月前我還...
    沈念sama閱讀 48,119評(píng)論 3 370
  • 正文 我出身青樓馋贤,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親畏陕。 傳聞我的和親對(duì)象是個(gè)殘疾皇子配乓,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,901評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容