tensorflow--tensor 變換

來(lái)源:tensorflow學(xué)習(xí)筆記(二):tensor 變換
矩陣操作

#所有的reduce_...瞒渠,如果不加axis的話(huà)伍玖,都是對(duì)整個(gè)矩陣進(jìn)行運(yùn)算
tf.reduce_sum(a, 1) #對(duì)axis1
tf.reduce_mean(a,0) #每列均值

第二個(gè)參數(shù)是axis窍箍,如果為0的話(huà)椰棘,res[i]=∑ja[j,i]即(res[i]=∑a[:,i])邪狞, 如果是1的話(huà)帆卓,res[i]=∑ja[i,j] NOTE:返回的都是行向量,(axis等于幾剑令,就是對(duì)那維操作,i.e.:沿著那維操作)

#關(guān)于concat,可以用來(lái)進(jìn)行降維 3D->2D , 2D->1D
tf.concat(concat_dim, data)
#arr = np.zeros([2,3,4,5,6])
In [6]: arr2.shape
Out[6]: (2, 3, 4, 5)
In [7]: np.concatenate(arr2, 0).shape
Out[7]: (6, 4, 5)   :(2*3, 4, 5)
In [9]: np.concatenate(arr2, 1).shape
Out[9]: (3, 8, 5)   :(3, 2*4, 5)
#tf.concat()
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
# 將t1, t2進(jìn)行concat悔橄,axis為0腺毫,等價(jià)于將shape=[2, 2, 3]的Tensor concat成
#shape=[4, 3]的tensor癣疟。在新生成的Tensor中tensor[:2,:]代表之前的t1
#tensor[2:,:]是之前的t2
tf.concat(0, [t1, t2]) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]

# 將t1, t2進(jìn)行concat潮酒,axis為1睛挚,等價(jià)于將shape=[2, 2, 3]的Tensor concat成
#shape=[2, 6]的tensor急黎。在新生成的Tensor中tensor[:,:3]代表之前的t1
#tensor[:,3:]是之前的t2
tf.concat(1, [t1, t2]) ==> [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12]]

concat是將list中的向量給連接起來(lái)扎狱,axis表示將那維的數(shù)據(jù)連接起來(lái),而其他維的結(jié)構(gòu)保持不變

#squeeze 降維 維度為1的降掉
tf.squeeze(arr, [])
降維淤击, 將維度為1 的降掉
arr = tf.Variable(tf.truncated_normal([3,4,1,6,1], stddev=0.1))
arr2 = tf.squeeze(arr, [2,4])
arr3 = tf.squeeze(arr) #降掉所以是1的維

#split
tf.split(split_dim, num_split, value, name='split')
# 'value' is a tensor with shape [5, 30]
# Split 'value' into 3 tensors along dimension 1
split0, split1, split2 = tf.split(1, 3, value)
tf.shape(split0) ==> [5, 10]

#embedding
mat = np.array([1,2,3,4,5,6,7,8,9]).reshape((3,-1))
ids = [[1,2], [0,1]]
res = tf.nn.embedding_lookup(mat, ids)
res.eval()
array([[[4, 5, 6],
        [7, 8, 9]],

       [[1, 2, 3],
        [4, 5, 6]]])

#擴(kuò)展維度匠抗,如果想用廣播特性的話(huà),經(jīng)常會(huì)用到這個(gè)函數(shù)
# 't' is a tensor of shape [2]
#一次擴(kuò)展一維
shape(tf.expand_dims(t, 0)) ==> [1, 2]
shape(tf.expand_dims(t, 1)) ==> [2, 1]
shape(tf.expand_dims(t, -1)) ==> [2, 1]
# 't2' is a tensor of shape [2, 3, 5]
shape(tf.expand_dims(t2, 0)) ==> [1, 2, 3, 5]
shape(tf.expand_dims(t2, 2)) ==> [2, 3, 1, 5]
shape(tf.expand_dims(t2, 3)) ==> [2, 3, 5, 1]

tf.slice()

tf.slice(input_, begin, size, name=None)

先看例子

import tensorflow as tf
import numpy as np
sess = tf.InteractiveSession()
a = np.array([[1,2,3,4,5],[4,5,6,7,8],[9,10,11,12,13]])
tf.slice(a,[1,2],[-1,2]).eval()

#array([[ 6,  7],
#       [11, 12]])

理解tf.slice()最好是從返回值上去理解汞贸,現(xiàn)在假設(shè)input的shape是[a1, a2,a3], begin的值是[b1, b2, b3],size的值是[s1, s2, s3],那么tf.slice()返回的值就是 input[b1:b1+s1, b2:b2+s2, b3:b3+s3]矢腻。 如果 si=?1,那么 返回值就是 input[b1:b1+s1,..., bi: ,...]

注意:input[1:2] 取不到input[2]
tf.stack()
tf.stack(values, axis=0, name=’stack’)
將 a list of R 維的Tensor堆成 R+1維的Tensor楣责。 Given a list of length N of tensors of shape (A, B, C); if axis == 0 then the output tensor will have the shape (N, A, B, C)這時(shí) res[i,:,:,:] 就是原 list中的第 i 個(gè) tensor. if axis == 1 then the output tensor will have the shape (A, N, B, C).這時(shí) res[:,i,:,:] 就是原list中的第 i 個(gè) tensor

Etc.

# 'x' is [1, 4]
# 'y' is [2, 5]
# 'z' is [3, 6]
stack([x, y, z]) => [[1, 4], [2, 5], [3, 6]]  # Pack along first dim.
stack([x, y, z], axis=1) => [[1, 2, 3], [4, 5, 6]]

tf.gather()

tf.gather(params, indices, validate_indices=None, name=None)

indices must be an integer tensor of any dimension (usually 0-D or 1-D). Produces an output tensor with shape indices.shape + params.shape[1:]

# Scalar indices, 會(huì)降維
output[:, ..., :] = params[indices, :, ... :]

# Vector indices
output[i, :, ..., :] = params[indices[i], :, ... :]

# Higher rank indices,會(huì)升維
output[i, ..., j, :, ... :] = params[indices[i, ..., j], :, ..., :]
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末逐纬,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子豁生,更是在濱河造成了極大的恐慌兔毒,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,544評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件甸箱,死亡現(xiàn)場(chǎng)離奇詭異育叁,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)芍殖,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,430評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門(mén)豪嗽,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人豌骏,你說(shuō)我怎么就攤上這事龟梦。” “怎么了窃躲?”我有些...
    開(kāi)封第一講書(shū)人閱讀 162,764評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵计贰,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我蒂窒,道長(zhǎng)躁倒,這世上最難降的妖魔是什么荞怒? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,193評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮秧秉,結(jié)果婚禮上褐桌,老公的妹妹穿的比我還像新娘。我一直安慰自己象迎,他們只是感情好撩嚼,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,216評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著挖帘,像睡著了一般完丽。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上拇舀,一...
    開(kāi)封第一講書(shū)人閱讀 51,182評(píng)論 1 299
  • 那天逻族,我揣著相機(jī)與錄音,去河邊找鬼骄崩。 笑死聘鳞,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的要拂。 我是一名探鬼主播抠璃,決...
    沈念sama閱讀 40,063評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼脱惰!你這毒婦竟也來(lái)了搏嗡?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 38,917評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤拉一,失蹤者是張志新(化名)和其女友劉穎采盒,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體蔚润,經(jīng)...
    沈念sama閱讀 45,329評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡磅氨,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,543評(píng)論 2 332
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了嫡纠。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片烦租。...
    茶點(diǎn)故事閱讀 39,722評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖除盏,靈堂內(nèi)的尸體忽然破棺而出叉橱,到底是詐尸還是另有隱情,我是刑警寧澤痴颊,帶...
    沈念sama閱讀 35,425評(píng)論 5 343
  • 正文 年R本政府宣布赏迟,位于F島的核電站,受9級(jí)特大地震影響蠢棱,放射性物質(zhì)發(fā)生泄漏锌杀。R本人自食惡果不足惜甩栈,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,019評(píng)論 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望糕再。 院中可真熱鬧量没,春花似錦、人聲如沸突想。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,671評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)猾担。三九已至袭灯,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間绑嘹,已是汗流浹背稽荧。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,825評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留工腋,地道東北人姨丈。 一個(gè)月前我還...
    沈念sama閱讀 47,729評(píng)論 2 368
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像擅腰,于是被迫代替她去往敵國(guó)和親蟋恬。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,614評(píng)論 2 353

推薦閱讀更多精彩內(nèi)容

  • TF API數(shù)學(xué)計(jì)算tf...... :math(1)剛開(kāi)始先給一個(gè)運(yùn)行實(shí)例趁冈。tf是基于圖(Graph)的計(jì)算系統(tǒng)...
    MachineLP閱讀 3,461評(píng)論 0 1
  • 1. tf函數(shù) tensorflow 封裝的工具類(lèi)函數(shù) | 操作組 | 操作 ||:-------------| ...
    南墻已破閱讀 5,114評(píng)論 0 5
  • 女兒在這次月考的閱讀中失分很多歼争,問(wèn),原來(lái)是選了一篇豐子愷的文章箱歧,女兒說(shuō)讀不懂矾飞,導(dǎo)致題目答偏了。豐子愷的散文記得是在...
    莜薇閱讀 550評(píng)論 0 2
  • 其實(shí)很多時(shí)候我們不是想要做某一件事 而是被生活所逼 我們以為一直努力就可以得到那些我們所想要的 其實(shí)不然 ...
    小花姐姐的ID閱讀 80評(píng)論 0 1
  • 數(shù)據(jù)采集簡(jiǎn)介采集數(shù)據(jù)需要任一文本編輯器創(chuàng)建一個(gè)有效的輸入文件呀邢。然后,你通過(guò)MS-DOS提示符鍵入一行命令并提供輸入...
    橡果閱讀 544評(píng)論 0 0