TensorFlow常用函數(shù)

tf.placeholder

placeholder,占位符佳励,在tensorflow中類似于函數(shù)參數(shù)季研,運行時必須傳入值。

tf.placeholder(dtype, shape=None, name=None)

  • dtype:數(shù)據(jù)類型狮惜。常用的是tf.int32高诺,tf.float32,tf.float64碾篡,tf.string等數(shù)據(jù)類型
  • shape:數(shù)據(jù)形狀虱而。默認是None,也就是一維值开泽。也可以表示多維比如要表示2行3列則應設為[2, 3]牡拇,形如[None, 3]表示列是3,行不定眼姐。
  • name:名稱诅迷。
    例:

tf.placeholder(tf.float32, shape=(None, 1024))
1024是指的數(shù)據(jù)的尺寸,None指的batch size的大小众旗,所以可以是任何數(shù)。

tf.device

tf.device(device_name_or_function)

TensorFlow 支持 CPU 和 GPU 這兩種設備,它們均用 strings 表示,例如:

  • "/cpu:0":機器的 CPU
  • "/device:GPU:0":機器的 GPU(如果有一個)
  • "/device:GPU:1":機器的第二個 GPU(以此類推)

tf.Variable與tf.get_variable()

創(chuàng)建變量

tf.Variable(initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None, variable_def=None, dtype=None, expected_shape=None, import_scope=None)

tf.get_variable(name, shape=None, dtype=None, initializer=None, regularizer=None, trainable=True, collections=None, caching_device=None, partitioner=None, validate_shape=True, custom_getter=None)

initializer:創(chuàng)建變量的初始化器趟畏。如果初始化器為 None(默認)贡歧,則將使用在變量范圍內(nèi)傳遞的默認初始化器(如果另一個也是 None,那么一個 glorot_uniform_initializer (也稱之為Xavier uniform initializer)將被使用)赋秀。glorot_uniform_initializer函數(shù)從均勻分布初始化值.

兩者區(qū)別:使用tf.Variable時利朵,如果檢測到命名沖突,系統(tǒng)會自己處理猎莲。使用tf.get_variable()時绍弟,系統(tǒng)不會處理沖突,而會報錯著洼。
基于此樟遣,當我們需要共享變量的時候,需要使用tf.get_variable()

tf.variable_scope和tf.name_scope

tf.variable_scope可以讓變量有相同的命名身笤,包括tf.get_variable得到的變量豹悬,還有tf.Variable的變量
tf.name_scope可以讓變量有相同的命名,只是限于tf.Variable的變量

tf.nn.embedding_lookup

tf.nn.embedding_lookup(params, ids, partition_strategy="mod", name=None, validate_indices=True, max_norm=None)

tf.nn.embedding_lookup()就是根據(jù)input_ids中的id液荸,尋找embeddings中的第id行瞻佛。比如input_ids=[1,3,5],則找出embeddings中第1娇钱,3伤柄,5行,組成一個tensor返回文搂。

tf.layers.conv1d

tf.layers.conv1d(inputs, filters, kernel_size, strides=1, padding='valid', data_format='channels_last', dilation_rate=1, activation=None, use_bias=True, kernel_initializer=None, bias_initializer=init_ops.zeros_initializer(), kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None, trainable=True, name=None, reuse=None)

conv1d:一維卷積層(即時域卷積)适刀,所謂的一維卷積可以看作是二維卷積(conv2d)的簡化,二維卷積是將一個特征圖在width和height兩個方向上進行滑窗操作细疚,對應位置進行相乘并求和蔗彤;而一維卷積則是只在width或者說height方向上進行滑窗并相乘求和川梅。

tf.reduce_max和tf.reduce_mean

tf.reduce_max(input_tensor, axis=None, keepdims=None, name=None, reduction_indices=None, keep_dims=None)

功能:最大池化,求最大值

tf.reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None)

功能:平均池化然遏,求平均值

參數(shù)1--input_tensor:待求值的tensor贫途。
參數(shù)2--reduction_indices:在哪一維上求解。

tf.layers.dense

tf.layers.dense(inputs, units, activation=None, use_bias=True, kernel_initializer=None, bias_initializer=init_ops.zeros_initializer(), kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None, trainable=True, name=None, reuse=None)

功能:添加一層待侵,全連接層

tf.layers.dropout

tf.layers.dropout(inputs, rate=0.1, noise_shape=None, seed=None, training=False)

功能:隨機的拿掉網(wǎng)絡中的部分神經(jīng)元丢早,從而減小對W權(quán)重的依賴,以達到減小過擬合的效果秧倾。
rate: The dropout rate, between 0 and 1. E.g. "rate=0.1" would drop out 10% of input units.

tf.argmax

tf.argmax(input, axis=None, name=None, dimension=None, output_type=dtypes.int64)

axis = 0的時候返回每一列最大值的位置索引
axis = 1的時候返回每一行最大值的位置索引
axis = 2怨酝、3、4...那先,即為多維張量時农猬,同理推斷

tf.cast

tf.cast(x, dtype, name=None)

功能:類型轉(zhuǎn)換

tf.layers.conv1d

一維卷積,一般用于處理文本售淡,所以輸入一般是一段長文本斤葱,就是詞的列表

tf.layers.conv1d( inputs, filters, kernel_size, strides=1, padding='valid', data_format='channels_last', dilation_rate=1, activation=None, use_bias=True, kernel_initializer=None, bias_initializer=tf.zeros_initializer(), kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None, trainable=True, name=None, reuse=None )

比較重要的幾個參數(shù)是inputs, filters, kernel_size

  • inputs : 輸入tensor, 維度(None, a, b) 是一個三維的tensor
    • None:一般是填充樣本的個數(shù)揖闸,batch_size
    • a:句子中的詞數(shù)或者字數(shù)
    • b:字或者詞的向量維度
  • filters : 過濾器的個數(shù)
  • kernel_size : 卷積核的大小揍堕,卷積核其實應該是一個二維的,這里只需要指定一維汤纸,是因為卷積核的第二維與輸入的詞向量維度是一致的衩茸,因為對于句子而言,卷積的移動方向只能是沿著詞的方向贮泞,即只能在列維度移動

tf.reduce_max

返回最大值

tf.reduce_max(input_tensor, axis=None, keepdims=None, name=None, reduction_indices=None, akeep_dims=None)

axis:維度楞慈,若為None,則返回所有維度的最大值
reduction_indices: The old (deprecated) name for axis.

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末隙畜,一起剝皮案震驚了整個濱河市抖部,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌议惰,老刑警劉巖慎颗,帶你破解...
    沈念sama閱讀 212,884評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異言询,居然都是意外死亡俯萎,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,755評論 3 385
  • 文/潘曉璐 我一進店門运杭,熙熙樓的掌柜王于貴愁眉苦臉地迎上來夫啊,“玉大人,你說我怎么就攤上這事辆憔∑裁校” “怎么了报嵌?”我有些...
    開封第一講書人閱讀 158,369評論 0 348
  • 文/不壞的土叔 我叫張陵,是天一觀的道長熊榛。 經(jīng)常有香客問我锚国,道長,這世上最難降的妖魔是什么玄坦? 我笑而不...
    開封第一講書人閱讀 56,799評論 1 285
  • 正文 為了忘掉前任血筑,我火速辦了婚禮,結(jié)果婚禮上煎楣,老公的妹妹穿的比我還像新娘豺总。我一直安慰自己,他們只是感情好择懂,可當我...
    茶點故事閱讀 65,910評論 6 386
  • 文/花漫 我一把揭開白布喻喳。 她就那樣靜靜地躺著,像睡著了一般休蟹。 火紅的嫁衣襯著肌膚如雪沸枯。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 50,096評論 1 291
  • 那天赂弓,我揣著相機與錄音,去河邊找鬼哪轿。 笑死盈魁,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的窃诉。 我是一名探鬼主播杨耙,決...
    沈念sama閱讀 39,159評論 3 411
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼飘痛!你這毒婦竟也來了珊膜?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,917評論 0 268
  • 序言:老撾萬榮一對情侶失蹤宣脉,失蹤者是張志新(化名)和其女友劉穎车柠,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體塑猖,經(jīng)...
    沈念sama閱讀 44,360評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡竹祷,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,673評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了羊苟。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片塑陵。...
    茶點故事閱讀 38,814評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖蜡励,靈堂內(nèi)的尸體忽然破棺而出令花,到底是詐尸還是另有隱情阻桅,我是刑警寧澤,帶...
    沈念sama閱讀 34,509評論 4 334
  • 正文 年R本政府宣布兼都,位于F島的核電站嫂沉,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏俯抖。R本人自食惡果不足惜输瓜,卻給世界環(huán)境...
    茶點故事閱讀 40,156評論 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望芬萍。 院中可真熱鬧尤揣,春花似錦、人聲如沸柬祠。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,882評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽漫蛔。三九已至嗜愈,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間莽龟,已是汗流浹背蠕嫁。 一陣腳步聲響...
    開封第一講書人閱讀 32,123評論 1 267
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留毯盈,地道東北人剃毒。 一個月前我還...
    沈念sama閱讀 46,641評論 2 362
  • 正文 我出身青樓,卻偏偏與公主長得像搂赋,于是被迫代替她去往敵國和親赘阀。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 43,728評論 2 351

推薦閱讀更多精彩內(nèi)容

  • 對于TensorFlow中的基本用法脑奠,參考了網(wǎng)上很多博客基公,把自己認為解釋的比較好的做一些整理。 tensorflo...
    有你的世界5726閱讀 2,403評論 0 1
  • 一篇字數(shù)寫超了的作文宋欺。 燕子姐又要折騰什么不得而知轰豆,給我安排任務寫作文,主題是“凡樸”迄靠,題目不限秒咨,字數(shù)100-20...
    卡拉的姐姐閱讀 1,855評論 0 0
  • 曾國藩老爺子也真是高人啊,為什么就是要在平時積累信用掌挚,當真正需要別人幫助的時候雨席,才真的會有人幫你。寫不出來吠式,絕對是...
    知名作家charles閱讀 208評論 0 0
  • 有沒有一種長大后時間變得很快很快的感覺陡厘,最漫長的就是小學六年了吧抽米。天天數(shù)著離周末還有幾天,什么時候才能脫下紅領巾糙置,...
    簡懿啊閱讀 463評論 0 0
  • 老妖1963閱讀 106評論 0 1