首先你要知道在keras中,數(shù)據(jù)是以張量的形式表示的棚品,張量的形狀就是shape靠欢,比如弥姻,一個一階的張量[1,2,3]的shape是(3,);一個二階的張量[[1,2,3],[4,5,6]]的shape是(2,3);一個三階的張量[[[1],[2],[3]],[[4],[5],[6]]]的shape是(2,3,1)。更多關(guān)于這部分的內(nèi)容掺涛,請看http://blog.csdn.net/u013378306/article/details/56281549庭敦。
input_shape就是指輸入張量的shape。你描述的問題中薪缆, input_dim=784秧廉,說明輸入是一個784維的向量,這相當于一個一階的張量拣帽,它的shape就是(784,)疼电。因此,input_shape=(784,)减拭。
TensorFlow用張量這種數(shù)據(jù)結(jié)構(gòu)來表示所有的數(shù)據(jù).你可以把一個張量想象成一個n維的數(shù)組或列表.一個張量有一個靜態(tài)類型和動態(tài)類型的維數(shù).張量可以在圖中的節(jié)點之間流通.
在TensorFlow系統(tǒng)中拧粪,張量的維數(shù)來被描述為階.但是張量的階和矩陣的階并不是同一個概念.張量的階(有時是關(guān)于如順序或度數(shù)或者是n維)是張量維數(shù)的一個數(shù)量描述.比如修陡,下面的張量(使用Python中l(wèi)ist定義的)就是2階.
t = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]
你可以認為一個二階張量就是我們平常所說的矩陣,一階張量可以認為是一個向量.對于一個二階張量你可以用語句t[i, j]來訪問其中的任何元素.而對于三階張量你可以用't[i, j, k]'來訪問其中的任何元素.
階數(shù)學(xué)實例Python 例子
0純量 (只有大小)s = 483
1向量(大小和方向)v = [1.1, 2.2, 3.3]
2矩陣(數(shù)據(jù)表)m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]
33階張量 (數(shù)據(jù)立體)t = [[[2], [4], [6]], [[8], [10], [12]], [[14], [16], [18]]]
nn階 (自己想想看)....
TensorFlow文檔中使用了三種記號來方便地描述張量的維度:階可霎,形狀以及維數(shù).下表展示了他們之間的關(guān)系:
階形狀維數(shù)實例
0[ ]0-D一個 0維張量. 一個純量.
1[D0]1-D一個1維張量的形式[5].
2[D0, D1]2-D一個2維張量的形式[3, 4].
3[D0, D1, D2]3-D一個3維張量的形式 [1, 4, 3].
n[D0, D1, ... Dn]n-D一個n維張量的形式 [D0, D1, ... Dn].
shape [2,3] 表示為數(shù)組的意思是第一維有兩個元素魄鸦,第二維有三個元素,如: [[1,2,3],[4,5,6]]
[html]view plaincopy
```python
#?2-D?tensor?`a`
a=tf.constant([1,?2,?3,?4,?5,?6],shape=[2,?3])?=>[[1.?2.?3.]
[4.?5.?6.]]
#?2-D?tensor?`b`
b=tf.constant([7,?8,?9,?10,?11,?12],shape=[3,?2])?=>[[7.?8.]
[9.?10.]
[11.?12.]]
c=tf.matmul(a,?b)?=>[[58?64]
[139?154]]
#?3-D?tensor?`a`
a=tf.constant(np.arange(1,13),shape=[2,?2,?3])?=>[[[?1.??2.??3.]
[?4.??5.??6.]],
[[?7.??8.??9.]
[10.?11.?12.]]]
#?3-D?tensor?`b`
b=tf.constant(np.arange(13,25),shape=[2,?3,?2])?=>[[[13.?14.]
[15.?16.]
[17.?18.]],
[[19.?20.]
[21.?22.]
[23.?24.]]]
c=tf.matmul(a,?b)?=>[[[?94?100]
[229?244]],
[[508?532]
[697?730]]]
tensorflow中有一類在tensor的某一維度上求值的函數(shù)癣朗,
如:
求最大值tf.reduce_max(input_tensor, reduction_indices=None, keep_dims=False, name=None)
求平均值tf.reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None)
參數(shù)(1)input_tensor:待求值的tensor拾因。
參數(shù)(2)reduction_indices:在哪一維上求解。
參數(shù)(3)(4)可忽略
舉例說明:
# 'x' is [[1., 2.]#? ? ? ? [3., 4.]]
x是一個2維數(shù)組旷余,分別調(diào)用reduce_*函數(shù)如下:
首先求平均值绢记,
tf.reduce_mean(x) ==> 2.5 #如果不指定第二個參數(shù),那么就在所有的元素中取平均值tf.reduce_mean(x,0) ==> [2.,3.] #指定第二個參數(shù)為0正卧,則第一維的元素取平均值蠢熄,即每一列求平均值tf.reduce_mean(x,1) ==> [1.,2.] #指定第二個參數(shù)為1,則第二維的元素取平均值穗酥,即每一行求平均值
同理护赊,還可用tf.reduce_max()求最大值。