Docs ?
Layers ?
融合層 Merge
Add
keras.layers.Add()
計(jì)算輸入張量列表的和至朗。
它接受一個(gè)張量的列表瞄勾, 所有的張量必須有相同的輸入尺寸廷臼, 然后返回一個(gè)張量(和輸入張量尺寸相同)灶伊。
例子
import keras
input1 = keras.layers.Input(shape=(16,))
x1 = keras.layers.Dense(8, activation='relu')(input1)
input2 = keras.layers.Input(shape=(32,))
x2 = keras.layers.Dense(8, activation='relu')(input2)
# 相當(dāng)于 added = keras.layers.add([x1, x2])
added = keras.layers.Add()([x1, x2])
out = keras.layers.Dense(4)(added)
model = keras.models.Model(inputs=[input1, input2], outputs=out)
Subtract
keras.layers.Subtract()
計(jì)算兩個(gè)輸入張量的差。
它接受一個(gè)長度為 2 的張量列表覆积, 兩個(gè)張量必須有相同的尺寸共缕,然后返回一個(gè)值為 (inputs[0] - inputs[1]) 的張量, 輸出張量和輸入張量尺寸相同谭确。
例子
import keras
input1 = keras.layers.Input(shape=(16,))
x1 = keras.layers.Dense(8, activation='relu')(input1)
input2 = keras.layers.Input(shape=(32,))
x2 = keras.layers.Dense(8, activation='relu')(input2)
# 相當(dāng)于 subtracted = keras.layers.subtract([x1, x2])
subtracted = keras.layers.Subtract()([x1, x2])
out = keras.layers.Dense(4)(subtracted)
model = keras.models.Model(inputs=[input1, input2], outputs=out)
Multiply
keras.layers.Multiply()
計(jì)算輸入張量列表的(逐元素間的)乘積帘营。
它接受一個(gè)張量的列表, 所有的張量必須有相同的輸入尺寸逐哈, 然后返回一個(gè)張量(和輸入張量尺寸相同)芬迄。
[[source]][source]
Average
keras.layers.Average()
計(jì)算輸入張量列表的平均值。
它接受一個(gè)張量的列表鞠眉, 所有的張量必須有相同的輸入尺寸薯鼠, 然后返回一個(gè)張量(和輸入張量尺寸相同)。
Maximum
keras.layers.Maximum()
計(jì)算輸入張量列表的(逐元素間的)最大值械蹋。
它接受一個(gè)張量的列表出皇, 所有的張量必須有相同的輸入尺寸, 然后返回一個(gè)張量(和輸入張量尺寸相同)哗戈。
Concatenate
keras.layers.Concatenate(axis=-1)
連接一個(gè)輸入張量的列表郊艘。
它接受一個(gè)張量的列表, 除了連接軸之外唯咬,其他的尺寸都必須相同纱注, 然后返回一個(gè)由所有輸入張量連接起來的輸出張量。
參數(shù)
- axis: 連接的軸胆胰。
- ****kwargs**: 層關(guān)鍵字參數(shù)狞贱。
Dot
keras.layers.Dot(axes, normalize=False)
計(jì)算兩個(gè)張量之間樣本的點(diǎn)積。
例如蜀涨,如果作用于輸入尺寸為 (batch_size, n)
的兩個(gè)張量 a
和 b
瞎嬉, 那么輸出結(jié)果就會是尺寸為 (batch_size, 1)
的一個(gè)張量。 在這個(gè)張量中厚柳,每一個(gè)條目 i
是 a[i]
和 b[i]
之間的點(diǎn)積氧枣。
參數(shù)
- axes: 整數(shù)或者整數(shù)元組, 一個(gè)或者幾個(gè)進(jìn)行點(diǎn)積的軸别垮。
-
normalize: 是否在點(diǎn)積之前對即將進(jìn)行點(diǎn)積的軸進(jìn)行 L2 標(biāo)準(zhǔn)化便监。 如果設(shè)置成
True
,那么輸出兩個(gè)樣本之間的余弦相似值碳想。 - ****kwargs**: 層關(guān)鍵字參數(shù)烧董。
add
keras.layers.add(inputs)
Add
層的函數(shù)式接口毁靶。
參數(shù)
- inputs: 一個(gè)輸入張量的列表(列表大小至少為 2)。
- ****kwargs**: 層關(guān)鍵字參數(shù)解藻。
返回
一個(gè)張量老充,所有輸入張量的和。
例子
import keras
input1 = keras.layers.Input(shape=(16,))
x1 = keras.layers.Dense(8, activation='relu')(input1)
input2 = keras.layers.Input(shape=(32,))
x2 = keras.layers.Dense(8, activation='relu')(input2)
added = keras.layers.add([x1, x2])
out = keras.layers.Dense(4)(added)
model = keras.models.Model(inputs=[input1, input2], outputs=out)
subtract
keras.layers.subtract(inputs)
Subtract
層的函數(shù)式接口螟左。
參數(shù)
- inputs: 一個(gè)列表的輸入張量(列表大小準(zhǔn)確為 2)啡浊。
- ****kwargs**: 層的關(guān)鍵字參數(shù)。
返回
一個(gè)張量胶背,兩個(gè)輸入張量的差巷嚣。
例子
import keras
input1 = keras.layers.Input(shape=(16,))
x1 = keras.layers.Dense(8, activation='relu')(input1)
input2 = keras.layers.Input(shape=(32,))
x2 = keras.layers.Dense(8, activation='relu')(input2)
subtracted = keras.layers.subtract([x1, x2])
out = keras.layers.Dense(4)(subtracted)
model = keras.models.Model(inputs=[input1, input2], outputs=out)
multiply
keras.layers.multiply(inputs)
Multiply
層的函數(shù)式接口。
參數(shù)
- inputs: 一個(gè)列表的輸入張量(列表大小至少為 2)钳吟。
- ****kwargs**: 層的關(guān)鍵字參數(shù)廷粒。
返回
一個(gè)張量,所有輸入張量的逐元素乘積红且。
average
keras.layers.average(inputs)
Average
層的函數(shù)式接口坝茎。
參數(shù)
- inputs: 一個(gè)列表的輸入張量(列表大小至少為 2)。
- ****kwargs**: 層的關(guān)鍵字參數(shù)暇番。
返回
一個(gè)張量嗤放,所有輸入張量的平均值。
maximum
keras.layers.maximum(inputs)
Maximum
層的函數(shù)式接口壁酬。
參數(shù)
- inputs: 一個(gè)列表的輸入張量(列表大小至少為 2)次酌。
- ****kwargs**: 層的關(guān)鍵字參數(shù)。
返回
一個(gè)張量舆乔,所有張量的逐元素的最大值岳服。
concatenate
keras.layers.concatenate(inputs, axis=-1)
Concatenate
層的函數(shù)式接口。
參數(shù)
- inputs: 一個(gè)列表的輸入張量(列表大小至少為 2)希俩。
- axis: 串聯(lián)的軸吊宋。
- ****kwargs**: 層的關(guān)鍵字參數(shù)。
返回
一個(gè)張量颜武,所有輸入張量通過 axis
軸串聯(lián)起來的輸出張量贫母。
dot
keras.layers.dot(inputs, axes, normalize=False)
Dot
層的函數(shù)式接口。
參數(shù)
- inputs: 一個(gè)列表的輸入張量(列表大小至少為 2)盒刚。
- axes: 整數(shù)或者整數(shù)元組, 一個(gè)或者幾個(gè)進(jìn)行點(diǎn)積的軸绿贞。
- normalize: 是否在點(diǎn)積之前對即將進(jìn)行點(diǎn)積的軸進(jìn)行 L2 標(biāo)準(zhǔn)化因块。 如果設(shè)置成 True,那么輸出兩個(gè)樣本之間的余弦相似值籍铁。
- ****kwargs**: 層的關(guān)鍵字參數(shù)涡上。
返回
一個(gè)張量趾断,所有輸入張量樣本之間的點(diǎn)積。