[編輯]
對不起,只有一個鏈接回答不好。所以我試着一個接一個地回答問題。
如果我應該包含TimeDirstibuted函數僅用於我的Convolutional &池圖層還是還用於LSTM?
僅對Conv和Pooling層使用TimeDistributed函數,不需要LSTM。
有沒有辦法同時運行CNN圖層?
不,如果您使用CPU。如果你使用GPU,這是可能的。
Transparent Multi-GPU Training on TensorFlow with Keras
什麼是最適合的輸入尺寸?
五。 (批次,時間,寬度,高度,通道)。
有沒有一種辦法細胞神經網絡的//數量限制爲例如4
您可以通過手動對齊幀做到這一點的預處理到特定的號碼,網絡不在家。換句話說,如果在處理完4幀後想要輸出,則「時間」維度應該爲4。
model = Sequential()
model.add(
TimeDistributed(
Conv2D(64, (3, 3), activation='relu'),
input_shape=(data.num_frames, data.width, data.height, 1)
)
)
model.add(TimeDistributed(MaxPooling2D((2, 2), strides=(1, 1))))
model.add(TimeDistributed(Conv2D(128, (4,4), activation='relu')))
model.add(TimeDistributed(MaxPooling2D((2, 2), strides=(2, 2))))
model.add(TimeDistributed(Conv2D(256, (4,4), activation='relu')))
model.add(TimeDistributed(MaxPooling2D((2, 2), strides=(2, 2))))
# extract features and dropout
model.add(TimeDistributed(Flatten()))
model.add(Dropout(0.5))
# input to LSTM
model.add(LSTM(256, return_sequences=False, dropout=0.5))
# classifier with sigmoid activation for multilabel
model.add(Dense(data.num_classes, activation='sigmoid'))
參考:
PRI-MATRIX FACTORIZATION - BENCHMARK