recurrent-neural-network

    2熱度

    1回答

    最近我盯着張量流,dnns等現在我試圖實施更嚴重的東西,從短句(醫生指示)的信息檢索。 不幸的是,我所擁有的數據集一如既往地相當「髒」。正如我試圖使用詞嵌入,我實際上需要「乾淨」的數據。舉一個例子: 「採取兩個pilleach天」。藥丸和每個藥丸之間缺少一個空白區域。鑑於整個文檔(tf)中詞語的頻率,我正在實施「分詞器改進者」來查看每個句子並基於句子中每個詞的聯合概率來提出新的詞彙化。正如我今天所

    0熱度

    2回答

    使用Tensorflow seq2seq教程代碼我創建了一個基於字符的聊天機器人。我不使用文字嵌入。我有一組字符(字母和一些標點符號)以及特殊符號,如GO,EOS和UNK符號。 因爲我不使用文字嵌入,所以我使用標準tf.nn.seq2seq.basic_rnn_seq2seq() seq2seq模型。然而,我很困惑什麼形狀encoder_inputs和decoder_inputs應該有。它們是否應

    3熱度

    2回答

    我在使用RNN時遇到了一個奇怪的問題。我正在關注TensorFlow RNN Tutorial並嘗試我自己的(更簡單的)實現,其靈感來自R2RT's Blog Post: Recurrent Neural Networks in Tensorflow I。 經過調試後,我確定問題來自ranger_input_producer,在tensorflow.models.rnn.ptb.reader.py

    5熱度

    1回答

    我看到有關神經網絡的不同部分漏失描述: 漏失在權重矩陣, 漏失在隱藏層中的矩陣乘法後和RELU之前, 在relu之後的隱藏層丟失, 並在softmax函數之前的輸出分數中丟失 我對我應該在哪裏執行退出有點困惑。有人可以幫助解釋一下嗎?謝謝!

    4熱度

    6回答

    我使用BasicLSTMCell訓練了LSTM分類器。我如何保存模型並將其恢復以便在以後的分類中使用?

    0熱度

    1回答

    我試圖設計一個tensorflow模型來預測使用lstm的下一個單詞。 Tensorflow RNN教程給出了僞代碼如何使用LSTM的PTB數據集。 我到達了生成批次和標籤的步驟。 def generate_batches(raw_data, batch_size): global data_index data_len = len(raw_data) num_bat

    1熱度

    1回答

    我一直在嘗試使用名爲RNN的R包。 以下是代碼網站: https://github.com/bquast/rnn 它有一個非常好的財務時間序列預測的例子。 我已閱讀代碼,我明白它使用時間序列的序列來預先預測次日儀器的價值。 以下是運行與10個隱藏節點和200個曆元 RNN financial time series prediction 什麼我期望作爲結果是,該算法成功,至少部分地提前預測儀器的值

    1熱度

    1回答

    我正在嘗試構建用於文本生成的RNN。我被困在建立我的LSTM單元。數據的形狀如下所示 - X是dim(90809,2700)的輸入稀疏矩陣,Y是維(90809,27)的輸出矩陣。以下是我的用於限定LSTM細胞代碼 model = Sequential() model.add(LSTM(128, input_shape=(X.shape[0], X.shape[1]))) model.add(D

    1熱度

    2回答

    我在問復發神經網絡是否是一個神經網絡鏈。 現在,直觀地說,一個RNN是一個神經網絡,它具有來自過去輸出的反饋迴路,並取決於一個實現從隱藏層到下一個時間戳的隱藏層和/或輸入的反饋迴路。 不包括它連接隱藏層的實現,這個實現與神經網絡鏈有什麼不同? 我認爲,從我的理解是這樣的實現可能由神經網絡的鏈條,其中NN的每個輸入是給定的數據最後的時間戳的+輸出的時間戳來構建。 你知道這個直覺是否正確嗎?或者我缺少

    0熱度

    1回答

    我有以下代碼,其中我將單詞轉換爲一個熱矢量,並在theano中使用rnn對單詞序列(基本上是語言模型)進行下一個單詞的預測。 # coding: utf-8 # In[68]: #Importing stuff import theano import theano.tensor as T import numpy as np # In[69]: import nltk