TensorFlow: запомнить состояние LSTM для следующего пакета (с состоянием LSTM)
Учитывая обученную модель LSTM, я хочу выполнить вывод для отдельных временных шагов, т.е. seq_length = 1
в приведенном ниже примере. После каждого временного шага необходимо запоминать внутренние состояния LSTM (память и скрытые) для следующего "пакета". Для самого начала вывода внутренние состояния LSTM init_c, init_h
вычисляются с учетом входных данных. Затем они сохраняются в объекте LSTMStateTuple
, который передается в LSTM. Во время тренировки это состояние обновляется каждый раз. Однако для вывода я хочу, чтобы state
сохранялся между партиями, то есть начальные состояния нужно вычислять только в самом начале, и после этого состояния LSTM должны сохраняться после каждой "партии" (n = 1).
Я нашел этот связанный вопрос Qaru: Tensorflow, лучший способ сохранить состояние в RNNs?. Однако это работает только в случае state_is_tuple=False
, но TensorFlow вскоре должен осудить это поведение (см. rnn_cell.py). Кажется, у Кераса есть хорошая оболочка для создания состояний с LSTM, но я не знаю лучшего способа добиться этого в TensorFlow. Эта проблема на TensorFlow GitHub также связана с моим вопросом: https://github.com/tensorflow/tensorflow/issues/2838
Есть ли хорошие предложения для построения модели LSTM с сохранением состояния?
inputs = tf.placeholder(tf.float32, shape=[None, seq_length, 84, 84], name="inputs")
targets = tf.placeholder(tf.float32, shape=[None, seq_length], name="targets")
num_lstm_layers = 2
with tf.variable_scope("LSTM") as scope:
lstm_cell = tf.nn.rnn_cell.LSTMCell(512, initializer=initializer, state_is_tuple=True)
self.lstm = tf.nn.rnn_cell.MultiRNNCell([lstm_cell] * num_lstm_layers, state_is_tuple=True)
init_c = # compute initial LSTM memory state using contents in placeholder 'inputs'
init_h = # compute initial LSTM hidden state using contents in placeholder 'inputs'
self.state = [tf.nn.rnn_cell.LSTMStateTuple(init_c, init_h)] * num_lstm_layers
outputs = []
for step in range(seq_length):
if step != 0:
scope.reuse_variables()
# CNN features, as input for LSTM
x_t = # ...
# LSTM step through time
output, self.state = self.lstm(x_t, self.state)
outputs.append(output)
Ответы
Ответ 1
Я обнаружил, что проще всего сохранить целое состояние для всех слоев в заполнителе.
init_state = np.zeros((num_layers, 2, batch_size, state_size))
...
state_placeholder = tf.placeholder(tf.float32, [num_layers, 2, batch_size, state_size])
Затем распакуйте его и создайте кортеж LSTMStateTuples перед использованием собственного тензорного потока RNN Api.
l = tf.unpack(state_placeholder, axis=0)
rnn_tuple_state = tuple(
[tf.nn.rnn_cell.LSTMStateTuple(l[idx][0], l[idx][1])
for idx in range(num_layers)]
)
RNN передает в API:
cell = tf.nn.rnn_cell.LSTMCell(state_size, state_is_tuple=True)
cell = tf.nn.rnn_cell.MultiRNNCell([cell]*num_layers, state_is_tuple=True)
outputs, state = tf.nn.dynamic_rnn(cell, x_input_batch, initial_state=rnn_tuple_state)
Затем переменная state
будет передана следующему пакету в качестве заполнителя.
Ответ 2
Tensorflow, лучший способ сохранить состояние в RNNs? был на самом деле мой оригинальный вопрос. Код ниже показывает, как я использую кортежи состояний.
with tf.variable_scope('decoder') as scope:
rnn_cell = tf.nn.rnn_cell.MultiRNNCell \
([
tf.nn.rnn_cell.LSTMCell(512, num_proj = 256, state_is_tuple = True),
tf.nn.rnn_cell.LSTMCell(512, num_proj = WORD_VEC_SIZE, state_is_tuple = True)
], state_is_tuple = True)
state = [[tf.zeros((BATCH_SIZE, sz)) for sz in sz_outer] for sz_outer in rnn_cell.state_size]
for t in range(TIME_STEPS):
if t:
last = y_[t - 1] if TRAINING else y[t - 1]
else:
last = tf.zeros((BATCH_SIZE, WORD_VEC_SIZE))
y[t] = tf.concat(1, (y[t], last))
y[t], state = rnn_cell(y[t], state)
scope.reuse_variables()
Вместо использования tf.nn.rnn_cell.LSTMStateTuple
я просто создаю списки списков, которые отлично работают. В этом примере я не спасаю государство. Однако вы могли бы легко сделать состояние из переменных и просто использовать метод assign для сохранения значений.