Update RNN/LSTM performance docs
authorA. Unique TensorFlower <gardener@tensorflow.org>
Thu, 4 Jan 2018 00:06:24 +0000 (16:06 -0800)
committerTensorFlower Gardener <gardener@tensorflow.org>
Thu, 4 Jan 2018 00:10:35 +0000 (16:10 -0800)
PiperOrigin-RevId: 180730491

tensorflow/docs_src/performance/performance_guide.md

index 0fa1fc38c290acaf30bc37a7f0e486481a75b453..4850e62c12ca0101ee4d3e36618659420a059ba8 100644 (file)
@@ -224,11 +224,7 @@ On NVIDIA GPUs, the use of @{tf.contrib.cudnn_rnn} should always be preferred
 unless you want layer normalization, which it doesn't support.  It is often at
 least an order of magnitude faster than @{tf.contrib.rnn.BasicLSTMCell} and
 @{tf.contrib.rnn.LSTMBlockCell} and uses 3-4x less memory than
-@{tf.contrib.rnn.BasicLSTMCell}.  Unfortunately, @{tf.contrib.cudnn_rnn} is not
-compatible with @{tf.train.SyncReplicasOptimizer} so you should either use a
-different synchronization mechanism (consider an all-reduce based strategy) or
-use the @{tf.contrib.rnn.LSTMBlockFusedCell} (at a significant performance
-penalty).
+@{tf.contrib.rnn.BasicLSTMCell}.
 
 If you need to run one step of the RNN at a time, as might be the case in
 reinforcement learning with a recurrent policy, then you should use the