Simple fixes for documentation on tf.nn.softmax_cross_entropy_with_logits (and v2).
authorNeal Wu <wun@google.com>
Fri, 30 Mar 2018 23:31:31 +0000 (16:31 -0700)
committerTensorFlower Gardener <gardener@tensorflow.org>
Fri, 30 Mar 2018 23:35:22 +0000 (16:35 -0700)
PiperOrigin-RevId: 191134015

tensorflow/python/ops/nn_ops.py

index 0c55386..07ca329 100644 (file)
@@ -1808,7 +1808,7 @@ def softmax_cross_entropy_with_logits_v2(
   or `float64`).
 
   Backpropagation will happen into both `logits` and `labels`.  To disallow
-  backpropagation into `labels`, pass label tensors through a `stop_gradients`
+  backpropagation into `labels`, pass label tensors through @{tf.stop_gradient}
   before feeding it to this function.
 
   **Note that to avoid confusion, it is required to pass only named arguments to
@@ -1895,7 +1895,7 @@ _XENT_DEPRECATION = """
 Future major versions of TensorFlow will allow gradients to flow
 into the labels input on backprop by default.
 
-See tf.nn.softmax_cross_entropy_with_logits_v2.
+See @{tf.nn.softmax_cross_entropy_with_logits_v2}.
 """