[activation] Update input arguments of softmax
authorParichay Kapoor <pk.kapoor@samsung.com>
Mon, 20 Jul 2020 04:49:09 +0000 (13:49 +0900)
committerJijoong Moon <jijoong.moon@samsung.com>
Mon, 20 Jul 2020 07:29:47 +0000 (16:29 +0900)
Update input arguments of softmax to Tensor const & from Tensor to match activation
function signature

Signed-off-by: Parichay Kapoor <pk.kapoor@samsung.com>
nntrainer/include/util_func.h
nntrainer/src/util_func.cpp

index d913bac..66a606f 100644 (file)
@@ -40,14 +40,14 @@ unsigned int getSeed();
  * @param[in] x Tensor
  * @retVal    Tensor
  */
-Tensor softmaxPrime(Tensor x);
+Tensor softmaxPrime(Tensor const &x);
 
 /**
  * @brief       Calculate softmax for Tensor Type
  * @param[in] t Tensor
  * @retval      Tensor
  */
-Tensor softmax(Tensor t);
+Tensor softmax(Tensor const &t);
 
 /**
  * @brief     random function
index f570d64..97e032d 100644 (file)
@@ -37,7 +37,7 @@ static std::uniform_real_distribution<float> dist(-0.5, 0.5);
 
 unsigned int getSeed() { return 0; }
 
-Tensor softmaxPrime(Tensor x) {
+Tensor softmaxPrime(Tensor const &x) {
   /** @todo Fix this to use derivative */
   int batch = x.getBatch();
   int channel = x.getChannel();
@@ -47,7 +47,7 @@ Tensor softmaxPrime(Tensor x) {
 
   Tensor PI = Tensor(x.getDim());
 
-  float *xp = x.getData();
+  const float *xp = x.getData();
   float *pp = PI.getData();
 
   for (int k = 0; k < batch; ++k) {
@@ -73,7 +73,7 @@ Tensor softmaxPrime(Tensor x) {
   return PI;
 }
 
-Tensor softmax(Tensor t) {
+Tensor softmax(Tensor const &t) {
   /**
    * shiftx_logit = logit - max_batch(logit)
    * softmax = exp(shiftx_logit) / (sum(exp(shiftx_logit)))
@@ -84,7 +84,7 @@ Tensor softmax(Tensor t) {
   int width = t.getWidth();
   float *dp;
   float *rp;
-  float *tp;
+  const float *tp;
 
   Tensor result(t.getDim());
   Tensor divisor(t.getDim());