Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / runtime / onert / core / include / backend / train / ITrainableTensor.h
1 /*
2  * Copyright (c) 2023 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef __ONERT_BACKEND_TRAIN_ITRAINABLE_TENSOR_H__
18 #define __ONERT_BACKEND_TRAIN_ITRAINABLE_TENSOR_H__
19
20 #include "backend/IPortableTensor.h"
21
22 namespace onert
23 {
24 namespace backend
25 {
26 namespace train
27 {
28
29 /**
30  * @brief A tensor class that can be trained
31  *
32  */
33 // NOTE It is more appropriate to inherit ITensor, but there is no easy way
34 //      except for virtual inheritance.
35 class ITrainableTensor : public IPortableTensor
36 {
37 public:
38   using IPortableTensor::IPortableTensor;
39   virtual ~ITrainableTensor() = default;
40
41   /**
42    * @brief Get optimizer variables of this trainable tensor
43    *
44    * @return Optimizer variables
45    */
46   virtual std::vector<ITensor *> optVars() = 0;
47 };
48
49 } // namespace train
50 } // namespace backend
51 } // namespace onert
52
53 #endif // __ONERT_BACKEND_TRAIN_ITRAINABLE_TENSOR_H__