Imported Upstream version 1.25.0
[platform/core/ml/nnfw.git] / runtime / onert / core / src / backend / basic / train / TrainableTensor.cc
1 /*
2  * Copyright (c) 2023 Samsung Electronics Co., Ltd. All Rights Reserved
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  *      http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <backend/basic/train/TrainableTensor.h>
18
19 namespace onert
20 {
21 namespace backend
22 {
23 namespace basic
24 {
25 namespace train
26 {
27
28 std::vector<ITensor *> TrainableTensor::optVars()
29 {
30   std::vector<ITensor *> ret;
31   for (auto &&e : _opt_vars)
32   {
33     ret.emplace_back(e.get());
34   }
35   return ret;
36 }
37
38 void TrainableTensor::fillBuffer(const std::shared_ptr<ir::Data> &data)
39 {
40   auto *buffer = _tensor.buffer();
41   assert(buffer);
42   assert(total_size() == data->size());
43   std::memcpy(buffer, data->base(), data->size());
44 }
45
46 } // namespace train
47 } // namespace basic
48 } // namespace backend
49 } // namespace onert