Publishing 2019 R2 content (#223)
[platform/upstream/dldt.git] / inference-engine / thirdparty / clDNN / src / include / softmax_loss_grad_inst.h
1 /*
2 // Copyright (c) 2018 Intel Corporation
3 //
4 // Licensed under the Apache License, Version 2.0 (the "License");
5 // you may not use this file except in compliance with the License.
6 // You may obtain a copy of the License at
7 //
8 //      http://www.apache.org/licenses/LICENSE-2.0
9 //
10 // Unless required by applicable law or agreed to in writing, software
11 // distributed under the License is distributed on an "AS IS" BASIS,
12 // WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13 // See the License for the specific language governing permissions and
14 // limitations under the License.
15 */
16
17 ///////////////////////////////////////////////////////////////////////////////////////////////////
18 #pragma once
19 #include "api/CPP/softmax_loss_grad.hpp"
20 #include "primitive_inst.h"
21 #include <string>
22
23 namespace cldnn {
24 using softmax_loss_grad_node = typed_program_node<softmax_loss_grad>;
25
26 template <>
27 class typed_primitive_inst<softmax_loss_grad> : public typed_primitive_inst_base<softmax_loss_grad> {
28     using parent = typed_primitive_inst_base<softmax_loss_grad>;
29
30 public:
31     static layout calc_output_layout(softmax_loss_grad_node const& node);
32     static std::string to_string(softmax_loss_grad_node const& node);
33
34 public:
35     typed_primitive_inst(network_impl& network, softmax_loss_grad_node const& desc);
36 };
37
38 using softmax_loss_grad_inst = typed_primitive_inst<softmax_loss_grad>;
39
40 }  // namespace cldnn