Publishing R3
[platform/upstream/dldt.git] / inference-engine / src / mkldnn_plugin / nodes / mkldnn_softmax_node.h
1 // Copyright (C) 2018 Intel Corporation
2 //
3 // SPDX-License-Identifier: Apache-2.0
4 //
5
6 #pragma once
7
8 #include <ie_common.h>
9 #include <mkldnn_node.h>
10 #include <string>
11 #include <memory>
12 #include <vector>
13
14 namespace MKLDNNPlugin {
15
16 class MKLDNNSoftMaxNode : public MKLDNNNode {
17 public:
18     MKLDNNSoftMaxNode(const InferenceEngine::CNNLayerPtr& layer, const mkldnn::engine& eng);
19     ~MKLDNNSoftMaxNode() override = default;
20
21     void initOptimalPrimitiveDescriptor() override;
22     void createDescriptor(const std::vector<InferenceEngine::TensorDesc>& inputDesc,
23                           const std::vector<InferenceEngine::TensorDesc>& outputDesc) override;
24     void getSupportedDescriptors() override;
25     void createPrimitive() override;
26     bool created() const override;
27
28 private:
29     static Register<MKLDNNSoftMaxNode> reg;
30     int axis = 0;
31 };
32
33 }  // namespace MKLDNNPlugin
34