Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / src / mkldnn_plugin / nodes / mkldnn_softmax_node.h
1 // Copyright (C) 2018-2019 Intel Corporation
2 // SPDX-License-Identifier: Apache-2.0
3 //
4
5 #pragma once
6
7 #include <ie_common.h>
8 #include <mkldnn_node.h>
9 #include <string>
10 #include <memory>
11 #include <vector>
12
13 namespace MKLDNNPlugin {
14
15 class MKLDNNSoftMaxNode : public MKLDNNNode {
16 public:
17     MKLDNNSoftMaxNode(const InferenceEngine::CNNLayerPtr& layer, const mkldnn::engine& eng);
18     ~MKLDNNSoftMaxNode() override = default;
19
20     void initOptimalPrimitiveDescriptor() override;
21     void createDescriptor(const std::vector<InferenceEngine::TensorDesc>& inputDesc,
22                           const std::vector<InferenceEngine::TensorDesc>& outputDesc) override;
23     void getSupportedDescriptors() override;
24     void createPrimitive() override;
25     bool created() const override;
26
27 private:
28     static Register<MKLDNNSoftMaxNode> reg;
29     int axis = 0;
30 };
31
32 }  // namespace MKLDNNPlugin
33