5c86da2be49bee62d36939a9e7e9ba72deb27e93
[platform/upstream/opencv.git] / modules / dnn / include / opencv2 / dnn / all_layers.hpp
1 /*M///////////////////////////////////////////////////////////////////////////////////////
2 //
3 //  IMPORTANT: READ BEFORE DOWNLOADING, COPYING, INSTALLING OR USING.
4 //
5 //  By downloading, copying, installing or using the software you agree to this license.
6 //  If you do not agree to this license, do not download, install,
7 //  copy or use the software.
8 //
9 //
10 //                           License Agreement
11 //                For Open Source Computer Vision Library
12 //
13 // Copyright (C) 2013, OpenCV Foundation, all rights reserved.
14 // Third party copyrights are property of their respective owners.
15 //
16 // Redistribution and use in source and binary forms, with or without modification,
17 // are permitted provided that the following conditions are met:
18 //
19 //   * Redistribution's of source code must retain the above copyright notice,
20 //     this list of conditions and the following disclaimer.
21 //
22 //   * Redistribution's in binary form must reproduce the above copyright notice,
23 //     this list of conditions and the following disclaimer in the documentation
24 //     and/or other materials provided with the distribution.
25 //
26 //   * The name of the copyright holders may not be used to endorse or promote products
27 //     derived from this software without specific prior written permission.
28 //
29 // This software is provided by the copyright holders and contributors "as is" and
30 // any express or implied warranties, including, but not limited to, the implied
31 // warranties of merchantability and fitness for a particular purpose are disclaimed.
32 // In no event shall the Intel Corporation or contributors be liable for any direct,
33 // indirect, incidental, special, exemplary, or consequential damages
34 // (including, but not limited to, procurement of substitute goods or services;
35 // loss of use, data, or profits; or business interruption) however caused
36 // and on any theory of liability, whether in contract, strict liability,
37 // or tort (including negligence or otherwise) arising in any way out of
38 // the use of this software, even if advised of the possibility of such damage.
39 //
40 //M*/
41
42 #ifndef OPENCV_DNN_DNN_ALL_LAYERS_HPP
43 #define OPENCV_DNN_DNN_ALL_LAYERS_HPP
44 #include <opencv2/dnn.hpp>
45
46 namespace cv {
47 namespace dnn {
48 CV__DNN_INLINE_NS_BEGIN
49 //! @addtogroup dnn
50 //! @{
51
52 /** @defgroup dnnLayerList Partial List of Implemented Layers
53   @{
54   This subsection of dnn module contains information about built-in layers and their descriptions.
55
56   Classes listed here, in fact, provides C++ API for creating instances of built-in layers.
57   In addition to this way of layers instantiation, there is a more common factory API (see @ref dnnLayerFactory), it allows to create layers dynamically (by name) and register new ones.
58   You can use both API, but factory API is less convenient for native C++ programming and basically designed for use inside importers (see @ref readNetFromCaffe(), @ref readNetFromTorch(), @ref readNetFromTensorflow()).
59
60   Built-in layers partially reproduce functionality of corresponding Caffe and Torch7 layers.
61   In particular, the following layers and Caffe importer were tested to reproduce <a href="http://caffe.berkeleyvision.org/tutorial/layers.html">Caffe</a> functionality:
62   - Convolution
63   - Deconvolution
64   - Pooling
65   - InnerProduct
66   - TanH, ReLU, Sigmoid, BNLL, Power, AbsVal
67   - Softmax
68   - Reshape, Flatten, Slice, Split
69   - LRN
70   - MVN
71   - Dropout (since it does nothing on forward pass -))
72 */
73
74     class CV_EXPORTS BlankLayer : public Layer
75     {
76     public:
77         static Ptr<Layer> create(const LayerParams &params);
78     };
79
80     /**
81      * Constant layer produces the same data blob at an every forward pass.
82      */
83     class CV_EXPORTS ConstLayer : public Layer
84     {
85     public:
86         static Ptr<Layer> create(const LayerParams &params);
87     };
88
89     //! LSTM recurrent layer
90     class CV_EXPORTS LSTMLayer : public Layer
91     {
92     public:
93         /** Creates instance of LSTM layer */
94         static Ptr<LSTMLayer> create(const LayerParams& params);
95
96         /** @deprecated Use LayerParams::blobs instead.
97         @brief Set trained weights for LSTM layer.
98
99         LSTM behavior on each step is defined by current input, previous output, previous cell state and learned weights.
100
101         Let @f$x_t@f$ be current input, @f$h_t@f$ be current output, @f$c_t@f$ be current state.
102         Than current output and current cell state is computed as follows:
103         @f{eqnarray*}{
104         h_t &= o_t \odot tanh(c_t),               \\
105         c_t &= f_t \odot c_{t-1} + i_t \odot g_t, \\
106         @f}
107         where @f$\odot@f$ is per-element multiply operation and @f$i_t, f_t, o_t, g_t@f$ is internal gates that are computed using learned weights.
108
109         Gates are computed as follows:
110         @f{eqnarray*}{
111         i_t &= sigmoid&(W_{xi} x_t + W_{hi} h_{t-1} + b_i), \\
112         f_t &= sigmoid&(W_{xf} x_t + W_{hf} h_{t-1} + b_f), \\
113         o_t &= sigmoid&(W_{xo} x_t + W_{ho} h_{t-1} + b_o), \\
114         g_t &= tanh   &(W_{xg} x_t + W_{hg} h_{t-1} + b_g), \\
115         @f}
116         where @f$W_{x?}@f$, @f$W_{h?}@f$ and @f$b_{?}@f$ are learned weights represented as matrices:
117         @f$W_{x?} \in R^{N_h \times N_x}@f$, @f$W_{h?} \in R^{N_h \times N_h}@f$, @f$b_? \in R^{N_h}@f$.
118
119         For simplicity and performance purposes we use @f$ W_x = [W_{xi}; W_{xf}; W_{xo}, W_{xg}] @f$
120         (i.e. @f$W_x@f$ is vertical concatenation of @f$ W_{x?} @f$), @f$ W_x \in R^{4N_h \times N_x} @f$.
121         The same for @f$ W_h = [W_{hi}; W_{hf}; W_{ho}, W_{hg}], W_h \in R^{4N_h \times N_h} @f$
122         and for @f$ b = [b_i; b_f, b_o, b_g]@f$, @f$b \in R^{4N_h} @f$.
123
124         @param Wh is matrix defining how previous output is transformed to internal gates (i.e. according to above mentioned notation is @f$ W_h @f$)
125         @param Wx is matrix defining how current input is transformed to internal gates (i.e. according to above mentioned notation is @f$ W_x @f$)
126         @param b  is bias vector (i.e. according to above mentioned notation is @f$ b @f$)
127         */
128         CV_DEPRECATED virtual void setWeights(const Mat &Wh, const Mat &Wx, const Mat &b) = 0;
129
130         /** @brief Specifies shape of output blob which will be [[`T`], `N`] + @p outTailShape.
131           * @details If this parameter is empty or unset then @p outTailShape = [`Wh`.size(0)] will be used,
132           * where `Wh` is parameter from setWeights().
133           */
134         virtual void setOutShape(const MatShape &outTailShape = MatShape()) = 0;
135
136         /** @deprecated Use flag `produce_cell_output` in LayerParams.
137           * @brief Specifies either interpret first dimension of input blob as timestamp dimension either as sample.
138           *
139           * If flag is set to true then shape of input blob will be interpreted as [`T`, `N`, `[data dims]`] where `T` specifies number of timestamps, `N` is number of independent streams.
140           * In this case each forward() call will iterate through `T` timestamps and update layer's state `T` times.
141           *
142           * If flag is set to false then shape of input blob will be interpreted as [`N`, `[data dims]`].
143           * In this case each forward() call will make one iteration and produce one timestamp with shape [`N`, `[out dims]`].
144           */
145         CV_DEPRECATED virtual void setUseTimstampsDim(bool use = true) = 0;
146
147         /** @deprecated Use flag `use_timestamp_dim` in LayerParams.
148          * @brief If this flag is set to true then layer will produce @f$ c_t @f$ as second output.
149          * @details Shape of the second output is the same as first output.
150          */
151         CV_DEPRECATED virtual void setProduceCellOutput(bool produce = false) = 0;
152
153         /* In common case it use single input with @f$x_t@f$ values to compute output(s) @f$h_t@f$ (and @f$c_t@f$).
154          * @param input should contain packed values @f$x_t@f$
155          * @param output contains computed outputs: @f$h_t@f$ (and @f$c_t@f$ if setProduceCellOutput() flag was set to true).
156          *
157          * If setUseTimstampsDim() is set to true then @p input[0] should has at least two dimensions with the following shape: [`T`, `N`, `[data dims]`],
158          * where `T` specifies number of timestamps, `N` is number of independent streams (i.e. @f$ x_{t_0 + t}^{stream} @f$ is stored inside @p input[0][t, stream, ...]).
159          *
160          * If setUseTimstampsDim() is set to false then @p input[0] should contain single timestamp, its shape should has form [`N`, `[data dims]`] with at least one dimension.
161          * (i.e. @f$ x_{t}^{stream} @f$ is stored inside @p input[0][stream, ...]).
162         */
163
164         int inputNameToIndex(String inputName) CV_OVERRIDE;
165         int outputNameToIndex(const String& outputName) CV_OVERRIDE;
166     };
167
168     /** @brief GRU recurrent one-layer
169      *
170      * Accepts input sequence and computes the final hidden state for each element in the batch.
171      *
172      * - input[0] containing the features of the input sequence.
173      * input[0] should have shape [`T`, `N`, `data_dims`] where `T` is sequence length, `N` is batch size, `data_dims` is input size
174      * - output would have shape [`T`, `N`, `D` * `hidden_size`] where `D = 2` if layer is bidirectional otherwise `D = 1`
175      *
176      * Depends on the following attributes:
177      * - hidden_size - Number of neurons in the hidden layer
178      * - direction - RNN could be bidirectional or forward
179      *
180      * The final hidden state @f$ h_t @f$ computes by the following formulas:
181      *
182      @f{eqnarray*}{
183      r_t = \sigma(W_{ir} x_t + b_{ir} + W_{hr} h_{(t-1)} + b_{hr}) \\
184      z_t = \sigma(W_{iz} x_t + b_{iz} + W_{hz} h_{(t-1)} + b_{hz}) \\
185      n_t = \tanh(W_{in} x_t + b_{in} + r_t \odot (W_{hn} h_{(t-1)}+ b_{hn})) \\
186      h_t = (1 - z_t) \odot n_t + z_t \odot h_{(t-1)} \\
187      @f}
188      * Where @f$x_t@f$ is current input, @f$h_{(t-1)}@f$ is previous or initial hidden state.
189      *
190      * @f$W_{x?}@f$, @f$W_{h?}@f$ and @f$b_{?}@f$ are learned weights represented as matrices:
191      * @f$W_{x?} \in R^{N_h \times N_x}@f$, @f$W_{h?} \in R^{N_h \times N_h}@f$, @f$b_? \in R^{N_h}@f$.
192      *
193      * @f$\odot@f$ is per-element multiply operation.
194     */
195     class CV_EXPORTS GRULayer : public Layer
196     {
197     public:
198         /** Creates instance of GRU layer */
199         static Ptr<GRULayer> create(const LayerParams& params);
200     };
201
202     /** @brief Classical recurrent layer
203
204     Accepts two inputs @f$x_t@f$ and @f$h_{t-1}@f$ and compute two outputs @f$o_t@f$ and @f$h_t@f$.
205
206     - input: should contain packed input @f$x_t@f$.
207     - output: should contain output @f$o_t@f$ (and @f$h_t@f$ if setProduceHiddenOutput() is set to true).
208
209     input[0] should have shape [`T`, `N`, `data_dims`] where `T` and `N` is number of timestamps and number of independent samples of @f$x_t@f$ respectively.
210
211     output[0] will have shape [`T`, `N`, @f$N_o@f$], where @f$N_o@f$ is number of rows in @f$ W_{xo} @f$ matrix.
212
213     If setProduceHiddenOutput() is set to true then @p output[1] will contain a Mat with shape [`T`, `N`, @f$N_h@f$], where @f$N_h@f$ is number of rows in @f$ W_{hh} @f$ matrix.
214     */
215     class CV_EXPORTS RNNLayer : public Layer
216     {
217     public:
218         /** Creates instance of RNNLayer */
219         static Ptr<RNNLayer> create(const LayerParams& params);
220
221         /** Setups learned weights.
222
223         Recurrent-layer behavior on each step is defined by current input @f$ x_t @f$, previous state @f$ h_t @f$ and learned weights as follows:
224         @f{eqnarray*}{
225         h_t &= tanh&(W_{hh} h_{t-1} + W_{xh} x_t + b_h),  \\
226         o_t &= tanh&(W_{ho} h_t + b_o),
227         @f}
228
229         @param Wxh is @f$ W_{xh} @f$ matrix
230         @param bh  is @f$ b_{h}  @f$ vector
231         @param Whh is @f$ W_{hh} @f$ matrix
232         @param Who is @f$ W_{xo} @f$ matrix
233         @param bo  is @f$ b_{o}  @f$ vector
234         */
235         virtual void setWeights(const Mat &Wxh, const Mat &bh, const Mat &Whh, const Mat &Who, const Mat &bo) = 0;
236
237         /** @brief If this flag is set to true then layer will produce @f$ h_t @f$ as second output.
238          * @details Shape of the second output is the same as first output.
239          */
240         virtual void setProduceHiddenOutput(bool produce = false) = 0;
241
242     };
243
244     class CV_EXPORTS BaseConvolutionLayer : public Layer
245     {
246     public:
247         CV_DEPRECATED_EXTERNAL Size kernel, stride, pad, dilation, adjustPad;
248         std::vector<size_t> adjust_pads;
249         std::vector<size_t> kernel_size, strides, dilations;
250         std::vector<size_t> pads_begin, pads_end;
251         String padMode;
252         int numOutput;
253     };
254
255     class CV_EXPORTS ConvolutionLayer : public BaseConvolutionLayer
256     {
257     public:
258         static Ptr<BaseConvolutionLayer> create(const LayerParams& params);
259     };
260
261     class CV_EXPORTS ConvolutionLayerInt8 : public BaseConvolutionLayer
262     {
263     public:
264         int input_zp, output_zp;
265         float input_sc, output_sc;
266
267         // quantization type flag. The perChannel default is true, that means it contains the parameters
268         // of per-Channel quantization. Otherwise, that means this layer contains per-Tensor quantized parameters.
269         bool per_channel;
270         static Ptr<BaseConvolutionLayer> create(const LayerParams& params);
271     };
272
273     class CV_EXPORTS DeconvolutionLayer : public BaseConvolutionLayer
274     {
275     public:
276         static Ptr<BaseConvolutionLayer> create(const LayerParams& params);
277     };
278
279     class CV_EXPORTS LRNLayer : public Layer
280     {
281     public:
282         int type;
283
284         int size;
285         float alpha, beta, bias;
286         bool normBySize;
287
288         static Ptr<LRNLayer> create(const LayerParams& params);
289     };
290
291
292     /** @brief ArgMax/ArgMin layer
293      * @note returns indices as floats, which means the supported range is [-2^24; 2^24]
294      */
295     class CV_EXPORTS ArgLayer : public Layer
296     {
297     public:
298         static Ptr<ArgLayer> create(const LayerParams& params);
299     };
300
301     class CV_EXPORTS PoolingLayer : public Layer
302     {
303     public:
304         int type;
305         std::vector<size_t> kernel_size, strides;
306         std::vector<size_t> pads_begin, pads_end;
307         bool globalPooling; //!< Flag is true if at least one of the axes is global pooled.
308         std::vector<bool> isGlobalPooling;
309         bool computeMaxIdx;
310         String padMode;
311         bool ceilMode;
312         // If true for average pooling with padding, divide an every output region
313         // by a whole kernel area. Otherwise exclude zero padded values and divide
314         // by number of real values.
315         bool avePoolPaddedArea;
316         // ROIPooling parameters.
317         Size pooledSize;
318         float spatialScale;
319         // PSROIPooling parameters.
320         int psRoiOutChannels;
321
322         static Ptr<PoolingLayer> create(const LayerParams& params);
323     };
324
325     class CV_EXPORTS PoolingLayerInt8 : public PoolingLayer
326     {
327     public:
328         int input_zp, output_zp;
329         float input_sc, output_sc;
330         static Ptr<PoolingLayerInt8> create(const LayerParams& params);
331     };
332
333     class CV_EXPORTS ReduceLayer : public Layer
334     {
335     public:
336         int reduceType;
337         std::vector<size_t> reduceDims;
338         static Ptr<ReduceLayer> create(const LayerParams& params);
339     };
340
341     class CV_EXPORTS ReduceLayerInt8 : public ReduceLayer
342     {
343     public:
344         static Ptr<ReduceLayerInt8> create(const LayerParams& params);
345     };
346
347     class CV_EXPORTS SoftmaxLayer : public Layer
348     {
349     public:
350         bool logSoftMax;
351
352         static Ptr<SoftmaxLayer> create(const LayerParams& params);
353     };
354
355     class CV_EXPORTS SoftmaxLayerInt8 : public SoftmaxLayer
356     {
357     public:
358         float output_sc;
359         int output_zp;
360         static Ptr<SoftmaxLayerInt8> create(const LayerParams& params);
361     };
362
363     class CV_EXPORTS InnerProductLayer : public Layer
364     {
365     public:
366         int axis;
367         static Ptr<InnerProductLayer> create(const LayerParams& params);
368     };
369
370     class CV_EXPORTS InnerProductLayerInt8 : public InnerProductLayer
371     {
372     public:
373         int input_zp, output_zp;
374         float input_sc, output_sc;
375
376         // quantization type flag. The perChannel default is true, that means it contains the parameters
377         // of per-Channel quantization. Otherwise, that means this layer contains per-Tensor quantized parameters.
378         bool per_channel;
379         static Ptr<InnerProductLayerInt8> create(const LayerParams& params);
380     };
381
382     class CV_EXPORTS MVNLayer : public Layer
383     {
384     public:
385         float eps;
386         bool normVariance, acrossChannels;
387
388         static Ptr<MVNLayer> create(const LayerParams& params);
389     };
390
391     /* Reshaping */
392
393     class CV_EXPORTS ReshapeLayer : public Layer
394     {
395     public:
396         MatShape newShapeDesc;
397         Range newShapeRange;
398
399         static Ptr<ReshapeLayer> create(const LayerParams& params);
400     };
401
402     class CV_EXPORTS FlattenLayer : public Layer
403     {
404     public:
405         static Ptr<FlattenLayer> create(const LayerParams &params);
406     };
407
408     class CV_EXPORTS QuantizeLayer : public Layer
409     {
410     public:
411         float scale;
412         int zeropoint;
413         static Ptr<QuantizeLayer> create(const LayerParams &params);
414     };
415
416     class CV_EXPORTS DequantizeLayer : public Layer
417     {
418     public:
419         float scale;
420         int zeropoint;
421         static Ptr<DequantizeLayer> create(const LayerParams &params);
422     };
423
424     class CV_EXPORTS RequantizeLayer : public Layer
425     {
426     public:
427         float scale, shift;
428         static Ptr<RequantizeLayer> create(const LayerParams &params);
429     };
430
431     class CV_EXPORTS ConcatLayer : public Layer
432     {
433     public:
434         int axis;
435         /**
436          * @brief Add zero padding in case of concatenation of blobs with different
437          * spatial sizes.
438          *
439          * Details: https://github.com/torch/nn/blob/master/doc/containers.md#depthconcat
440          */
441         bool padding;
442         int paddingValue;
443
444         static Ptr<ConcatLayer> create(const LayerParams &params);
445     };
446
447     class CV_EXPORTS SplitLayer : public Layer
448     {
449     public:
450         int outputsCount; //!< Number of copies that will be produced (is ignored when negative).
451
452         static Ptr<SplitLayer> create(const LayerParams &params);
453     };
454
455     /**
456      * Slice layer has several modes:
457      * 1. Caffe mode
458      * @param[in] axis Axis of split operation
459      * @param[in] slice_point Array of split points
460      *
461      * Number of output blobs equals to number of split points plus one. The
462      * first blob is a slice on input from 0 to @p slice_point[0] - 1 by @p axis,
463      * the second output blob is a slice of input from @p slice_point[0] to
464      * @p slice_point[1] - 1 by @p axis and the last output blob is a slice of
465      * input from @p slice_point[-1] up to the end of @p axis size.
466      *
467      * 2. TensorFlow mode
468      * @param begin Vector of start indices
469      * @param size Vector of sizes
470      *
471      * More convenient numpy-like slice. One and only output blob
472      * is a slice `input[begin[0]:begin[0]+size[0], begin[1]:begin[1]+size[1], ...]`
473      *
474      * 3. Torch mode
475      * @param axis Axis of split operation
476      *
477      * Split input blob on the equal parts by @p axis.
478      */
479     class CV_EXPORTS SliceLayer : public Layer
480     {
481     public:
482         /**
483          * @brief Vector of slice ranges.
484          *
485          * The first dimension equals number of output blobs.
486          * Inner vector has slice ranges for the first number of input dimensions.
487          */
488         std::vector<std::vector<Range> > sliceRanges;
489         std::vector<std::vector<int> > sliceSteps;
490         int axis;
491         int num_split;
492
493         static Ptr<SliceLayer> create(const LayerParams &params);
494     };
495
496     class CV_EXPORTS PermuteLayer : public Layer
497     {
498     public:
499         static Ptr<PermuteLayer> create(const LayerParams& params);
500     };
501
502     /**
503      * Permute channels of 4-dimensional input blob.
504      * @param group Number of groups to split input channels and pick in turns
505      *              into output blob.
506      *
507      * \f[ groupSize = \frac{number\ of\ channels}{group} \f]
508      * \f[ output(n, c, h, w) = input(n, groupSize \times (c \% group) + \lfloor \frac{c}{group} \rfloor, h, w) \f]
509      * Read more at https://arxiv.org/pdf/1707.01083.pdf
510      */
511     class CV_EXPORTS ShuffleChannelLayer : public Layer
512     {
513     public:
514         static Ptr<Layer> create(const LayerParams& params);
515
516         int group;
517     };
518
519     /**
520      * @brief Adds extra values for specific axes.
521      * @param paddings Vector of paddings in format
522      *                 @code
523      *                 [ pad_before, pad_after,  // [0]th dimension
524      *                   pad_before, pad_after,  // [1]st dimension
525      *                   ...
526      *                   pad_before, pad_after ] // [n]th dimension
527      *                 @endcode
528      *                 that represents number of padded values at every dimension
529      *                 starting from the first one. The rest of dimensions won't
530      *                 be padded.
531      * @param value Value to be padded. Defaults to zero.
532      * @param type Padding type: 'constant', 'reflect'
533      * @param input_dims Torch's parameter. If @p input_dims is not equal to the
534      *                   actual input dimensionality then the `[0]th` dimension
535      *                   is considered as a batch dimension and @p paddings are shifted
536      *                   to a one dimension. Defaults to `-1` that means padding
537      *                   corresponding to @p paddings.
538      */
539     class CV_EXPORTS PaddingLayer : public Layer
540     {
541     public:
542         static Ptr<PaddingLayer> create(const LayerParams& params);
543     };
544
545     /* Activations */
546     class CV_EXPORTS ActivationLayer : public Layer
547     {
548     public:
549         virtual void forwardSlice(const float* src, float* dst, int len,
550                                   size_t outPlaneSize, int cn0, int cn1) const {};
551         virtual void forwardSlice(const int* src, const int* lut, int* dst, int len,
552                                   size_t outPlaneSize, int cn0, int cn1) const {};
553         virtual void forwardSlice(const int8_t* src, const int8_t* lut, int8_t* dst, int len,
554                                   size_t outPlaneSize, int cn0, int cn1) const {};
555     };
556
557     class CV_EXPORTS ReLULayer : public ActivationLayer
558     {
559     public:
560         float negativeSlope;
561
562         static Ptr<ReLULayer> create(const LayerParams &params);
563     };
564
565     class CV_EXPORTS ReLU6Layer : public ActivationLayer
566     {
567     public:
568         float minValue, maxValue;
569
570         static Ptr<ReLU6Layer> create(const LayerParams &params);
571     };
572
573     class CV_EXPORTS ChannelsPReLULayer : public ActivationLayer
574     {
575     public:
576         static Ptr<Layer> create(const LayerParams& params);
577     };
578
579     class CV_EXPORTS ELULayer : public ActivationLayer
580     {
581     public:
582         float alpha;
583
584         static Ptr<ELULayer> create(const LayerParams &params);
585     };
586
587     class CV_EXPORTS TanHLayer : public ActivationLayer
588     {
589     public:
590         static Ptr<TanHLayer> create(const LayerParams &params);
591     };
592
593     class CV_EXPORTS SwishLayer : public ActivationLayer
594     {
595     public:
596         static Ptr<SwishLayer> create(const LayerParams &params);
597     };
598
599     class CV_EXPORTS MishLayer : public ActivationLayer
600     {
601     public:
602         static Ptr<MishLayer> create(const LayerParams &params);
603     };
604
605     class CV_EXPORTS SigmoidLayer : public ActivationLayer
606     {
607     public:
608         static Ptr<SigmoidLayer> create(const LayerParams &params);
609     };
610
611     class CV_EXPORTS BNLLLayer : public ActivationLayer
612     {
613     public:
614         static Ptr<BNLLLayer> create(const LayerParams &params);
615     };
616
617     class CV_EXPORTS AbsLayer : public ActivationLayer
618     {
619     public:
620         static Ptr<AbsLayer> create(const LayerParams &params);
621     };
622
623     class CV_EXPORTS PowerLayer : public ActivationLayer
624     {
625     public:
626         float power, scale, shift;
627
628         static Ptr<PowerLayer> create(const LayerParams &params);
629     };
630
631     class CV_EXPORTS ExpLayer : public ActivationLayer
632     {
633     public:
634         float base, scale, shift;
635
636         static Ptr<ExpLayer> create(const LayerParams &params);
637     };
638
639     class CV_EXPORTS CeilLayer : public ActivationLayer
640     {
641     public:
642         static Ptr<CeilLayer> create(const LayerParams &params);
643     };
644
645     class CV_EXPORTS FloorLayer : public ActivationLayer
646     {
647     public:
648         static Ptr<FloorLayer> create(const LayerParams &params);
649     };
650
651     class CV_EXPORTS LogLayer : public ActivationLayer
652     {
653     public:
654         static Ptr<LogLayer> create(const LayerParams &params);
655     };
656
657     class CV_EXPORTS RoundLayer : public ActivationLayer
658     {
659     public:
660         static Ptr<RoundLayer> create(const LayerParams &params);
661     };
662
663     class CV_EXPORTS SqrtLayer : public ActivationLayer
664     {
665     public:
666         static Ptr<SqrtLayer> create(const LayerParams &params);
667     };
668
669     class CV_EXPORTS NotLayer : public ActivationLayer
670     {
671     public:
672         static Ptr<NotLayer> create(const LayerParams &params);
673     };
674
675     class CV_EXPORTS AcosLayer : public ActivationLayer
676     {
677     public:
678         static Ptr<AcosLayer> create(const LayerParams &params);
679     };
680
681     class CV_EXPORTS AcoshLayer : public ActivationLayer
682     {
683     public:
684         static Ptr<AcoshLayer> create(const LayerParams &params);
685     };
686
687     class CV_EXPORTS AsinLayer : public ActivationLayer
688     {
689     public:
690         static Ptr<AsinLayer> create(const LayerParams &params);
691     };
692
693     class CV_EXPORTS AsinhLayer : public ActivationLayer
694     {
695     public:
696         static Ptr<AsinhLayer> create(const LayerParams &params);
697     };
698
699     class CV_EXPORTS AtanLayer : public ActivationLayer
700     {
701     public:
702         static Ptr<AtanLayer> create(const LayerParams &params);
703     };
704
705     class CV_EXPORTS AtanhLayer : public ActivationLayer
706     {
707     public:
708         static Ptr<AtanhLayer> create(const LayerParams &params);
709     };
710
711     class CV_EXPORTS CosLayer : public ActivationLayer
712     {
713     public:
714         static Ptr<CosLayer> create(const LayerParams &params);
715     };
716
717     class CV_EXPORTS CoshLayer : public ActivationLayer
718     {
719     public:
720         static Ptr<CoshLayer> create(const LayerParams &params);
721     };
722
723     class CV_EXPORTS ErfLayer : public ActivationLayer
724     {
725     public:
726         static Ptr<ErfLayer> create(const LayerParams &params);
727     };
728
729     class CV_EXPORTS HardSwishLayer : public ActivationLayer
730     {
731     public:
732         static Ptr<HardSwishLayer> create(const LayerParams &params);
733     };
734
735     class CV_EXPORTS SinLayer : public ActivationLayer
736     {
737     public:
738         static Ptr<SinLayer> create(const LayerParams &params);
739     };
740
741     class CV_EXPORTS SinhLayer : public ActivationLayer
742     {
743     public:
744         static Ptr<SinhLayer> create(const LayerParams &params);
745     };
746
747     class CV_EXPORTS SoftplusLayer : public ActivationLayer
748     {
749     public:
750         static Ptr<SoftplusLayer> create(const LayerParams &params);
751     };
752
753     class CV_EXPORTS SoftsignLayer : public ActivationLayer
754     {
755     public:
756         static Ptr<SoftsignLayer> create(const LayerParams &params);
757     };
758
759     class CV_EXPORTS TanLayer : public ActivationLayer
760     {
761     public:
762         static Ptr<TanLayer> create(const LayerParams &params);
763     };
764
765     class CV_EXPORTS CeluLayer : public ActivationLayer
766     {
767     public:
768         float alpha;
769
770         static Ptr<CeluLayer> create(const LayerParams &params);
771     };
772
773     class CV_EXPORTS HardSigmoidLayer : public ActivationLayer
774     {
775     public:
776         float alpha;
777         float beta;
778
779         static Ptr<HardSigmoidLayer> create(const LayerParams &params);
780     };
781
782     class CV_EXPORTS SeluLayer : public ActivationLayer
783     {
784     public:
785         float alpha;
786         float gamma;
787
788         static Ptr<SeluLayer> create(const LayerParams &params);
789     };
790
791     class CV_EXPORTS ThresholdedReluLayer : public ActivationLayer
792     {
793     public:
794         float alpha;
795
796         static Ptr<ThresholdedReluLayer> create(const LayerParams &params);
797     };
798
799     class CV_EXPORTS ActivationLayerInt8 : public ActivationLayer
800     {
801     public:
802         static Ptr<ActivationLayerInt8> create(const LayerParams &params);
803     };
804
805     class CV_EXPORTS SignLayer : public ActivationLayer
806     {
807     public:
808         static Ptr<SignLayer> create(const LayerParams &params);
809     };
810
811     class CV_EXPORTS ShrinkLayer : public ActivationLayer
812     {
813     public:
814         float bias;
815         float lambd;
816         static Ptr<ShrinkLayer> create(const LayerParams &params);
817     };
818
819     class CV_EXPORTS ReciprocalLayer : public ActivationLayer
820     {
821     public:
822         static Ptr<ReciprocalLayer> create(const LayerParams &params);
823     };
824
825     /* Layers used in semantic segmentation */
826
827     class CV_EXPORTS CropLayer : public Layer
828     {
829     public:
830         static Ptr<Layer> create(const LayerParams &params);
831     };
832
833     /** @brief Element wise operation on inputs
834
835     Extra optional parameters:
836     - "operation" as string. Values are "sum" (default), "prod", "max", "div", "min"
837     - "coeff" as float array. Specify weights of inputs for SUM operation
838     - "output_channels_mode" as string. Values are "same" (default, all input must have the same layout), "input_0", "input_0_truncate", "max_input_channels"
839     */
840     class CV_EXPORTS EltwiseLayer : public Layer
841     {
842     public:
843         static Ptr<EltwiseLayer> create(const LayerParams &params);
844     };
845
846     class CV_EXPORTS EltwiseLayerInt8 : public Layer
847     {
848     public:
849         static Ptr<EltwiseLayerInt8> create(const LayerParams &params);
850     };
851
852     class CV_EXPORTS BatchNormLayer : public ActivationLayer
853     {
854     public:
855         bool hasWeights, hasBias;
856         float epsilon;
857
858         static Ptr<BatchNormLayer> create(const LayerParams &params);
859     };
860
861     class CV_EXPORTS BatchNormLayerInt8 : public BatchNormLayer
862     {
863     public:
864         float input_sc, output_sc;
865         int input_zp, output_zp;
866         static Ptr<BatchNormLayerInt8> create(const LayerParams &params);
867     };
868
869     class CV_EXPORTS MaxUnpoolLayer : public Layer
870     {
871     public:
872         Size poolKernel;
873         Size poolPad;
874         Size poolStride;
875
876         static Ptr<MaxUnpoolLayer> create(const LayerParams &params);
877     };
878
879     class CV_EXPORTS ScaleLayer : public Layer
880     {
881     public:
882         bool hasBias;
883         int axis;
884         String mode;
885
886         static Ptr<ScaleLayer> create(const LayerParams& params);
887     };
888
889     class CV_EXPORTS ScaleLayerInt8 : public ScaleLayer
890     {
891     public:
892         float output_sc;
893         int output_zp;
894         static Ptr<ScaleLayerInt8> create(const LayerParams &params);
895     };
896
897     class CV_EXPORTS ShiftLayer : public Layer
898     {
899     public:
900         static Ptr<Layer> create(const LayerParams& params);
901     };
902
903     class CV_EXPORTS ShiftLayerInt8 : public Layer
904     {
905     public:
906         static Ptr<Layer> create(const LayerParams& params);
907     };
908
909     class CV_EXPORTS CompareLayer : public Layer
910     {
911     public:
912         static Ptr<Layer> create(const LayerParams& params);
913     };
914
915     class CV_EXPORTS DataAugmentationLayer : public Layer
916     {
917     public:
918         static Ptr<DataAugmentationLayer> create(const LayerParams& params);
919     };
920
921     class CV_EXPORTS CorrelationLayer : public Layer
922     {
923     public:
924         static Ptr<CorrelationLayer> create(const LayerParams& params);
925     };
926
927     class CV_EXPORTS AccumLayer : public Layer
928     {
929     public:
930         static Ptr<AccumLayer> create(const LayerParams& params);
931     };
932
933     class CV_EXPORTS FlowWarpLayer : public Layer
934     {
935     public:
936         static Ptr<FlowWarpLayer> create(const LayerParams& params);
937     };
938
939     class CV_EXPORTS PriorBoxLayer : public Layer
940     {
941     public:
942         static Ptr<PriorBoxLayer> create(const LayerParams& params);
943     };
944
945     class CV_EXPORTS ReorgLayer : public Layer
946     {
947     public:
948         static Ptr<ReorgLayer> create(const LayerParams& params);
949     };
950
951     class CV_EXPORTS RegionLayer : public Layer
952     {
953     public:
954         float nmsThreshold;
955
956         static Ptr<RegionLayer> create(const LayerParams& params);
957     };
958
959     /**
960      * @brief Detection output layer.
961      *
962      * The layer size is: @f$ (1 \times 1 \times N \times 7) @f$
963      *    where N is [keep_top_k] parameter multiplied by batch size. Each row is:
964      *    [image_id, label, confidence, xmin, ymin, xmax, ymax]
965      *    where image_id is the index of image input in the batch.
966      */
967     class CV_EXPORTS DetectionOutputLayer : public Layer
968     {
969     public:
970         static Ptr<DetectionOutputLayer> create(const LayerParams& params);
971     };
972
973     /**
974      * @brief \f$ L_p \f$ - normalization layer.
975      * @param p Normalization factor. The most common `p = 1` for \f$ L_1 \f$ -
976      *          normalization or `p = 2` for \f$ L_2 \f$ - normalization or a custom one.
977      * @param eps Parameter \f$ \epsilon \f$ to prevent a division by zero.
978      * @param across_spatial If true, normalize an input across all non-batch dimensions.
979      *                       Otherwise normalize an every channel separately.
980      *
981      * Across spatial:
982      * @f[
983      * norm = \sqrt[p]{\epsilon + \sum_{x, y, c} |src(x, y, c)|^p } \\
984      * dst(x, y, c) = \frac{ src(x, y, c) }{norm}
985      * @f]
986      *
987      * Channel wise normalization:
988      * @f[
989      * norm(c) = \sqrt[p]{\epsilon + \sum_{x, y} |src(x, y, c)|^p } \\
990      * dst(x, y, c) = \frac{ src(x, y, c) }{norm(c)}
991      * @f]
992      *
993      * Where `x, y` - spatial coordinates, `c` - channel.
994      *
995      * An every sample in the batch is normalized separately. Optionally,
996      * output is scaled by the trained parameters.
997      */
998     class CV_EXPORTS NormalizeBBoxLayer : public Layer
999     {
1000     public:
1001         float pnorm, epsilon;
1002         CV_DEPRECATED_EXTERNAL bool acrossSpatial;
1003
1004         static Ptr<NormalizeBBoxLayer> create(const LayerParams& params);
1005     };
1006
1007     /**
1008      * @brief Resize input 4-dimensional blob by nearest neighbor or bilinear strategy.
1009      *
1010      * Layer is used to support TensorFlow's resize_nearest_neighbor and resize_bilinear ops.
1011      */
1012     class CV_EXPORTS ResizeLayer : public Layer
1013     {
1014     public:
1015         static Ptr<ResizeLayer> create(const LayerParams& params);
1016     };
1017
1018     /**
1019      * @brief Bilinear resize layer from https://github.com/cdmh/deeplab-public-ver2
1020      *
1021      * It differs from @ref ResizeLayer in output shape and resize scales computations.
1022      */
1023     class CV_EXPORTS InterpLayer : public Layer
1024     {
1025     public:
1026         static Ptr<Layer> create(const LayerParams& params);
1027     };
1028
1029     class CV_EXPORTS ProposalLayer : public Layer
1030     {
1031     public:
1032         static Ptr<ProposalLayer> create(const LayerParams& params);
1033     };
1034
1035     class CV_EXPORTS CropAndResizeLayer : public Layer
1036     {
1037     public:
1038         static Ptr<Layer> create(const LayerParams& params);
1039     };
1040
1041     class CV_EXPORTS CumSumLayer : public Layer
1042     {
1043     public:
1044         int exclusive;
1045         int reverse;
1046
1047         static Ptr<CumSumLayer> create(const LayerParams& params);
1048     };
1049
1050 //! @}
1051 //! @}
1052 CV__DNN_INLINE_NS_END
1053 }
1054 }
1055 #endif