Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / thirdparty / mkl-dnn / src / common / convolution.cpp
1 /*******************************************************************************
2 * Copyright 2016-2018 Intel Corporation
3 *
4 * Licensed under the Apache License, Version 2.0 (the "License");
5 * you may not use this file except in compliance with the License.
6 * You may obtain a copy of the License at
7 *
8 *     http://www.apache.org/licenses/LICENSE-2.0
9 *
10 * Unless required by applicable law or agreed to in writing, software
11 * distributed under the License is distributed on an "AS IS" BASIS,
12 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13 * See the License for the specific language governing permissions and
14 * limitations under the License.
15 *******************************************************************************/
16
17 #include <assert.h>
18 #include "mkldnn.h"
19
20 #include "c_types_map.hpp"
21 #include "type_helpers.hpp"
22 #include "utils.hpp"
23
24 using namespace mkldnn::impl;
25 using namespace mkldnn::impl::utils;
26 using namespace mkldnn::impl::status;
27 using namespace mkldnn::impl::prop_kind;
28 using namespace mkldnn::impl::alg_kind;
29 using namespace mkldnn::impl::types;
30
31 namespace mkldnn {
32 namespace impl {
33 status_t conv_desc_init(convolution_desc_t *conv_desc,
34         prop_kind_t prop_kind, alg_kind_t alg_kind,
35         const memory_desc_t *src_desc, const memory_desc_t *weights_desc,
36         const memory_desc_t *bias_desc, const memory_desc_t *dst_desc,
37         const dims_t strides, const dims_t dilates,
38         const dims_t padding_l, const dims_t padding_r,
39         padding_kind_t padding_kind) {
40     bool args_ok = true
41         && !any_null(conv_desc, src_desc, weights_desc, dst_desc, strides,
42                 padding_l)
43         && one_of(alg_kind, convolution_auto, convolution_direct, convolution_winograd)
44         && one_of(padding_kind, padding_kind::padding_zero);
45     if (!args_ok) return invalid_arguments;
46
47     if (padding_r == nullptr) padding_r = padding_l;
48
49     auto cd = convolution_desc_t();
50     cd.primitive_kind = primitive_kind::convolution;
51     cd.prop_kind = prop_kind;
52     cd.alg_kind = alg_kind;
53
54     cd.diff_src_desc = cd.src_desc = zero_md();
55     cd.diff_dst_desc = cd.dst_desc = zero_md();
56     cd.diff_weights_desc = cd.weights_desc = zero_md();
57     cd.diff_bias_desc = cd.bias_desc = zero_md();
58
59     const bool is_fwd = one_of(prop_kind, forward_training, forward_inference);
60     const bool with_bias = bias_desc && bias_desc->format != memory_format::undef;
61     const bool with_groups = weights_desc->ndims == src_desc->ndims + 1;
62
63     (prop_kind == backward_data ? cd.diff_src_desc : cd.src_desc) = *src_desc;
64     (is_fwd ? cd.dst_desc : cd.diff_dst_desc)  = *dst_desc;
65     (prop_kind == backward_weights ? cd.diff_weights_desc : cd.weights_desc) =
66         *weights_desc;
67     if (with_bias)
68         (prop_kind == backward_weights ? cd.diff_bias_desc : cd.bias_desc) =
69             *bias_desc;
70
71     int sp_dims = src_desc->ndims - 2;
72     utils::array_copy(cd.strides, strides, sp_dims);
73     utils::array_copy(cd.padding[0], padding_l, sp_dims);
74     utils::array_copy(cd.padding[1], padding_r, sp_dims);
75     if (dilates)
76         utils::array_copy(cd.dilates, dilates, sp_dims);
77     else
78         utils::array_set(cd.dilates, 0, sp_dims);
79
80     cd.padding_kind = padding_kind;
81     cd.accum_data_type = types::default_accum_data_type(src_desc->data_type,
82             weights_desc->data_type, dst_desc->data_type, prop_kind);
83
84     const int g = with_groups ? weights_desc->dims[0] : 1;
85     const int bias_dim = prop_kind == backward_data
86         ? src_desc->dims[1]
87         : dst_desc->dims[1];
88
89     bool consistency = true
90         && memory_desc_wrapper(weights_desc).nelems()
91         && src_desc->ndims == dst_desc->ndims
92         && utils::one_of(src_desc->ndims, 3, 4, 5)
93         && utils::one_of(weights_desc->ndims, src_desc->ndims,
94                 src_desc->ndims + 1)
95         && (with_bias ? bias_desc->ndims == 1 : true)
96         && (with_bias ? bias_desc->dims[0] == bias_dim : true)
97         && src_desc->dims[0] == dst_desc->dims[0]
98         && src_desc->dims[1] == g * weights_desc->dims[with_groups + 1]
99         && dst_desc->dims[1] == g * weights_desc->dims[with_groups + 0];
100     for (int i = 2; i < src_desc->ndims; ++i)
101     {
102         int src = src_desc->dims[i];
103         int ker = weights_desc->dims[with_groups + i];
104         int dil = cd.dilates[i - 2];
105         int pad_l = padding_l[i - 2];
106         int pad_r = padding_r[i - 2];
107         int str = strides[i - 2];
108         int dst = dst_desc->dims[i];
109         int ker_range = 1 + (ker - 1) * (dil + 1);
110
111         if (str < 1) return invalid_arguments;
112         consistency = consistency
113             && dil >= 0
114             && pad_l >= 0
115 //            && pad_r + str > 0 // TODO: [dmitrygo] Commented as WA to support dw conv fusing
116             && (src - ker_range + pad_l + pad_r) / str + 1 == dst;
117     }
118     if (!consistency) return invalid_arguments;
119
120     *conv_desc = cd;
121     return success;
122 }
123 }
124 }
125
126 status_t mkldnn_convolution_forward_desc_init(convolution_desc_t *conv_desc,
127         prop_kind_t prop_kind, alg_kind_t alg_kind,
128         const memory_desc_t *src_desc, const memory_desc_t *weights_desc,
129         const memory_desc_t *bias_desc, const memory_desc_t *dst_desc,
130         const dims_t strides, const dims_t padding_l, const dims_t padding_r,
131         padding_kind_t padding_kind) {
132     if (!one_of(prop_kind, forward_training, forward_inference))
133         return invalid_arguments;
134     return mkldnn::impl::conv_desc_init(conv_desc, prop_kind, alg_kind, src_desc,
135             weights_desc, bias_desc, dst_desc, strides, nullptr,
136             padding_l, padding_r, padding_kind);
137 }
138
139 status_t mkldnn_dilated_convolution_forward_desc_init(
140         convolution_desc_t *conv_desc, prop_kind_t prop_kind,
141         alg_kind_t alg_kind, const memory_desc_t *src_desc,
142         const memory_desc_t *weights_desc, const memory_desc_t *bias_desc,
143         const memory_desc_t *dst_desc, const dims_t strides,
144         const dims_t dilates, const dims_t padding_l,
145         const dims_t padding_r, padding_kind_t padding_kind) {
146     if (!one_of(prop_kind, forward_training, forward_inference))
147         return invalid_arguments;
148     return mkldnn::impl::conv_desc_init(conv_desc, prop_kind, alg_kind, src_desc,
149             weights_desc, bias_desc, dst_desc, strides, dilates,
150             padding_l, padding_r, padding_kind);
151 }
152
153 status_t mkldnn_convolution_backward_data_desc_init(
154         convolution_desc_t *conv_desc, alg_kind_t alg_kind,
155         const memory_desc_t *diff_src_desc, const memory_desc_t *weights_desc,
156         const memory_desc_t *diff_dst_desc, const dims_t strides,
157         const dims_t padding_l, const dims_t padding_r,
158         padding_kind_t padding_kind) {
159     return mkldnn::impl::conv_desc_init(conv_desc, backward_data, alg_kind, diff_src_desc,
160             weights_desc, nullptr, diff_dst_desc, strides, nullptr,
161             padding_l, padding_r, padding_kind);
162 }
163
164 status_t mkldnn_dilated_convolution_backward_data_desc_init(
165         convolution_desc_t *conv_desc, alg_kind_t alg_kind,
166         const memory_desc_t *diff_src_desc, const memory_desc_t *weights_desc,
167         const memory_desc_t *diff_dst_desc, const dims_t strides,
168         const dims_t dilates, const dims_t padding_l, const dims_t padding_r,
169         padding_kind_t padding_kind) {
170     return mkldnn::impl::conv_desc_init(conv_desc, backward_data, alg_kind, diff_src_desc,
171             weights_desc, nullptr, diff_dst_desc, strides, dilates,
172             padding_l, padding_r, padding_kind);
173 }
174
175 status_t mkldnn_convolution_backward_weights_desc_init(
176         convolution_desc_t *conv_desc, alg_kind_t alg_kind,
177         const memory_desc_t *src_desc, const memory_desc_t *diff_weights_desc,
178         const memory_desc_t *diff_bias_desc,
179         const memory_desc_t *diff_dst_desc, const dims_t strides,
180         const dims_t padding_l, const dims_t padding_r,
181         padding_kind_t padding_kind) {
182     return mkldnn::impl::conv_desc_init(conv_desc, backward_weights, alg_kind, src_desc,
183             diff_weights_desc, diff_bias_desc, diff_dst_desc, strides,
184             nullptr, padding_l, padding_r, padding_kind);
185 }
186
187 status_t mkldnn_dilated_convolution_backward_weights_desc_init(
188         convolution_desc_t *conv_desc, alg_kind_t alg_kind,
189         const memory_desc_t *src_desc, const memory_desc_t *diff_weights_desc,
190         const memory_desc_t *diff_bias_desc,
191         const memory_desc_t *diff_dst_desc, const dims_t strides,
192         const dims_t dilates, const dims_t padding_l, const dims_t padding_r,
193         padding_kind_t padding_kind) {
194     return mkldnn::impl::conv_desc_init(conv_desc, backward_weights, alg_kind, src_desc,
195             diff_weights_desc, diff_bias_desc, diff_dst_desc, strides,
196             dilates, padding_l, padding_r, padding_kind);
197 }
198
199 // vim: et ts=4 sw=4 cindent cino^=l0,\:0,N-s