Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / thirdparty / mkl-dnn / src / cpu / gemm / f32 / jit_avx_gemm_f32.hpp
1 /*******************************************************************************
2 * Copyright 2016-2018 Intel Corporation
3 *
4 * Licensed under the Apache License, Version 2.0 (the "License");
5 * you may not use this file except in compliance with the License.
6 * You may obtain a copy of the License at
7 *
8 *     http://www.apache.org/licenses/LICENSE-2.0
9 *
10 * Unless required by applicable law or agreed to in writing, software
11 * distributed under the License is distributed on an "AS IS" BASIS,
12 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13 * See the License for the specific language governing permissions and
14 * limitations under the License.
15 *******************************************************************************/
16
17 #ifndef JIT_AVX_GEMM_F32_HPP
18 #define JIT_AVX_GEMM_F32_HPP
19
20 #include "mkldnn_types.h"
21
22 namespace mkldnn {
23 namespace impl {
24 namespace cpu {
25
26 mkldnn_status_t jit_avx_gemm_f32(
27         const char *transa, const char *transb, const int *M,
28         const int *N, const int *K, const float *alpha, const float *A,
29         const int *lda, const float *B, const int *ldb, const float *beta,
30         float *C, const int *ldc, const float *bias = nullptr);
31
32
33 }
34 }
35 }
36
37 #endif