Publishing 2019 R1 content
[platform/upstream/dldt.git] / inference-engine / thirdparty / mkl-dnn / src / cpu / gemm / s8x8s32 / jit_avx512_core_gemm_s8s8s32.hpp
1 /*******************************************************************************
2 * Copyright 2018 Intel Corporation
3 *
4 * Licensed under the Apache License, Version 2.0 (the "License");
5 * you may not use this file except in compliance with the License.
6 * You may obtain a copy of the License at
7 *
8 *     http://www.apache.org/licenses/LICENSE-2.0
9 *
10 * Unless required by applicable law or agreed to in writing, software
11 * distributed under the License is distributed on an "AS IS" BASIS,
12 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13 * See the License for the specific language governing permissions and
14 * limitations under the License.
15 *******************************************************************************/
16
17 #ifndef JIT_AVX512_CORE_GEMM_S8S8S32_HPP
18 #define JIT_AVX512_CORE_GEMM_S8S8S32_HPP
19
20 #include <stdint.h>
21 #include "mkldnn_types.h"
22
23 namespace mkldnn {
24 namespace impl {
25 namespace cpu {
26
27 mkldnn_status_t jit_avx512_core_gemm_s8s8s32(
28         const char *transA, const char *transB, const char *offsetC,
29         const int *m, const int *n, const int *k,
30         const float *alpha, const int8_t *a, const int *lda, const int8_t *oa,
31         const int8_t *b, const int *ldb, const int8_t *ob,
32         const float *beta, int32_t *c, const int *ldc, const int32_t *oc);
33 }
34 }
35 }
36
37 #endif // JIT_AVX512_CORE_GEMM_S8S8S32_HPP