[ Mixed Precision ] Support Mixed Precision
[platform/core/ml/nntrainer.git] / nntrainer / tensor / blas_interface.h
1 // SPDX-License-Identifier: Apache-2.0
2 /**
3  * Copyright (C) 2020 Jijoong Moon <jijoong.moon@samsung.com>
4  *
5  * @file   blas_interface.h
6  * @date   28 Aug 2020
7  * @see    https://github.com/nnstreamer/nntrainer
8  * @author Jijoong Moon <jijoong.moon@samsung.com>
9  * @bug    No known bugs except for NYI items
10  * @brief  This is dummy header for blas support
11  *
12  */
13
14 #ifndef __BLAS_INTERFACE_H_
15 #define __BLAS_INTERFACE_H_
16 #ifdef __cplusplus
17
18 #ifdef USE_BLAS
19 extern "C" {
20 #include <cblas.h>
21 }
22 #else
23 enum CBLAS_ORDER { CblasRowMajor = 101, CblasColMajor = 102 };
24
25 enum CBLAS_TRANSPOSE {
26   CblasNoTrans = 111,
27   CblasTrans = 112,
28   CblasConjTrans = 113
29 };
30
31 #endif
32
33 #ifdef USE_CUBLAS
34 #include <helper_cuda.h>
35 #include <helper_functions.h>
36 #endif
37
38 namespace nntrainer {
39
40 enum class DataType {
41   FP16, /** half precion */
42   FP32  /** single precision */
43 };
44
45 void sscal(const unsigned int N, const float alpha, void *X, const int incX,
46            DataType d_type);
47
48 void sscal(const unsigned int N, const float alpha, float *X, const int incX);
49
50 void sscal(const unsigned int N, const float alpha, __fp16 *X, const int incX);
51
52 float snrm2(const int N, const float *X, const int incX);
53
54 void scopy(const unsigned int N, const void *X, const int incX, void *Y,
55            const int incY, DataType d_type);
56
57 void scopy(const unsigned int N, const float *X, const int incX, float *Y,
58            const int intY);
59
60 void scopy(const unsigned int N, const __fp16 *X, const int incX, __fp16 *Y,
61            const int intY);
62
63 float sdot(const unsigned int N, const float *X, const unsigned int incX,
64            const float *Y, const unsigned int incY);
65
66 void saxpy(const unsigned int N, const float alpha, const float *X,
67            const int incX, float *Y, const int incY);
68
69 void sgemm(CBLAS_ORDER order, CBLAS_TRANSPOSE TransA, CBLAS_TRANSPOSE TransB,
70            const unsigned int M, const unsigned int N, const unsigned int K,
71            const float alpha, const float *A, const unsigned int lda,
72            const float *B, const unsigned int ldb, const float beta, float *C,
73            const unsigned int ldc);
74
75 void sgemv(CBLAS_ORDER order, CBLAS_TRANSPOSE TransA, const unsigned int M,
76            const unsigned int N, const float alpha, const float *A,
77            const unsigned int lda, const float *X, const int incX,
78            const float beta, float *Y, const int incY);
79
80 unsigned int isamax(const unsigned int N, const float *X, const int incX);
81
82 } /* namespace nntrainer */
83 #endif /* __cplusplus */
84 #endif /* __BLAS_INTERFACE_H__ */