added optimized saxpy- and daxpy-kernel for sandybridge
authorWerner Saar <wernsaar@googlemail.com>
Mon, 6 Apr 2015 14:05:16 +0000 (16:05 +0200)
committerWerner Saar <wernsaar@googlemail.com>
Mon, 6 Apr 2015 14:05:16 +0000 (16:05 +0200)
kernel/x86_64/KERNEL.SANDYBRIDGE
kernel/x86_64/daxpy.c
kernel/x86_64/daxpy_microk_sandy-2.c [new file with mode: 0644]
kernel/x86_64/saxpy.c
kernel/x86_64/saxpy_microk_sandy-2.c [new file with mode: 0644]

index ac41d27..b0b6c6c 100644 (file)
@@ -6,6 +6,9 @@ ZGEMVNKERNEL = zgemv_n_4.c
 SDOTKERNEL = sdot.c
 DDOTKERNEL = ddot.c
 
+SAXPYKERNEL = saxpy.c
+DAXPYKERNEL = daxpy.c
+
 SGEMMKERNEL    =  sgemm_kernel_16x4_sandy.S
 SGEMMINCOPY    =  ../generic/gemm_ncopy_16.c
 SGEMMITCOPY    =  ../generic/gemm_tcopy_16.c
index 753b6b4..c07b5ca 100644 (file)
@@ -35,6 +35,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
 #include "daxpy_microk_bulldozer-2.c"
 #elif defined(HASWELL)
 #include "daxpy_microk_haswell-2.c"
+#elif defined(SANDYBRIDGE)
+#include "daxpy_microk_sandy-2.c"
 #endif
 
 
@@ -73,7 +75,11 @@ int CNAME(BLASLONG n, BLASLONG dummy0, BLASLONG dummy1, FLOAT da, FLOAT *x, BLAS
        if ( (inc_x == 1) && (inc_y == 1) )
        {
 
+#if defined(SANDYBRIDGE)
+               int n1 = n & -32;
+#else
                int n1 = n & -16;
+#endif
 
                if ( n1 )
                        daxpy_kernel_8(n1, x, y , &da );
diff --git a/kernel/x86_64/daxpy_microk_sandy-2.c b/kernel/x86_64/daxpy_microk_sandy-2.c
new file mode 100644 (file)
index 0000000..963ad32
--- /dev/null
@@ -0,0 +1,100 @@
+/***************************************************************************
+Copyright (c) 2014, The OpenBLAS Project
+All rights reserved.
+Redistribution and use in source and binary forms, with or without
+modification, are permitted provided that the following conditions are
+met:
+1. Redistributions of source code must retain the above copyright
+notice, this list of conditions and the following disclaimer.
+2. Redistributions in binary form must reproduce the above copyright
+notice, this list of conditions and the following disclaimer in
+the documentation and/or other materials provided with the
+distribution.
+3. Neither the name of the OpenBLAS project nor the names of
+its contributors may be used to endorse or promote products
+derived from this software without specific prior written permission.
+THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
+AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
+IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
+ARE DISCLAIMED. IN NO EVENT SHALL THE OPENBLAS PROJECT OR CONTRIBUTORS BE
+LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
+DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
+SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER
+CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
+OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE
+USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
+*****************************************************************************/
+
+#define HAVE_KERNEL_8 1
+static void daxpy_kernel_8( BLASLONG n, FLOAT *x, FLOAT *y , FLOAT *alpha) __attribute__ ((noinline));
+
+static void daxpy_kernel_8( BLASLONG n, FLOAT *x, FLOAT *y, FLOAT *alpha)
+{
+
+
+       BLASLONG register i = 0;
+
+       __asm__  __volatile__
+       (
+       "vbroadcastsd           (%4), %%ymm0                \n\t"  // alpha     
+
+       ".align 16                                          \n\t"
+       "1:                                         \n\t"
+       "vmovups          (%3,%0,8), %%ymm8         \n\t"
+       "vmovups        32(%3,%0,8), %%ymm9         \n\t"
+       "vmovups        64(%3,%0,8), %%ymm10        \n\t"
+       "vmovups        96(%3,%0,8), %%ymm11        \n\t"
+       "vmovups       128(%3,%0,8), %%ymm12        \n\t"
+       "vmovups       160(%3,%0,8), %%ymm13        \n\t"
+       "vmovups       192(%3,%0,8), %%ymm14        \n\t"
+       "vmovups       224(%3,%0,8), %%ymm15        \n\t"
+
+       "vmulpd         (%2,%0,8), %%ymm0, %%ymm1               \n\t"
+       "vmulpd       32(%2,%0,8), %%ymm0, %%ymm2               \n\t"
+       "vaddpd         %%ymm8 , %%ymm1, %%ymm8              \n\t"
+       "vmulpd       64(%2,%0,8), %%ymm0, %%ymm3               \n\t"
+       "vaddpd         %%ymm9 , %%ymm2, %%ymm9              \n\t"
+       "vmulpd       96(%2,%0,8), %%ymm0, %%ymm4               \n\t"
+       "vaddpd         %%ymm10, %%ymm3, %%ymm10             \n\t"
+       "vmulpd      128(%2,%0,8), %%ymm0, %%ymm5               \n\t"
+       "vaddpd         %%ymm11, %%ymm4, %%ymm11             \n\t"
+       "vmulpd      160(%2,%0,8), %%ymm0, %%ymm6               \n\t"
+       "vaddpd         %%ymm12, %%ymm5, %%ymm12             \n\t"
+       "vmulpd      192(%2,%0,8), %%ymm0, %%ymm7               \n\t"
+       "vmulpd      224(%2,%0,8), %%ymm0, %%ymm1            \n\t"
+
+       "vaddpd         %%ymm13, %%ymm6, %%ymm13             \n\t"
+       "vmovups        %%ymm8 ,   (%3,%0,8)                 \n\t"
+       "vaddpd         %%ymm14, %%ymm7, %%ymm14             \n\t"
+       "vmovups        %%ymm9 , 32(%3,%0,8)                 \n\t"
+       "vaddpd         %%ymm15, %%ymm1, %%ymm15             \n\t"
+       "vmovups        %%ymm10, 64(%3,%0,8)                 \n\t"
+       "vmovups        %%ymm11, 96(%3,%0,8)                 \n\t"
+       "vmovups        %%ymm12,128(%3,%0,8)                 \n\t"
+       "vmovups        %%ymm13,160(%3,%0,8)                 \n\t"
+       "vmovups        %%ymm14,192(%3,%0,8)                 \n\t"
+       "vmovups        %%ymm15,224(%3,%0,8)                 \n\t"
+
+       "addq           $32, %0                              \n\t"
+       "subq           $32, %1                              \n\t"              
+       "jnz            1b                           \n\t"
+       "vzeroupper                                  \n\t"
+
+       :
+        : 
+          "r" (i),     // 0    
+         "r" (n),      // 1
+          "r" (x),      // 2
+          "r" (y),      // 3
+          "r" (alpha)   // 4
+       : "cc", 
+         "%xmm0", "%xmm1", "%xmm2", "%xmm3", 
+         "%xmm4", "%xmm5", "%xmm6", "%xmm7", 
+         "%xmm8", "%xmm9", "%xmm10", "%xmm11",
+         "%xmm12", "%xmm13", "%xmm14", "%xmm15",
+         "memory"
+       );
+
+} 
+
+
index ea83ddb..bb24d3c 100644 (file)
@@ -33,6 +33,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
 #include "saxpy_microk_nehalem-2.c"
 #elif defined(HASWELL)
 #include "saxpy_microk_haswell-2.c"
+#elif defined(SANDYBRIDGE)
+#include "saxpy_microk_sandy-2.c"
 #endif
 
 
@@ -71,7 +73,11 @@ int CNAME(BLASLONG n, BLASLONG dummy0, BLASLONG dummy1, FLOAT da, FLOAT *x, BLAS
        if ( (inc_x == 1) && (inc_y == 1) )
        {
 
+#if defined(SANDYBRIDGE)
+               int n1 = n & -64;
+#else
                int n1 = n & -32;
+#endif
 
                if ( n1 )
                        saxpy_kernel_16(n1, x, y , &da );
diff --git a/kernel/x86_64/saxpy_microk_sandy-2.c b/kernel/x86_64/saxpy_microk_sandy-2.c
new file mode 100644 (file)
index 0000000..8a4392d
--- /dev/null
@@ -0,0 +1,100 @@
+/***************************************************************************
+Copyright (c) 2014, The OpenBLAS Project
+All rights reserved.
+Redistribution and use in source and binary forms, with or without
+modification, are permitted provided that the following conditions are
+met:
+1. Redistributions of source code must retain the above copyright
+notice, this list of conditions and the following disclaimer.
+2. Redistributions in binary form must reproduce the above copyright
+notice, this list of conditions and the following disclaimer in
+the documentation and/or other materials provided with the
+distribution.
+3. Neither the name of the OpenBLAS project nor the names of
+its contributors may be used to endorse or promote products
+derived from this software without specific prior written permission.
+THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
+AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
+IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
+ARE DISCLAIMED. IN NO EVENT SHALL THE OPENBLAS PROJECT OR CONTRIBUTORS BE
+LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
+DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
+SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER
+CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
+OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE
+USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
+*****************************************************************************/
+
+#define HAVE_KERNEL_16 1
+static void saxpy_kernel_16( BLASLONG n, FLOAT *x, FLOAT *y , FLOAT *alpha) __attribute__ ((noinline));
+
+static void saxpy_kernel_16( BLASLONG n, FLOAT *x, FLOAT *y, FLOAT *alpha)
+{
+
+
+       BLASLONG register i = 0;
+
+       __asm__  __volatile__
+       (
+       "vbroadcastss           (%4), %%ymm0                \n\t"  // alpha     
+
+       ".align 16                                          \n\t"
+       "1:                                         \n\t"
+       "vmovups          (%3,%0,4), %%ymm8         \n\t"
+       "vmovups        32(%3,%0,4), %%ymm9         \n\t"
+       "vmovups        64(%3,%0,4), %%ymm10        \n\t"
+       "vmovups        96(%3,%0,4), %%ymm11        \n\t"
+       "vmovups       128(%3,%0,4), %%ymm12        \n\t"
+       "vmovups       160(%3,%0,4), %%ymm13        \n\t"
+       "vmovups       192(%3,%0,4), %%ymm14        \n\t"
+       "vmovups       224(%3,%0,4), %%ymm15        \n\t"
+
+       "vmulps         (%2,%0,4), %%ymm0, %%ymm1               \n\t"
+       "vmulps       32(%2,%0,4), %%ymm0, %%ymm2               \n\t"
+       "vaddps         %%ymm8 , %%ymm1, %%ymm8              \n\t"
+       "vmulps       64(%2,%0,4), %%ymm0, %%ymm3               \n\t"
+       "vaddps         %%ymm9 , %%ymm2, %%ymm9              \n\t"
+       "vmulps       96(%2,%0,4), %%ymm0, %%ymm4               \n\t"
+       "vaddps         %%ymm10, %%ymm3, %%ymm10             \n\t"
+       "vmulps      128(%2,%0,4), %%ymm0, %%ymm5               \n\t"
+       "vaddps         %%ymm11, %%ymm4, %%ymm11             \n\t"
+       "vmulps      160(%2,%0,4), %%ymm0, %%ymm6               \n\t"
+       "vaddps         %%ymm12, %%ymm5, %%ymm12             \n\t"
+       "vmulps      192(%2,%0,4), %%ymm0, %%ymm7               \n\t"
+       "vmulps      224(%2,%0,4), %%ymm0, %%ymm1            \n\t"
+
+       "vaddps         %%ymm13, %%ymm6, %%ymm13             \n\t"
+       "vmovups        %%ymm8 ,   (%3,%0,4)                 \n\t"
+       "vaddps         %%ymm14, %%ymm7, %%ymm14             \n\t"
+       "vmovups        %%ymm9 , 32(%3,%0,4)                 \n\t"
+       "vaddps         %%ymm15, %%ymm1, %%ymm15             \n\t"
+       "vmovups        %%ymm10, 64(%3,%0,4)                 \n\t"
+       "vmovups        %%ymm11, 96(%3,%0,4)                 \n\t"
+       "vmovups        %%ymm12,128(%3,%0,4)                 \n\t"
+       "vmovups        %%ymm13,160(%3,%0,4)                 \n\t"
+       "vmovups        %%ymm14,192(%3,%0,4)                 \n\t"
+       "vmovups        %%ymm15,224(%3,%0,4)                 \n\t"
+
+       "addq           $64, %0                              \n\t"
+       "subq           $64, %1                              \n\t"              
+       "jnz            1b                           \n\t"
+       "vzeroupper                                  \n\t"
+
+       :
+        : 
+          "r" (i),     // 0    
+         "r" (n),      // 1
+          "r" (x),      // 2
+          "r" (y),      // 3
+          "r" (alpha)   // 4
+       : "cc", 
+         "%xmm0", "%xmm1", "%xmm2", "%xmm3", 
+         "%xmm4", "%xmm5", "%xmm6", "%xmm7", 
+         "%xmm8", "%xmm9", "%xmm10", "%xmm11", 
+         "%xmm12", "%xmm13", "%xmm14", "%xmm15",
+         "memory"
+       );
+
+} 
+
+