modification for clang compiler
authorwernsaar <wernsaar@googlemail.com>
Wed, 27 Aug 2014 07:00:20 +0000 (09:00 +0200)
committerwernsaar <wernsaar@googlemail.com>
Wed, 27 Aug 2014 07:00:20 +0000 (09:00 +0200)
kernel/x86_64/cgemm_kernel_8x2_haswell.S
kernel/x86_64/sgemm_kernel_16x4_haswell.S
kernel/x86_64/zgemm_kernel_4x2_haswell.S

index 98f4005..a608071 100644 (file)
@@ -227,8 +227,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
         VFMADDPS_I(        %ymm7 ,%ymm3,%ymm1 )
 
 
-        addq    $6*SIZE, BO                           
-        addq    $16*SIZE, AO                         
+        addq    $ 6*SIZE, BO                           
+        addq    $ 16*SIZE, AO                         
        decq    %rax
 .endm
 
@@ -356,8 +356,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
         VFMADDPS_R(        %ymm4 ,%ymm2,%ymm0 )
         VFMADDPS_I(        %ymm5 ,%ymm3,%ymm0 )
 
-        addq    $6*SIZE, BO                           
-        addq    $8*SIZE, AO                         
+        addq    $ 6*SIZE, BO                           
+        addq    $ 8*SIZE, AO                         
        decq    %rax
 .endm
 
@@ -447,8 +447,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
         VFMADDPS_R(        %xmm4 ,%xmm2,%xmm0 )
         VFMADDPS_I(        %xmm5 ,%xmm3,%xmm0 )
 
-        addq    $6*SIZE, BO                           
-        addq    $4*SIZE, AO                         
+        addq    $ 6*SIZE, BO                           
+        addq    $ 4*SIZE, AO                         
        decq    %rax
 
 .endm
@@ -540,8 +540,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
         VFMADDPS_R(        %xmm4 ,%xmm2,%xmm0 )
         VFMADDPS_I(        %xmm5 ,%xmm3,%xmm0 )
 
-        addq    $6*SIZE, BO                           
-        addq    $2*SIZE, AO                         
+        addq    $ 6*SIZE, BO                           
+        addq    $ 2*SIZE, AO                         
        decq    %rax
 
 .endm
index d88add0..ef156fd 100644 (file)
@@ -181,8 +181,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        VFMADD231PS_(   %ymm14,%ymm3,%ymm0 )\r
        VFMADD231PS_(   %ymm15,%ymm3,%ymm1 )\r
 \r
-       addq    $6*SIZE, BO \r
-       addq    $16*SIZE, AO \r
+       addq    $ 6*SIZE, BO \r
+       addq    $ 16*SIZE, AO \r
        decq    %rax \r
 .endm\r
 \r
@@ -268,8 +268,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        VFMADD231PS_(   %ymm12,%ymm2,%ymm0  )\r
        VFMADD231PS_(   %ymm14,%ymm3,%ymm0 )\r
 \r
-       addq    $6*SIZE, BO \r
-       addq    $8*SIZE, AO \r
+       addq    $ 6*SIZE, BO \r
+       addq    $ 8*SIZE, AO \r
        decq    %rax \r
 .endm\r
 \r
@@ -327,8 +327,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        VFMADD231PS_(   %xmm12,%xmm2,%xmm0  )\r
        VFMADD231PS_(   %xmm14,%xmm3,%xmm0 )\r
 \r
-       addq    $6*SIZE, BO \r
-       addq    $4*SIZE, AO \r
+       addq    $ 6*SIZE, BO \r
+       addq    $ 4*SIZE, AO \r
        decq    %rax \r
 .endm\r
 \r
@@ -392,8 +392,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        VFMADD231SS_(   %xmm14,%xmm3,%xmm0 )\r
        VFMADD231SS_(   %xmm15,%xmm3,%xmm1 )\r
 \r
-       addq    $6*SIZE, BO \r
-       addq    $2*SIZE, AO \r
+       addq    $ 6*SIZE, BO \r
+       addq    $ 2*SIZE, AO \r
        decq    %rax \r
 .endm\r
 \r
@@ -478,8 +478,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        VFMADD231SS_(   %xmm12,%xmm2,%xmm0  )\r
        VFMADD231SS_(   %xmm14,%xmm3,%xmm0 )\r
 \r
-       addq    $6*SIZE, BO \r
-       addq    $1*SIZE, AO \r
+       addq    $ 6*SIZE, BO \r
+       addq    $ 1*SIZE, AO \r
        decq    %rax \r
 .endm\r
 \r
index e23e09e..f91bfa8 100644 (file)
@@ -222,8 +222,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
         VFMADDPD_I(        %ymm5 ,%ymm3,%ymm0 )\r
         VFMADDPD_I(        %ymm7 ,%ymm3,%ymm1 )\r
 \r
-        addq    $6*SIZE, BO                           \r
-        addq    $8*SIZE, AO                           \r
+        addq    $ 6*SIZE, BO                           \r
+        addq    $ 8*SIZE, AO                           \r
         decq   %rax                         \r
 .endm\r
 \r
@@ -362,8 +362,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
         VFMADDPD_I(        %xmm5 ,%xmm3,%xmm0 )\r
         VFMADDPD_I(        %xmm7 ,%xmm3,%xmm1 )\r
 \r
-        addq    $6*SIZE, BO                           \r
-        addq    $4*SIZE, AO                           \r
+        addq    $ 6*SIZE, BO                           \r
+        addq    $ 4*SIZE, AO                           \r
         decq    %rax                         \r
 .endm\r
 \r
@@ -491,8 +491,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
         VFMADDPD_R(        %xmm4 ,%xmm2,%xmm0 )\r
         VFMADDPD_I(        %xmm5 ,%xmm3,%xmm0 )\r
 \r
-        addq    $6*SIZE, BO                           \r
-        addq    $2*SIZE, AO                           \r
+        addq    $ 6*SIZE, BO                           \r
+        addq    $ 2*SIZE, AO                           \r
         decq    %rax                         \r
 .endm\r
 \r