Update dgemm_kernel_4x8_haswell.S
authorwjc404 <52632443+wjc404@users.noreply.github.com>
Tue, 16 Jul 2019 16:55:06 +0000 (00:55 +0800)
committerGitHub <noreply@github.com>
Tue, 16 Jul 2019 16:55:06 +0000 (00:55 +0800)
kernel/x86_64/dgemm_kernel_4x8_haswell.S

index 5416018..b986105 100644 (file)
@@ -292,8 +292,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        vblendpd $ 0x0a, %ymm7, %ymm6, %ymm2\r
        vblendpd $ 0x05, %ymm7, %ymm6, %ymm3\r
 \r
-       vperm2f128 $ 0x01 , %ymm2, %ymm2\r
-       vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+       vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+       vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
 \r
        vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
        vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
@@ -330,8 +330,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        vblendpd $ 0x0a, %ymm11, %ymm10, %ymm2\r
        vblendpd $ 0x05, %ymm11, %ymm10, %ymm3\r
 \r
-       vperm2f128 $ 0x01 , %ymm2, %ymm2\r
-       vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+       vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+       vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
 \r
        vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
        vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
@@ -369,8 +369,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        vblendpd $ 0x0a, %ymm15, %ymm14, %ymm2\r
        vblendpd $ 0x05, %ymm15, %ymm14, %ymm3\r
 \r
-       vperm2f128 $ 0x01 , %ymm2, %ymm2\r
-       vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+       vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+       vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
 \r
        vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
        vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
@@ -801,8 +801,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        vblendpd $ 0x0a, %ymm7, %ymm6, %ymm2\r
        vblendpd $ 0x05, %ymm7, %ymm6, %ymm3\r
 \r
-       vperm2f128 $ 0x01 , %ymm2, %ymm2\r
-       vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+       vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+       vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
 \r
        vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
        vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
@@ -839,8 +839,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        vblendpd $ 0x0a, %ymm11, %ymm10, %ymm2\r
        vblendpd $ 0x05, %ymm11, %ymm10, %ymm3\r
 \r
-       vperm2f128 $ 0x01 , %ymm2, %ymm2\r
-       vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+       vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+       vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
 \r
        vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
        vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
@@ -1163,8 +1163,8 @@ USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
        vblendpd $ 0x0a, %ymm7, %ymm6, %ymm2\r
        vblendpd $ 0x05, %ymm7, %ymm6, %ymm3\r
 \r
-       vperm2f128 $ 0x01 , %ymm2, %ymm2\r
-       vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+       vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+       vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
 \r
        vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
        vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r