vblendpd $ 0x0a, %ymm7, %ymm6, %ymm2\r
vblendpd $ 0x05, %ymm7, %ymm6, %ymm3\r
\r
- vperm2f128 $ 0x01 , %ymm2, %ymm2\r
- vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+ vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+ vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
\r
vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
vblendpd $ 0x0a, %ymm11, %ymm10, %ymm2\r
vblendpd $ 0x05, %ymm11, %ymm10, %ymm3\r
\r
- vperm2f128 $ 0x01 , %ymm2, %ymm2\r
- vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+ vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+ vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
\r
vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
vblendpd $ 0x0a, %ymm15, %ymm14, %ymm2\r
vblendpd $ 0x05, %ymm15, %ymm14, %ymm3\r
\r
- vperm2f128 $ 0x01 , %ymm2, %ymm2\r
- vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+ vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+ vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
\r
vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
vblendpd $ 0x0a, %ymm7, %ymm6, %ymm2\r
vblendpd $ 0x05, %ymm7, %ymm6, %ymm3\r
\r
- vperm2f128 $ 0x01 , %ymm2, %ymm2\r
- vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+ vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+ vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
\r
vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
vblendpd $ 0x0a, %ymm11, %ymm10, %ymm2\r
vblendpd $ 0x05, %ymm11, %ymm10, %ymm3\r
\r
- vperm2f128 $ 0x01 , %ymm2, %ymm2\r
- vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+ vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+ vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
\r
vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r
vblendpd $ 0x0a, %ymm7, %ymm6, %ymm2\r
vblendpd $ 0x05, %ymm7, %ymm6, %ymm3\r
\r
- vperm2f128 $ 0x01 , %ymm2, %ymm2\r
- vperm2f128 $ 0x01 , %ymm3, %ymm3\r
+ vperm2f128 $ 0x01 , %ymm2, %ymm2 , %ymm2\r
+ vperm2f128 $ 0x01 , %ymm3, %ymm3 , %ymm3\r
\r
vblendpd $ 0x03, %ymm0, %ymm2 , %ymm4\r
vblendpd $ 0x03, %ymm1, %ymm3 , %ymm5\r