vmovups %ymm6 , (%rax)\r
vmovups %ymm7 , (%rax, LDC)\r
\r
- prefetcht0 32(CO1)\r
- prefetcht0 32(CO1,LDC)\r
- prefetcht0 32(%rax)\r
- prefetcht0 32(%rax,LDC)\r
+ prefetcht0 56(CO1)\r
+ prefetcht0 56(CO1,LDC)\r
+ prefetcht0 56(%rax)\r
+ prefetcht0 56(%rax,LDC)\r
\r
vpermilpd $ 0x05 , %ymm9 , %ymm9\r
vpermilpd $ 0x05 , %ymm11, %ymm11\r
vmovups %ymm6 , (%rbp)\r
vmovups %ymm7 , (%rbp, LDC)\r
\r
- prefetcht0 32(%rax)\r
- prefetcht0 32(%rax,LDC)\r
- prefetcht0 32(%rbp)\r
- prefetcht0 32(%rbp,LDC)\r
+ prefetcht0 56(%rax)\r
+ prefetcht0 56(%rax,LDC)\r
+ prefetcht0 56(%rbp)\r
+ prefetcht0 56(%rbp,LDC)\r
\r
vpermilpd $ 0x05 , %ymm13, %ymm13\r
vpermilpd $ 0x05 , %ymm15, %ymm15\r
vmovups %ymm6 , (%rbp)\r
vmovups %ymm7 , (%rbp, LDC)\r
\r
- prefetcht0 32(%rax)\r
- prefetcht0 32(%rax,LDC)\r
- prefetcht0 32(%rbp)\r
- prefetcht0 32(%rbp,LDC)\r
+ prefetcht0 56(%rax)\r
+ prefetcht0 56(%rax,LDC)\r
+ prefetcht0 56(%rbp)\r
+ prefetcht0 56(%rbp,LDC)\r
\r
addq $ 4*SIZE, CO1\r
.endm\r
vmovups %ymm6 , (%rax)\r
vmovups %ymm7 , (%rax, LDC)\r
\r
- prefetcht0 32(CO1)\r
- prefetcht0 32(CO1,LDC)\r
- prefetcht0 32(%rax)\r
- prefetcht0 32(%rax,LDC)\r
+ prefetcht0 56(CO1)\r
+ prefetcht0 56(CO1,LDC)\r
+ prefetcht0 56(%rax)\r
+ prefetcht0 56(%rax,LDC)\r
\r
vpermilpd $ 0x05 , %ymm9 , %ymm9\r
vpermilpd $ 0x05 , %ymm11, %ymm11\r
vmovups %ymm6 , (%rbp)\r
vmovups %ymm7 , (%rbp, LDC)\r
\r
- prefetcht0 32(%rax)\r
- prefetcht0 32(%rax,LDC)\r
- prefetcht0 32(%rbp)\r
- prefetcht0 32(%rbp,LDC)\r
+ prefetcht0 56(%rax)\r
+ prefetcht0 56(%rax,LDC)\r
+ prefetcht0 56(%rbp)\r
+ prefetcht0 56(%rbp,LDC)\r
\r
addq $ 4*SIZE, CO1\r
.endm\r