Support AMD Piledriver by bulldozer kernels.
[platform/upstream/openblas.git] / common_x86_64.h
1 /*********************************************************************/
2 /* Copyright 2009, 2010 The University of Texas at Austin.           */
3 /* All rights reserved.                                              */
4 /*                                                                   */
5 /* Redistribution and use in source and binary forms, with or        */
6 /* without modification, are permitted provided that the following   */
7 /* conditions are met:                                               */
8 /*                                                                   */
9 /*   1. Redistributions of source code must retain the above         */
10 /*      copyright notice, this list of conditions and the following  */
11 /*      disclaimer.                                                  */
12 /*                                                                   */
13 /*   2. Redistributions in binary form must reproduce the above      */
14 /*      copyright notice, this list of conditions and the following  */
15 /*      disclaimer in the documentation and/or other materials       */
16 /*      provided with the distribution.                              */
17 /*                                                                   */
18 /*    THIS  SOFTWARE IS PROVIDED  BY THE  UNIVERSITY OF  TEXAS AT    */
19 /*    AUSTIN  ``AS IS''  AND ANY  EXPRESS OR  IMPLIED WARRANTIES,    */
20 /*    INCLUDING, BUT  NOT LIMITED  TO, THE IMPLIED  WARRANTIES OF    */
21 /*    MERCHANTABILITY  AND FITNESS FOR  A PARTICULAR  PURPOSE ARE    */
22 /*    DISCLAIMED.  IN  NO EVENT SHALL THE UNIVERSITY  OF TEXAS AT    */
23 /*    AUSTIN OR CONTRIBUTORS BE  LIABLE FOR ANY DIRECT, INDIRECT,    */
24 /*    INCIDENTAL,  SPECIAL, EXEMPLARY,  OR  CONSEQUENTIAL DAMAGES    */
25 /*    (INCLUDING, BUT  NOT LIMITED TO,  PROCUREMENT OF SUBSTITUTE    */
26 /*    GOODS  OR  SERVICES; LOSS  OF  USE,  DATA,  OR PROFITS;  OR    */
27 /*    BUSINESS INTERRUPTION) HOWEVER CAUSED  AND ON ANY THEORY OF    */
28 /*    LIABILITY, WHETHER  IN CONTRACT, STRICT  LIABILITY, OR TORT    */
29 /*    (INCLUDING NEGLIGENCE OR OTHERWISE)  ARISING IN ANY WAY OUT    */
30 /*    OF  THE  USE OF  THIS  SOFTWARE,  EVEN  IF ADVISED  OF  THE    */
31 /*    POSSIBILITY OF SUCH DAMAGE.                                    */
32 /*                                                                   */
33 /* The views and conclusions contained in the software and           */
34 /* documentation are those of the authors and should not be          */
35 /* interpreted as representing official policies, either expressed   */
36 /* or implied, of The University of Texas at Austin.                 */
37 /*********************************************************************/
38
39 #ifndef COMMON_X86
40 #define COMMON_X86
41
42 #ifndef ASSEMBLER
43
44 #ifdef C_SUN
45 #define __asm__ __asm
46 #define __volatile__
47 #endif
48
49 #ifdef HAVE_SSE2
50 #define MB   __asm__ __volatile__ ("mfence");
51 #define WMB  __asm__ __volatile__ ("sfence");
52 #else
53 #define MB
54 #define WMB
55 #endif
56
57 static void __inline blas_lock(volatile BLASULONG *address){
58
59   int ret;
60
61   do {
62     while (*address) {YIELDING;};
63     
64     __asm__ __volatile__(
65                          "xchgl %0, %1\n"
66                          : "=r"(ret), "=m"(*address)
67                          : "0"(1), "m"(*address)
68                          : "memory");
69
70   } while (ret);
71 }
72
73 static __inline BLASULONG rpcc(void){
74   BLASULONG a, d;
75
76   __asm__ __volatile__ ("rdtsc" : "=a" (a), "=d" (d));
77   
78   return ((BLASULONG)a + ((BLASULONG)d << 32));  
79 }
80
81 #define RPCC64BIT
82
83 static __inline BLASULONG getstackaddr(void){
84   BLASULONG addr;
85
86   __asm__ __volatile__ ("movq %%rsp, %0"
87                          : "=r"(addr) : : "memory");
88
89   return addr;  
90 }
91
92 static __inline void cpuid(int op, int *eax, int *ebx, int *ecx, int *edx){
93
94         __asm__ __volatile__("cpuid"
95                              : "=a" (*eax),
96                              "=b" (*ebx),
97                              "=c" (*ecx),
98                              "=d" (*edx)
99                              : "0" (op));
100 }
101
102 #define WHEREAMI
103
104 static inline int WhereAmI(void){
105   int eax, ebx, ecx, edx;
106   int apicid;
107
108   cpuid(1, &eax, &ebx, &ecx, &edx);
109   apicid  = BITMASK(ebx, 24, 0xff);
110
111   return apicid;
112 }
113
114 #ifdef CORE_BARCELONA
115 #define IFLUSH          gotoblas_iflush()
116 #define IFLUSH_HALF     gotoblas_iflush_half()
117 #endif
118
119 #ifdef ENABLE_SSE_EXCEPTION
120
121 #define IDEBUG_START \
122 { \
123   unsigned int fp_sse_mode, new_fp_mode; \
124   __asm__ __volatile__ ("stmxcsr %0" : "=m" (fp_sse_mode) : ); \
125   new_fp_mode = fp_sse_mode & ~0xd00; \
126   __asm__ __volatile__ ("ldmxcsr %0" : : "m" (new_fp_mode) );
127
128 #define IDEBUG_END \
129   __asm__ __volatile__ ("ldmxcsr %0" : : "m" (fp_sse_mode) ); \
130 }
131
132 #endif
133
134 #ifdef XDOUBLE
135 #define GET_IMAGE(res)  __asm__ __volatile__("fstpt %0" : "=m"(res) : : "memory")
136 #elif defined(DOUBLE)
137 #define GET_IMAGE(res)  __asm__ __volatile__("movsd %%xmm1, %0" : "=m"(res) : : "memory")
138 #else
139 #define GET_IMAGE(res)  __asm__ __volatile__("movss %%xmm1, %0" : "=m"(res) : : "memory")
140 #endif
141
142 #define GET_IMAGE_CANCEL
143
144 #ifdef SMP
145 #ifdef USE64BITINT
146 static __inline blasint blas_quickdivide(blasint x, blasint y){
147   return x / y;
148 }
149 #else
150 extern unsigned int blas_quick_divide_table[];
151
152 static __inline int blas_quickdivide(unsigned int x, unsigned int y){
153
154   unsigned int result;
155
156   if (y <= 1) return x;
157
158   y = blas_quick_divide_table[y];
159
160   __asm__ __volatile__  ("mull %0" :"=d" (result) :"a"(x), "0" (y));
161
162   return result;
163 }
164 #endif
165 #endif
166
167 #endif
168
169 #ifndef PAGESIZE
170 #define PAGESIZE        ( 4 << 10)
171 #endif
172 #define HUGE_PAGESIZE   ( 2 << 20)
173
174 #define BUFFER_SIZE     (32 << 20)
175
176 #define SEEK_ADDRESS
177
178 #ifdef F_INTERFACE_G77
179 #define RETURN_BY_STACK
180 #define NEED_F2CCONV
181 #endif
182
183 #ifdef F_INTERFACE_G95
184 #define RETURN_BY_PACKED
185 #endif
186
187 #ifdef F_INTERFACE_GFORT
188 #ifdef OS_WINDOWS
189 #ifndef DOUBLE
190 #define RETURN_BY_REGS
191 #else
192 #define RETURN_BY_STACK
193 #endif
194 #else
195 #define RETURN_BY_PACKED
196 #endif
197 #endif
198
199 #ifdef F_INTERFACE_INTEL
200 #define RETURN_BY_STACK
201 #endif
202
203 #ifdef F_INTERFACE_FUJITSU
204 #define RETURN_BY_STACK
205 #endif
206
207 #ifdef F_INTERFACE_PGI
208 #define RETURN_BY_STACK
209 #endif
210
211 #ifdef F_INTERFACE_PATHSCALE
212 #define RETURN_BY_PACKED
213 #endif
214
215 #ifdef F_INTERFACE_SUN
216 #define RETURN_BY_PACKED
217 #endif
218
219 #ifdef ASSEMBLER
220
221 #if defined(PILEDRIVER) || defined(BULLDOZER)
222 //Enable some optimazation for barcelona.
223 #define BARCELONA_OPTIMIZATION
224 #endif
225
226 #if defined(HAVE_3DNOW)
227 #define EMMS    femms
228 #elif defined(HAVE_MMX)
229 #define EMMS    emms
230 #endif
231
232 #ifndef EMMS
233 #define EMMS
234 #endif
235
236 #define BRANCH          .byte 0x3e
237 #define NOBRANCH        .byte 0x2e
238 #define PADDING         .byte 0x66
239
240 #ifdef OS_WINDOWS
241 #define ARG1    %rcx
242 #define ARG2    %rdx
243 #define ARG3    %r8
244 #define ARG4    %r9
245 #else
246 #define ARG1    %rdi
247 #define ARG2    %rsi
248 #define ARG3    %rdx
249 #define ARG4    %rcx
250 #define ARG5    %r8
251 #define ARG6    %r9
252 #endif
253
254 #ifndef COMPLEX
255 #ifdef XDOUBLE
256 #define LOCAL_BUFFER_SIZE  QLOCAL_BUFFER_SIZE
257 #elif defined DOUBLE
258 #define LOCAL_BUFFER_SIZE  DLOCAL_BUFFER_SIZE
259 #else
260 #define LOCAL_BUFFER_SIZE  SLOCAL_BUFFER_SIZE
261 #endif
262 #else
263 #ifdef XDOUBLE
264 #define LOCAL_BUFFER_SIZE  XLOCAL_BUFFER_SIZE
265 #elif defined DOUBLE
266 #define LOCAL_BUFFER_SIZE  ZLOCAL_BUFFER_SIZE
267 #else
268 #define LOCAL_BUFFER_SIZE  CLOCAL_BUFFER_SIZE
269 #endif
270 #endif
271
272 #if defined(OS_WINDOWS)
273 #if   LOCAL_BUFFER_SIZE > 16384
274 #define STACK_TOUCHING \
275         movl    $0,  4096 * 4(%rsp);\
276         movl    $0,  4096 * 3(%rsp);\
277         movl    $0,  4096 * 2(%rsp);\
278         movl    $0,  4096 * 1(%rsp);
279 #elif LOCAL_BUFFER_SIZE > 12288
280 #define STACK_TOUCHING \
281         movl    $0,  4096 * 3(%rsp);\
282         movl    $0,  4096 * 2(%rsp);\
283         movl    $0,  4096 * 1(%rsp);
284 #elif LOCAL_BUFFER_SIZE > 8192
285 #define STACK_TOUCHING \
286         movl    $0,  4096 * 2(%rsp);\
287         movl    $0,  4096 * 1(%rsp);
288 #elif LOCAL_BUFFER_SIZE > 4096
289 #define STACK_TOUCHING \
290         movl    $0,  4096 * 1(%rsp);
291 #else
292 #define STACK_TOUCHING
293 #endif
294 #else
295 #define STACK_TOUCHING
296 #endif
297
298 #if defined(CORE2)
299 #define movapd  movaps
300 #define andpd   andps
301 #define movlpd  movlps
302 #define movhpd  movhps
303 #endif
304
305 #ifndef F_INTERFACE
306 #define REALNAME ASMNAME
307 #else
308 #define REALNAME ASMFNAME
309 #endif
310
311 #ifdef OS_DARWIN
312 #define PROLOGUE .text;.align 5; .globl REALNAME; REALNAME:
313 #define EPILOGUE        .subsections_via_symbols
314 #define PROFCODE
315 #endif
316
317 #ifdef OS_WINDOWS
318 #define SAVEREGISTERS \
319         subq    $256, %rsp;\
320         movups  %xmm6,    0(%rsp);\
321         movups  %xmm7,   16(%rsp);\
322         movups  %xmm8,   32(%rsp);\
323         movups  %xmm9,   48(%rsp);\
324         movups  %xmm10,  64(%rsp);\
325         movups  %xmm11,  80(%rsp);\
326         movups  %xmm12,  96(%rsp);\
327         movups  %xmm13, 112(%rsp);\
328         movups  %xmm14, 128(%rsp);\
329         movups  %xmm15, 144(%rsp)
330
331 #define RESTOREREGISTERS \
332         movups     0(%rsp), %xmm6;\
333         movups    16(%rsp), %xmm7;\
334         movups    32(%rsp), %xmm8;\
335         movups    48(%rsp), %xmm9;\
336         movups    64(%rsp), %xmm10;\
337         movups    80(%rsp), %xmm11;\
338         movups    96(%rsp), %xmm12;\
339         movups   112(%rsp), %xmm13;\
340         movups   128(%rsp), %xmm14;\
341         movups   144(%rsp), %xmm15;\
342         addq    $256, %rsp
343 #else
344 #define SAVEREGISTERS
345 #define RESTOREREGISTERS
346 #endif
347
348 #if defined(OS_WINDOWS) && !defined(C_PGI)
349 #define PROLOGUE \
350         .text; \
351         .align 16; \
352         .globl REALNAME ;\
353         .def REALNAME;.scl      2;.type 32;.endef; \
354 REALNAME:
355
356 #define PROFCODE
357
358 #define EPILOGUE .end    REALNAME
359 #endif
360
361 #if defined(OS_LINUX) || defined(OS_FREEBSD) || defined(OS_NETBSD) || defined(__ELF__) || defined(C_PGI)
362 #define PROLOGUE \
363         .text; \
364         .align 512; \
365         .globl REALNAME ;\
366        .type REALNAME, @function; \
367 REALNAME:
368
369 #ifdef PROFILE
370 #define PROFCODE call *mcount@GOTPCREL(%rip)
371 #else
372 #define PROFCODE
373 #endif
374
375 #define EPILOGUE .size   REALNAME, .-REALNAME
376
377 #endif
378
379 #endif
380
381 #ifdef XDOUBLE
382 #define FLD     fldt
383 #define FST     fstpt
384 #define MOVQ    movq
385 #elif defined(DOUBLE)
386 #define FLD     fldl
387 #define FST     fstpl
388 #define FSTU    fstl
389 #define FMUL    fmull
390 #define FADD    faddl
391 #define MOVSD   movsd
392 #define MULSD   mulsd
393 #define MULPD   mulpd
394 #define CMPEQPD cmpeqpd
395 #define COMISD  comisd
396 #define PSRLQ   psrlq
397 #define ANDPD   andpd
398 #define ADDPD   addpd
399 #define ADDSD   addsd
400 #define SUBPD   subpd
401 #define SUBSD   subsd
402 #define MOVQ    movq
403 #define MOVUPD  movupd
404 #define XORPD   xorpd
405 #else
406 #define FLD     flds
407 #define FST     fstps
408 #define FSTU    fsts
409 #define FMUL    fmuls
410 #define FADD    fadds
411 #define MOVSD   movss
412 #define MULSD   mulss
413 #define MULPD   mulps
414 #define CMPEQPD cmpeqps
415 #define COMISD  comiss
416 #define PSRLQ   psrld
417 #define ANDPD   andps
418 #define ADDPD   addps
419 #define ADDSD   addss
420 #define SUBPD   subps
421 #define SUBSD   subss
422 #define MOVQ    movd
423 #define MOVUPD  movups
424 #define XORPD   xorps
425 #endif
426
427 #define HALT    hlt
428
429 #ifdef OS_DARWIN
430 #define ALIGN_2 .align 2
431 #define ALIGN_3 .align 3
432 #define ALIGN_4 .align 4
433 #define ALIGN_5 .align 5
434 #define ffreep  fstp
435 #endif
436
437 #ifndef ALIGN_2
438 #define ALIGN_2 .align 4
439 #endif
440
441 #ifndef ALIGN_3
442 #define ALIGN_3 .align 8
443 #endif
444
445 #ifndef ALIGN_4
446 #define ALIGN_4 .align 16
447 #endif
448
449 #ifndef ALIGN_5
450 #define ALIGN_5 .align 32
451 #endif
452
453 #ifndef ALIGN_6
454 #define ALIGN_6 .align 64
455 #endif
456
457 // ffreep %st(0). 
458 // Because Clang didn't support ffreep, we directly use the opcode.
459 // Please check out http://www.sandpile.org/x86/opc_fpu.htm 
460 #ifndef ffreep
461 #define ffreep .byte 0xdf, 0xc0 #
462 #endif
463 #endif