* gdbtypes.h (builtin_type_ieee_single, builtin_type_ieee_double,
[external/binutils.git] / gdb / amd64-tdep.c
1 /* Target-dependent code for AMD64.
2
3    Copyright (C) 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009
4    Free Software Foundation, Inc.
5
6    Contributed by Jiri Smid, SuSE Labs.
7
8    This file is part of GDB.
9
10    This program is free software; you can redistribute it and/or modify
11    it under the terms of the GNU General Public License as published by
12    the Free Software Foundation; either version 3 of the License, or
13    (at your option) any later version.
14
15    This program is distributed in the hope that it will be useful,
16    but WITHOUT ANY WARRANTY; without even the implied warranty of
17    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
18    GNU General Public License for more details.
19
20    You should have received a copy of the GNU General Public License
21    along with this program.  If not, see <http://www.gnu.org/licenses/>.  */
22
23 #include "defs.h"
24 #include "opcode/i386.h"
25 #include "dis-asm.h"
26 #include "arch-utils.h"
27 #include "block.h"
28 #include "dummy-frame.h"
29 #include "frame.h"
30 #include "frame-base.h"
31 #include "frame-unwind.h"
32 #include "inferior.h"
33 #include "gdbcmd.h"
34 #include "gdbcore.h"
35 #include "objfiles.h"
36 #include "regcache.h"
37 #include "regset.h"
38 #include "symfile.h"
39
40 #include "gdb_assert.h"
41
42 #include "amd64-tdep.h"
43 #include "i387-tdep.h"
44
45 /* Note that the AMD64 architecture was previously known as x86-64.
46    The latter is (forever) engraved into the canonical system name as
47    returned by config.guess, and used as the name for the AMD64 port
48    of GNU/Linux.  The BSD's have renamed their ports to amd64; they
49    don't like to shout.  For GDB we prefer the amd64_-prefix over the
50    x86_64_-prefix since it's so much easier to type.  */
51
52 /* Register information.  */
53
54 static const char *amd64_register_names[] = 
55 {
56   "rax", "rbx", "rcx", "rdx", "rsi", "rdi", "rbp", "rsp",
57
58   /* %r8 is indeed register number 8.  */
59   "r8", "r9", "r10", "r11", "r12", "r13", "r14", "r15",
60   "rip", "eflags", "cs", "ss", "ds", "es", "fs", "gs",
61
62   /* %st0 is register number 24.  */
63   "st0", "st1", "st2", "st3", "st4", "st5", "st6", "st7",
64   "fctrl", "fstat", "ftag", "fiseg", "fioff", "foseg", "fooff", "fop",
65
66   /* %xmm0 is register number 40.  */
67   "xmm0", "xmm1", "xmm2", "xmm3", "xmm4", "xmm5", "xmm6", "xmm7",
68   "xmm8", "xmm9", "xmm10", "xmm11", "xmm12", "xmm13", "xmm14", "xmm15",
69   "mxcsr",
70 };
71
72 /* Total number of registers.  */
73 #define AMD64_NUM_REGS  ARRAY_SIZE (amd64_register_names)
74
75 /* Return the name of register REGNUM.  */
76
77 const char *
78 amd64_register_name (struct gdbarch *gdbarch, int regnum)
79 {
80   if (regnum >= 0 && regnum < AMD64_NUM_REGS)
81     return amd64_register_names[regnum];
82
83   return NULL;
84 }
85
86 /* Return the GDB type object for the "standard" data type of data in
87    register REGNUM. */
88
89 struct type *
90 amd64_register_type (struct gdbarch *gdbarch, int regnum)
91 {
92   if (regnum >= AMD64_RAX_REGNUM && regnum <= AMD64_RDI_REGNUM)
93     return builtin_type (gdbarch)->builtin_int64;
94   if (regnum == AMD64_RBP_REGNUM || regnum == AMD64_RSP_REGNUM)
95     return builtin_type (gdbarch)->builtin_data_ptr;
96   if (regnum >= AMD64_R8_REGNUM && regnum <= AMD64_R15_REGNUM)
97     return builtin_type (gdbarch)->builtin_int64;
98   if (regnum == AMD64_RIP_REGNUM)
99     return builtin_type (gdbarch)->builtin_func_ptr;
100   if (regnum == AMD64_EFLAGS_REGNUM)
101     return i386_eflags_type;
102   if (regnum >= AMD64_CS_REGNUM && regnum <= AMD64_GS_REGNUM)
103     return builtin_type (gdbarch)->builtin_int32;
104   if (regnum >= AMD64_ST0_REGNUM && regnum <= AMD64_ST0_REGNUM + 7)
105     return i387_ext_type (gdbarch);
106   if (regnum >= AMD64_FCTRL_REGNUM && regnum <= AMD64_FCTRL_REGNUM + 7)
107     return builtin_type (gdbarch)->builtin_int32;
108   if (regnum >= AMD64_XMM0_REGNUM && regnum <= AMD64_XMM0_REGNUM + 15)
109     return i386_sse_type (gdbarch);
110   if (regnum == AMD64_MXCSR_REGNUM)
111     return i386_mxcsr_type;
112
113   internal_error (__FILE__, __LINE__, _("invalid regnum"));
114 }
115
116 /* DWARF Register Number Mapping as defined in the System V psABI,
117    section 3.6.  */
118
119 static int amd64_dwarf_regmap[] =
120 {
121   /* General Purpose Registers RAX, RDX, RCX, RBX, RSI, RDI.  */
122   AMD64_RAX_REGNUM, AMD64_RDX_REGNUM,
123   AMD64_RCX_REGNUM, AMD64_RBX_REGNUM,
124   AMD64_RSI_REGNUM, AMD64_RDI_REGNUM,
125
126   /* Frame Pointer Register RBP.  */
127   AMD64_RBP_REGNUM,
128
129   /* Stack Pointer Register RSP.  */
130   AMD64_RSP_REGNUM,
131
132   /* Extended Integer Registers 8 - 15.  */
133   8, 9, 10, 11, 12, 13, 14, 15,
134
135   /* Return Address RA.  Mapped to RIP.  */
136   AMD64_RIP_REGNUM,
137
138   /* SSE Registers 0 - 7.  */
139   AMD64_XMM0_REGNUM + 0, AMD64_XMM1_REGNUM,
140   AMD64_XMM0_REGNUM + 2, AMD64_XMM0_REGNUM + 3,
141   AMD64_XMM0_REGNUM + 4, AMD64_XMM0_REGNUM + 5,
142   AMD64_XMM0_REGNUM + 6, AMD64_XMM0_REGNUM + 7,
143
144   /* Extended SSE Registers 8 - 15.  */
145   AMD64_XMM0_REGNUM + 8, AMD64_XMM0_REGNUM + 9,
146   AMD64_XMM0_REGNUM + 10, AMD64_XMM0_REGNUM + 11,
147   AMD64_XMM0_REGNUM + 12, AMD64_XMM0_REGNUM + 13,
148   AMD64_XMM0_REGNUM + 14, AMD64_XMM0_REGNUM + 15,
149
150   /* Floating Point Registers 0-7.  */
151   AMD64_ST0_REGNUM + 0, AMD64_ST0_REGNUM + 1,
152   AMD64_ST0_REGNUM + 2, AMD64_ST0_REGNUM + 3,
153   AMD64_ST0_REGNUM + 4, AMD64_ST0_REGNUM + 5,
154   AMD64_ST0_REGNUM + 6, AMD64_ST0_REGNUM + 7,
155   
156   /* Control and Status Flags Register.  */
157   AMD64_EFLAGS_REGNUM,
158
159   /* Selector Registers.  */
160   AMD64_ES_REGNUM,
161   AMD64_CS_REGNUM,
162   AMD64_SS_REGNUM,
163   AMD64_DS_REGNUM,
164   AMD64_FS_REGNUM,
165   AMD64_GS_REGNUM,
166   -1,
167   -1,
168
169   /* Segment Base Address Registers.  */
170   -1,
171   -1,
172   -1,
173   -1,
174
175   /* Special Selector Registers.  */
176   -1,
177   -1,
178
179   /* Floating Point Control Registers.  */
180   AMD64_MXCSR_REGNUM,
181   AMD64_FCTRL_REGNUM,
182   AMD64_FSTAT_REGNUM
183 };
184
185 static const int amd64_dwarf_regmap_len =
186   (sizeof (amd64_dwarf_regmap) / sizeof (amd64_dwarf_regmap[0]));
187
188 /* Convert DWARF register number REG to the appropriate register
189    number used by GDB.  */
190
191 static int
192 amd64_dwarf_reg_to_regnum (struct gdbarch *gdbarch, int reg)
193 {
194   int regnum = -1;
195
196   if (reg >= 0 && reg < amd64_dwarf_regmap_len)
197     regnum = amd64_dwarf_regmap[reg];
198
199   if (regnum == -1)
200     warning (_("Unmapped DWARF Register #%d encountered."), reg);
201
202   return regnum;
203 }
204
205 /* Map architectural register numbers to gdb register numbers.  */
206
207 static const int amd64_arch_regmap[16] =
208 {
209   AMD64_RAX_REGNUM,     /* %rax */
210   AMD64_RCX_REGNUM,     /* %rcx */
211   AMD64_RDX_REGNUM,     /* %rdx */
212   AMD64_RBX_REGNUM,     /* %rbx */
213   AMD64_RSP_REGNUM,     /* %rsp */
214   AMD64_RBP_REGNUM,     /* %rbp */
215   AMD64_RSI_REGNUM,     /* %rsi */
216   AMD64_RDI_REGNUM,     /* %rdi */
217   AMD64_R8_REGNUM,      /* %r8 */
218   AMD64_R9_REGNUM,      /* %r9 */
219   AMD64_R10_REGNUM,     /* %r10 */
220   AMD64_R11_REGNUM,     /* %r11 */
221   AMD64_R12_REGNUM,     /* %r12 */
222   AMD64_R13_REGNUM,     /* %r13 */
223   AMD64_R14_REGNUM,     /* %r14 */
224   AMD64_R15_REGNUM      /* %r15 */
225 };
226
227 static const int amd64_arch_regmap_len =
228   (sizeof (amd64_arch_regmap) / sizeof (amd64_arch_regmap[0]));
229
230 /* Convert architectural register number REG to the appropriate register
231    number used by GDB.  */
232
233 static int
234 amd64_arch_reg_to_regnum (int reg)
235 {
236   gdb_assert (reg >= 0 && reg < amd64_arch_regmap_len);
237
238   return amd64_arch_regmap[reg];
239 }
240
241 \f
242
243 /* Register classes as defined in the psABI.  */
244
245 enum amd64_reg_class
246 {
247   AMD64_INTEGER,
248   AMD64_SSE,
249   AMD64_SSEUP,
250   AMD64_X87,
251   AMD64_X87UP,
252   AMD64_COMPLEX_X87,
253   AMD64_NO_CLASS,
254   AMD64_MEMORY
255 };
256
257 /* Return the union class of CLASS1 and CLASS2.  See the psABI for
258    details.  */
259
260 static enum amd64_reg_class
261 amd64_merge_classes (enum amd64_reg_class class1, enum amd64_reg_class class2)
262 {
263   /* Rule (a): If both classes are equal, this is the resulting class.  */
264   if (class1 == class2)
265     return class1;
266
267   /* Rule (b): If one of the classes is NO_CLASS, the resulting class
268      is the other class.  */
269   if (class1 == AMD64_NO_CLASS)
270     return class2;
271   if (class2 == AMD64_NO_CLASS)
272     return class1;
273
274   /* Rule (c): If one of the classes is MEMORY, the result is MEMORY.  */
275   if (class1 == AMD64_MEMORY || class2 == AMD64_MEMORY)
276     return AMD64_MEMORY;
277
278   /* Rule (d): If one of the classes is INTEGER, the result is INTEGER.  */
279   if (class1 == AMD64_INTEGER || class2 == AMD64_INTEGER)
280     return AMD64_INTEGER;
281
282   /* Rule (e): If one of the classes is X87, X87UP, COMPLEX_X87 class,
283      MEMORY is used as class.  */
284   if (class1 == AMD64_X87 || class1 == AMD64_X87UP
285       || class1 == AMD64_COMPLEX_X87 || class2 == AMD64_X87
286       || class2 == AMD64_X87UP || class2 == AMD64_COMPLEX_X87)
287     return AMD64_MEMORY;
288
289   /* Rule (f): Otherwise class SSE is used.  */
290   return AMD64_SSE;
291 }
292
293 static void amd64_classify (struct type *type, enum amd64_reg_class class[2]);
294
295 /* Return non-zero if TYPE is a non-POD structure or union type.  */
296
297 static int
298 amd64_non_pod_p (struct type *type)
299 {
300   /* ??? A class with a base class certainly isn't POD, but does this
301      catch all non-POD structure types?  */
302   if (TYPE_CODE (type) == TYPE_CODE_STRUCT && TYPE_N_BASECLASSES (type) > 0)
303     return 1;
304
305   return 0;
306 }
307
308 /* Classify TYPE according to the rules for aggregate (structures and
309    arrays) and union types, and store the result in CLASS.  */
310
311 static void
312 amd64_classify_aggregate (struct type *type, enum amd64_reg_class class[2])
313 {
314   int len = TYPE_LENGTH (type);
315
316   /* 1. If the size of an object is larger than two eightbytes, or in
317         C++, is a non-POD structure or union type, or contains
318         unaligned fields, it has class memory.  */
319   if (len > 16 || amd64_non_pod_p (type))
320     {
321       class[0] = class[1] = AMD64_MEMORY;
322       return;
323     }
324
325   /* 2. Both eightbytes get initialized to class NO_CLASS.  */
326   class[0] = class[1] = AMD64_NO_CLASS;
327
328   /* 3. Each field of an object is classified recursively so that
329         always two fields are considered. The resulting class is
330         calculated according to the classes of the fields in the
331         eightbyte: */
332
333   if (TYPE_CODE (type) == TYPE_CODE_ARRAY)
334     {
335       struct type *subtype = check_typedef (TYPE_TARGET_TYPE (type));
336
337       /* All fields in an array have the same type.  */
338       amd64_classify (subtype, class);
339       if (len > 8 && class[1] == AMD64_NO_CLASS)
340         class[1] = class[0];
341     }
342   else
343     {
344       int i;
345
346       /* Structure or union.  */
347       gdb_assert (TYPE_CODE (type) == TYPE_CODE_STRUCT
348                   || TYPE_CODE (type) == TYPE_CODE_UNION);
349
350       for (i = 0; i < TYPE_NFIELDS (type); i++)
351         {
352           struct type *subtype = check_typedef (TYPE_FIELD_TYPE (type, i));
353           int pos = TYPE_FIELD_BITPOS (type, i) / 64;
354           enum amd64_reg_class subclass[2];
355
356           /* Ignore static fields.  */
357           if (field_is_static (&TYPE_FIELD (type, i)))
358             continue;
359
360           gdb_assert (pos == 0 || pos == 1);
361
362           amd64_classify (subtype, subclass);
363           class[pos] = amd64_merge_classes (class[pos], subclass[0]);
364           if (pos == 0)
365             class[1] = amd64_merge_classes (class[1], subclass[1]);
366         }
367     }
368
369   /* 4. Then a post merger cleanup is done:  */
370
371   /* Rule (a): If one of the classes is MEMORY, the whole argument is
372      passed in memory.  */
373   if (class[0] == AMD64_MEMORY || class[1] == AMD64_MEMORY)
374     class[0] = class[1] = AMD64_MEMORY;
375
376   /* Rule (b): If SSEUP is not preceeded by SSE, it is converted to
377      SSE.  */
378   if (class[0] == AMD64_SSEUP)
379     class[0] = AMD64_SSE;
380   if (class[1] == AMD64_SSEUP && class[0] != AMD64_SSE)
381     class[1] = AMD64_SSE;
382 }
383
384 /* Classify TYPE, and store the result in CLASS.  */
385
386 static void
387 amd64_classify (struct type *type, enum amd64_reg_class class[2])
388 {
389   enum type_code code = TYPE_CODE (type);
390   int len = TYPE_LENGTH (type);
391
392   class[0] = class[1] = AMD64_NO_CLASS;
393
394   /* Arguments of types (signed and unsigned) _Bool, char, short, int,
395      long, long long, and pointers are in the INTEGER class.  Similarly,
396      range types, used by languages such as Ada, are also in the INTEGER
397      class.  */
398   if ((code == TYPE_CODE_INT || code == TYPE_CODE_ENUM
399        || code == TYPE_CODE_BOOL || code == TYPE_CODE_RANGE
400        || code == TYPE_CODE_CHAR
401        || code == TYPE_CODE_PTR || code == TYPE_CODE_REF)
402       && (len == 1 || len == 2 || len == 4 || len == 8))
403     class[0] = AMD64_INTEGER;
404
405   /* Arguments of types float, double, _Decimal32, _Decimal64 and __m64
406      are in class SSE.  */
407   else if ((code == TYPE_CODE_FLT || code == TYPE_CODE_DECFLOAT)
408            && (len == 4 || len == 8))
409     /* FIXME: __m64 .  */
410     class[0] = AMD64_SSE;
411
412   /* Arguments of types __float128, _Decimal128 and __m128 are split into
413      two halves.  The least significant ones belong to class SSE, the most
414      significant one to class SSEUP.  */
415   else if (code == TYPE_CODE_DECFLOAT && len == 16)
416     /* FIXME: __float128, __m128.  */
417     class[0] = AMD64_SSE, class[1] = AMD64_SSEUP;
418
419   /* The 64-bit mantissa of arguments of type long double belongs to
420      class X87, the 16-bit exponent plus 6 bytes of padding belongs to
421      class X87UP.  */
422   else if (code == TYPE_CODE_FLT && len == 16)
423     /* Class X87 and X87UP.  */
424     class[0] = AMD64_X87, class[1] = AMD64_X87UP;
425
426   /* Aggregates.  */
427   else if (code == TYPE_CODE_ARRAY || code == TYPE_CODE_STRUCT
428            || code == TYPE_CODE_UNION)
429     amd64_classify_aggregate (type, class);
430 }
431
432 static enum return_value_convention
433 amd64_return_value (struct gdbarch *gdbarch, struct type *func_type,
434                     struct type *type, struct regcache *regcache,
435                     gdb_byte *readbuf, const gdb_byte *writebuf)
436 {
437   enum amd64_reg_class class[2];
438   int len = TYPE_LENGTH (type);
439   static int integer_regnum[] = { AMD64_RAX_REGNUM, AMD64_RDX_REGNUM };
440   static int sse_regnum[] = { AMD64_XMM0_REGNUM, AMD64_XMM1_REGNUM };
441   int integer_reg = 0;
442   int sse_reg = 0;
443   int i;
444
445   gdb_assert (!(readbuf && writebuf));
446
447   /* 1. Classify the return type with the classification algorithm.  */
448   amd64_classify (type, class);
449
450   /* 2. If the type has class MEMORY, then the caller provides space
451      for the return value and passes the address of this storage in
452      %rdi as if it were the first argument to the function. In effect,
453      this address becomes a hidden first argument.
454
455      On return %rax will contain the address that has been passed in
456      by the caller in %rdi.  */
457   if (class[0] == AMD64_MEMORY)
458     {
459       /* As indicated by the comment above, the ABI guarantees that we
460          can always find the return value just after the function has
461          returned.  */
462
463       if (readbuf)
464         {
465           ULONGEST addr;
466
467           regcache_raw_read_unsigned (regcache, AMD64_RAX_REGNUM, &addr);
468           read_memory (addr, readbuf, TYPE_LENGTH (type));
469         }
470
471       return RETURN_VALUE_ABI_RETURNS_ADDRESS;
472     }
473
474   gdb_assert (class[1] != AMD64_MEMORY);
475   gdb_assert (len <= 16);
476
477   for (i = 0; len > 0; i++, len -= 8)
478     {
479       int regnum = -1;
480       int offset = 0;
481
482       switch (class[i])
483         {
484         case AMD64_INTEGER:
485           /* 3. If the class is INTEGER, the next available register
486              of the sequence %rax, %rdx is used.  */
487           regnum = integer_regnum[integer_reg++];
488           break;
489
490         case AMD64_SSE:
491           /* 4. If the class is SSE, the next available SSE register
492              of the sequence %xmm0, %xmm1 is used.  */
493           regnum = sse_regnum[sse_reg++];
494           break;
495
496         case AMD64_SSEUP:
497           /* 5. If the class is SSEUP, the eightbyte is passed in the
498              upper half of the last used SSE register.  */
499           gdb_assert (sse_reg > 0);
500           regnum = sse_regnum[sse_reg - 1];
501           offset = 8;
502           break;
503
504         case AMD64_X87:
505           /* 6. If the class is X87, the value is returned on the X87
506              stack in %st0 as 80-bit x87 number.  */
507           regnum = AMD64_ST0_REGNUM;
508           if (writebuf)
509             i387_return_value (gdbarch, regcache);
510           break;
511
512         case AMD64_X87UP:
513           /* 7. If the class is X87UP, the value is returned together
514              with the previous X87 value in %st0.  */
515           gdb_assert (i > 0 && class[0] == AMD64_X87);
516           regnum = AMD64_ST0_REGNUM;
517           offset = 8;
518           len = 2;
519           break;
520
521         case AMD64_NO_CLASS:
522           continue;
523
524         default:
525           gdb_assert (!"Unexpected register class.");
526         }
527
528       gdb_assert (regnum != -1);
529
530       if (readbuf)
531         regcache_raw_read_part (regcache, regnum, offset, min (len, 8),
532                                 readbuf + i * 8);
533       if (writebuf)
534         regcache_raw_write_part (regcache, regnum, offset, min (len, 8),
535                                  writebuf + i * 8);
536     }
537
538   return RETURN_VALUE_REGISTER_CONVENTION;
539 }
540 \f
541
542 static CORE_ADDR
543 amd64_push_arguments (struct regcache *regcache, int nargs,
544                       struct value **args, CORE_ADDR sp, int struct_return)
545 {
546   static int integer_regnum[] =
547   {
548     AMD64_RDI_REGNUM,           /* %rdi */
549     AMD64_RSI_REGNUM,           /* %rsi */
550     AMD64_RDX_REGNUM,           /* %rdx */
551     AMD64_RCX_REGNUM,           /* %rcx */
552     8,                          /* %r8 */
553     9                           /* %r9 */
554   };
555   static int sse_regnum[] =
556   {
557     /* %xmm0 ... %xmm7 */
558     AMD64_XMM0_REGNUM + 0, AMD64_XMM1_REGNUM,
559     AMD64_XMM0_REGNUM + 2, AMD64_XMM0_REGNUM + 3,
560     AMD64_XMM0_REGNUM + 4, AMD64_XMM0_REGNUM + 5,
561     AMD64_XMM0_REGNUM + 6, AMD64_XMM0_REGNUM + 7,
562   };
563   struct value **stack_args = alloca (nargs * sizeof (struct value *));
564   int num_stack_args = 0;
565   int num_elements = 0;
566   int element = 0;
567   int integer_reg = 0;
568   int sse_reg = 0;
569   int i;
570
571   /* Reserve a register for the "hidden" argument.  */
572   if (struct_return)
573     integer_reg++;
574
575   for (i = 0; i < nargs; i++)
576     {
577       struct type *type = value_type (args[i]);
578       int len = TYPE_LENGTH (type);
579       enum amd64_reg_class class[2];
580       int needed_integer_regs = 0;
581       int needed_sse_regs = 0;
582       int j;
583
584       /* Classify argument.  */
585       amd64_classify (type, class);
586
587       /* Calculate the number of integer and SSE registers needed for
588          this argument.  */
589       for (j = 0; j < 2; j++)
590         {
591           if (class[j] == AMD64_INTEGER)
592             needed_integer_regs++;
593           else if (class[j] == AMD64_SSE)
594             needed_sse_regs++;
595         }
596
597       /* Check whether enough registers are available, and if the
598          argument should be passed in registers at all.  */
599       if (integer_reg + needed_integer_regs > ARRAY_SIZE (integer_regnum)
600           || sse_reg + needed_sse_regs > ARRAY_SIZE (sse_regnum)
601           || (needed_integer_regs == 0 && needed_sse_regs == 0))
602         {
603           /* The argument will be passed on the stack.  */
604           num_elements += ((len + 7) / 8);
605           stack_args[num_stack_args++] = args[i];
606         }
607       else
608         {
609           /* The argument will be passed in registers.  */
610           const gdb_byte *valbuf = value_contents (args[i]);
611           gdb_byte buf[8];
612
613           gdb_assert (len <= 16);
614
615           for (j = 0; len > 0; j++, len -= 8)
616             {
617               int regnum = -1;
618               int offset = 0;
619
620               switch (class[j])
621                 {
622                 case AMD64_INTEGER:
623                   regnum = integer_regnum[integer_reg++];
624                   break;
625
626                 case AMD64_SSE:
627                   regnum = sse_regnum[sse_reg++];
628                   break;
629
630                 case AMD64_SSEUP:
631                   gdb_assert (sse_reg > 0);
632                   regnum = sse_regnum[sse_reg - 1];
633                   offset = 8;
634                   break;
635
636                 default:
637                   gdb_assert (!"Unexpected register class.");
638                 }
639
640               gdb_assert (regnum != -1);
641               memset (buf, 0, sizeof buf);
642               memcpy (buf, valbuf + j * 8, min (len, 8));
643               regcache_raw_write_part (regcache, regnum, offset, 8, buf);
644             }
645         }
646     }
647
648   /* Allocate space for the arguments on the stack.  */
649   sp -= num_elements * 8;
650
651   /* The psABI says that "The end of the input argument area shall be
652      aligned on a 16 byte boundary."  */
653   sp &= ~0xf;
654
655   /* Write out the arguments to the stack.  */
656   for (i = 0; i < num_stack_args; i++)
657     {
658       struct type *type = value_type (stack_args[i]);
659       const gdb_byte *valbuf = value_contents (stack_args[i]);
660       int len = TYPE_LENGTH (type);
661
662       write_memory (sp + element * 8, valbuf, len);
663       element += ((len + 7) / 8);
664     }
665
666   /* The psABI says that "For calls that may call functions that use
667      varargs or stdargs (prototype-less calls or calls to functions
668      containing ellipsis (...) in the declaration) %al is used as
669      hidden argument to specify the number of SSE registers used.  */
670   regcache_raw_write_unsigned (regcache, AMD64_RAX_REGNUM, sse_reg);
671   return sp; 
672 }
673
674 static CORE_ADDR
675 amd64_push_dummy_call (struct gdbarch *gdbarch, struct value *function,
676                        struct regcache *regcache, CORE_ADDR bp_addr,
677                        int nargs, struct value **args,  CORE_ADDR sp,
678                        int struct_return, CORE_ADDR struct_addr)
679 {
680   gdb_byte buf[8];
681
682   /* Pass arguments.  */
683   sp = amd64_push_arguments (regcache, nargs, args, sp, struct_return);
684
685   /* Pass "hidden" argument".  */
686   if (struct_return)
687     {
688       store_unsigned_integer (buf, 8, struct_addr);
689       regcache_cooked_write (regcache, AMD64_RDI_REGNUM, buf);
690     }
691
692   /* Store return address.  */
693   sp -= 8;
694   store_unsigned_integer (buf, 8, bp_addr);
695   write_memory (sp, buf, 8);
696
697   /* Finally, update the stack pointer...  */
698   store_unsigned_integer (buf, 8, sp);
699   regcache_cooked_write (regcache, AMD64_RSP_REGNUM, buf);
700
701   /* ...and fake a frame pointer.  */
702   regcache_cooked_write (regcache, AMD64_RBP_REGNUM, buf);
703
704   return sp + 16;
705 }
706 \f
707 /* Displaced instruction handling.  */
708
709 /* A partially decoded instruction.
710    This contains enough details for displaced stepping purposes.  */
711
712 struct amd64_insn
713 {
714   /* The number of opcode bytes.  */
715   int opcode_len;
716   /* The offset of the rex prefix or -1 if not present.  */
717   int rex_offset;
718   /* The offset to the first opcode byte.  */
719   int opcode_offset;
720   /* The offset to the modrm byte or -1 if not present.  */
721   int modrm_offset;
722
723   /* The raw instruction.  */
724   gdb_byte *raw_insn;
725 };
726
727 struct displaced_step_closure
728 {
729   /* For rip-relative insns, saved copy of the reg we use instead of %rip.  */
730   int tmp_used;
731   int tmp_regno;
732   ULONGEST tmp_save;
733
734   /* Details of the instruction.  */
735   struct amd64_insn insn_details;
736
737   /* Amount of space allocated to insn_buf.  */
738   int max_len;
739
740   /* The possibly modified insn.
741      This is a variable-length field.  */
742   gdb_byte insn_buf[1];
743 };
744
745 /* WARNING: Keep onebyte_has_modrm, twobyte_has_modrm in sync with
746    ../opcodes/i386-dis.c (until libopcodes exports them, or an alternative,
747    at which point delete these in favor of libopcodes' versions).  */
748
749 static const unsigned char onebyte_has_modrm[256] = {
750   /*       0 1 2 3 4 5 6 7 8 9 a b c d e f        */
751   /*       -------------------------------        */
752   /* 00 */ 1,1,1,1,0,0,0,0,1,1,1,1,0,0,0,0, /* 00 */
753   /* 10 */ 1,1,1,1,0,0,0,0,1,1,1,1,0,0,0,0, /* 10 */
754   /* 20 */ 1,1,1,1,0,0,0,0,1,1,1,1,0,0,0,0, /* 20 */
755   /* 30 */ 1,1,1,1,0,0,0,0,1,1,1,1,0,0,0,0, /* 30 */
756   /* 40 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* 40 */
757   /* 50 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* 50 */
758   /* 60 */ 0,0,1,1,0,0,0,0,0,1,0,1,0,0,0,0, /* 60 */
759   /* 70 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* 70 */
760   /* 80 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* 80 */
761   /* 90 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* 90 */
762   /* a0 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* a0 */
763   /* b0 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* b0 */
764   /* c0 */ 1,1,0,0,1,1,1,1,0,0,0,0,0,0,0,0, /* c0 */
765   /* d0 */ 1,1,1,1,0,0,0,0,1,1,1,1,1,1,1,1, /* d0 */
766   /* e0 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* e0 */
767   /* f0 */ 0,0,0,0,0,0,1,1,0,0,0,0,0,0,1,1  /* f0 */
768   /*       -------------------------------        */
769   /*       0 1 2 3 4 5 6 7 8 9 a b c d e f        */
770 };
771
772 static const unsigned char twobyte_has_modrm[256] = {
773   /*       0 1 2 3 4 5 6 7 8 9 a b c d e f        */
774   /*       -------------------------------        */
775   /* 00 */ 1,1,1,1,0,0,0,0,0,0,0,0,0,1,0,1, /* 0f */
776   /* 10 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* 1f */
777   /* 20 */ 1,1,1,1,1,1,1,0,1,1,1,1,1,1,1,1, /* 2f */
778   /* 30 */ 0,0,0,0,0,0,0,0,1,0,1,0,0,0,0,0, /* 3f */
779   /* 40 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* 4f */
780   /* 50 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* 5f */
781   /* 60 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* 6f */
782   /* 70 */ 1,1,1,1,1,1,1,0,1,1,1,1,1,1,1,1, /* 7f */
783   /* 80 */ 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, /* 8f */
784   /* 90 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* 9f */
785   /* a0 */ 0,0,0,1,1,1,1,1,0,0,0,1,1,1,1,1, /* af */
786   /* b0 */ 1,1,1,1,1,1,1,1,1,0,1,1,1,1,1,1, /* bf */
787   /* c0 */ 1,1,1,1,1,1,1,1,0,0,0,0,0,0,0,0, /* cf */
788   /* d0 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* df */
789   /* e0 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1, /* ef */
790   /* f0 */ 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0  /* ff */
791   /*       -------------------------------        */
792   /*       0 1 2 3 4 5 6 7 8 9 a b c d e f        */
793 };
794
795 static int amd64_syscall_p (const struct amd64_insn *insn, int *lengthp);
796
797 static int
798 rex_prefix_p (gdb_byte pfx)
799 {
800   return REX_PREFIX_P (pfx);
801 }
802
803 /* Skip the legacy instruction prefixes in INSN.
804    We assume INSN is properly sentineled so we don't have to worry
805    about falling off the end of the buffer.  */
806
807 static gdb_byte *
808 amd64_skip_prefixes (gdb_byte *insn)
809 {
810   while (1)
811     {
812       switch (*insn)
813         {
814         case DATA_PREFIX_OPCODE:
815         case ADDR_PREFIX_OPCODE:
816         case CS_PREFIX_OPCODE:
817         case DS_PREFIX_OPCODE:
818         case ES_PREFIX_OPCODE:
819         case FS_PREFIX_OPCODE:
820         case GS_PREFIX_OPCODE:
821         case SS_PREFIX_OPCODE:
822         case LOCK_PREFIX_OPCODE:
823         case REPE_PREFIX_OPCODE:
824         case REPNE_PREFIX_OPCODE:
825           ++insn;
826           continue;
827         default:
828           break;
829         }
830       break;
831     }
832
833   return insn;
834 }
835
836 /* fprintf-function for amd64_insn_length.
837    This function is a nop, we don't want to print anything, we just want to
838    compute the length of the insn.  */
839
840 static int ATTR_FORMAT (printf, 2, 3)
841 amd64_insn_length_fprintf (void *stream, const char *format, ...)
842 {
843   return 0;
844 }
845
846 /* Initialize a struct disassemble_info for amd64_insn_length.  */
847
848 static void
849 amd64_insn_length_init_dis (struct gdbarch *gdbarch,
850                             struct disassemble_info *di,
851                             const gdb_byte *insn, int max_len,
852                             CORE_ADDR addr)
853 {
854   init_disassemble_info (di, NULL, amd64_insn_length_fprintf);
855
856   /* init_disassemble_info installs buffer_read_memory, etc.
857      so we don't need to do that here.
858      The cast is necessary until disassemble_info is const-ified.  */
859   di->buffer = (gdb_byte *) insn;
860   di->buffer_length = max_len;
861   di->buffer_vma = addr;
862
863   di->arch = gdbarch_bfd_arch_info (gdbarch)->arch;
864   di->mach = gdbarch_bfd_arch_info (gdbarch)->mach;
865   di->endian = gdbarch_byte_order (gdbarch);
866   di->endian_code = gdbarch_byte_order_for_code (gdbarch);
867
868   disassemble_init_for_target (di);
869 }
870
871 /* Return the length in bytes of INSN.
872    MAX_LEN is the size of the buffer containing INSN.
873    libopcodes currently doesn't export a utility to compute the
874    instruction length, so use the disassembler until then.  */
875
876 static int
877 amd64_insn_length (struct gdbarch *gdbarch,
878                    const gdb_byte *insn, int max_len, CORE_ADDR addr)
879 {
880   struct disassemble_info di;
881
882   amd64_insn_length_init_dis (gdbarch, &di, insn, max_len, addr);
883
884   return gdbarch_print_insn (gdbarch, addr, &di);
885 }
886
887 /* Return an integer register (other than RSP) that is unused as an input
888    operand in INSN.
889    In order to not require adding a rex prefix if the insn doesn't already
890    have one, the result is restricted to RAX ... RDI, sans RSP.
891    The register numbering of the result follows architecture ordering,
892    e.g. RDI = 7.  */
893
894 static int
895 amd64_get_unused_input_int_reg (const struct amd64_insn *details)
896 {
897   /* 1 bit for each reg */
898   int used_regs_mask = 0;
899
900   /* There can be at most 3 int regs used as inputs in an insn, and we have
901      7 to choose from (RAX ... RDI, sans RSP).
902      This allows us to take a conservative approach and keep things simple.
903      E.g. By avoiding RAX, we don't have to specifically watch for opcodes
904      that implicitly specify RAX.  */
905
906   /* Avoid RAX.  */
907   used_regs_mask |= 1 << EAX_REG_NUM;
908   /* Similarily avoid RDX, implicit operand in divides.  */
909   used_regs_mask |= 1 << EDX_REG_NUM;
910   /* Avoid RSP.  */
911   used_regs_mask |= 1 << ESP_REG_NUM;
912
913   /* If the opcode is one byte long and there's no ModRM byte,
914      assume the opcode specifies a register.  */
915   if (details->opcode_len == 1 && details->modrm_offset == -1)
916     used_regs_mask |= 1 << (details->raw_insn[details->opcode_offset] & 7);
917
918   /* Mark used regs in the modrm/sib bytes.  */
919   if (details->modrm_offset != -1)
920     {
921       int modrm = details->raw_insn[details->modrm_offset];
922       int mod = MODRM_MOD_FIELD (modrm);
923       int reg = MODRM_REG_FIELD (modrm);
924       int rm = MODRM_RM_FIELD (modrm);
925       int have_sib = mod != 3 && rm == 4;
926
927       /* Assume the reg field of the modrm byte specifies a register.  */
928       used_regs_mask |= 1 << reg;
929
930       if (have_sib)
931         {
932           int base = SIB_BASE_FIELD (details->raw_insn[details->modrm_offset + 1]);
933           int index = SIB_INDEX_FIELD (details->raw_insn[details->modrm_offset + 1]);
934           used_regs_mask |= 1 << base;
935           used_regs_mask |= 1 << index;
936         }
937       else
938         {
939           used_regs_mask |= 1 << rm;
940         }
941     }
942
943   gdb_assert (used_regs_mask < 256);
944   gdb_assert (used_regs_mask != 255);
945
946   /* Finally, find a free reg.  */
947   {
948     int i;
949
950     for (i = 0; i < 8; ++i)
951       {
952         if (! (used_regs_mask & (1 << i)))
953           return i;
954       }
955
956     /* We shouldn't get here.  */
957     internal_error (__FILE__, __LINE__, _("unable to find free reg"));
958   }
959 }
960
961 /* Extract the details of INSN that we need.  */
962
963 static void
964 amd64_get_insn_details (gdb_byte *insn, struct amd64_insn *details)
965 {
966   gdb_byte *start = insn;
967   int need_modrm;
968
969   details->raw_insn = insn;
970
971   details->opcode_len = -1;
972   details->rex_offset = -1;
973   details->opcode_offset = -1;
974   details->modrm_offset = -1;
975
976   /* Skip legacy instruction prefixes.  */
977   insn = amd64_skip_prefixes (insn);
978
979   /* Skip REX instruction prefix.  */
980   if (rex_prefix_p (*insn))
981     {
982       details->rex_offset = insn - start;
983       ++insn;
984     }
985
986   details->opcode_offset = insn - start;
987
988   if (*insn == TWO_BYTE_OPCODE_ESCAPE)
989     {
990       /* Two or three-byte opcode.  */
991       ++insn;
992       need_modrm = twobyte_has_modrm[*insn];
993
994       /* Check for three-byte opcode.  */
995       switch (*insn)
996         {
997         case 0x24:
998         case 0x25:
999         case 0x38:
1000         case 0x3a:
1001         case 0x7a:
1002         case 0x7b:
1003           ++insn;
1004           details->opcode_len = 3;
1005           break;
1006         default:
1007           details->opcode_len = 2;
1008           break;
1009         }
1010     }
1011   else
1012     {
1013       /* One-byte opcode.  */
1014       need_modrm = onebyte_has_modrm[*insn];
1015       details->opcode_len = 1;
1016     }
1017
1018   if (need_modrm)
1019     {
1020       ++insn;
1021       details->modrm_offset = insn - start;
1022     }
1023 }
1024
1025 /* Update %rip-relative addressing in INSN.
1026
1027    %rip-relative addressing only uses a 32-bit displacement.
1028    32 bits is not enough to be guaranteed to cover the distance between where
1029    the real instruction is and where its copy is.
1030    Convert the insn to use base+disp addressing.
1031    We set base = pc + insn_length so we can leave disp unchanged.  */
1032
1033 static void
1034 fixup_riprel (struct gdbarch *gdbarch, struct displaced_step_closure *dsc,
1035               CORE_ADDR from, CORE_ADDR to, struct regcache *regs)
1036 {
1037   const struct amd64_insn *insn_details = &dsc->insn_details;
1038   int modrm_offset = insn_details->modrm_offset;
1039   gdb_byte *insn = insn_details->raw_insn + modrm_offset;
1040   CORE_ADDR rip_base;
1041   int32_t disp;
1042   int insn_length;
1043   int arch_tmp_regno, tmp_regno;
1044   ULONGEST orig_value;
1045
1046   /* %rip+disp32 addressing mode, displacement follows ModRM byte.  */
1047   ++insn;
1048
1049   /* Compute the rip-relative address.  */
1050   disp = extract_signed_integer (insn, sizeof (int32_t));
1051   insn_length = amd64_insn_length (gdbarch, dsc->insn_buf, dsc->max_len, from);
1052   rip_base = from + insn_length;
1053
1054   /* We need a register to hold the address.
1055      Pick one not used in the insn.
1056      NOTE: arch_tmp_regno uses architecture ordering, e.g. RDI = 7.  */
1057   arch_tmp_regno = amd64_get_unused_input_int_reg (insn_details);
1058   tmp_regno = amd64_arch_reg_to_regnum (arch_tmp_regno);
1059
1060   /* REX.B should be unset as we were using rip-relative addressing,
1061      but ensure it's unset anyway, tmp_regno is not r8-r15.  */
1062   if (insn_details->rex_offset != -1)
1063     dsc->insn_buf[insn_details->rex_offset] &= ~REX_B;
1064
1065   regcache_cooked_read_unsigned (regs, tmp_regno, &orig_value);
1066   dsc->tmp_regno = tmp_regno;
1067   dsc->tmp_save = orig_value;
1068   dsc->tmp_used = 1;
1069
1070   /* Convert the ModRM field to be base+disp.  */
1071   dsc->insn_buf[modrm_offset] &= ~0xc7;
1072   dsc->insn_buf[modrm_offset] |= 0x80 + arch_tmp_regno;
1073
1074   regcache_cooked_write_unsigned (regs, tmp_regno, rip_base);
1075
1076   if (debug_displaced)
1077     fprintf_unfiltered (gdb_stdlog, "displaced: %%rip-relative addressing used.\n"
1078                         "displaced: using temp reg %d, old value 0x%s, new value 0x%s\n",
1079                         dsc->tmp_regno, paddr_nz (dsc->tmp_save),
1080                         paddr_nz (rip_base));
1081 }
1082
1083 static void
1084 fixup_displaced_copy (struct gdbarch *gdbarch,
1085                       struct displaced_step_closure *dsc,
1086                       CORE_ADDR from, CORE_ADDR to, struct regcache *regs)
1087 {
1088   const struct amd64_insn *details = &dsc->insn_details;
1089
1090   if (details->modrm_offset != -1)
1091     {
1092       gdb_byte modrm = details->raw_insn[details->modrm_offset];
1093
1094       if ((modrm & 0xc7) == 0x05)
1095         {
1096           /* The insn uses rip-relative addressing.
1097              Deal with it.  */
1098           fixup_riprel (gdbarch, dsc, from, to, regs);
1099         }
1100     }
1101 }
1102
1103 struct displaced_step_closure *
1104 amd64_displaced_step_copy_insn (struct gdbarch *gdbarch,
1105                                 CORE_ADDR from, CORE_ADDR to,
1106                                 struct regcache *regs)
1107 {
1108   int len = gdbarch_max_insn_length (gdbarch);
1109   /* Extra space for sentinels so fixup_{riprel,displaced_copy don't have to
1110      continually watch for running off the end of the buffer.  */
1111   int fixup_sentinel_space = len;
1112   struct displaced_step_closure *dsc =
1113     xmalloc (sizeof (*dsc) + len + fixup_sentinel_space);
1114   gdb_byte *buf = &dsc->insn_buf[0];
1115   struct amd64_insn *details = &dsc->insn_details;
1116
1117   dsc->tmp_used = 0;
1118   dsc->max_len = len + fixup_sentinel_space;
1119
1120   read_memory (from, buf, len);
1121
1122   /* Set up the sentinel space so we don't have to worry about running
1123      off the end of the buffer.  An excessive number of leading prefixes
1124      could otherwise cause this.  */
1125   memset (buf + len, 0, fixup_sentinel_space);
1126
1127   amd64_get_insn_details (buf, details);
1128
1129   /* GDB may get control back after the insn after the syscall.
1130      Presumably this is a kernel bug.
1131      If this is a syscall, make sure there's a nop afterwards.  */
1132   {
1133     int syscall_length;
1134
1135     if (amd64_syscall_p (details, &syscall_length))
1136       buf[details->opcode_offset + syscall_length] = NOP_OPCODE;
1137   }
1138
1139   /* Modify the insn to cope with the address where it will be executed from.
1140      In particular, handle any rip-relative addressing.  */
1141   fixup_displaced_copy (gdbarch, dsc, from, to, regs);
1142
1143   write_memory (to, buf, len);
1144
1145   if (debug_displaced)
1146     {
1147       fprintf_unfiltered (gdb_stdlog, "displaced: copy 0x%s->0x%s: ",
1148                           paddr_nz (from), paddr_nz (to));
1149       displaced_step_dump_bytes (gdb_stdlog, buf, len);
1150     }
1151
1152   return dsc;
1153 }
1154
1155 static int
1156 amd64_absolute_jmp_p (const struct amd64_insn *details)
1157 {
1158   const gdb_byte *insn = &details->raw_insn[details->opcode_offset];
1159
1160   if (insn[0] == 0xff)
1161     {
1162       /* jump near, absolute indirect (/4) */
1163       if ((insn[1] & 0x38) == 0x20)
1164         return 1;
1165
1166       /* jump far, absolute indirect (/5) */
1167       if ((insn[1] & 0x38) == 0x28)
1168         return 1;
1169     }
1170
1171   return 0;
1172 }
1173
1174 static int
1175 amd64_absolute_call_p (const struct amd64_insn *details)
1176 {
1177   const gdb_byte *insn = &details->raw_insn[details->opcode_offset];
1178
1179   if (insn[0] == 0xff)
1180     {
1181       /* Call near, absolute indirect (/2) */
1182       if ((insn[1] & 0x38) == 0x10)
1183         return 1;
1184
1185       /* Call far, absolute indirect (/3) */
1186       if ((insn[1] & 0x38) == 0x18)
1187         return 1;
1188     }
1189
1190   return 0;
1191 }
1192
1193 static int
1194 amd64_ret_p (const struct amd64_insn *details)
1195 {
1196   /* NOTE: gcc can emit "repz ; ret".  */
1197   const gdb_byte *insn = &details->raw_insn[details->opcode_offset];
1198
1199   switch (insn[0])
1200     {
1201     case 0xc2: /* ret near, pop N bytes */
1202     case 0xc3: /* ret near */
1203     case 0xca: /* ret far, pop N bytes */
1204     case 0xcb: /* ret far */
1205     case 0xcf: /* iret */
1206       return 1;
1207
1208     default:
1209       return 0;
1210     }
1211 }
1212
1213 static int
1214 amd64_call_p (const struct amd64_insn *details)
1215 {
1216   const gdb_byte *insn = &details->raw_insn[details->opcode_offset];
1217
1218   if (amd64_absolute_call_p (details))
1219     return 1;
1220
1221   /* call near, relative */
1222   if (insn[0] == 0xe8)
1223     return 1;
1224
1225   return 0;
1226 }
1227
1228 /* Return non-zero if INSN is a system call, and set *LENGTHP to its
1229    length in bytes.  Otherwise, return zero.  */
1230
1231 static int
1232 amd64_syscall_p (const struct amd64_insn *details, int *lengthp)
1233 {
1234   const gdb_byte *insn = &details->raw_insn[details->opcode_offset];
1235
1236   if (insn[0] == 0x0f && insn[1] == 0x05)
1237     {
1238       *lengthp = 2;
1239       return 1;
1240     }
1241
1242   return 0;
1243 }
1244
1245 /* Fix up the state of registers and memory after having single-stepped
1246    a displaced instruction.  */
1247
1248 void
1249 amd64_displaced_step_fixup (struct gdbarch *gdbarch,
1250                             struct displaced_step_closure *dsc,
1251                             CORE_ADDR from, CORE_ADDR to,
1252                             struct regcache *regs)
1253 {
1254   /* The offset we applied to the instruction's address.  */
1255   ULONGEST insn_offset = to - from;
1256   gdb_byte *insn = dsc->insn_buf;
1257   const struct amd64_insn *insn_details = &dsc->insn_details;
1258
1259   if (debug_displaced)
1260     fprintf_unfiltered (gdb_stdlog,
1261                         "displaced: fixup (0x%s, 0x%s), "
1262                         "insn = 0x%02x 0x%02x ...\n",
1263                         paddr_nz (from), paddr_nz (to), insn[0], insn[1]);
1264
1265   /* If we used a tmp reg, restore it.  */
1266
1267   if (dsc->tmp_used)
1268     {
1269       if (debug_displaced)
1270         fprintf_unfiltered (gdb_stdlog, "displaced: restoring reg %d to 0x%s\n",
1271                             dsc->tmp_regno, paddr_nz (dsc->tmp_save));
1272       regcache_cooked_write_unsigned (regs, dsc->tmp_regno, dsc->tmp_save);
1273     }
1274
1275   /* The list of issues to contend with here is taken from
1276      resume_execution in arch/x86/kernel/kprobes.c, Linux 2.6.28.
1277      Yay for Free Software!  */
1278
1279   /* Relocate the %rip back to the program's instruction stream,
1280      if necessary.  */
1281
1282   /* Except in the case of absolute or indirect jump or call
1283      instructions, or a return instruction, the new rip is relative to
1284      the displaced instruction; make it relative to the original insn.
1285      Well, signal handler returns don't need relocation either, but we use the
1286      value of %rip to recognize those; see below.  */
1287   if (! amd64_absolute_jmp_p (insn_details)
1288       && ! amd64_absolute_call_p (insn_details)
1289       && ! amd64_ret_p (insn_details))
1290     {
1291       ULONGEST orig_rip;
1292       int insn_len;
1293
1294       regcache_cooked_read_unsigned (regs, AMD64_RIP_REGNUM, &orig_rip);
1295
1296       /* A signal trampoline system call changes the %rip, resuming
1297          execution of the main program after the signal handler has
1298          returned.  That makes them like 'return' instructions; we
1299          shouldn't relocate %rip.
1300
1301          But most system calls don't, and we do need to relocate %rip.
1302
1303          Our heuristic for distinguishing these cases: if stepping
1304          over the system call instruction left control directly after
1305          the instruction, the we relocate --- control almost certainly
1306          doesn't belong in the displaced copy.  Otherwise, we assume
1307          the instruction has put control where it belongs, and leave
1308          it unrelocated.  Goodness help us if there are PC-relative
1309          system calls.  */
1310       if (amd64_syscall_p (insn_details, &insn_len)
1311           && orig_rip != to + insn_len
1312           /* GDB can get control back after the insn after the syscall.
1313              Presumably this is a kernel bug.
1314              Fixup ensures its a nop, we add one to the length for it.  */
1315           && orig_rip != to + insn_len + 1)
1316         {
1317           if (debug_displaced)
1318             fprintf_unfiltered (gdb_stdlog,
1319                                 "displaced: syscall changed %%rip; "
1320                                 "not relocating\n");
1321         }
1322       else
1323         {
1324           ULONGEST rip = orig_rip - insn_offset;
1325
1326           /* If we just stepped over a breakpoint insn, we don't backup
1327              the pc on purpose; this is to match behaviour without
1328              stepping.  */
1329
1330           regcache_cooked_write_unsigned (regs, AMD64_RIP_REGNUM, rip);
1331
1332           if (debug_displaced)
1333             fprintf_unfiltered (gdb_stdlog,
1334                                 "displaced: "
1335                                 "relocated %%rip from 0x%s to 0x%s\n",
1336                                 paddr_nz (orig_rip), paddr_nz (rip));
1337         }
1338     }
1339
1340   /* If the instruction was PUSHFL, then the TF bit will be set in the
1341      pushed value, and should be cleared.  We'll leave this for later,
1342      since GDB already messes up the TF flag when stepping over a
1343      pushfl.  */
1344
1345   /* If the instruction was a call, the return address now atop the
1346      stack is the address following the copied instruction.  We need
1347      to make it the address following the original instruction.  */
1348   if (amd64_call_p (insn_details))
1349     {
1350       ULONGEST rsp;
1351       ULONGEST retaddr;
1352       const ULONGEST retaddr_len = 8;
1353
1354       regcache_cooked_read_unsigned (regs, AMD64_RSP_REGNUM, &rsp);
1355       retaddr = read_memory_unsigned_integer (rsp, retaddr_len);
1356       retaddr = (retaddr - insn_offset) & 0xffffffffUL;
1357       write_memory_unsigned_integer (rsp, retaddr_len, retaddr);
1358
1359       if (debug_displaced)
1360         fprintf_unfiltered (gdb_stdlog,
1361                             "displaced: relocated return addr at 0x%s "
1362                             "to 0x%s\n",
1363                             paddr_nz (rsp),
1364                             paddr_nz (retaddr));
1365     }
1366 }
1367 \f
1368 /* The maximum number of saved registers.  This should include %rip.  */
1369 #define AMD64_NUM_SAVED_REGS    AMD64_NUM_GREGS
1370
1371 struct amd64_frame_cache
1372 {
1373   /* Base address.  */
1374   CORE_ADDR base;
1375   CORE_ADDR sp_offset;
1376   CORE_ADDR pc;
1377
1378   /* Saved registers.  */
1379   CORE_ADDR saved_regs[AMD64_NUM_SAVED_REGS];
1380   CORE_ADDR saved_sp;
1381   int saved_sp_reg;
1382
1383   /* Do we have a frame?  */
1384   int frameless_p;
1385 };
1386
1387 /* Initialize a frame cache.  */
1388
1389 static void
1390 amd64_init_frame_cache (struct amd64_frame_cache *cache)
1391 {
1392   int i;
1393
1394   /* Base address.  */
1395   cache->base = 0;
1396   cache->sp_offset = -8;
1397   cache->pc = 0;
1398
1399   /* Saved registers.  We initialize these to -1 since zero is a valid
1400      offset (that's where %rbp is supposed to be stored).  */
1401   for (i = 0; i < AMD64_NUM_SAVED_REGS; i++)
1402     cache->saved_regs[i] = -1;
1403   cache->saved_sp = 0;
1404   cache->saved_sp_reg = -1;
1405
1406   /* Frameless until proven otherwise.  */
1407   cache->frameless_p = 1;
1408 }
1409
1410 /* Allocate and initialize a frame cache.  */
1411
1412 static struct amd64_frame_cache *
1413 amd64_alloc_frame_cache (void)
1414 {
1415   struct amd64_frame_cache *cache;
1416
1417   cache = FRAME_OBSTACK_ZALLOC (struct amd64_frame_cache);
1418   amd64_init_frame_cache (cache);
1419   return cache;
1420 }
1421
1422 /* GCC 4.4 and later, can put code in the prologue to realign the
1423    stack pointer.  Check whether PC points to such code, and update
1424    CACHE accordingly.  Return the first instruction after the code
1425    sequence or CURRENT_PC, whichever is smaller.  If we don't
1426    recognize the code, return PC.  */
1427
1428 static CORE_ADDR
1429 amd64_analyze_stack_align (CORE_ADDR pc, CORE_ADDR current_pc,
1430                            struct amd64_frame_cache *cache)
1431 {
1432   /* There are 2 code sequences to re-align stack before the frame
1433      gets set up:
1434
1435         1. Use a caller-saved saved register:
1436
1437                 leaq  8(%rsp), %reg
1438                 andq  $-XXX, %rsp
1439                 pushq -8(%reg)
1440
1441         2. Use a callee-saved saved register:
1442
1443                 pushq %reg
1444                 leaq  16(%rsp), %reg
1445                 andq  $-XXX, %rsp
1446                 pushq -8(%reg)
1447
1448      "andq $-XXX, %rsp" can be either 4 bytes or 7 bytes:
1449      
1450         0x48 0x83 0xe4 0xf0                     andq $-16, %rsp
1451         0x48 0x81 0xe4 0x00 0xff 0xff 0xff      andq $-256, %rsp
1452    */
1453
1454   gdb_byte buf[18];
1455   int reg, r;
1456   int offset, offset_and;
1457
1458   if (target_read_memory (pc, buf, sizeof buf))
1459     return pc;
1460
1461   /* Check caller-saved saved register.  The first instruction has
1462      to be "leaq 8(%rsp), %reg".  */
1463   if ((buf[0] & 0xfb) == 0x48
1464       && buf[1] == 0x8d
1465       && buf[3] == 0x24
1466       && buf[4] == 0x8)
1467     {
1468       /* MOD must be binary 10 and R/M must be binary 100.  */
1469       if ((buf[2] & 0xc7) != 0x44)
1470         return pc;
1471
1472       /* REG has register number.  */
1473       reg = (buf[2] >> 3) & 7;
1474
1475       /* Check the REX.R bit.  */
1476       if (buf[0] == 0x4c)
1477         reg += 8;
1478
1479       offset = 5;
1480     }
1481   else
1482     {
1483       /* Check callee-saved saved register.  The first instruction
1484          has to be "pushq %reg".  */
1485       reg = 0;
1486       if ((buf[0] & 0xf8) == 0x50)
1487         offset = 0;
1488       else if ((buf[0] & 0xf6) == 0x40
1489                && (buf[1] & 0xf8) == 0x50)
1490         {
1491           /* Check the REX.B bit.  */
1492           if ((buf[0] & 1) != 0)
1493             reg = 8;
1494
1495           offset = 1;
1496         }
1497       else
1498         return pc;
1499
1500       /* Get register.  */
1501       reg += buf[offset] & 0x7;
1502
1503       offset++;
1504
1505       /* The next instruction has to be "leaq 16(%rsp), %reg".  */
1506       if ((buf[offset] & 0xfb) != 0x48
1507           || buf[offset + 1] != 0x8d
1508           || buf[offset + 3] != 0x24
1509           || buf[offset + 4] != 0x10)
1510         return pc;
1511
1512       /* MOD must be binary 10 and R/M must be binary 100.  */
1513       if ((buf[offset + 2] & 0xc7) != 0x44)
1514         return pc;
1515       
1516       /* REG has register number.  */
1517       r = (buf[offset + 2] >> 3) & 7;
1518
1519       /* Check the REX.R bit.  */
1520       if (buf[offset] == 0x4c)
1521         r += 8;
1522
1523       /* Registers in pushq and leaq have to be the same.  */
1524       if (reg != r)
1525         return pc;
1526
1527       offset += 5;
1528     }
1529
1530   /* Rigister can't be %rsp nor %rbp.  */
1531   if (reg == 4 || reg == 5)
1532     return pc;
1533
1534   /* The next instruction has to be "andq $-XXX, %rsp".  */
1535   if (buf[offset] != 0x48
1536       || buf[offset + 2] != 0xe4
1537       || (buf[offset + 1] != 0x81 && buf[offset + 1] != 0x83))
1538     return pc;
1539
1540   offset_and = offset;
1541   offset += buf[offset + 1] == 0x81 ? 7 : 4;
1542
1543   /* The next instruction has to be "pushq -8(%reg)".  */
1544   r = 0;
1545   if (buf[offset] == 0xff)
1546     offset++;
1547   else if ((buf[offset] & 0xf6) == 0x40
1548            && buf[offset + 1] == 0xff)
1549     {
1550       /* Check the REX.B bit.  */
1551       if ((buf[offset] & 0x1) != 0)
1552         r = 8;
1553       offset += 2;
1554     }
1555   else
1556     return pc;
1557
1558   /* 8bit -8 is 0xf8.  REG must be binary 110 and MOD must be binary
1559      01.  */
1560   if (buf[offset + 1] != 0xf8
1561       || (buf[offset] & 0xf8) != 0x70)
1562     return pc;
1563
1564   /* R/M has register.  */
1565   r += buf[offset] & 7;
1566
1567   /* Registers in leaq and pushq have to be the same.  */
1568   if (reg != r)
1569     return pc;
1570
1571   if (current_pc > pc + offset_and)
1572     cache->saved_sp_reg = amd64_arch_reg_to_regnum (reg);
1573
1574   return min (pc + offset + 2, current_pc);
1575 }
1576
1577 /* Do a limited analysis of the prologue at PC and update CACHE
1578    accordingly.  Bail out early if CURRENT_PC is reached.  Return the
1579    address where the analysis stopped.
1580
1581    We will handle only functions beginning with:
1582
1583       pushq %rbp        0x55
1584       movq %rsp, %rbp   0x48 0x89 0xe5
1585
1586    Any function that doesn't start with this sequence will be assumed
1587    to have no prologue and thus no valid frame pointer in %rbp.  */
1588
1589 static CORE_ADDR
1590 amd64_analyze_prologue (CORE_ADDR pc, CORE_ADDR current_pc,
1591                         struct amd64_frame_cache *cache)
1592 {
1593   static gdb_byte proto[3] = { 0x48, 0x89, 0xe5 }; /* movq %rsp, %rbp */
1594   gdb_byte buf[3];
1595   gdb_byte op;
1596
1597   if (current_pc <= pc)
1598     return current_pc;
1599
1600   pc = amd64_analyze_stack_align (pc, current_pc, cache);
1601
1602   op = read_memory_unsigned_integer (pc, 1);
1603
1604   if (op == 0x55)               /* pushq %rbp */
1605     {
1606       /* Take into account that we've executed the `pushq %rbp' that
1607          starts this instruction sequence.  */
1608       cache->saved_regs[AMD64_RBP_REGNUM] = 0;
1609       cache->sp_offset += 8;
1610
1611       /* If that's all, return now.  */
1612       if (current_pc <= pc + 1)
1613         return current_pc;
1614
1615       /* Check for `movq %rsp, %rbp'.  */
1616       read_memory (pc + 1, buf, 3);
1617       if (memcmp (buf, proto, 3) != 0)
1618         return pc + 1;
1619
1620       /* OK, we actually have a frame.  */
1621       cache->frameless_p = 0;
1622       return pc + 4;
1623     }
1624
1625   return pc;
1626 }
1627
1628 /* Return PC of first real instruction.  */
1629
1630 static CORE_ADDR
1631 amd64_skip_prologue (struct gdbarch *gdbarch, CORE_ADDR start_pc)
1632 {
1633   struct amd64_frame_cache cache;
1634   CORE_ADDR pc;
1635
1636   amd64_init_frame_cache (&cache);
1637   pc = amd64_analyze_prologue (start_pc, 0xffffffffffffffffLL, &cache);
1638   if (cache.frameless_p)
1639     return start_pc;
1640
1641   return pc;
1642 }
1643 \f
1644
1645 /* Normal frames.  */
1646
1647 static struct amd64_frame_cache *
1648 amd64_frame_cache (struct frame_info *this_frame, void **this_cache)
1649 {
1650   struct amd64_frame_cache *cache;
1651   gdb_byte buf[8];
1652   int i;
1653
1654   if (*this_cache)
1655     return *this_cache;
1656
1657   cache = amd64_alloc_frame_cache ();
1658   *this_cache = cache;
1659
1660   cache->pc = get_frame_func (this_frame);
1661   if (cache->pc != 0)
1662     amd64_analyze_prologue (cache->pc, get_frame_pc (this_frame), cache);
1663
1664   if (cache->saved_sp_reg != -1)
1665     {
1666       /* Stack pointer has been saved.  */
1667       get_frame_register (this_frame, cache->saved_sp_reg, buf);
1668       cache->saved_sp = extract_unsigned_integer(buf, 8);
1669     }
1670
1671   if (cache->frameless_p)
1672     {
1673       /* We didn't find a valid frame.  If we're at the start of a
1674          function, or somewhere half-way its prologue, the function's
1675          frame probably hasn't been fully setup yet.  Try to
1676          reconstruct the base address for the stack frame by looking
1677          at the stack pointer.  For truly "frameless" functions this
1678          might work too.  */
1679
1680       if (cache->saved_sp_reg != -1)
1681         {
1682           /* We're halfway aligning the stack.  */
1683           cache->base = ((cache->saved_sp - 8) & 0xfffffffffffffff0LL) - 8;
1684           cache->saved_regs[AMD64_RIP_REGNUM] = cache->saved_sp - 8;
1685
1686           /* This will be added back below.  */
1687           cache->saved_regs[AMD64_RIP_REGNUM] -= cache->base;
1688         }
1689       else
1690         {
1691           get_frame_register (this_frame, AMD64_RSP_REGNUM, buf);
1692           cache->base = extract_unsigned_integer (buf, 8) + cache->sp_offset;
1693         }
1694     }
1695   else
1696     {
1697       get_frame_register (this_frame, AMD64_RBP_REGNUM, buf);
1698       cache->base = extract_unsigned_integer (buf, 8);
1699     }
1700
1701   /* Now that we have the base address for the stack frame we can
1702      calculate the value of %rsp in the calling frame.  */
1703   cache->saved_sp = cache->base + 16;
1704
1705   /* For normal frames, %rip is stored at 8(%rbp).  If we don't have a
1706      frame we find it at the same offset from the reconstructed base
1707      address.  If we're halfway aligning the stack, %rip is handled
1708      differently (see above).  */
1709   if (!cache->frameless_p || cache->saved_sp_reg == -1)
1710     cache->saved_regs[AMD64_RIP_REGNUM] = 8;
1711
1712   /* Adjust all the saved registers such that they contain addresses
1713      instead of offsets.  */
1714   for (i = 0; i < AMD64_NUM_SAVED_REGS; i++)
1715     if (cache->saved_regs[i] != -1)
1716       cache->saved_regs[i] += cache->base;
1717
1718   return cache;
1719 }
1720
1721 static void
1722 amd64_frame_this_id (struct frame_info *this_frame, void **this_cache,
1723                      struct frame_id *this_id)
1724 {
1725   struct amd64_frame_cache *cache =
1726     amd64_frame_cache (this_frame, this_cache);
1727
1728   /* This marks the outermost frame.  */
1729   if (cache->base == 0)
1730     return;
1731
1732   (*this_id) = frame_id_build (cache->base + 16, cache->pc);
1733 }
1734
1735 static struct value *
1736 amd64_frame_prev_register (struct frame_info *this_frame, void **this_cache,
1737                            int regnum)
1738 {
1739   struct gdbarch *gdbarch = get_frame_arch (this_frame);
1740   struct amd64_frame_cache *cache =
1741     amd64_frame_cache (this_frame, this_cache);
1742
1743   gdb_assert (regnum >= 0);
1744
1745   if (regnum == gdbarch_sp_regnum (gdbarch) && cache->saved_sp)
1746     return frame_unwind_got_constant (this_frame, regnum, cache->saved_sp);
1747
1748   if (regnum < AMD64_NUM_SAVED_REGS && cache->saved_regs[regnum] != -1)
1749     return frame_unwind_got_memory (this_frame, regnum,
1750                                     cache->saved_regs[regnum]);
1751
1752   return frame_unwind_got_register (this_frame, regnum, regnum);
1753 }
1754
1755 static const struct frame_unwind amd64_frame_unwind =
1756 {
1757   NORMAL_FRAME,
1758   amd64_frame_this_id,
1759   amd64_frame_prev_register,
1760   NULL,
1761   default_frame_sniffer
1762 };
1763 \f
1764
1765 /* Signal trampolines.  */
1766
1767 /* FIXME: kettenis/20030419: Perhaps, we can unify the 32-bit and
1768    64-bit variants.  This would require using identical frame caches
1769    on both platforms.  */
1770
1771 static struct amd64_frame_cache *
1772 amd64_sigtramp_frame_cache (struct frame_info *this_frame, void **this_cache)
1773 {
1774   struct amd64_frame_cache *cache;
1775   struct gdbarch_tdep *tdep = gdbarch_tdep (get_frame_arch (this_frame));
1776   CORE_ADDR addr;
1777   gdb_byte buf[8];
1778   int i;
1779
1780   if (*this_cache)
1781     return *this_cache;
1782
1783   cache = amd64_alloc_frame_cache ();
1784
1785   get_frame_register (this_frame, AMD64_RSP_REGNUM, buf);
1786   cache->base = extract_unsigned_integer (buf, 8) - 8;
1787
1788   addr = tdep->sigcontext_addr (this_frame);
1789   gdb_assert (tdep->sc_reg_offset);
1790   gdb_assert (tdep->sc_num_regs <= AMD64_NUM_SAVED_REGS);
1791   for (i = 0; i < tdep->sc_num_regs; i++)
1792     if (tdep->sc_reg_offset[i] != -1)
1793       cache->saved_regs[i] = addr + tdep->sc_reg_offset[i];
1794
1795   *this_cache = cache;
1796   return cache;
1797 }
1798
1799 static void
1800 amd64_sigtramp_frame_this_id (struct frame_info *this_frame,
1801                               void **this_cache, struct frame_id *this_id)
1802 {
1803   struct amd64_frame_cache *cache =
1804     amd64_sigtramp_frame_cache (this_frame, this_cache);
1805
1806   (*this_id) = frame_id_build (cache->base + 16, get_frame_pc (this_frame));
1807 }
1808
1809 static struct value *
1810 amd64_sigtramp_frame_prev_register (struct frame_info *this_frame,
1811                                     void **this_cache, int regnum)
1812 {
1813   /* Make sure we've initialized the cache.  */
1814   amd64_sigtramp_frame_cache (this_frame, this_cache);
1815
1816   return amd64_frame_prev_register (this_frame, this_cache, regnum);
1817 }
1818
1819 static int
1820 amd64_sigtramp_frame_sniffer (const struct frame_unwind *self,
1821                               struct frame_info *this_frame,
1822                               void **this_cache)
1823 {
1824   struct gdbarch_tdep *tdep = gdbarch_tdep (get_frame_arch (this_frame));
1825
1826   /* We shouldn't even bother if we don't have a sigcontext_addr
1827      handler.  */
1828   if (tdep->sigcontext_addr == NULL)
1829     return 0;
1830
1831   if (tdep->sigtramp_p != NULL)
1832     {
1833       if (tdep->sigtramp_p (this_frame))
1834         return 1;
1835     }
1836
1837   if (tdep->sigtramp_start != 0)
1838     {
1839       CORE_ADDR pc = get_frame_pc (this_frame);
1840
1841       gdb_assert (tdep->sigtramp_end != 0);
1842       if (pc >= tdep->sigtramp_start && pc < tdep->sigtramp_end)
1843         return 1;
1844     }
1845
1846   return 0;
1847 }
1848
1849 static const struct frame_unwind amd64_sigtramp_frame_unwind =
1850 {
1851   SIGTRAMP_FRAME,
1852   amd64_sigtramp_frame_this_id,
1853   amd64_sigtramp_frame_prev_register,
1854   NULL,
1855   amd64_sigtramp_frame_sniffer
1856 };
1857 \f
1858
1859 static CORE_ADDR
1860 amd64_frame_base_address (struct frame_info *this_frame, void **this_cache)
1861 {
1862   struct amd64_frame_cache *cache =
1863     amd64_frame_cache (this_frame, this_cache);
1864
1865   return cache->base;
1866 }
1867
1868 static const struct frame_base amd64_frame_base =
1869 {
1870   &amd64_frame_unwind,
1871   amd64_frame_base_address,
1872   amd64_frame_base_address,
1873   amd64_frame_base_address
1874 };
1875
1876 static struct frame_id
1877 amd64_dummy_id (struct gdbarch *gdbarch, struct frame_info *this_frame)
1878 {
1879   CORE_ADDR fp;
1880
1881   fp = get_frame_register_unsigned (this_frame, AMD64_RBP_REGNUM);
1882
1883   return frame_id_build (fp + 16, get_frame_pc (this_frame));
1884 }
1885
1886 /* 16 byte align the SP per frame requirements.  */
1887
1888 static CORE_ADDR
1889 amd64_frame_align (struct gdbarch *gdbarch, CORE_ADDR sp)
1890 {
1891   return sp & -(CORE_ADDR)16;
1892 }
1893 \f
1894
1895 /* Supply register REGNUM from the buffer specified by FPREGS and LEN
1896    in the floating-point register set REGSET to register cache
1897    REGCACHE.  If REGNUM is -1, do this for all registers in REGSET.  */
1898
1899 static void
1900 amd64_supply_fpregset (const struct regset *regset, struct regcache *regcache,
1901                        int regnum, const void *fpregs, size_t len)
1902 {
1903   const struct gdbarch_tdep *tdep = gdbarch_tdep (regset->arch);
1904
1905   gdb_assert (len == tdep->sizeof_fpregset);
1906   amd64_supply_fxsave (regcache, regnum, fpregs);
1907 }
1908
1909 /* Collect register REGNUM from the register cache REGCACHE and store
1910    it in the buffer specified by FPREGS and LEN as described by the
1911    floating-point register set REGSET.  If REGNUM is -1, do this for
1912    all registers in REGSET.  */
1913
1914 static void
1915 amd64_collect_fpregset (const struct regset *regset,
1916                         const struct regcache *regcache,
1917                         int regnum, void *fpregs, size_t len)
1918 {
1919   const struct gdbarch_tdep *tdep = gdbarch_tdep (regset->arch);
1920
1921   gdb_assert (len == tdep->sizeof_fpregset);
1922   amd64_collect_fxsave (regcache, regnum, fpregs);
1923 }
1924
1925 /* Return the appropriate register set for the core section identified
1926    by SECT_NAME and SECT_SIZE.  */
1927
1928 static const struct regset *
1929 amd64_regset_from_core_section (struct gdbarch *gdbarch,
1930                                 const char *sect_name, size_t sect_size)
1931 {
1932   struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
1933
1934   if (strcmp (sect_name, ".reg2") == 0 && sect_size == tdep->sizeof_fpregset)
1935     {
1936       if (tdep->fpregset == NULL)
1937         tdep->fpregset = regset_alloc (gdbarch, amd64_supply_fpregset,
1938                                        amd64_collect_fpregset);
1939
1940       return tdep->fpregset;
1941     }
1942
1943   return i386_regset_from_core_section (gdbarch, sect_name, sect_size);
1944 }
1945 \f
1946
1947 /* Figure out where the longjmp will land.  Slurp the jmp_buf out of
1948    %rdi.  We expect its value to be a pointer to the jmp_buf structure
1949    from which we extract the address that we will land at.  This
1950    address is copied into PC.  This routine returns non-zero on
1951    success.  */
1952
1953 static int
1954 amd64_get_longjmp_target (struct frame_info *frame, CORE_ADDR *pc)
1955 {
1956   gdb_byte buf[8];
1957   CORE_ADDR jb_addr;
1958   struct gdbarch *gdbarch = get_frame_arch (frame);
1959   int jb_pc_offset = gdbarch_tdep (gdbarch)->jb_pc_offset;
1960   int len = TYPE_LENGTH (builtin_type (gdbarch)->builtin_func_ptr);
1961
1962   /* If JB_PC_OFFSET is -1, we have no way to find out where the
1963      longjmp will land.  */
1964   if (jb_pc_offset == -1)
1965     return 0;
1966
1967   get_frame_register (frame, AMD64_RDI_REGNUM, buf);
1968   jb_addr= extract_typed_address
1969             (buf, builtin_type (gdbarch)->builtin_data_ptr);
1970   if (target_read_memory (jb_addr + jb_pc_offset, buf, len))
1971     return 0;
1972
1973   *pc = extract_typed_address (buf, builtin_type (gdbarch)->builtin_func_ptr);
1974
1975   return 1;
1976 }
1977
1978 void
1979 amd64_init_abi (struct gdbarch_info info, struct gdbarch *gdbarch)
1980 {
1981   struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
1982
1983   /* AMD64 generally uses `fxsave' instead of `fsave' for saving its
1984      floating-point registers.  */
1985   tdep->sizeof_fpregset = I387_SIZEOF_FXSAVE;
1986
1987   /* AMD64 has an FPU and 16 SSE registers.  */
1988   tdep->st0_regnum = AMD64_ST0_REGNUM;
1989   tdep->num_xmm_regs = 16;
1990
1991   /* This is what all the fuss is about.  */
1992   set_gdbarch_long_bit (gdbarch, 64);
1993   set_gdbarch_long_long_bit (gdbarch, 64);
1994   set_gdbarch_ptr_bit (gdbarch, 64);
1995
1996   /* In contrast to the i386, on AMD64 a `long double' actually takes
1997      up 128 bits, even though it's still based on the i387 extended
1998      floating-point format which has only 80 significant bits.  */
1999   set_gdbarch_long_double_bit (gdbarch, 128);
2000
2001   set_gdbarch_num_regs (gdbarch, AMD64_NUM_REGS);
2002   set_gdbarch_register_name (gdbarch, amd64_register_name);
2003   set_gdbarch_register_type (gdbarch, amd64_register_type);
2004
2005   /* Register numbers of various important registers.  */
2006   set_gdbarch_sp_regnum (gdbarch, AMD64_RSP_REGNUM); /* %rsp */
2007   set_gdbarch_pc_regnum (gdbarch, AMD64_RIP_REGNUM); /* %rip */
2008   set_gdbarch_ps_regnum (gdbarch, AMD64_EFLAGS_REGNUM); /* %eflags */
2009   set_gdbarch_fp0_regnum (gdbarch, AMD64_ST0_REGNUM); /* %st(0) */
2010
2011   /* The "default" register numbering scheme for AMD64 is referred to
2012      as the "DWARF Register Number Mapping" in the System V psABI.
2013      The preferred debugging format for all known AMD64 targets is
2014      actually DWARF2, and GCC doesn't seem to support DWARF (that is
2015      DWARF-1), but we provide the same mapping just in case.  This
2016      mapping is also used for stabs, which GCC does support.  */
2017   set_gdbarch_stab_reg_to_regnum (gdbarch, amd64_dwarf_reg_to_regnum);
2018   set_gdbarch_dwarf2_reg_to_regnum (gdbarch, amd64_dwarf_reg_to_regnum);
2019
2020   /* We don't override SDB_REG_RO_REGNUM, since COFF doesn't seem to
2021      be in use on any of the supported AMD64 targets.  */
2022
2023   /* Call dummy code.  */
2024   set_gdbarch_push_dummy_call (gdbarch, amd64_push_dummy_call);
2025   set_gdbarch_frame_align (gdbarch, amd64_frame_align);
2026   set_gdbarch_frame_red_zone_size (gdbarch, 128);
2027
2028   set_gdbarch_convert_register_p (gdbarch, i387_convert_register_p);
2029   set_gdbarch_register_to_value (gdbarch, i387_register_to_value);
2030   set_gdbarch_value_to_register (gdbarch, i387_value_to_register);
2031
2032   set_gdbarch_return_value (gdbarch, amd64_return_value);
2033
2034   set_gdbarch_skip_prologue (gdbarch, amd64_skip_prologue);
2035
2036   /* Avoid wiring in the MMX registers for now.  */
2037   set_gdbarch_num_pseudo_regs (gdbarch, 0);
2038   tdep->mm0_regnum = -1;
2039
2040   set_gdbarch_dummy_id (gdbarch, amd64_dummy_id);
2041
2042   frame_unwind_append_unwinder (gdbarch, &amd64_sigtramp_frame_unwind);
2043   frame_unwind_append_unwinder (gdbarch, &amd64_frame_unwind);
2044   frame_base_set_default (gdbarch, &amd64_frame_base);
2045
2046   /* If we have a register mapping, enable the generic core file support.  */
2047   if (tdep->gregset_reg_offset)
2048     set_gdbarch_regset_from_core_section (gdbarch,
2049                                           amd64_regset_from_core_section);
2050
2051   set_gdbarch_get_longjmp_target (gdbarch, amd64_get_longjmp_target);
2052 }
2053 \f
2054
2055 /* The 64-bit FXSAVE format differs from the 32-bit format in the
2056    sense that the instruction pointer and data pointer are simply
2057    64-bit offsets into the code segment and the data segment instead
2058    of a selector offset pair.  The functions below store the upper 32
2059    bits of these pointers (instead of just the 16-bits of the segment
2060    selector).  */
2061
2062 /* Fill register REGNUM in REGCACHE with the appropriate
2063    floating-point or SSE register value from *FXSAVE.  If REGNUM is
2064    -1, do this for all registers.  This function masks off any of the
2065    reserved bits in *FXSAVE.  */
2066
2067 void
2068 amd64_supply_fxsave (struct regcache *regcache, int regnum,
2069                      const void *fxsave)
2070 {
2071   struct gdbarch *gdbarch = get_regcache_arch (regcache);
2072   struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
2073
2074   i387_supply_fxsave (regcache, regnum, fxsave);
2075
2076   if (fxsave && gdbarch_ptr_bit (gdbarch) == 64)
2077     {
2078       const gdb_byte *regs = fxsave;
2079
2080       if (regnum == -1 || regnum == I387_FISEG_REGNUM (tdep))
2081         regcache_raw_supply (regcache, I387_FISEG_REGNUM (tdep), regs + 12);
2082       if (regnum == -1 || regnum == I387_FOSEG_REGNUM (tdep))
2083         regcache_raw_supply (regcache, I387_FOSEG_REGNUM (tdep), regs + 20);
2084     }
2085 }
2086
2087 /* Fill register REGNUM (if it is a floating-point or SSE register) in
2088    *FXSAVE with the value from REGCACHE.  If REGNUM is -1, do this for
2089    all registers.  This function doesn't touch any of the reserved
2090    bits in *FXSAVE.  */
2091
2092 void
2093 amd64_collect_fxsave (const struct regcache *regcache, int regnum,
2094                       void *fxsave)
2095 {
2096   struct gdbarch *gdbarch = get_regcache_arch (regcache);
2097   struct gdbarch_tdep *tdep = gdbarch_tdep (gdbarch);
2098   gdb_byte *regs = fxsave;
2099
2100   i387_collect_fxsave (regcache, regnum, fxsave);
2101
2102   if (gdbarch_ptr_bit (gdbarch) == 64)
2103     {
2104       if (regnum == -1 || regnum == I387_FISEG_REGNUM (tdep))
2105         regcache_raw_collect (regcache, I387_FISEG_REGNUM (tdep), regs + 12);
2106       if (regnum == -1 || regnum == I387_FOSEG_REGNUM (tdep))
2107         regcache_raw_collect (regcache, I387_FOSEG_REGNUM (tdep), regs + 20);
2108     }
2109 }