Mention IFUNC enhancements to testsuite in NEWS.
[platform/upstream/glibc.git] / elf / tst-auditmod6b.c
1 /* Verify that changing AVX registers in audit library won't affect
2    function parameter passing/return.  */
3
4 #include <dlfcn.h>
5 #include <stdint.h>
6 #include <stdio.h>
7 #include <stdlib.h>
8 #include <string.h>
9 #include <unistd.h>
10 #include <bits/wordsize.h>
11 #include <gnu/lib-names.h>
12
13 unsigned int
14 la_version (unsigned int v)
15 {
16   setlinebuf (stdout);
17
18   printf ("version: %u\n", v);
19
20   char buf[20];
21   sprintf (buf, "%u", v);
22
23   return v;
24 }
25
26 void
27 la_activity (uintptr_t *cookie, unsigned int flag)
28 {
29   if (flag == LA_ACT_CONSISTENT)
30     printf ("activity: consistent\n");
31   else if (flag == LA_ACT_ADD)
32     printf ("activity: add\n");
33   else if (flag == LA_ACT_DELETE)
34     printf ("activity: delete\n");
35   else
36     printf ("activity: unknown activity %u\n", flag);
37 }
38
39 char *
40 la_objsearch (const char *name, uintptr_t *cookie, unsigned int flag)
41 {
42   char buf[100];
43   const char *flagstr;
44   if (flag == LA_SER_ORIG)
45     flagstr = "LA_SET_ORIG";
46   else if (flag == LA_SER_LIBPATH)
47     flagstr = "LA_SER_LIBPATH";
48   else if (flag == LA_SER_RUNPATH)
49     flagstr = "LA_SER_RUNPATH";
50   else if (flag == LA_SER_CONFIG)
51     flagstr = "LA_SER_CONFIG";
52   else if (flag == LA_SER_DEFAULT)
53     flagstr = "LA_SER_DEFAULT";
54   else if (flag == LA_SER_SECURE)
55     flagstr = "LA_SER_SECURE";
56   else
57     {
58        sprintf (buf, "unknown flag %d", flag);
59        flagstr = buf;
60     }
61   printf ("objsearch: %s, %s\n", name, flagstr);
62
63   return (char *) name;
64 }
65
66 unsigned int
67 la_objopen (struct link_map *l, Lmid_t lmid, uintptr_t *cookie)
68 {
69   printf ("objopen: %ld, %s\n", lmid, l->l_name);
70
71   return 3;
72 }
73
74 void
75 la_preinit (uintptr_t *cookie)
76 {
77   printf ("preinit\n");
78 }
79
80 unsigned int
81 la_objclose  (uintptr_t *cookie)
82 {
83   printf ("objclose\n");
84   return 0;
85 }
86
87 uintptr_t
88 la_symbind64 (Elf64_Sym *sym, unsigned int ndx, uintptr_t *refcook,
89               uintptr_t *defcook, unsigned int *flags, const char *symname)
90 {
91   printf ("symbind64: symname=%s, st_value=%#lx, ndx=%u, flags=%u\n",
92           symname, (long int) sym->st_value, ndx, *flags);
93
94   return sym->st_value;
95 }
96
97 #include <tst-audit.h>
98
99 #ifdef __AVX__
100 #include <immintrin.h>
101 #include <cpuid.h>
102
103 static int avx = -1;
104
105 static inline int
106 __attribute ((always_inline))
107 check_avx (void)
108 {
109   if (avx == -1)
110     {
111       unsigned int eax, ebx, ecx, edx;
112
113       if (__get_cpuid (1, &eax, &ebx, &ecx, &edx)
114           && (ecx & bit_AVX))
115         avx = 1;
116       else
117         avx = 0;
118     }
119   return avx;
120 }
121 #else
122 #include <emmintrin.h>
123 #endif
124
125 ElfW(Addr)
126 pltenter (ElfW(Sym) *sym, unsigned int ndx, uintptr_t *refcook,
127           uintptr_t *defcook, La_regs *regs, unsigned int *flags,
128           const char *symname, long int *framesizep)
129 {
130   printf ("pltenter: symname=%s, st_value=%#lx, ndx=%u, flags=%u\n",
131           symname, (long int) sym->st_value, ndx, *flags);
132
133 #ifdef __AVX__
134   if (check_avx () && strcmp (symname, "audit_test") == 0)
135     {
136       int i;
137
138       __m128i xmm = _mm_setzero_si128 ();
139       for (i = 0; i < 8; i++)
140         if (memcmp (&regs->lr_xmm[i], &xmm, sizeof (xmm))
141             || memcmp (&regs->lr_vector[i], &xmm, sizeof (xmm)))
142           abort ();
143
144       for (i = 0; i < 8; i += 2)
145         {
146           regs->lr_xmm[i] = (La_x86_64_xmm) _mm_set1_epi32 (i + 1);
147           regs->lr_vector[i].xmm[0] = regs->lr_xmm[i];
148           regs->lr_vector[i + 1].ymm[0]
149             = (La_x86_64_ymm) _mm256_set1_epi32 (i + 2);
150           regs->lr_xmm[i + 1] = regs->lr_vector[i + 1].xmm[0];
151         }
152
153       __m256i ymm = _mm256_set1_epi32 (-1);
154       asm volatile ("vmovdqa %0, %%ymm0" : : "x" (ymm) : "xmm0" );
155       asm volatile ("vmovdqa %0, %%ymm1" : : "x" (ymm) : "xmm1" );
156       asm volatile ("vmovdqa %0, %%ymm2" : : "x" (ymm) : "xmm2" );
157       asm volatile ("vmovdqa %0, %%ymm3" : : "x" (ymm) : "xmm3" );
158       asm volatile ("vmovdqa %0, %%ymm4" : : "x" (ymm) : "xmm4" );
159       asm volatile ("vmovdqa %0, %%ymm5" : : "x" (ymm) : "xmm5" );
160       asm volatile ("vmovdqa %0, %%ymm6" : : "x" (ymm) : "xmm6" );
161       asm volatile ("vmovdqa %0, %%ymm7" : : "x" (ymm) : "xmm7" );
162
163       *framesizep = 1024;
164     }
165 #endif
166
167   return sym->st_value;
168 }
169
170 unsigned int
171 pltexit (ElfW(Sym) *sym, unsigned int ndx, uintptr_t *refcook,
172          uintptr_t *defcook, const La_regs *inregs, La_retval *outregs,
173          const char *symname)
174 {
175   printf ("pltexit: symname=%s, st_value=%#lx, ndx=%u, retval=%tu\n",
176           symname, (long int) sym->st_value, ndx,
177           (ptrdiff_t) outregs->int_retval);
178
179 #ifdef __AVX__
180   if (check_avx () && strcmp (symname, "audit_test") == 0)
181     {
182       int i;
183
184       __m128i xmm = _mm_setzero_si128 ();
185       if (memcmp (&outregs->lrv_xmm0, &xmm, sizeof (xmm))
186           || memcmp (&outregs->lrv_vector0, &xmm, sizeof (xmm)))
187         abort ();
188
189       __m256i ymm;
190
191       for (i = 0; i < 8; i += 2)
192         {
193           xmm = _mm_set1_epi32 (i + 0x100);
194           if (memcmp (&inregs->lr_xmm[i], &xmm, sizeof (xmm))
195               || memcmp (&inregs->lr_vector[i], &xmm, sizeof (xmm)))
196             abort ();
197
198           ymm = _mm256_set1_epi32 (i + 0x101);
199           if (memcmp (&inregs->lr_xmm[i + 1],
200                       &inregs->lr_vector[i + 1].xmm[0], sizeof (xmm))
201               || memcmp (&inregs->lr_vector[i + 1], &ymm, sizeof (ymm)))
202             abort ();
203         }
204
205       outregs->lrv_vector0.ymm[0]
206         = (La_x86_64_ymm) _mm256_set1_epi32 (0x12349876);
207
208       ymm = _mm256_set1_epi32 (-1);
209       asm volatile ("vmovdqa %0, %%ymm0" : : "x" (ymm) : "xmm0" );
210       asm volatile ("vmovdqa %0, %%ymm1" : : "x" (ymm) : "xmm1" );
211     }
212 #endif
213
214   return 0;
215 }