a47504c2f3cbdc4c9f0e7118a7b91d905164f1bd
[platform/kernel/linux-starfive.git] / tools / lib / bpf / bpf_tracing.h
1 /* SPDX-License-Identifier: (LGPL-2.1 OR BSD-2-Clause) */
2 #ifndef __BPF_TRACING_H__
3 #define __BPF_TRACING_H__
4
5 #include <bpf/bpf_helpers.h>
6
7 /* Scan the ARCH passed in from ARCH env variable (see Makefile) */
8 #if defined(__TARGET_ARCH_x86)
9         #define bpf_target_x86
10         #define bpf_target_defined
11 #elif defined(__TARGET_ARCH_s390)
12         #define bpf_target_s390
13         #define bpf_target_defined
14 #elif defined(__TARGET_ARCH_arm)
15         #define bpf_target_arm
16         #define bpf_target_defined
17 #elif defined(__TARGET_ARCH_arm64)
18         #define bpf_target_arm64
19         #define bpf_target_defined
20 #elif defined(__TARGET_ARCH_mips)
21         #define bpf_target_mips
22         #define bpf_target_defined
23 #elif defined(__TARGET_ARCH_powerpc)
24         #define bpf_target_powerpc
25         #define bpf_target_defined
26 #elif defined(__TARGET_ARCH_sparc)
27         #define bpf_target_sparc
28         #define bpf_target_defined
29 #elif defined(__TARGET_ARCH_riscv)
30         #define bpf_target_riscv
31         #define bpf_target_defined
32 #elif defined(__TARGET_ARCH_arc)
33         #define bpf_target_arc
34         #define bpf_target_defined
35 #elif defined(__TARGET_ARCH_loongarch)
36         #define bpf_target_loongarch
37         #define bpf_target_defined
38 #else
39
40 /* Fall back to what the compiler says */
41 #if defined(__x86_64__)
42         #define bpf_target_x86
43         #define bpf_target_defined
44 #elif defined(__s390__)
45         #define bpf_target_s390
46         #define bpf_target_defined
47 #elif defined(__arm__)
48         #define bpf_target_arm
49         #define bpf_target_defined
50 #elif defined(__aarch64__)
51         #define bpf_target_arm64
52         #define bpf_target_defined
53 #elif defined(__mips__)
54         #define bpf_target_mips
55         #define bpf_target_defined
56 #elif defined(__powerpc__)
57         #define bpf_target_powerpc
58         #define bpf_target_defined
59 #elif defined(__sparc__)
60         #define bpf_target_sparc
61         #define bpf_target_defined
62 #elif defined(__riscv) && __riscv_xlen == 64
63         #define bpf_target_riscv
64         #define bpf_target_defined
65 #elif defined(__arc__)
66         #define bpf_target_arc
67         #define bpf_target_defined
68 #elif defined(__loongarch__)
69         #define bpf_target_loongarch
70         #define bpf_target_defined
71 #endif /* no compiler target */
72
73 #endif
74
75 #ifndef __BPF_TARGET_MISSING
76 #define __BPF_TARGET_MISSING "GCC error \"Must specify a BPF target arch via __TARGET_ARCH_xxx\""
77 #endif
78
79 #if defined(bpf_target_x86)
80
81 /*
82  * https://en.wikipedia.org/wiki/X86_calling_conventions#System_V_AMD64_ABI
83  */
84
85 #if defined(__KERNEL__) || defined(__VMLINUX_H__)
86
87 #define __PT_PARM1_REG di
88 #define __PT_PARM2_REG si
89 #define __PT_PARM3_REG dx
90 #define __PT_PARM4_REG cx
91 #define __PT_PARM5_REG r8
92 #define __PT_PARM6_REG r9
93 #define __PT_RET_REG sp
94 #define __PT_FP_REG bp
95 #define __PT_RC_REG ax
96 #define __PT_SP_REG sp
97 #define __PT_IP_REG ip
98 /* syscall uses r10 for PARM4 */
99 #define PT_REGS_PARM4_SYSCALL(x) ((x)->r10)
100 #define PT_REGS_PARM4_CORE_SYSCALL(x) BPF_CORE_READ(x, r10)
101
102 #else
103
104 #ifdef __i386__
105
106 /* i386 kernel is built with -mregparm=3 */
107 #define __PT_PARM1_REG eax
108 #define __PT_PARM2_REG edx
109 #define __PT_PARM3_REG ecx
110 #define __PT_RET_REG esp
111 #define __PT_FP_REG ebp
112 #define __PT_RC_REG eax
113 #define __PT_SP_REG esp
114 #define __PT_IP_REG eip
115
116 #else /* __i386__ */
117
118 #define __PT_PARM1_REG rdi
119 #define __PT_PARM2_REG rsi
120 #define __PT_PARM3_REG rdx
121 #define __PT_PARM4_REG rcx
122 #define __PT_PARM5_REG r8
123 #define __PT_PARM6_REG r9
124 #define __PT_RET_REG rsp
125 #define __PT_FP_REG rbp
126 #define __PT_RC_REG rax
127 #define __PT_SP_REG rsp
128 #define __PT_IP_REG rip
129 /* syscall uses r10 for PARM4 */
130 #define PT_REGS_PARM4_SYSCALL(x) ((x)->r10)
131 #define PT_REGS_PARM4_CORE_SYSCALL(x) BPF_CORE_READ(x, r10)
132
133 #endif /* __i386__ */
134
135 #endif /* __KERNEL__ || __VMLINUX_H__ */
136
137 #elif defined(bpf_target_s390)
138
139 struct pt_regs___s390 {
140         unsigned long orig_gpr2;
141 };
142
143 /* s390 provides user_pt_regs instead of struct pt_regs to userspace */
144 #define __PT_REGS_CAST(x) ((const user_pt_regs *)(x))
145 #define __PT_PARM1_REG gprs[2]
146 #define __PT_PARM2_REG gprs[3]
147 #define __PT_PARM3_REG gprs[4]
148 #define __PT_PARM4_REG gprs[5]
149 #define __PT_PARM5_REG gprs[6]
150 #define __PT_RET_REG gprs[14]
151 #define __PT_FP_REG gprs[11]    /* Works only with CONFIG_FRAME_POINTER */
152 #define __PT_RC_REG gprs[2]
153 #define __PT_SP_REG gprs[15]
154 #define __PT_IP_REG psw.addr
155 #define PT_REGS_PARM1_SYSCALL(x) PT_REGS_PARM1_CORE_SYSCALL(x)
156 #define PT_REGS_PARM1_CORE_SYSCALL(x) BPF_CORE_READ((const struct pt_regs___s390 *)(x), orig_gpr2)
157
158 #elif defined(bpf_target_arm)
159
160 #define __PT_PARM1_REG uregs[0]
161 #define __PT_PARM2_REG uregs[1]
162 #define __PT_PARM3_REG uregs[2]
163 #define __PT_PARM4_REG uregs[3]
164 #define __PT_PARM5_REG uregs[4]
165 #define __PT_RET_REG uregs[14]
166 #define __PT_FP_REG uregs[11]   /* Works only with CONFIG_FRAME_POINTER */
167 #define __PT_RC_REG uregs[0]
168 #define __PT_SP_REG uregs[13]
169 #define __PT_IP_REG uregs[12]
170
171 #elif defined(bpf_target_arm64)
172
173 struct pt_regs___arm64 {
174         unsigned long orig_x0;
175 };
176
177 /* arm64 provides struct user_pt_regs instead of struct pt_regs to userspace */
178 #define __PT_REGS_CAST(x) ((const struct user_pt_regs *)(x))
179 #define __PT_PARM1_REG regs[0]
180 #define __PT_PARM2_REG regs[1]
181 #define __PT_PARM3_REG regs[2]
182 #define __PT_PARM4_REG regs[3]
183 #define __PT_PARM5_REG regs[4]
184 #define __PT_RET_REG regs[30]
185 #define __PT_FP_REG regs[29]    /* Works only with CONFIG_FRAME_POINTER */
186 #define __PT_RC_REG regs[0]
187 #define __PT_SP_REG sp
188 #define __PT_IP_REG pc
189 #define PT_REGS_PARM1_SYSCALL(x) PT_REGS_PARM1_CORE_SYSCALL(x)
190 #define PT_REGS_PARM1_CORE_SYSCALL(x) BPF_CORE_READ((const struct pt_regs___arm64 *)(x), orig_x0)
191
192 #elif defined(bpf_target_mips)
193
194 #define __PT_PARM1_REG regs[4]
195 #define __PT_PARM2_REG regs[5]
196 #define __PT_PARM3_REG regs[6]
197 #define __PT_PARM4_REG regs[7]
198 #define __PT_PARM5_REG regs[8]
199 #define __PT_RET_REG regs[31]
200 #define __PT_FP_REG regs[30]    /* Works only with CONFIG_FRAME_POINTER */
201 #define __PT_RC_REG regs[2]
202 #define __PT_SP_REG regs[29]
203 #define __PT_IP_REG cp0_epc
204
205 #elif defined(bpf_target_powerpc)
206
207 #define __PT_PARM1_REG gpr[3]
208 #define __PT_PARM2_REG gpr[4]
209 #define __PT_PARM3_REG gpr[5]
210 #define __PT_PARM4_REG gpr[6]
211 #define __PT_PARM5_REG gpr[7]
212 #define __PT_RET_REG regs[31]
213 #define __PT_FP_REG __unsupported__
214 #define __PT_RC_REG gpr[3]
215 #define __PT_SP_REG sp
216 #define __PT_IP_REG nip
217 /* powerpc does not select ARCH_HAS_SYSCALL_WRAPPER. */
218 #define PT_REGS_SYSCALL_REGS(ctx) ctx
219
220 #elif defined(bpf_target_sparc)
221
222 #define __PT_PARM1_REG u_regs[UREG_I0]
223 #define __PT_PARM2_REG u_regs[UREG_I1]
224 #define __PT_PARM3_REG u_regs[UREG_I2]
225 #define __PT_PARM4_REG u_regs[UREG_I3]
226 #define __PT_PARM5_REG u_regs[UREG_I4]
227 #define __PT_RET_REG u_regs[UREG_I7]
228 #define __PT_FP_REG __unsupported__
229 #define __PT_RC_REG u_regs[UREG_I0]
230 #define __PT_SP_REG u_regs[UREG_FP]
231 /* Should this also be a bpf_target check for the sparc case? */
232 #if defined(__arch64__)
233 #define __PT_IP_REG tpc
234 #else
235 #define __PT_IP_REG pc
236 #endif
237
238 #elif defined(bpf_target_riscv)
239
240 #define __PT_REGS_CAST(x) ((const struct user_regs_struct *)(x))
241 #define __PT_PARM1_REG a0
242 #define __PT_PARM2_REG a1
243 #define __PT_PARM3_REG a2
244 #define __PT_PARM4_REG a3
245 #define __PT_PARM5_REG a4
246 #define __PT_RET_REG ra
247 #define __PT_FP_REG s0
248 #define __PT_RC_REG a0
249 #define __PT_SP_REG sp
250 #define __PT_IP_REG pc
251 /* riscv does not select ARCH_HAS_SYSCALL_WRAPPER. */
252 #define PT_REGS_SYSCALL_REGS(ctx) ctx
253
254 #elif defined(bpf_target_arc)
255
256 /* arc provides struct user_pt_regs instead of struct pt_regs to userspace */
257 #define __PT_REGS_CAST(x) ((const struct user_regs_struct *)(x))
258 #define __PT_PARM1_REG scratch.r0
259 #define __PT_PARM2_REG scratch.r1
260 #define __PT_PARM3_REG scratch.r2
261 #define __PT_PARM4_REG scratch.r3
262 #define __PT_PARM5_REG scratch.r4
263 #define __PT_RET_REG scratch.blink
264 #define __PT_FP_REG __unsupported__
265 #define __PT_RC_REG scratch.r0
266 #define __PT_SP_REG scratch.sp
267 #define __PT_IP_REG scratch.ret
268 /* arc does not select ARCH_HAS_SYSCALL_WRAPPER. */
269 #define PT_REGS_SYSCALL_REGS(ctx) ctx
270
271 #elif defined(bpf_target_loongarch)
272
273 /* https://loongson.github.io/LoongArch-Documentation/LoongArch-ELF-ABI-EN.html */
274
275 #define __PT_PARM1_REG regs[4]
276 #define __PT_PARM2_REG regs[5]
277 #define __PT_PARM3_REG regs[6]
278 #define __PT_PARM4_REG regs[7]
279 #define __PT_PARM5_REG regs[8]
280 #define __PT_RET_REG regs[1]
281 #define __PT_FP_REG regs[22]
282 #define __PT_RC_REG regs[4]
283 #define __PT_SP_REG regs[3]
284 #define __PT_IP_REG csr_era
285 /* loongarch does not select ARCH_HAS_SYSCALL_WRAPPER. */
286 #define PT_REGS_SYSCALL_REGS(ctx) ctx
287
288 #endif
289
290 #if defined(bpf_target_defined)
291
292 struct pt_regs;
293
294 /* allow some architectures to override `struct pt_regs` */
295 #ifndef __PT_REGS_CAST
296 #define __PT_REGS_CAST(x) (x)
297 #endif
298
299 /*
300  * Different architectures support different number of arguments passed
301  * through registers. i386 supports just 3, some arches support up to 8.
302  */
303 #ifndef __PT_PARM4_REG
304 #define __PT_PARM4_REG __unsupported__
305 #endif
306 #ifndef __PT_PARM5_REG
307 #define __PT_PARM5_REG __unsupported__
308 #endif
309 #ifndef __PT_PARM6_REG
310 #define __PT_PARM6_REG __unsupported__
311 #endif
312 #ifndef __PT_PARM7_REG
313 #define __PT_PARM7_REG __unsupported__
314 #endif
315 #ifndef __PT_PARM8_REG
316 #define __PT_PARM8_REG __unsupported__
317 #endif
318
319 #define PT_REGS_PARM1(x) (__PT_REGS_CAST(x)->__PT_PARM1_REG)
320 #define PT_REGS_PARM2(x) (__PT_REGS_CAST(x)->__PT_PARM2_REG)
321 #define PT_REGS_PARM3(x) (__PT_REGS_CAST(x)->__PT_PARM3_REG)
322 #define PT_REGS_PARM4(x) (__PT_REGS_CAST(x)->__PT_PARM4_REG)
323 #define PT_REGS_PARM5(x) (__PT_REGS_CAST(x)->__PT_PARM5_REG)
324 #define PT_REGS_PARM6(x) (__PT_REGS_CAST(x)->__PT_PARM6_REG)
325 #define PT_REGS_PARM7(x) (__PT_REGS_CAST(x)->__PT_PARM7_REG)
326 #define PT_REGS_PARM8(x) (__PT_REGS_CAST(x)->__PT_PARM8_REG)
327 #define PT_REGS_RET(x) (__PT_REGS_CAST(x)->__PT_RET_REG)
328 #define PT_REGS_FP(x) (__PT_REGS_CAST(x)->__PT_FP_REG)
329 #define PT_REGS_RC(x) (__PT_REGS_CAST(x)->__PT_RC_REG)
330 #define PT_REGS_SP(x) (__PT_REGS_CAST(x)->__PT_SP_REG)
331 #define PT_REGS_IP(x) (__PT_REGS_CAST(x)->__PT_IP_REG)
332
333 #define PT_REGS_PARM1_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM1_REG)
334 #define PT_REGS_PARM2_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM2_REG)
335 #define PT_REGS_PARM3_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM3_REG)
336 #define PT_REGS_PARM4_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM4_REG)
337 #define PT_REGS_PARM5_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM5_REG)
338 #define PT_REGS_PARM6_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM6_REG)
339 #define PT_REGS_PARM7_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM7_REG)
340 #define PT_REGS_PARM8_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_PARM8_REG)
341 #define PT_REGS_RET_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_RET_REG)
342 #define PT_REGS_FP_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_FP_REG)
343 #define PT_REGS_RC_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_RC_REG)
344 #define PT_REGS_SP_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_SP_REG)
345 #define PT_REGS_IP_CORE(x) BPF_CORE_READ(__PT_REGS_CAST(x), __PT_IP_REG)
346
347 #if defined(bpf_target_powerpc)
348
349 #define BPF_KPROBE_READ_RET_IP(ip, ctx)         ({ (ip) = (ctx)->link; })
350 #define BPF_KRETPROBE_READ_RET_IP               BPF_KPROBE_READ_RET_IP
351
352 #elif defined(bpf_target_sparc)
353
354 #define BPF_KPROBE_READ_RET_IP(ip, ctx)         ({ (ip) = PT_REGS_RET(ctx); })
355 #define BPF_KRETPROBE_READ_RET_IP               BPF_KPROBE_READ_RET_IP
356
357 #else
358
359 #define BPF_KPROBE_READ_RET_IP(ip, ctx)                                     \
360         ({ bpf_probe_read_kernel(&(ip), sizeof(ip), (void *)PT_REGS_RET(ctx)); })
361 #define BPF_KRETPROBE_READ_RET_IP(ip, ctx)                                  \
362         ({ bpf_probe_read_kernel(&(ip), sizeof(ip), (void *)(PT_REGS_FP(ctx) + sizeof(ip))); })
363
364 #endif
365
366 #ifndef PT_REGS_PARM1_SYSCALL
367 #define PT_REGS_PARM1_SYSCALL(x) PT_REGS_PARM1(x)
368 #endif
369 #define PT_REGS_PARM2_SYSCALL(x) PT_REGS_PARM2(x)
370 #define PT_REGS_PARM3_SYSCALL(x) PT_REGS_PARM3(x)
371 #ifndef PT_REGS_PARM4_SYSCALL
372 #define PT_REGS_PARM4_SYSCALL(x) PT_REGS_PARM4(x)
373 #endif
374 #define PT_REGS_PARM5_SYSCALL(x) PT_REGS_PARM5(x)
375
376 #ifndef PT_REGS_PARM1_CORE_SYSCALL
377 #define PT_REGS_PARM1_CORE_SYSCALL(x) PT_REGS_PARM1_CORE(x)
378 #endif
379 #define PT_REGS_PARM2_CORE_SYSCALL(x) PT_REGS_PARM2_CORE(x)
380 #define PT_REGS_PARM3_CORE_SYSCALL(x) PT_REGS_PARM3_CORE(x)
381 #ifndef PT_REGS_PARM4_CORE_SYSCALL
382 #define PT_REGS_PARM4_CORE_SYSCALL(x) PT_REGS_PARM4_CORE(x)
383 #endif
384 #define PT_REGS_PARM5_CORE_SYSCALL(x) PT_REGS_PARM5_CORE(x)
385
386 #else /* defined(bpf_target_defined) */
387
388 #define PT_REGS_PARM1(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
389 #define PT_REGS_PARM2(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
390 #define PT_REGS_PARM3(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
391 #define PT_REGS_PARM4(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
392 #define PT_REGS_PARM5(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
393 #define PT_REGS_PARM6(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
394 #define PT_REGS_PARM7(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
395 #define PT_REGS_PARM8(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
396 #define PT_REGS_RET(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
397 #define PT_REGS_FP(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
398 #define PT_REGS_RC(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
399 #define PT_REGS_SP(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
400 #define PT_REGS_IP(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
401
402 #define PT_REGS_PARM1_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
403 #define PT_REGS_PARM2_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
404 #define PT_REGS_PARM3_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
405 #define PT_REGS_PARM4_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
406 #define PT_REGS_PARM5_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
407 #define PT_REGS_PARM6_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
408 #define PT_REGS_PARM7_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
409 #define PT_REGS_PARM8_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
410 #define PT_REGS_RET_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
411 #define PT_REGS_FP_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
412 #define PT_REGS_RC_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
413 #define PT_REGS_SP_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
414 #define PT_REGS_IP_CORE(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
415
416 #define BPF_KPROBE_READ_RET_IP(ip, ctx) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
417 #define BPF_KRETPROBE_READ_RET_IP(ip, ctx) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
418
419 #define PT_REGS_PARM1_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
420 #define PT_REGS_PARM2_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
421 #define PT_REGS_PARM3_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
422 #define PT_REGS_PARM4_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
423 #define PT_REGS_PARM5_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
424
425 #define PT_REGS_PARM1_CORE_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
426 #define PT_REGS_PARM2_CORE_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
427 #define PT_REGS_PARM3_CORE_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
428 #define PT_REGS_PARM4_CORE_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
429 #define PT_REGS_PARM5_CORE_SYSCALL(x) ({ _Pragma(__BPF_TARGET_MISSING); 0l; })
430
431 #endif /* defined(bpf_target_defined) */
432
433 /*
434  * When invoked from a syscall handler kprobe, returns a pointer to a
435  * struct pt_regs containing syscall arguments and suitable for passing to
436  * PT_REGS_PARMn_SYSCALL() and PT_REGS_PARMn_CORE_SYSCALL().
437  */
438 #ifndef PT_REGS_SYSCALL_REGS
439 /* By default, assume that the arch selects ARCH_HAS_SYSCALL_WRAPPER. */
440 #define PT_REGS_SYSCALL_REGS(ctx) ((struct pt_regs *)PT_REGS_PARM1(ctx))
441 #endif
442
443 #ifndef ___bpf_concat
444 #define ___bpf_concat(a, b) a ## b
445 #endif
446 #ifndef ___bpf_apply
447 #define ___bpf_apply(fn, n) ___bpf_concat(fn, n)
448 #endif
449 #ifndef ___bpf_nth
450 #define ___bpf_nth(_, _1, _2, _3, _4, _5, _6, _7, _8, _9, _a, _b, _c, N, ...) N
451 #endif
452 #ifndef ___bpf_narg
453 #define ___bpf_narg(...) ___bpf_nth(_, ##__VA_ARGS__, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1, 0)
454 #endif
455
456 #define ___bpf_ctx_cast0()            ctx
457 #define ___bpf_ctx_cast1(x)           ___bpf_ctx_cast0(), (void *)ctx[0]
458 #define ___bpf_ctx_cast2(x, args...)  ___bpf_ctx_cast1(args), (void *)ctx[1]
459 #define ___bpf_ctx_cast3(x, args...)  ___bpf_ctx_cast2(args), (void *)ctx[2]
460 #define ___bpf_ctx_cast4(x, args...)  ___bpf_ctx_cast3(args), (void *)ctx[3]
461 #define ___bpf_ctx_cast5(x, args...)  ___bpf_ctx_cast4(args), (void *)ctx[4]
462 #define ___bpf_ctx_cast6(x, args...)  ___bpf_ctx_cast5(args), (void *)ctx[5]
463 #define ___bpf_ctx_cast7(x, args...)  ___bpf_ctx_cast6(args), (void *)ctx[6]
464 #define ___bpf_ctx_cast8(x, args...)  ___bpf_ctx_cast7(args), (void *)ctx[7]
465 #define ___bpf_ctx_cast9(x, args...)  ___bpf_ctx_cast8(args), (void *)ctx[8]
466 #define ___bpf_ctx_cast10(x, args...) ___bpf_ctx_cast9(args), (void *)ctx[9]
467 #define ___bpf_ctx_cast11(x, args...) ___bpf_ctx_cast10(args), (void *)ctx[10]
468 #define ___bpf_ctx_cast12(x, args...) ___bpf_ctx_cast11(args), (void *)ctx[11]
469 #define ___bpf_ctx_cast(args...)      ___bpf_apply(___bpf_ctx_cast, ___bpf_narg(args))(args)
470
471 /*
472  * BPF_PROG is a convenience wrapper for generic tp_btf/fentry/fexit and
473  * similar kinds of BPF programs, that accept input arguments as a single
474  * pointer to untyped u64 array, where each u64 can actually be a typed
475  * pointer or integer of different size. Instead of requring user to write
476  * manual casts and work with array elements by index, BPF_PROG macro
477  * allows user to declare a list of named and typed input arguments in the
478  * same syntax as for normal C function. All the casting is hidden and
479  * performed transparently, while user code can just assume working with
480  * function arguments of specified type and name.
481  *
482  * Original raw context argument is preserved as well as 'ctx' argument.
483  * This is useful when using BPF helpers that expect original context
484  * as one of the parameters (e.g., for bpf_perf_event_output()).
485  */
486 #define BPF_PROG(name, args...)                                             \
487 name(unsigned long long *ctx);                                              \
488 static __always_inline typeof(name(0))                                      \
489 ____##name(unsigned long long *ctx, ##args);                                \
490 typeof(name(0)) name(unsigned long long *ctx)                               \
491 {                                                                           \
492         _Pragma("GCC diagnostic push")                                      \
493         _Pragma("GCC diagnostic ignored \"-Wint-conversion\"")              \
494         return ____##name(___bpf_ctx_cast(args));                           \
495         _Pragma("GCC diagnostic pop")                                       \
496 }                                                                           \
497 static __always_inline typeof(name(0))                                      \
498 ____##name(unsigned long long *ctx, ##args)
499
500 #ifndef ___bpf_nth2
501 #define ___bpf_nth2(_, _1, _2, _3, _4, _5, _6, _7, _8, _9, _10, _11, _12, _13,  \
502                     _14, _15, _16, _17, _18, _19, _20, _21, _22, _23, _24, N, ...) N
503 #endif
504 #ifndef ___bpf_narg2
505 #define ___bpf_narg2(...)       \
506         ___bpf_nth2(_, ##__VA_ARGS__, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, \
507                     6, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 0)
508 #endif
509
510 #define ___bpf_treg_cnt(t) \
511         __builtin_choose_expr(sizeof(t) == 1, 1,        \
512         __builtin_choose_expr(sizeof(t) == 2, 1,        \
513         __builtin_choose_expr(sizeof(t) == 4, 1,        \
514         __builtin_choose_expr(sizeof(t) == 8, 1,        \
515         __builtin_choose_expr(sizeof(t) == 16, 2,       \
516                               (void)0)))))
517
518 #define ___bpf_reg_cnt0()               (0)
519 #define ___bpf_reg_cnt1(t, x)           (___bpf_reg_cnt0() + ___bpf_treg_cnt(t))
520 #define ___bpf_reg_cnt2(t, x, args...)  (___bpf_reg_cnt1(args) + ___bpf_treg_cnt(t))
521 #define ___bpf_reg_cnt3(t, x, args...)  (___bpf_reg_cnt2(args) + ___bpf_treg_cnt(t))
522 #define ___bpf_reg_cnt4(t, x, args...)  (___bpf_reg_cnt3(args) + ___bpf_treg_cnt(t))
523 #define ___bpf_reg_cnt5(t, x, args...)  (___bpf_reg_cnt4(args) + ___bpf_treg_cnt(t))
524 #define ___bpf_reg_cnt6(t, x, args...)  (___bpf_reg_cnt5(args) + ___bpf_treg_cnt(t))
525 #define ___bpf_reg_cnt7(t, x, args...)  (___bpf_reg_cnt6(args) + ___bpf_treg_cnt(t))
526 #define ___bpf_reg_cnt8(t, x, args...)  (___bpf_reg_cnt7(args) + ___bpf_treg_cnt(t))
527 #define ___bpf_reg_cnt9(t, x, args...)  (___bpf_reg_cnt8(args) + ___bpf_treg_cnt(t))
528 #define ___bpf_reg_cnt10(t, x, args...) (___bpf_reg_cnt9(args) + ___bpf_treg_cnt(t))
529 #define ___bpf_reg_cnt11(t, x, args...) (___bpf_reg_cnt10(args) + ___bpf_treg_cnt(t))
530 #define ___bpf_reg_cnt12(t, x, args...) (___bpf_reg_cnt11(args) + ___bpf_treg_cnt(t))
531 #define ___bpf_reg_cnt(args...)  ___bpf_apply(___bpf_reg_cnt, ___bpf_narg2(args))(args)
532
533 #define ___bpf_union_arg(t, x, n) \
534         __builtin_choose_expr(sizeof(t) == 1, ({ union { __u8 z[1]; t x; } ___t = { .z = {ctx[n]}}; ___t.x; }), \
535         __builtin_choose_expr(sizeof(t) == 2, ({ union { __u16 z[1]; t x; } ___t = { .z = {ctx[n]} }; ___t.x; }), \
536         __builtin_choose_expr(sizeof(t) == 4, ({ union { __u32 z[1]; t x; } ___t = { .z = {ctx[n]} }; ___t.x; }), \
537         __builtin_choose_expr(sizeof(t) == 8, ({ union { __u64 z[1]; t x; } ___t = {.z = {ctx[n]} }; ___t.x; }), \
538         __builtin_choose_expr(sizeof(t) == 16, ({ union { __u64 z[2]; t x; } ___t = {.z = {ctx[n], ctx[n + 1]} }; ___t.x; }), \
539                               (void)0)))))
540
541 #define ___bpf_ctx_arg0(n, args...)
542 #define ___bpf_ctx_arg1(n, t, x)                , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt1(t, x))
543 #define ___bpf_ctx_arg2(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt2(t, x, args)) ___bpf_ctx_arg1(n, args)
544 #define ___bpf_ctx_arg3(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt3(t, x, args)) ___bpf_ctx_arg2(n, args)
545 #define ___bpf_ctx_arg4(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt4(t, x, args)) ___bpf_ctx_arg3(n, args)
546 #define ___bpf_ctx_arg5(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt5(t, x, args)) ___bpf_ctx_arg4(n, args)
547 #define ___bpf_ctx_arg6(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt6(t, x, args)) ___bpf_ctx_arg5(n, args)
548 #define ___bpf_ctx_arg7(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt7(t, x, args)) ___bpf_ctx_arg6(n, args)
549 #define ___bpf_ctx_arg8(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt8(t, x, args)) ___bpf_ctx_arg7(n, args)
550 #define ___bpf_ctx_arg9(n, t, x, args...)       , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt9(t, x, args)) ___bpf_ctx_arg8(n, args)
551 #define ___bpf_ctx_arg10(n, t, x, args...)      , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt10(t, x, args)) ___bpf_ctx_arg9(n, args)
552 #define ___bpf_ctx_arg11(n, t, x, args...)      , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt11(t, x, args)) ___bpf_ctx_arg10(n, args)
553 #define ___bpf_ctx_arg12(n, t, x, args...)      , ___bpf_union_arg(t, x, n - ___bpf_reg_cnt12(t, x, args)) ___bpf_ctx_arg11(n, args)
554 #define ___bpf_ctx_arg(args...) ___bpf_apply(___bpf_ctx_arg, ___bpf_narg2(args))(___bpf_reg_cnt(args), args)
555
556 #define ___bpf_ctx_decl0()
557 #define ___bpf_ctx_decl1(t, x)                  , t x
558 #define ___bpf_ctx_decl2(t, x, args...)         , t x ___bpf_ctx_decl1(args)
559 #define ___bpf_ctx_decl3(t, x, args...)         , t x ___bpf_ctx_decl2(args)
560 #define ___bpf_ctx_decl4(t, x, args...)         , t x ___bpf_ctx_decl3(args)
561 #define ___bpf_ctx_decl5(t, x, args...)         , t x ___bpf_ctx_decl4(args)
562 #define ___bpf_ctx_decl6(t, x, args...)         , t x ___bpf_ctx_decl5(args)
563 #define ___bpf_ctx_decl7(t, x, args...)         , t x ___bpf_ctx_decl6(args)
564 #define ___bpf_ctx_decl8(t, x, args...)         , t x ___bpf_ctx_decl7(args)
565 #define ___bpf_ctx_decl9(t, x, args...)         , t x ___bpf_ctx_decl8(args)
566 #define ___bpf_ctx_decl10(t, x, args...)        , t x ___bpf_ctx_decl9(args)
567 #define ___bpf_ctx_decl11(t, x, args...)        , t x ___bpf_ctx_decl10(args)
568 #define ___bpf_ctx_decl12(t, x, args...)        , t x ___bpf_ctx_decl11(args)
569 #define ___bpf_ctx_decl(args...)        ___bpf_apply(___bpf_ctx_decl, ___bpf_narg2(args))(args)
570
571 /*
572  * BPF_PROG2 is an enhanced version of BPF_PROG in order to handle struct
573  * arguments. Since each struct argument might take one or two u64 values
574  * in the trampoline stack, argument type size is needed to place proper number
575  * of u64 values for each argument. Therefore, BPF_PROG2 has different
576  * syntax from BPF_PROG. For example, for the following BPF_PROG syntax:
577  *
578  *   int BPF_PROG(test2, int a, int b) { ... }
579  *
580  * the corresponding BPF_PROG2 syntax is:
581  *
582  *   int BPF_PROG2(test2, int, a, int, b) { ... }
583  *
584  * where type and the corresponding argument name are separated by comma.
585  *
586  * Use BPF_PROG2 macro if one of the arguments might be a struct/union larger
587  * than 8 bytes:
588  *
589  *   int BPF_PROG2(test_struct_arg, struct bpf_testmod_struct_arg_1, a, int, b,
590  *                 int, c, int, d, struct bpf_testmod_struct_arg_2, e, int, ret)
591  *   {
592  *        // access a, b, c, d, e, and ret directly
593  *        ...
594  *   }
595  */
596 #define BPF_PROG2(name, args...)                                                \
597 name(unsigned long long *ctx);                                                  \
598 static __always_inline typeof(name(0))                                          \
599 ____##name(unsigned long long *ctx ___bpf_ctx_decl(args));                      \
600 typeof(name(0)) name(unsigned long long *ctx)                                   \
601 {                                                                               \
602         return ____##name(ctx ___bpf_ctx_arg(args));                            \
603 }                                                                               \
604 static __always_inline typeof(name(0))                                          \
605 ____##name(unsigned long long *ctx ___bpf_ctx_decl(args))
606
607 struct pt_regs;
608
609 #define ___bpf_kprobe_args0()           ctx
610 #define ___bpf_kprobe_args1(x)          ___bpf_kprobe_args0(), (void *)PT_REGS_PARM1(ctx)
611 #define ___bpf_kprobe_args2(x, args...) ___bpf_kprobe_args1(args), (void *)PT_REGS_PARM2(ctx)
612 #define ___bpf_kprobe_args3(x, args...) ___bpf_kprobe_args2(args), (void *)PT_REGS_PARM3(ctx)
613 #define ___bpf_kprobe_args4(x, args...) ___bpf_kprobe_args3(args), (void *)PT_REGS_PARM4(ctx)
614 #define ___bpf_kprobe_args5(x, args...) ___bpf_kprobe_args4(args), (void *)PT_REGS_PARM5(ctx)
615 #define ___bpf_kprobe_args6(x, args...) ___bpf_kprobe_args5(args), (void *)PT_REGS_PARM6(ctx)
616 #define ___bpf_kprobe_args7(x, args...) ___bpf_kprobe_args6(args), (void *)PT_REGS_PARM7(ctx)
617 #define ___bpf_kprobe_args8(x, args...) ___bpf_kprobe_args7(args), (void *)PT_REGS_PARM8(ctx)
618 #define ___bpf_kprobe_args(args...)     ___bpf_apply(___bpf_kprobe_args, ___bpf_narg(args))(args)
619
620 /*
621  * BPF_KPROBE serves the same purpose for kprobes as BPF_PROG for
622  * tp_btf/fentry/fexit BPF programs. It hides the underlying platform-specific
623  * low-level way of getting kprobe input arguments from struct pt_regs, and
624  * provides a familiar typed and named function arguments syntax and
625  * semantics of accessing kprobe input paremeters.
626  *
627  * Original struct pt_regs* context is preserved as 'ctx' argument. This might
628  * be necessary when using BPF helpers like bpf_perf_event_output().
629  */
630 #define BPF_KPROBE(name, args...)                                           \
631 name(struct pt_regs *ctx);                                                  \
632 static __always_inline typeof(name(0))                                      \
633 ____##name(struct pt_regs *ctx, ##args);                                    \
634 typeof(name(0)) name(struct pt_regs *ctx)                                   \
635 {                                                                           \
636         _Pragma("GCC diagnostic push")                                      \
637         _Pragma("GCC diagnostic ignored \"-Wint-conversion\"")              \
638         return ____##name(___bpf_kprobe_args(args));                        \
639         _Pragma("GCC diagnostic pop")                                       \
640 }                                                                           \
641 static __always_inline typeof(name(0))                                      \
642 ____##name(struct pt_regs *ctx, ##args)
643
644 #define ___bpf_kretprobe_args0()       ctx
645 #define ___bpf_kretprobe_args1(x)      ___bpf_kretprobe_args0(), (void *)PT_REGS_RC(ctx)
646 #define ___bpf_kretprobe_args(args...) ___bpf_apply(___bpf_kretprobe_args, ___bpf_narg(args))(args)
647
648 /*
649  * BPF_KRETPROBE is similar to BPF_KPROBE, except, it only provides optional
650  * return value (in addition to `struct pt_regs *ctx`), but no input
651  * arguments, because they will be clobbered by the time probed function
652  * returns.
653  */
654 #define BPF_KRETPROBE(name, args...)                                        \
655 name(struct pt_regs *ctx);                                                  \
656 static __always_inline typeof(name(0))                                      \
657 ____##name(struct pt_regs *ctx, ##args);                                    \
658 typeof(name(0)) name(struct pt_regs *ctx)                                   \
659 {                                                                           \
660         _Pragma("GCC diagnostic push")                                      \
661         _Pragma("GCC diagnostic ignored \"-Wint-conversion\"")              \
662         return ____##name(___bpf_kretprobe_args(args));                     \
663         _Pragma("GCC diagnostic pop")                                       \
664 }                                                                           \
665 static __always_inline typeof(name(0)) ____##name(struct pt_regs *ctx, ##args)
666
667 /* If kernel has CONFIG_ARCH_HAS_SYSCALL_WRAPPER, read pt_regs directly */
668 #define ___bpf_syscall_args0()           ctx
669 #define ___bpf_syscall_args1(x)          ___bpf_syscall_args0(), (void *)PT_REGS_PARM1_SYSCALL(regs)
670 #define ___bpf_syscall_args2(x, args...) ___bpf_syscall_args1(args), (void *)PT_REGS_PARM2_SYSCALL(regs)
671 #define ___bpf_syscall_args3(x, args...) ___bpf_syscall_args2(args), (void *)PT_REGS_PARM3_SYSCALL(regs)
672 #define ___bpf_syscall_args4(x, args...) ___bpf_syscall_args3(args), (void *)PT_REGS_PARM4_SYSCALL(regs)
673 #define ___bpf_syscall_args5(x, args...) ___bpf_syscall_args4(args), (void *)PT_REGS_PARM5_SYSCALL(regs)
674 #define ___bpf_syscall_args(args...)     ___bpf_apply(___bpf_syscall_args, ___bpf_narg(args))(args)
675
676 /* If kernel doesn't have CONFIG_ARCH_HAS_SYSCALL_WRAPPER, we have to BPF_CORE_READ from pt_regs */
677 #define ___bpf_syswrap_args0()           ctx
678 #define ___bpf_syswrap_args1(x)          ___bpf_syswrap_args0(), (void *)PT_REGS_PARM1_CORE_SYSCALL(regs)
679 #define ___bpf_syswrap_args2(x, args...) ___bpf_syswrap_args1(args), (void *)PT_REGS_PARM2_CORE_SYSCALL(regs)
680 #define ___bpf_syswrap_args3(x, args...) ___bpf_syswrap_args2(args), (void *)PT_REGS_PARM3_CORE_SYSCALL(regs)
681 #define ___bpf_syswrap_args4(x, args...) ___bpf_syswrap_args3(args), (void *)PT_REGS_PARM4_CORE_SYSCALL(regs)
682 #define ___bpf_syswrap_args5(x, args...) ___bpf_syswrap_args4(args), (void *)PT_REGS_PARM5_CORE_SYSCALL(regs)
683 #define ___bpf_syswrap_args(args...)     ___bpf_apply(___bpf_syswrap_args, ___bpf_narg(args))(args)
684
685 /*
686  * BPF_KSYSCALL is a variant of BPF_KPROBE, which is intended for
687  * tracing syscall functions, like __x64_sys_close. It hides the underlying
688  * platform-specific low-level way of getting syscall input arguments from
689  * struct pt_regs, and provides a familiar typed and named function arguments
690  * syntax and semantics of accessing syscall input parameters.
691  *
692  * Original struct pt_regs * context is preserved as 'ctx' argument. This might
693  * be necessary when using BPF helpers like bpf_perf_event_output().
694  *
695  * At the moment BPF_KSYSCALL does not transparently handle all the calling
696  * convention quirks for the following syscalls:
697  *
698  * - mmap(): __ARCH_WANT_SYS_OLD_MMAP.
699  * - clone(): CONFIG_CLONE_BACKWARDS, CONFIG_CLONE_BACKWARDS2 and
700  *            CONFIG_CLONE_BACKWARDS3.
701  * - socket-related syscalls: __ARCH_WANT_SYS_SOCKETCALL.
702  * - compat syscalls.
703  *
704  * This may or may not change in the future. User needs to take extra measures
705  * to handle such quirks explicitly, if necessary.
706  *
707  * This macro relies on BPF CO-RE support and virtual __kconfig externs.
708  */
709 #define BPF_KSYSCALL(name, args...)                                         \
710 name(struct pt_regs *ctx);                                                  \
711 extern _Bool LINUX_HAS_SYSCALL_WRAPPER __kconfig;                           \
712 static __always_inline typeof(name(0))                                      \
713 ____##name(struct pt_regs *ctx, ##args);                                    \
714 typeof(name(0)) name(struct pt_regs *ctx)                                   \
715 {                                                                           \
716         struct pt_regs *regs = LINUX_HAS_SYSCALL_WRAPPER                    \
717                                ? (struct pt_regs *)PT_REGS_PARM1(ctx)       \
718                                : ctx;                                       \
719         _Pragma("GCC diagnostic push")                                      \
720         _Pragma("GCC diagnostic ignored \"-Wint-conversion\"")              \
721         if (LINUX_HAS_SYSCALL_WRAPPER)                                      \
722                 return ____##name(___bpf_syswrap_args(args));               \
723         else                                                                \
724                 return ____##name(___bpf_syscall_args(args));               \
725         _Pragma("GCC diagnostic pop")                                       \
726 }                                                                           \
727 static __always_inline typeof(name(0))                                      \
728 ____##name(struct pt_regs *ctx, ##args)
729
730 #define BPF_KPROBE_SYSCALL BPF_KSYSCALL
731
732 #endif