Prepare for 64bit relocation addresses
[platform/upstream/intel-gpu-tools.git] / tests / gem_persistent_relocs.c
1 /*
2  * Copyright © 2013 Intel Corporation
3  *
4  * Permission is hereby granted, free of charge, to any person obtaining a
5  * copy of this software and associated documentation files (the "Software"),
6  * to deal in the Software without restriction, including without limitation
7  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
8  * and/or sell copies of the Software, and to permit persons to whom the
9  * Software is furnished to do so, subject to the following conditions:
10  *
11  * The above copyright notice and this permission notice (including the next
12  * paragraph) shall be included in all copies or substantial portions of the
13  * Software.
14  *
15  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
16  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
17  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
18  * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
19  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
20  * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
21  * IN THE SOFTWARE.
22  *
23  * Authors:
24  *    Daniel Vetter <daniel.vetter@ffwll.ch>
25  *
26  */
27
28 #define _GNU_SOURCE
29 #include <stdlib.h>
30 #include <stdio.h>
31 #include <string.h>
32 #include <fcntl.h>
33 #include <inttypes.h>
34 #include <errno.h>
35 #include <sys/stat.h>
36 #include <sys/time.h>
37 #include <signal.h>
38 #include <sys/wait.h>
39
40 #include <drm.h>
41
42 #include "ioctl_wrappers.h"
43 #include "drmtest.h"
44 #include "intel_chipset.h"
45 #include "intel_io.h"
46 #include "igt_debugfs.h"
47 #include "igt_aux.h"
48
49 /*
50  * Testcase: Persistent relocations as used by uxa/libva
51  *
52  */
53
54 static drm_intel_bufmgr *bufmgr;
55 struct intel_batchbuffer *batch;
56
57 uint32_t blob[2048*2048];
58 #define NUM_TARGET_BOS 16
59 drm_intel_bo *pc_target_bo[NUM_TARGET_BOS];
60 drm_intel_bo *dummy_bo;
61 drm_intel_bo *special_bos[NUM_TARGET_BOS];
62 uint32_t relocs_bo_handle[NUM_TARGET_BOS];
63 void *gtt_relocs_ptr[NUM_TARGET_BOS];
64 uint32_t devid;
65 int special_reloc_ofs;
66 int special_line_ofs;
67 int special_batch_len;
68
69 int small_pitch = 64;
70
71 static drm_intel_bo *create_special_bo(void)
72 {
73         drm_intel_bo *bo;
74         uint32_t data[1024];
75         int len = 0;
76 #define BATCH(dw) data[len++] = (dw);
77
78         memset(data, 0, 4096);
79         bo = drm_intel_bo_alloc(bufmgr, "special batch", 4096, 4096);
80
81         if (intel_gen(devid) >= 8) {
82                 BATCH(MI_NOOP);
83                 BATCH(XY_COLOR_BLT_CMD_NOLEN | 5 |
84                                 COLOR_BLT_WRITE_ALPHA | XY_COLOR_BLT_WRITE_RGB);
85         } else {
86                 BATCH(XY_COLOR_BLT_CMD_NOLEN | 4 |
87                                 COLOR_BLT_WRITE_ALPHA | XY_COLOR_BLT_WRITE_RGB);
88         }
89
90         BATCH((3 << 24) | (0xf0 << 16) | small_pitch);
91         special_line_ofs = 4*len;
92         BATCH(0);
93         BATCH(1 << 16 | 1);
94         special_reloc_ofs = 4*len;
95         BATCH(0);
96         if (intel_gen(devid) >= 8)
97                 BATCH(0); /* FIXME */
98         BATCH(0xdeadbeef);
99
100 #define CMD_POLY_STIPPLE_OFFSET       0x7906
101         /* batchbuffer end */
102         if (IS_GEN5(batch->devid)) {
103                 BATCH(CMD_POLY_STIPPLE_OFFSET << 16);
104                 BATCH(0);
105         }
106         igt_assert(len % 2 == 0);
107         BATCH(MI_NOOP);
108         BATCH(MI_BATCH_BUFFER_END);
109
110         drm_intel_bo_subdata(bo, 0, 4096, data);
111         special_batch_len = len*4;
112
113         return bo;
114 }
115
116 static void emit_dummy_load(int pitch)
117 {
118         int i;
119         uint32_t tile_flags = 0;
120
121         if (IS_965(devid)) {
122                 pitch /= 4;
123                 tile_flags = XY_SRC_COPY_BLT_SRC_TILED |
124                         XY_SRC_COPY_BLT_DST_TILED;
125         }
126
127         for (i = 0; i < 5; i++) {
128                 BLIT_COPY_BATCH_START(devid, tile_flags);
129                 OUT_BATCH((3 << 24) | /* 32 bits */
130                           (0xcc << 16) | /* copy ROP */
131                           pitch);
132                 OUT_BATCH(0 << 16 | 1024);
133                 OUT_BATCH((2048) << 16 | (2048));
134                 OUT_RELOC_FENCED(dummy_bo, I915_GEM_DOMAIN_RENDER, I915_GEM_DOMAIN_RENDER, 0);
135                 OUT_BATCH(0 << 16 | 0);
136                 OUT_BATCH(pitch);
137                 OUT_RELOC_FENCED(dummy_bo, I915_GEM_DOMAIN_RENDER, 0, 0);
138                 ADVANCE_BATCH();
139
140                 if (intel_gen(devid) >= 6) {
141                         BEGIN_BATCH(3);
142                         OUT_BATCH(XY_SETUP_CLIP_BLT_CMD);
143                         OUT_BATCH(0);
144                         OUT_BATCH(0);
145                         ADVANCE_BATCH();
146                 }
147         }
148         intel_batchbuffer_flush(batch);
149 }
150
151 static void faulting_reloc_and_emit(int fd, drm_intel_bo *target_bo,
152                                     void *gtt_relocs, drm_intel_bo *special_bo)
153 {
154         struct drm_i915_gem_execbuffer2 execbuf;
155         struct drm_i915_gem_exec_object2 exec[2];
156         int ring;
157
158         if (intel_gen(devid) >= 6)
159                 ring = I915_EXEC_BLT;
160         else
161                 ring = 0;
162
163         exec[0].handle = target_bo->handle;
164         exec[0].relocation_count = 0;
165         exec[0].relocs_ptr = 0;
166         exec[0].alignment = 0;
167         exec[0].offset = 0;
168         exec[0].flags = 0;
169         exec[0].rsvd1 = 0;
170         exec[0].rsvd2 = 0;
171
172         exec[1].handle = special_bo->handle;
173         exec[1].relocation_count = 1;
174         /* A newly mmap gtt bo will fault on first access. */
175         exec[1].relocs_ptr = (uintptr_t)gtt_relocs;
176         exec[1].alignment = 0;
177         exec[1].offset = 0;
178         exec[1].flags = 0;
179         exec[1].rsvd1 = 0;
180         exec[1].rsvd2 = 0;
181
182         execbuf.buffers_ptr = (uintptr_t)exec;
183         execbuf.buffer_count = 2;
184         execbuf.batch_start_offset = 0;
185         execbuf.batch_len = special_batch_len;
186         execbuf.cliprects_ptr = 0;
187         execbuf.num_cliprects = 0;
188         execbuf.DR1 = 0;
189         execbuf.DR4 = 0;
190         execbuf.flags = ring;
191         i915_execbuffer2_set_context_id(execbuf, 0);
192         execbuf.rsvd2 = 0;
193
194         gem_execbuf(fd, &execbuf);
195 }
196
197 static void do_test(int fd, bool faulting_reloc)
198 {
199         uint32_t tiling_mode = I915_TILING_X;
200         unsigned long pitch, act_size;
201         uint32_t test;
202         int i, repeat;
203
204         if (faulting_reloc)
205                 igt_disable_prefault();
206
207         act_size = 2048;
208         dummy_bo = drm_intel_bo_alloc_tiled(bufmgr, "tiled dummy_bo", act_size, act_size,
209                                       4, &tiling_mode, &pitch, 0);
210
211         drm_intel_bo_subdata(dummy_bo, 0, act_size*act_size*4, blob);
212
213         for (i = 0; i < NUM_TARGET_BOS; i++) {
214                 struct drm_i915_gem_relocation_entry reloc[1];
215
216                 special_bos[i] = create_special_bo();
217                 pc_target_bo[i] = drm_intel_bo_alloc(bufmgr, "special batch", 4096, 4096);
218                 igt_assert(pc_target_bo[i]->offset == 0);
219
220                 reloc[0].offset = special_reloc_ofs;
221                 reloc[0].delta = 0;
222                 reloc[0].target_handle = pc_target_bo[i]->handle;
223                 reloc[0].read_domains = I915_GEM_DOMAIN_RENDER;
224                 reloc[0].write_domain = I915_GEM_DOMAIN_RENDER;
225                 reloc[0].presumed_offset = 0;
226
227                 relocs_bo_handle[i] = gem_create(fd, 4096);
228                 gem_write(fd, relocs_bo_handle[i], 0, reloc, sizeof(reloc));
229                 gtt_relocs_ptr[i] = gem_mmap(fd, relocs_bo_handle[i], 4096,
230                                       PROT_READ | PROT_WRITE);
231                 igt_assert(gtt_relocs_ptr[i]);
232
233         }
234
235         /* repeat must be smaller than 4096/small_pitch */
236         for (repeat = 0; repeat < 8; repeat++) {
237                 for (i = 0; i < NUM_TARGET_BOS; i++) {
238                         uint32_t data[2] = {
239                                 (repeat << 16) | 0,
240                                 ((repeat + 1) << 16) | 1
241                         };
242
243                         drm_intel_bo_subdata(special_bos[i], special_line_ofs, 8, &data);
244
245                         emit_dummy_load(pitch);
246                         faulting_reloc_and_emit(fd, pc_target_bo[i],
247                                                 gtt_relocs_ptr[i],
248                                                 special_bos[i]);
249                 }
250         }
251
252         /* Only check at the end to avoid unnecessarily synchronous behaviour. */
253         for (i = 0; i < NUM_TARGET_BOS; i++) {
254                 /* repeat must be smaller than 4096/small_pitch */
255                 for (repeat = 0; repeat < 8; repeat++) {
256                         drm_intel_bo_get_subdata(pc_target_bo[i],
257                                                  repeat*small_pitch, 4, &test);
258                         igt_assert_f(test == 0xdeadbeef,
259                                      "mismatch in buffer %i: 0x%08x instead of 0xdeadbeef at offset %i\n",
260                                      i, test, repeat*small_pitch);
261                 }
262                 drm_intel_bo_unreference(pc_target_bo[i]);
263                 drm_intel_bo_unreference(special_bos[i]);
264                 gem_close(fd, relocs_bo_handle[i]);
265                 munmap(gtt_relocs_ptr[i], 4096);
266         }
267
268         drm_intel_gem_bo_map_gtt(dummy_bo);
269         drm_intel_gem_bo_unmap_gtt(dummy_bo);
270
271         drm_intel_bo_unreference(dummy_bo);
272
273         if (faulting_reloc)
274                 igt_enable_prefault();
275 }
276
277 #define INTERRUPT       (1 << 0)
278 #define FAULTING        (1 << 1)
279 #define THRASH          (1 << 2)
280 #define THRASH_INACTIVE (1 << 3)
281 #define ALL_FLAGS       (INTERRUPT | FAULTING | THRASH | THRASH_INACTIVE)
282 static void do_forked_test(int fd, unsigned flags)
283 {
284         int num_threads = sysconf(_SC_NPROCESSORS_ONLN);
285         struct igt_helper_process thrasher = {};
286
287         if (flags & (THRASH | THRASH_INACTIVE)) {
288                 uint64_t val = (flags & THRASH_INACTIVE) ?
289                                 (DROP_RETIRE | DROP_BOUND | DROP_UNBOUND) : DROP_ALL;
290
291                 igt_fork_helper(&thrasher) {
292                         while (1) {
293                                 usleep(1000);
294                                 igt_drop_caches_set(val);
295                         }
296                 }
297         }
298
299         igt_fork(i, num_threads) {
300                 /* re-create process local data */
301                 bufmgr = drm_intel_bufmgr_gem_init(fd, 4096);
302                 batch = intel_batchbuffer_alloc(bufmgr, devid);
303
304                 if (flags & INTERRUPT)
305                         igt_fork_signal_helper();
306
307                 do_test(fd, flags & FAULTING);
308
309                 if (flags & INTERRUPT)
310                         igt_stop_signal_helper();
311         }
312
313         igt_waitchildren();
314         if (flags & (THRASH | THRASH_INACTIVE))
315                 igt_stop_helper(&thrasher);
316 }
317
318 int fd;
319
320 #define MAX_BLT_SIZE 128
321 igt_main
322 {
323         igt_skip_on_simulation();
324
325         memset(blob, 'A', sizeof(blob));
326
327         igt_fixture {
328                 fd = drm_open_any();
329
330                 bufmgr = drm_intel_bufmgr_gem_init(fd, 4096);
331                 /* disable reuse, otherwise the test fails */
332                 //drm_intel_bufmgr_gem_enable_reuse(bufmgr);
333                 devid = intel_get_drm_devid(fd);
334                 batch = intel_batchbuffer_alloc(bufmgr, devid);
335         }
336
337         igt_subtest("normal")
338                 do_test(fd, false);
339
340         igt_fork_signal_helper();
341         igt_subtest("interruptible")
342                 do_test(fd, false);
343         igt_stop_signal_helper();
344
345         for (unsigned flags = 0; flags <= ALL_FLAGS; flags++) {
346                 if ((flags & THRASH) && (flags & THRASH_INACTIVE))
347                         continue;
348
349                 igt_subtest_f("forked%s%s%s%s",
350                               flags & INTERRUPT ? "-interruptible" : "",
351                               flags & FAULTING ? "-faulting-reloc" : "",
352                               flags & THRASH ? "-thrashing" : "",
353                               flags & THRASH_INACTIVE ? "-thrash-inactive" : "")
354                         do_forked_test(fd, flags);
355         }
356
357         igt_fixture {
358                 intel_batchbuffer_free(batch);
359                 drm_intel_bufmgr_destroy(bufmgr);
360
361                 close(fd);
362         }
363 }