xfs: convert xfarray insertion sort to heapsort using scratchpad memory
[platform/kernel/linux-starfive.git] / fs / xfs / scrub / xfarray.c
1 // SPDX-License-Identifier: GPL-2.0-or-later
2 /*
3  * Copyright (C) 2021-2023 Oracle.  All Rights Reserved.
4  * Author: Darrick J. Wong <djwong@kernel.org>
5  */
6 #include "xfs.h"
7 #include "xfs_fs.h"
8 #include "xfs_shared.h"
9 #include "xfs_format.h"
10 #include "scrub/xfile.h"
11 #include "scrub/xfarray.h"
12 #include "scrub/scrub.h"
13 #include "scrub/trace.h"
14
15 /*
16  * Large Arrays of Fixed-Size Records
17  * ==================================
18  *
19  * This memory array uses an xfile (which itself is a memfd "file") to store
20  * large numbers of fixed-size records in memory that can be paged out.  This
21  * puts less stress on the memory reclaim algorithms during an online repair
22  * because we don't have to pin so much memory.  However, array access is less
23  * direct than would be in a regular memory array.  Access to the array is
24  * performed via indexed load and store methods, and an append method is
25  * provided for convenience.  Array elements can be unset, which sets them to
26  * all zeroes.  Unset entries are skipped during iteration, though direct loads
27  * will return a zeroed buffer.  Callers are responsible for concurrency
28  * control.
29  */
30
31 /*
32  * Pointer to scratch space.  Because we can't access the xfile data directly,
33  * we allocate a small amount of memory on the end of the xfarray structure to
34  * buffer array items when we need space to store values temporarily.
35  */
36 static inline void *xfarray_scratch(struct xfarray *array)
37 {
38         return (array + 1);
39 }
40
41 /* Compute array index given an xfile offset. */
42 static xfarray_idx_t
43 xfarray_idx(
44         struct xfarray  *array,
45         loff_t          pos)
46 {
47         if (array->obj_size_log >= 0)
48                 return (xfarray_idx_t)pos >> array->obj_size_log;
49
50         return div_u64((xfarray_idx_t)pos, array->obj_size);
51 }
52
53 /* Compute xfile offset of array element. */
54 static inline loff_t xfarray_pos(struct xfarray *array, xfarray_idx_t idx)
55 {
56         if (array->obj_size_log >= 0)
57                 return idx << array->obj_size_log;
58
59         return idx * array->obj_size;
60 }
61
62 /*
63  * Initialize a big memory array.  Array records cannot be larger than a
64  * page, and the array cannot span more bytes than the page cache supports.
65  * If @required_capacity is nonzero, the maximum array size will be set to this
66  * quantity and the array creation will fail if the underlying storage cannot
67  * support that many records.
68  */
69 int
70 xfarray_create(
71         const char              *description,
72         unsigned long long      required_capacity,
73         size_t                  obj_size,
74         struct xfarray          **arrayp)
75 {
76         struct xfarray          *array;
77         struct xfile            *xfile;
78         int                     error;
79
80         ASSERT(obj_size < PAGE_SIZE);
81
82         error = xfile_create(description, 0, &xfile);
83         if (error)
84                 return error;
85
86         error = -ENOMEM;
87         array = kzalloc(sizeof(struct xfarray) + obj_size, XCHK_GFP_FLAGS);
88         if (!array)
89                 goto out_xfile;
90
91         array->xfile = xfile;
92         array->obj_size = obj_size;
93
94         if (is_power_of_2(obj_size))
95                 array->obj_size_log = ilog2(obj_size);
96         else
97                 array->obj_size_log = -1;
98
99         array->max_nr = xfarray_idx(array, MAX_LFS_FILESIZE);
100         trace_xfarray_create(array, required_capacity);
101
102         if (required_capacity > 0) {
103                 if (array->max_nr < required_capacity) {
104                         error = -ENOMEM;
105                         goto out_xfarray;
106                 }
107                 array->max_nr = required_capacity;
108         }
109
110         *arrayp = array;
111         return 0;
112
113 out_xfarray:
114         kfree(array);
115 out_xfile:
116         xfile_destroy(xfile);
117         return error;
118 }
119
120 /* Destroy the array. */
121 void
122 xfarray_destroy(
123         struct xfarray  *array)
124 {
125         xfile_destroy(array->xfile);
126         kfree(array);
127 }
128
129 /* Load an element from the array. */
130 int
131 xfarray_load(
132         struct xfarray  *array,
133         xfarray_idx_t   idx,
134         void            *ptr)
135 {
136         if (idx >= array->nr)
137                 return -ENODATA;
138
139         return xfile_obj_load(array->xfile, ptr, array->obj_size,
140                         xfarray_pos(array, idx));
141 }
142
143 /* Is this array element potentially unset? */
144 static inline bool
145 xfarray_is_unset(
146         struct xfarray  *array,
147         loff_t          pos)
148 {
149         void            *temp = xfarray_scratch(array);
150         int             error;
151
152         if (array->unset_slots == 0)
153                 return false;
154
155         error = xfile_obj_load(array->xfile, temp, array->obj_size, pos);
156         if (!error && xfarray_element_is_null(array, temp))
157                 return true;
158
159         return false;
160 }
161
162 /*
163  * Unset an array element.  If @idx is the last element in the array, the
164  * array will be truncated.  Otherwise, the entry will be zeroed.
165  */
166 int
167 xfarray_unset(
168         struct xfarray  *array,
169         xfarray_idx_t   idx)
170 {
171         void            *temp = xfarray_scratch(array);
172         loff_t          pos = xfarray_pos(array, idx);
173         int             error;
174
175         if (idx >= array->nr)
176                 return -ENODATA;
177
178         if (idx == array->nr - 1) {
179                 array->nr--;
180                 return 0;
181         }
182
183         if (xfarray_is_unset(array, pos))
184                 return 0;
185
186         memset(temp, 0, array->obj_size);
187         error = xfile_obj_store(array->xfile, temp, array->obj_size, pos);
188         if (error)
189                 return error;
190
191         array->unset_slots++;
192         return 0;
193 }
194
195 /*
196  * Store an element in the array.  The element must not be completely zeroed,
197  * because those are considered unset sparse elements.
198  */
199 int
200 xfarray_store(
201         struct xfarray  *array,
202         xfarray_idx_t   idx,
203         const void      *ptr)
204 {
205         int             ret;
206
207         if (idx >= array->max_nr)
208                 return -EFBIG;
209
210         ASSERT(!xfarray_element_is_null(array, ptr));
211
212         ret = xfile_obj_store(array->xfile, ptr, array->obj_size,
213                         xfarray_pos(array, idx));
214         if (ret)
215                 return ret;
216
217         array->nr = max(array->nr, idx + 1);
218         return 0;
219 }
220
221 /* Is this array element NULL? */
222 bool
223 xfarray_element_is_null(
224         struct xfarray  *array,
225         const void      *ptr)
226 {
227         return !memchr_inv(ptr, 0, array->obj_size);
228 }
229
230 /*
231  * Store an element anywhere in the array that is unset.  If there are no
232  * unset slots, append the element to the array.
233  */
234 int
235 xfarray_store_anywhere(
236         struct xfarray  *array,
237         const void      *ptr)
238 {
239         void            *temp = xfarray_scratch(array);
240         loff_t          endpos = xfarray_pos(array, array->nr);
241         loff_t          pos;
242         int             error;
243
244         /* Find an unset slot to put it in. */
245         for (pos = 0;
246              pos < endpos && array->unset_slots > 0;
247              pos += array->obj_size) {
248                 error = xfile_obj_load(array->xfile, temp, array->obj_size,
249                                 pos);
250                 if (error || !xfarray_element_is_null(array, temp))
251                         continue;
252
253                 error = xfile_obj_store(array->xfile, ptr, array->obj_size,
254                                 pos);
255                 if (error)
256                         return error;
257
258                 array->unset_slots--;
259                 return 0;
260         }
261
262         /* No unset slots found; attach it on the end. */
263         array->unset_slots = 0;
264         return xfarray_append(array, ptr);
265 }
266
267 /* Return length of array. */
268 uint64_t
269 xfarray_length(
270         struct xfarray  *array)
271 {
272         return array->nr;
273 }
274
275 /*
276  * Decide which array item we're going to read as part of an _iter_get.
277  * @cur is the array index, and @pos is the file offset of that array index in
278  * the backing xfile.  Returns ENODATA if we reach the end of the records.
279  *
280  * Reading from a hole in a sparse xfile causes page instantiation, so for
281  * iterating a (possibly sparse) array we need to figure out if the cursor is
282  * pointing at a totally uninitialized hole and move the cursor up if
283  * necessary.
284  */
285 static inline int
286 xfarray_find_data(
287         struct xfarray  *array,
288         xfarray_idx_t   *cur,
289         loff_t          *pos)
290 {
291         unsigned int    pgoff = offset_in_page(*pos);
292         loff_t          end_pos = *pos + array->obj_size - 1;
293         loff_t          new_pos;
294
295         /*
296          * If the current array record is not adjacent to a page boundary, we
297          * are in the middle of the page.  We do not need to move the cursor.
298          */
299         if (pgoff != 0 && pgoff + array->obj_size - 1 < PAGE_SIZE)
300                 return 0;
301
302         /*
303          * Call SEEK_DATA on the last byte in the record we're about to read.
304          * If the record ends at (or crosses) the end of a page then we know
305          * that the first byte of the record is backed by pages and don't need
306          * to query it.  If instead the record begins at the start of the page
307          * then we know that querying the last byte is just as good as querying
308          * the first byte, since records cannot be larger than a page.
309          *
310          * If the call returns the same file offset, we know this record is
311          * backed by real pages.  We do not need to move the cursor.
312          */
313         new_pos = xfile_seek_data(array->xfile, end_pos);
314         if (new_pos == -ENXIO)
315                 return -ENODATA;
316         if (new_pos < 0)
317                 return new_pos;
318         if (new_pos == end_pos)
319                 return 0;
320
321         /*
322          * Otherwise, SEEK_DATA told us how far up to move the file pointer to
323          * find more data.  Move the array index to the first record past the
324          * byte offset we were given.
325          */
326         new_pos = roundup_64(new_pos, array->obj_size);
327         *cur = xfarray_idx(array, new_pos);
328         *pos = xfarray_pos(array, *cur);
329         return 0;
330 }
331
332 /*
333  * Starting at *idx, fetch the next non-null array entry and advance the index
334  * to set up the next _load_next call.  Returns ENODATA if we reach the end of
335  * the array.  Callers must set @*idx to XFARRAY_CURSOR_INIT before the first
336  * call to this function.
337  */
338 int
339 xfarray_load_next(
340         struct xfarray  *array,
341         xfarray_idx_t   *idx,
342         void            *rec)
343 {
344         xfarray_idx_t   cur = *idx;
345         loff_t          pos = xfarray_pos(array, cur);
346         int             error;
347
348         do {
349                 if (cur >= array->nr)
350                         return -ENODATA;
351
352                 /*
353                  * Ask the backing store for the location of next possible
354                  * written record, then retrieve that record.
355                  */
356                 error = xfarray_find_data(array, &cur, &pos);
357                 if (error)
358                         return error;
359                 error = xfarray_load(array, cur, rec);
360                 if (error)
361                         return error;
362
363                 cur++;
364                 pos += array->obj_size;
365         } while (xfarray_element_is_null(array, rec));
366
367         *idx = cur;
368         return 0;
369 }
370
371 /* Sorting functions */
372
373 #ifdef DEBUG
374 # define xfarray_sort_bump_loads(si)    do { (si)->loads++; } while (0)
375 # define xfarray_sort_bump_stores(si)   do { (si)->stores++; } while (0)
376 # define xfarray_sort_bump_compares(si) do { (si)->compares++; } while (0)
377 # define xfarray_sort_bump_heapsorts(si) do { (si)->heapsorts++; } while (0)
378 #else
379 # define xfarray_sort_bump_loads(si)
380 # define xfarray_sort_bump_stores(si)
381 # define xfarray_sort_bump_compares(si)
382 # define xfarray_sort_bump_heapsorts(si)
383 #endif /* DEBUG */
384
385 /* Load an array element for sorting. */
386 static inline int
387 xfarray_sort_load(
388         struct xfarray_sortinfo *si,
389         xfarray_idx_t           idx,
390         void                    *ptr)
391 {
392         xfarray_sort_bump_loads(si);
393         return xfarray_load(si->array, idx, ptr);
394 }
395
396 /* Store an array element for sorting. */
397 static inline int
398 xfarray_sort_store(
399         struct xfarray_sortinfo *si,
400         xfarray_idx_t           idx,
401         void                    *ptr)
402 {
403         xfarray_sort_bump_stores(si);
404         return xfarray_store(si->array, idx, ptr);
405 }
406
407 /* Compare an array element for sorting. */
408 static inline int
409 xfarray_sort_cmp(
410         struct xfarray_sortinfo *si,
411         const void              *a,
412         const void              *b)
413 {
414         xfarray_sort_bump_compares(si);
415         return si->cmp_fn(a, b);
416 }
417
418 /* Return a pointer to the low index stack for quicksort partitioning. */
419 static inline xfarray_idx_t *xfarray_sortinfo_lo(struct xfarray_sortinfo *si)
420 {
421         return (xfarray_idx_t *)(si + 1);
422 }
423
424 /* Return a pointer to the high index stack for quicksort partitioning. */
425 static inline xfarray_idx_t *xfarray_sortinfo_hi(struct xfarray_sortinfo *si)
426 {
427         return xfarray_sortinfo_lo(si) + si->max_stack_depth;
428 }
429
430 /* Allocate memory to handle the sort. */
431 static inline int
432 xfarray_sortinfo_alloc(
433         struct xfarray          *array,
434         xfarray_cmp_fn          cmp_fn,
435         unsigned int            flags,
436         struct xfarray_sortinfo **infop)
437 {
438         struct xfarray_sortinfo *si;
439         size_t                  nr_bytes = sizeof(struct xfarray_sortinfo);
440         int                     max_stack_depth;
441
442         /*
443          * Tail-call recursion during the partitioning phase means that
444          * quicksort will never recurse more than log2(nr) times.  We need one
445          * extra level of stack to hold the initial parameters.  In-memory
446          * sort will always take care of the last few levels of recursion for
447          * us, so we can reduce the stack depth by that much.
448          */
449         max_stack_depth = ilog2(array->nr) + 1 - (XFARRAY_ISORT_SHIFT - 1);
450         if (max_stack_depth < 1)
451                 max_stack_depth = 1;
452
453         /* Each level of quicksort uses a lo and a hi index */
454         nr_bytes += max_stack_depth * sizeof(xfarray_idx_t) * 2;
455
456         /* Scratchpad for in-memory sort, or one record for the pivot */
457         nr_bytes += (XFARRAY_ISORT_NR * array->obj_size);
458
459         si = kvzalloc(nr_bytes, XCHK_GFP_FLAGS);
460         if (!si)
461                 return -ENOMEM;
462
463         si->array = array;
464         si->cmp_fn = cmp_fn;
465         si->flags = flags;
466         si->max_stack_depth = max_stack_depth;
467         si->max_stack_used = 1;
468
469         xfarray_sortinfo_lo(si)[0] = 0;
470         xfarray_sortinfo_hi(si)[0] = array->nr - 1;
471
472         trace_xfarray_sort(si, nr_bytes);
473         *infop = si;
474         return 0;
475 }
476
477 /* Should this sort be terminated by a fatal signal? */
478 static inline bool
479 xfarray_sort_terminated(
480         struct xfarray_sortinfo *si,
481         int                     *error)
482 {
483         /*
484          * If preemption is disabled, we need to yield to the scheduler every
485          * few seconds so that we don't run afoul of the soft lockup watchdog
486          * or RCU stall detector.
487          */
488         cond_resched();
489
490         if ((si->flags & XFARRAY_SORT_KILLABLE) &&
491             fatal_signal_pending(current)) {
492                 if (*error == 0)
493                         *error = -EINTR;
494                 return true;
495         }
496         return false;
497 }
498
499 /* Do we want an in-memory sort? */
500 static inline bool
501 xfarray_want_isort(
502         struct xfarray_sortinfo *si,
503         xfarray_idx_t           start,
504         xfarray_idx_t           end)
505 {
506         /*
507          * For array subsets that fit in the scratchpad, it's much faster to
508          * use the kernel's heapsort than quicksort's stack machine.
509          */
510         return (end - start) < XFARRAY_ISORT_NR;
511 }
512
513 /* Return the scratch space within the sortinfo structure. */
514 static inline void *xfarray_sortinfo_isort_scratch(struct xfarray_sortinfo *si)
515 {
516         return xfarray_sortinfo_hi(si) + si->max_stack_depth;
517 }
518
519 /*
520  * Sort a small number of array records using scratchpad memory.  The records
521  * need not be contiguous in the xfile's memory pages.
522  */
523 STATIC int
524 xfarray_isort(
525         struct xfarray_sortinfo *si,
526         xfarray_idx_t           lo,
527         xfarray_idx_t           hi)
528 {
529         void                    *scratch = xfarray_sortinfo_isort_scratch(si);
530         loff_t                  lo_pos = xfarray_pos(si->array, lo);
531         loff_t                  len = xfarray_pos(si->array, hi - lo + 1);
532         int                     error;
533
534         trace_xfarray_isort(si, lo, hi);
535
536         xfarray_sort_bump_loads(si);
537         error = xfile_obj_load(si->array->xfile, scratch, len, lo_pos);
538         if (error)
539                 return error;
540
541         xfarray_sort_bump_heapsorts(si);
542         sort(scratch, hi - lo + 1, si->array->obj_size, si->cmp_fn, NULL);
543
544         xfarray_sort_bump_stores(si);
545         return xfile_obj_store(si->array->xfile, scratch, len, lo_pos);
546 }
547
548 /* Return a pointer to the xfarray pivot record within the sortinfo struct. */
549 static inline void *xfarray_sortinfo_pivot(struct xfarray_sortinfo *si)
550 {
551         return xfarray_sortinfo_hi(si) + si->max_stack_depth;
552 }
553
554 /*
555  * Find a pivot value for quicksort partitioning, swap it with a[lo], and save
556  * the cached pivot record for the next step.
557  *
558  * Select the median value from a[lo], a[mid], and a[hi].  Put the median in
559  * a[lo], the lowest in a[mid], and the highest in a[hi].  Using the median of
560  * the three reduces the chances that we pick the worst case pivot value, since
561  * it's likely that our array values are nearly sorted.
562  */
563 STATIC int
564 xfarray_qsort_pivot(
565         struct xfarray_sortinfo *si,
566         xfarray_idx_t           lo,
567         xfarray_idx_t           hi)
568 {
569         void                    *a = xfarray_sortinfo_pivot(si);
570         void                    *b = xfarray_scratch(si->array);
571         xfarray_idx_t           mid = lo + ((hi - lo) / 2);
572         int                     error;
573
574         /* if a[mid] < a[lo], swap a[mid] and a[lo]. */
575         error = xfarray_sort_load(si, mid, a);
576         if (error)
577                 return error;
578         error = xfarray_sort_load(si, lo, b);
579         if (error)
580                 return error;
581         if (xfarray_sort_cmp(si, a, b) < 0) {
582                 error = xfarray_sort_store(si, lo, a);
583                 if (error)
584                         return error;
585                 error = xfarray_sort_store(si, mid, b);
586                 if (error)
587                         return error;
588         }
589
590         /* if a[hi] < a[mid], swap a[mid] and a[hi]. */
591         error = xfarray_sort_load(si, hi, a);
592         if (error)
593                 return error;
594         error = xfarray_sort_load(si, mid, b);
595         if (error)
596                 return error;
597         if (xfarray_sort_cmp(si, a, b) < 0) {
598                 error = xfarray_sort_store(si, mid, a);
599                 if (error)
600                         return error;
601                 error = xfarray_sort_store(si, hi, b);
602                 if (error)
603                         return error;
604         } else {
605                 goto move_front;
606         }
607
608         /* if a[mid] < a[lo], swap a[mid] and a[lo]. */
609         error = xfarray_sort_load(si, mid, a);
610         if (error)
611                 return error;
612         error = xfarray_sort_load(si, lo, b);
613         if (error)
614                 return error;
615         if (xfarray_sort_cmp(si, a, b) < 0) {
616                 error = xfarray_sort_store(si, lo, a);
617                 if (error)
618                         return error;
619                 error = xfarray_sort_store(si, mid, b);
620                 if (error)
621                         return error;
622         }
623
624 move_front:
625         /*
626          * Move our selected pivot to a[lo].  Recall that a == si->pivot, so
627          * this leaves us with the pivot cached in the sortinfo structure.
628          */
629         error = xfarray_sort_load(si, lo, b);
630         if (error)
631                 return error;
632         error = xfarray_sort_load(si, mid, a);
633         if (error)
634                 return error;
635         error = xfarray_sort_store(si, mid, b);
636         if (error)
637                 return error;
638         return xfarray_sort_store(si, lo, a);
639 }
640
641 /*
642  * Set up the pointers for the next iteration.  We push onto the stack all of
643  * the unsorted values between a[lo + 1] and a[end[i]], and we tweak the
644  * current stack frame to point to the unsorted values between a[beg[i]] and
645  * a[lo] so that those values will be sorted when we pop the stack.
646  */
647 static inline int
648 xfarray_qsort_push(
649         struct xfarray_sortinfo *si,
650         xfarray_idx_t           *si_lo,
651         xfarray_idx_t           *si_hi,
652         xfarray_idx_t           lo,
653         xfarray_idx_t           hi)
654 {
655         /* Check for stack overflows */
656         if (si->stack_depth >= si->max_stack_depth - 1) {
657                 ASSERT(si->stack_depth < si->max_stack_depth - 1);
658                 return -EFSCORRUPTED;
659         }
660
661         si->max_stack_used = max_t(uint8_t, si->max_stack_used,
662                                             si->stack_depth + 2);
663
664         si_lo[si->stack_depth + 1] = lo + 1;
665         si_hi[si->stack_depth + 1] = si_hi[si->stack_depth];
666         si_hi[si->stack_depth++] = lo - 1;
667
668         /*
669          * Always start with the smaller of the two partitions to keep the
670          * amount of recursion in check.
671          */
672         if (si_hi[si->stack_depth]     - si_lo[si->stack_depth] >
673             si_hi[si->stack_depth - 1] - si_lo[si->stack_depth - 1]) {
674                 swap(si_lo[si->stack_depth], si_lo[si->stack_depth - 1]);
675                 swap(si_hi[si->stack_depth], si_hi[si->stack_depth - 1]);
676         }
677
678         return 0;
679 }
680
681 /*
682  * Sort the array elements via quicksort.  This implementation incorporates
683  * four optimizations discussed in Sedgewick:
684  *
685  * 1. Use an explicit stack of array indices to store the next array partition
686  *    to sort.  This helps us to avoid recursion in the call stack, which is
687  *    particularly expensive in the kernel.
688  *
689  * 2. For arrays with records in arbitrary or user-controlled order, choose the
690  *    pivot element using a median-of-three decision tree.  This reduces the
691  *    probability of selecting a bad pivot value which causes worst case
692  *    behavior (i.e. partition sizes of 1).
693  *
694  * 3. The smaller of the two sub-partitions is pushed onto the stack to start
695  *    the next level of recursion, and the larger sub-partition replaces the
696  *    current stack frame.  This guarantees that we won't need more than
697  *    log2(nr) stack space.
698  *
699  * 4. For small sets, load the records into the scratchpad and run heapsort on
700  *    them because that is very fast.  In the author's experience, this yields
701  *    a ~10% reduction in runtime.
702  */
703
704 /*
705  * Due to the use of signed indices, we can only support up to 2^63 records.
706  * Files can only grow to 2^63 bytes, so this is not much of a limitation.
707  */
708 #define QSORT_MAX_RECS          (1ULL << 63)
709
710 int
711 xfarray_sort(
712         struct xfarray          *array,
713         xfarray_cmp_fn          cmp_fn,
714         unsigned int            flags)
715 {
716         struct xfarray_sortinfo *si;
717         xfarray_idx_t           *si_lo, *si_hi;
718         void                    *pivot;
719         void                    *scratch = xfarray_scratch(array);
720         xfarray_idx_t           lo, hi;
721         int                     error = 0;
722
723         if (array->nr < 2)
724                 return 0;
725         if (array->nr >= QSORT_MAX_RECS)
726                 return -E2BIG;
727
728         error = xfarray_sortinfo_alloc(array, cmp_fn, flags, &si);
729         if (error)
730                 return error;
731         si_lo = xfarray_sortinfo_lo(si);
732         si_hi = xfarray_sortinfo_hi(si);
733         pivot = xfarray_sortinfo_pivot(si);
734
735         while (si->stack_depth >= 0) {
736                 lo = si_lo[si->stack_depth];
737                 hi = si_hi[si->stack_depth];
738
739                 trace_xfarray_qsort(si, lo, hi);
740
741                 /* Nothing left in this partition to sort; pop stack. */
742                 if (lo >= hi) {
743                         si->stack_depth--;
744                         continue;
745                 }
746
747                 /* If insertion sort can solve our problems, we're done. */
748                 if (xfarray_want_isort(si, lo, hi)) {
749                         error = xfarray_isort(si, lo, hi);
750                         if (error)
751                                 goto out_free;
752                         si->stack_depth--;
753                         continue;
754                 }
755
756                 /* Pick a pivot, move it to a[lo] and stash it. */
757                 error = xfarray_qsort_pivot(si, lo, hi);
758                 if (error)
759                         goto out_free;
760
761                 /*
762                  * Rearrange a[lo..hi] such that everything smaller than the
763                  * pivot is on the left side of the range and everything larger
764                  * than the pivot is on the right side of the range.
765                  */
766                 while (lo < hi) {
767                         /*
768                          * Decrement hi until it finds an a[hi] less than the
769                          * pivot value.
770                          */
771                         error = xfarray_sort_load(si, hi, scratch);
772                         if (error)
773                                 goto out_free;
774                         while (xfarray_sort_cmp(si, scratch, pivot) >= 0 &&
775                                                                 lo < hi) {
776                                 if (xfarray_sort_terminated(si, &error))
777                                         goto out_free;
778
779                                 hi--;
780                                 error = xfarray_sort_load(si, hi, scratch);
781                                 if (error)
782                                         goto out_free;
783                         }
784
785                         if (xfarray_sort_terminated(si, &error))
786                                 goto out_free;
787
788                         /* Copy that item (a[hi]) to a[lo]. */
789                         if (lo < hi) {
790                                 error = xfarray_sort_store(si, lo++, scratch);
791                                 if (error)
792                                         goto out_free;
793                         }
794
795                         /*
796                          * Increment lo until it finds an a[lo] greater than
797                          * the pivot value.
798                          */
799                         error = xfarray_sort_load(si, lo, scratch);
800                         if (error)
801                                 goto out_free;
802                         while (xfarray_sort_cmp(si, scratch, pivot) <= 0 &&
803                                                                 lo < hi) {
804                                 if (xfarray_sort_terminated(si, &error))
805                                         goto out_free;
806
807                                 lo++;
808                                 error = xfarray_sort_load(si, lo, scratch);
809                                 if (error)
810                                         goto out_free;
811                         }
812
813                         if (xfarray_sort_terminated(si, &error))
814                                 goto out_free;
815
816                         /* Copy that item (a[lo]) to a[hi]. */
817                         if (lo < hi) {
818                                 error = xfarray_sort_store(si, hi--, scratch);
819                                 if (error)
820                                         goto out_free;
821                         }
822
823                         if (xfarray_sort_terminated(si, &error))
824                                 goto out_free;
825                 }
826
827                 /*
828                  * Put our pivot value in the correct place at a[lo].  All
829                  * values between a[beg[i]] and a[lo - 1] should be less than
830                  * the pivot; and all values between a[lo + 1] and a[end[i]-1]
831                  * should be greater than the pivot.
832                  */
833                 error = xfarray_sort_store(si, lo, pivot);
834                 if (error)
835                         goto out_free;
836
837                 /* Set up the stack frame to process the two partitions. */
838                 error = xfarray_qsort_push(si, si_lo, si_hi, lo, hi);
839                 if (error)
840                         goto out_free;
841
842                 if (xfarray_sort_terminated(si, &error))
843                         goto out_free;
844         }
845
846 out_free:
847         trace_xfarray_sort_stats(si, error);
848         kvfree(si);
849         return error;
850 }