Merge branch 'master' into mm-hotfixes-stable
[platform/kernel/linux-starfive.git] / block / blk-zoned.c
1 // SPDX-License-Identifier: GPL-2.0
2 /*
3  * Zoned block device handling
4  *
5  * Copyright (c) 2015, Hannes Reinecke
6  * Copyright (c) 2015, SUSE Linux GmbH
7  *
8  * Copyright (c) 2016, Damien Le Moal
9  * Copyright (c) 2016, Western Digital
10  */
11
12 #include <linux/kernel.h>
13 #include <linux/module.h>
14 #include <linux/rbtree.h>
15 #include <linux/blkdev.h>
16 #include <linux/blk-mq.h>
17 #include <linux/mm.h>
18 #include <linux/vmalloc.h>
19 #include <linux/sched/mm.h>
20
21 #include "blk.h"
22
23 #define ZONE_COND_NAME(name) [BLK_ZONE_COND_##name] = #name
24 static const char *const zone_cond_name[] = {
25         ZONE_COND_NAME(NOT_WP),
26         ZONE_COND_NAME(EMPTY),
27         ZONE_COND_NAME(IMP_OPEN),
28         ZONE_COND_NAME(EXP_OPEN),
29         ZONE_COND_NAME(CLOSED),
30         ZONE_COND_NAME(READONLY),
31         ZONE_COND_NAME(FULL),
32         ZONE_COND_NAME(OFFLINE),
33 };
34 #undef ZONE_COND_NAME
35
36 /**
37  * blk_zone_cond_str - Return string XXX in BLK_ZONE_COND_XXX.
38  * @zone_cond: BLK_ZONE_COND_XXX.
39  *
40  * Description: Centralize block layer function to convert BLK_ZONE_COND_XXX
41  * into string format. Useful in the debugging and tracing zone conditions. For
42  * invalid BLK_ZONE_COND_XXX it returns string "UNKNOWN".
43  */
44 const char *blk_zone_cond_str(enum blk_zone_cond zone_cond)
45 {
46         static const char *zone_cond_str = "UNKNOWN";
47
48         if (zone_cond < ARRAY_SIZE(zone_cond_name) && zone_cond_name[zone_cond])
49                 zone_cond_str = zone_cond_name[zone_cond];
50
51         return zone_cond_str;
52 }
53 EXPORT_SYMBOL_GPL(blk_zone_cond_str);
54
55 /*
56  * Return true if a request is a write requests that needs zone write locking.
57  */
58 bool blk_req_needs_zone_write_lock(struct request *rq)
59 {
60         if (!rq->q->disk->seq_zones_wlock)
61                 return false;
62
63         return blk_rq_is_seq_zoned_write(rq);
64 }
65 EXPORT_SYMBOL_GPL(blk_req_needs_zone_write_lock);
66
67 bool blk_req_zone_write_trylock(struct request *rq)
68 {
69         unsigned int zno = blk_rq_zone_no(rq);
70
71         if (test_and_set_bit(zno, rq->q->disk->seq_zones_wlock))
72                 return false;
73
74         WARN_ON_ONCE(rq->rq_flags & RQF_ZONE_WRITE_LOCKED);
75         rq->rq_flags |= RQF_ZONE_WRITE_LOCKED;
76
77         return true;
78 }
79 EXPORT_SYMBOL_GPL(blk_req_zone_write_trylock);
80
81 void __blk_req_zone_write_lock(struct request *rq)
82 {
83         if (WARN_ON_ONCE(test_and_set_bit(blk_rq_zone_no(rq),
84                                           rq->q->disk->seq_zones_wlock)))
85                 return;
86
87         WARN_ON_ONCE(rq->rq_flags & RQF_ZONE_WRITE_LOCKED);
88         rq->rq_flags |= RQF_ZONE_WRITE_LOCKED;
89 }
90 EXPORT_SYMBOL_GPL(__blk_req_zone_write_lock);
91
92 void __blk_req_zone_write_unlock(struct request *rq)
93 {
94         rq->rq_flags &= ~RQF_ZONE_WRITE_LOCKED;
95         if (rq->q->disk->seq_zones_wlock)
96                 WARN_ON_ONCE(!test_and_clear_bit(blk_rq_zone_no(rq),
97                                                  rq->q->disk->seq_zones_wlock));
98 }
99 EXPORT_SYMBOL_GPL(__blk_req_zone_write_unlock);
100
101 /**
102  * bdev_nr_zones - Get number of zones
103  * @bdev:       Target device
104  *
105  * Return the total number of zones of a zoned block device.  For a block
106  * device without zone capabilities, the number of zones is always 0.
107  */
108 unsigned int bdev_nr_zones(struct block_device *bdev)
109 {
110         sector_t zone_sectors = bdev_zone_sectors(bdev);
111
112         if (!bdev_is_zoned(bdev))
113                 return 0;
114         return (bdev_nr_sectors(bdev) + zone_sectors - 1) >>
115                 ilog2(zone_sectors);
116 }
117 EXPORT_SYMBOL_GPL(bdev_nr_zones);
118
119 /**
120  * blkdev_report_zones - Get zones information
121  * @bdev:       Target block device
122  * @sector:     Sector from which to report zones
123  * @nr_zones:   Maximum number of zones to report
124  * @cb:         Callback function called for each reported zone
125  * @data:       Private data for the callback
126  *
127  * Description:
128  *    Get zone information starting from the zone containing @sector for at most
129  *    @nr_zones, and call @cb for each zone reported by the device.
130  *    To report all zones in a device starting from @sector, the BLK_ALL_ZONES
131  *    constant can be passed to @nr_zones.
132  *    Returns the number of zones reported by the device, or a negative errno
133  *    value in case of failure.
134  *
135  *    Note: The caller must use memalloc_noXX_save/restore() calls to control
136  *    memory allocations done within this function.
137  */
138 int blkdev_report_zones(struct block_device *bdev, sector_t sector,
139                         unsigned int nr_zones, report_zones_cb cb, void *data)
140 {
141         struct gendisk *disk = bdev->bd_disk;
142         sector_t capacity = get_capacity(disk);
143
144         if (!bdev_is_zoned(bdev) || WARN_ON_ONCE(!disk->fops->report_zones))
145                 return -EOPNOTSUPP;
146
147         if (!nr_zones || sector >= capacity)
148                 return 0;
149
150         return disk->fops->report_zones(disk, sector, nr_zones, cb, data);
151 }
152 EXPORT_SYMBOL_GPL(blkdev_report_zones);
153
154 static inline unsigned long *blk_alloc_zone_bitmap(int node,
155                                                    unsigned int nr_zones)
156 {
157         return kcalloc_node(BITS_TO_LONGS(nr_zones), sizeof(unsigned long),
158                             GFP_NOIO, node);
159 }
160
161 static int blk_zone_need_reset_cb(struct blk_zone *zone, unsigned int idx,
162                                   void *data)
163 {
164         /*
165          * For an all-zones reset, ignore conventional, empty, read-only
166          * and offline zones.
167          */
168         switch (zone->cond) {
169         case BLK_ZONE_COND_NOT_WP:
170         case BLK_ZONE_COND_EMPTY:
171         case BLK_ZONE_COND_READONLY:
172         case BLK_ZONE_COND_OFFLINE:
173                 return 0;
174         default:
175                 set_bit(idx, (unsigned long *)data);
176                 return 0;
177         }
178 }
179
180 static int blkdev_zone_reset_all_emulated(struct block_device *bdev,
181                                           gfp_t gfp_mask)
182 {
183         struct gendisk *disk = bdev->bd_disk;
184         sector_t capacity = bdev_nr_sectors(bdev);
185         sector_t zone_sectors = bdev_zone_sectors(bdev);
186         unsigned long *need_reset;
187         struct bio *bio = NULL;
188         sector_t sector = 0;
189         int ret;
190
191         need_reset = blk_alloc_zone_bitmap(disk->queue->node, disk->nr_zones);
192         if (!need_reset)
193                 return -ENOMEM;
194
195         ret = disk->fops->report_zones(disk, 0, disk->nr_zones,
196                                        blk_zone_need_reset_cb, need_reset);
197         if (ret < 0)
198                 goto out_free_need_reset;
199
200         ret = 0;
201         while (sector < capacity) {
202                 if (!test_bit(disk_zone_no(disk, sector), need_reset)) {
203                         sector += zone_sectors;
204                         continue;
205                 }
206
207                 bio = blk_next_bio(bio, bdev, 0, REQ_OP_ZONE_RESET | REQ_SYNC,
208                                    gfp_mask);
209                 bio->bi_iter.bi_sector = sector;
210                 sector += zone_sectors;
211
212                 /* This may take a while, so be nice to others */
213                 cond_resched();
214         }
215
216         if (bio) {
217                 ret = submit_bio_wait(bio);
218                 bio_put(bio);
219         }
220
221 out_free_need_reset:
222         kfree(need_reset);
223         return ret;
224 }
225
226 static int blkdev_zone_reset_all(struct block_device *bdev, gfp_t gfp_mask)
227 {
228         struct bio bio;
229
230         bio_init(&bio, bdev, NULL, 0, REQ_OP_ZONE_RESET_ALL | REQ_SYNC);
231         return submit_bio_wait(&bio);
232 }
233
234 /**
235  * blkdev_zone_mgmt - Execute a zone management operation on a range of zones
236  * @bdev:       Target block device
237  * @op:         Operation to be performed on the zones
238  * @sector:     Start sector of the first zone to operate on
239  * @nr_sectors: Number of sectors, should be at least the length of one zone and
240  *              must be zone size aligned.
241  * @gfp_mask:   Memory allocation flags (for bio_alloc)
242  *
243  * Description:
244  *    Perform the specified operation on the range of zones specified by
245  *    @sector..@sector+@nr_sectors. Specifying the entire disk sector range
246  *    is valid, but the specified range should not contain conventional zones.
247  *    The operation to execute on each zone can be a zone reset, open, close
248  *    or finish request.
249  */
250 int blkdev_zone_mgmt(struct block_device *bdev, enum req_op op,
251                      sector_t sector, sector_t nr_sectors, gfp_t gfp_mask)
252 {
253         struct request_queue *q = bdev_get_queue(bdev);
254         sector_t zone_sectors = bdev_zone_sectors(bdev);
255         sector_t capacity = bdev_nr_sectors(bdev);
256         sector_t end_sector = sector + nr_sectors;
257         struct bio *bio = NULL;
258         int ret = 0;
259
260         if (!bdev_is_zoned(bdev))
261                 return -EOPNOTSUPP;
262
263         if (bdev_read_only(bdev))
264                 return -EPERM;
265
266         if (!op_is_zone_mgmt(op))
267                 return -EOPNOTSUPP;
268
269         if (end_sector <= sector || end_sector > capacity)
270                 /* Out of range */
271                 return -EINVAL;
272
273         /* Check alignment (handle eventual smaller last zone) */
274         if (!bdev_is_zone_start(bdev, sector))
275                 return -EINVAL;
276
277         if (!bdev_is_zone_start(bdev, nr_sectors) && end_sector != capacity)
278                 return -EINVAL;
279
280         /*
281          * In the case of a zone reset operation over all zones,
282          * REQ_OP_ZONE_RESET_ALL can be used with devices supporting this
283          * command. For other devices, we emulate this command behavior by
284          * identifying the zones needing a reset.
285          */
286         if (op == REQ_OP_ZONE_RESET && sector == 0 && nr_sectors == capacity) {
287                 if (!blk_queue_zone_resetall(q))
288                         return blkdev_zone_reset_all_emulated(bdev, gfp_mask);
289                 return blkdev_zone_reset_all(bdev, gfp_mask);
290         }
291
292         while (sector < end_sector) {
293                 bio = blk_next_bio(bio, bdev, 0, op | REQ_SYNC, gfp_mask);
294                 bio->bi_iter.bi_sector = sector;
295                 sector += zone_sectors;
296
297                 /* This may take a while, so be nice to others */
298                 cond_resched();
299         }
300
301         ret = submit_bio_wait(bio);
302         bio_put(bio);
303
304         return ret;
305 }
306 EXPORT_SYMBOL_GPL(blkdev_zone_mgmt);
307
308 struct zone_report_args {
309         struct blk_zone __user *zones;
310 };
311
312 static int blkdev_copy_zone_to_user(struct blk_zone *zone, unsigned int idx,
313                                     void *data)
314 {
315         struct zone_report_args *args = data;
316
317         if (copy_to_user(&args->zones[idx], zone, sizeof(struct blk_zone)))
318                 return -EFAULT;
319         return 0;
320 }
321
322 /*
323  * BLKREPORTZONE ioctl processing.
324  * Called from blkdev_ioctl.
325  */
326 int blkdev_report_zones_ioctl(struct block_device *bdev, unsigned int cmd,
327                 unsigned long arg)
328 {
329         void __user *argp = (void __user *)arg;
330         struct zone_report_args args;
331         struct blk_zone_report rep;
332         int ret;
333
334         if (!argp)
335                 return -EINVAL;
336
337         if (!bdev_is_zoned(bdev))
338                 return -ENOTTY;
339
340         if (copy_from_user(&rep, argp, sizeof(struct blk_zone_report)))
341                 return -EFAULT;
342
343         if (!rep.nr_zones)
344                 return -EINVAL;
345
346         args.zones = argp + sizeof(struct blk_zone_report);
347         ret = blkdev_report_zones(bdev, rep.sector, rep.nr_zones,
348                                   blkdev_copy_zone_to_user, &args);
349         if (ret < 0)
350                 return ret;
351
352         rep.nr_zones = ret;
353         rep.flags = BLK_ZONE_REP_CAPACITY;
354         if (copy_to_user(argp, &rep, sizeof(struct blk_zone_report)))
355                 return -EFAULT;
356         return 0;
357 }
358
359 static int blkdev_truncate_zone_range(struct block_device *bdev,
360                 blk_mode_t mode, const struct blk_zone_range *zrange)
361 {
362         loff_t start, end;
363
364         if (zrange->sector + zrange->nr_sectors <= zrange->sector ||
365             zrange->sector + zrange->nr_sectors > get_capacity(bdev->bd_disk))
366                 /* Out of range */
367                 return -EINVAL;
368
369         start = zrange->sector << SECTOR_SHIFT;
370         end = ((zrange->sector + zrange->nr_sectors) << SECTOR_SHIFT) - 1;
371
372         return truncate_bdev_range(bdev, mode, start, end);
373 }
374
375 /*
376  * BLKRESETZONE, BLKOPENZONE, BLKCLOSEZONE and BLKFINISHZONE ioctl processing.
377  * Called from blkdev_ioctl.
378  */
379 int blkdev_zone_mgmt_ioctl(struct block_device *bdev, blk_mode_t mode,
380                            unsigned int cmd, unsigned long arg)
381 {
382         void __user *argp = (void __user *)arg;
383         struct blk_zone_range zrange;
384         enum req_op op;
385         int ret;
386
387         if (!argp)
388                 return -EINVAL;
389
390         if (!bdev_is_zoned(bdev))
391                 return -ENOTTY;
392
393         if (!(mode & BLK_OPEN_WRITE))
394                 return -EBADF;
395
396         if (copy_from_user(&zrange, argp, sizeof(struct blk_zone_range)))
397                 return -EFAULT;
398
399         switch (cmd) {
400         case BLKRESETZONE:
401                 op = REQ_OP_ZONE_RESET;
402
403                 /* Invalidate the page cache, including dirty pages. */
404                 filemap_invalidate_lock(bdev->bd_inode->i_mapping);
405                 ret = blkdev_truncate_zone_range(bdev, mode, &zrange);
406                 if (ret)
407                         goto fail;
408                 break;
409         case BLKOPENZONE:
410                 op = REQ_OP_ZONE_OPEN;
411                 break;
412         case BLKCLOSEZONE:
413                 op = REQ_OP_ZONE_CLOSE;
414                 break;
415         case BLKFINISHZONE:
416                 op = REQ_OP_ZONE_FINISH;
417                 break;
418         default:
419                 return -ENOTTY;
420         }
421
422         ret = blkdev_zone_mgmt(bdev, op, zrange.sector, zrange.nr_sectors,
423                                GFP_KERNEL);
424
425 fail:
426         if (cmd == BLKRESETZONE)
427                 filemap_invalidate_unlock(bdev->bd_inode->i_mapping);
428
429         return ret;
430 }
431
432 void disk_free_zone_bitmaps(struct gendisk *disk)
433 {
434         kfree(disk->conv_zones_bitmap);
435         disk->conv_zones_bitmap = NULL;
436         kfree(disk->seq_zones_wlock);
437         disk->seq_zones_wlock = NULL;
438 }
439
440 struct blk_revalidate_zone_args {
441         struct gendisk  *disk;
442         unsigned long   *conv_zones_bitmap;
443         unsigned long   *seq_zones_wlock;
444         unsigned int    nr_zones;
445         sector_t        zone_sectors;
446         sector_t        sector;
447 };
448
449 /*
450  * Helper function to check the validity of zones of a zoned block device.
451  */
452 static int blk_revalidate_zone_cb(struct blk_zone *zone, unsigned int idx,
453                                   void *data)
454 {
455         struct blk_revalidate_zone_args *args = data;
456         struct gendisk *disk = args->disk;
457         struct request_queue *q = disk->queue;
458         sector_t capacity = get_capacity(disk);
459
460         /*
461          * All zones must have the same size, with the exception on an eventual
462          * smaller last zone.
463          */
464         if (zone->start == 0) {
465                 if (zone->len == 0 || !is_power_of_2(zone->len)) {
466                         pr_warn("%s: Invalid zoned device with non power of two zone size (%llu)\n",
467                                 disk->disk_name, zone->len);
468                         return -ENODEV;
469                 }
470
471                 args->zone_sectors = zone->len;
472                 args->nr_zones = (capacity + zone->len - 1) >> ilog2(zone->len);
473         } else if (zone->start + args->zone_sectors < capacity) {
474                 if (zone->len != args->zone_sectors) {
475                         pr_warn("%s: Invalid zoned device with non constant zone size\n",
476                                 disk->disk_name);
477                         return -ENODEV;
478                 }
479         } else {
480                 if (zone->len > args->zone_sectors) {
481                         pr_warn("%s: Invalid zoned device with larger last zone size\n",
482                                 disk->disk_name);
483                         return -ENODEV;
484                 }
485         }
486
487         /* Check for holes in the zone report */
488         if (zone->start != args->sector) {
489                 pr_warn("%s: Zone gap at sectors %llu..%llu\n",
490                         disk->disk_name, args->sector, zone->start);
491                 return -ENODEV;
492         }
493
494         /* Check zone type */
495         switch (zone->type) {
496         case BLK_ZONE_TYPE_CONVENTIONAL:
497                 if (!args->conv_zones_bitmap) {
498                         args->conv_zones_bitmap =
499                                 blk_alloc_zone_bitmap(q->node, args->nr_zones);
500                         if (!args->conv_zones_bitmap)
501                                 return -ENOMEM;
502                 }
503                 set_bit(idx, args->conv_zones_bitmap);
504                 break;
505         case BLK_ZONE_TYPE_SEQWRITE_REQ:
506         case BLK_ZONE_TYPE_SEQWRITE_PREF:
507                 if (!args->seq_zones_wlock) {
508                         args->seq_zones_wlock =
509                                 blk_alloc_zone_bitmap(q->node, args->nr_zones);
510                         if (!args->seq_zones_wlock)
511                                 return -ENOMEM;
512                 }
513                 break;
514         default:
515                 pr_warn("%s: Invalid zone type 0x%x at sectors %llu\n",
516                         disk->disk_name, (int)zone->type, zone->start);
517                 return -ENODEV;
518         }
519
520         args->sector += zone->len;
521         return 0;
522 }
523
524 /**
525  * blk_revalidate_disk_zones - (re)allocate and initialize zone bitmaps
526  * @disk:       Target disk
527  * @update_driver_data: Callback to update driver data on the frozen disk
528  *
529  * Helper function for low-level device drivers to (re) allocate and initialize
530  * a disk request queue zone bitmaps. This functions should normally be called
531  * within the disk ->revalidate method for blk-mq based drivers.  For BIO based
532  * drivers only q->nr_zones needs to be updated so that the sysfs exposed value
533  * is correct.
534  * If the @update_driver_data callback function is not NULL, the callback is
535  * executed with the device request queue frozen after all zones have been
536  * checked.
537  */
538 int blk_revalidate_disk_zones(struct gendisk *disk,
539                               void (*update_driver_data)(struct gendisk *disk))
540 {
541         struct request_queue *q = disk->queue;
542         struct blk_revalidate_zone_args args = {
543                 .disk           = disk,
544         };
545         unsigned int noio_flag;
546         int ret;
547
548         if (WARN_ON_ONCE(!blk_queue_is_zoned(q)))
549                 return -EIO;
550         if (WARN_ON_ONCE(!queue_is_mq(q)))
551                 return -EIO;
552
553         if (!get_capacity(disk))
554                 return -EIO;
555
556         /*
557          * Ensure that all memory allocations in this context are done as if
558          * GFP_NOIO was specified.
559          */
560         noio_flag = memalloc_noio_save();
561         ret = disk->fops->report_zones(disk, 0, UINT_MAX,
562                                        blk_revalidate_zone_cb, &args);
563         if (!ret) {
564                 pr_warn("%s: No zones reported\n", disk->disk_name);
565                 ret = -ENODEV;
566         }
567         memalloc_noio_restore(noio_flag);
568
569         /*
570          * If zones where reported, make sure that the entire disk capacity
571          * has been checked.
572          */
573         if (ret > 0 && args.sector != get_capacity(disk)) {
574                 pr_warn("%s: Missing zones from sector %llu\n",
575                         disk->disk_name, args.sector);
576                 ret = -ENODEV;
577         }
578
579         /*
580          * Install the new bitmaps and update nr_zones only once the queue is
581          * stopped and all I/Os are completed (i.e. a scheduler is not
582          * referencing the bitmaps).
583          */
584         blk_mq_freeze_queue(q);
585         if (ret > 0) {
586                 blk_queue_chunk_sectors(q, args.zone_sectors);
587                 disk->nr_zones = args.nr_zones;
588                 swap(disk->seq_zones_wlock, args.seq_zones_wlock);
589                 swap(disk->conv_zones_bitmap, args.conv_zones_bitmap);
590                 if (update_driver_data)
591                         update_driver_data(disk);
592                 ret = 0;
593         } else {
594                 pr_warn("%s: failed to revalidate zones\n", disk->disk_name);
595                 disk_free_zone_bitmaps(disk);
596         }
597         blk_mq_unfreeze_queue(q);
598
599         kfree(args.seq_zones_wlock);
600         kfree(args.conv_zones_bitmap);
601         return ret;
602 }
603 EXPORT_SYMBOL_GPL(blk_revalidate_disk_zones);
604
605 void disk_clear_zone_settings(struct gendisk *disk)
606 {
607         struct request_queue *q = disk->queue;
608
609         blk_mq_freeze_queue(q);
610
611         disk_free_zone_bitmaps(disk);
612         blk_queue_flag_clear(QUEUE_FLAG_ZONE_RESETALL, q);
613         q->required_elevator_features &= ~ELEVATOR_F_ZBD_SEQ_WRITE;
614         disk->nr_zones = 0;
615         disk->max_open_zones = 0;
616         disk->max_active_zones = 0;
617         q->limits.chunk_sectors = 0;
618         q->limits.zone_write_granularity = 0;
619         q->limits.max_zone_append_sectors = 0;
620
621         blk_mq_unfreeze_queue(q);
622 }