io_uring/rsrc: devirtualise rsrc put callbacks
[platform/kernel/linux-starfive.git] / io_uring / rsrc.c
index f9ce407..62988b3 100644 (file)
@@ -23,6 +23,8 @@ struct io_rsrc_update {
        u32                             offset;
 };
 
+static void io_rsrc_buf_put(struct io_ring_ctx *ctx, struct io_rsrc_put *prsrc);
+static void io_rsrc_file_put(struct io_ring_ctx *ctx, struct io_rsrc_put *prsrc);
 static int io_sqe_buffer_register(struct io_ring_ctx *ctx, struct iovec *iov,
                                  struct io_mapped_ubuf **pimu,
                                  struct page **last_hpage);
@@ -31,11 +33,6 @@ static int io_sqe_buffer_register(struct io_ring_ctx *ctx, struct iovec *iov,
 #define IORING_MAX_FIXED_FILES (1U << 20)
 #define IORING_MAX_REG_BUFFERS (1U << 14)
 
-static inline bool io_put_rsrc_data_ref(struct io_rsrc_data *rsrc_data)
-{
-       return !--rsrc_data->refs;
-}
-
 int __io_account_mem(struct user_struct *user, unsigned long nr_pages)
 {
        unsigned long page_limit, cur_pages, new_pages;
@@ -145,40 +142,25 @@ static void io_buffer_unmap(struct io_ring_ctx *ctx, struct io_mapped_ubuf **slo
        *slot = NULL;
 }
 
-static void io_rsrc_put_work_one(struct io_rsrc_data *rsrc_data,
-                                struct io_rsrc_put *prsrc)
+static void io_rsrc_put_work(struct io_rsrc_node *node)
 {
-       struct io_ring_ctx *ctx = rsrc_data->ctx;
+       struct io_rsrc_data *data = node->rsrc_data;
+       struct io_rsrc_put *prsrc = &node->item;
 
        if (prsrc->tag)
-               io_post_aux_cqe(ctx, prsrc->tag, 0, 0);
-       rsrc_data->do_put(ctx, prsrc);
-}
-
-static void __io_rsrc_put_work(struct io_rsrc_node *ref_node)
-{
-       struct io_rsrc_data *rsrc_data = ref_node->rsrc_data;
-       struct io_ring_ctx *ctx = rsrc_data->ctx;
-       struct io_rsrc_put *prsrc, *tmp;
-
-       if (ref_node->inline_items)
-               io_rsrc_put_work_one(rsrc_data, &ref_node->item);
+               io_post_aux_cqe(data->ctx, prsrc->tag, 0, 0);
 
-       list_for_each_entry_safe(prsrc, tmp, &ref_node->item_list, list) {
-               list_del(&prsrc->list);
-               io_rsrc_put_work_one(rsrc_data, prsrc);
-               kfree(prsrc);
+       switch (data->rsrc_type) {
+       case IORING_RSRC_FILE:
+               io_rsrc_file_put(data->ctx, prsrc);
+               break;
+       case IORING_RSRC_BUFFER:
+               io_rsrc_buf_put(data->ctx, prsrc);
+               break;
+       default:
+               WARN_ON_ONCE(1);
+               break;
        }
-
-       io_rsrc_node_destroy(rsrc_data->ctx, ref_node);
-       if (io_put_rsrc_data_ref(rsrc_data))
-               wake_up_all(&ctx->rsrc_quiesce_wq);
-}
-
-void io_wait_rsrc_data(struct io_rsrc_data *data)
-{
-       if (data)
-               WARN_ON_ONCE(!io_put_rsrc_data_ref(data));
 }
 
 void io_rsrc_node_destroy(struct io_ring_ctx *ctx, struct io_rsrc_node *node)
@@ -199,8 +181,13 @@ void io_rsrc_node_ref_zero(struct io_rsrc_node *node)
                if (node->refs)
                        break;
                list_del(&node->node);
-               __io_rsrc_put_work(node);
+
+               if (likely(!node->empty))
+                       io_rsrc_put_work(node);
+               io_rsrc_node_destroy(ctx, node);
        }
+       if (list_empty(&ctx->rsrc_ref_list) && unlikely(ctx->rsrc_quiesce))
+               wake_up_all(&ctx->rsrc_quiesce_wq);
 }
 
 struct io_rsrc_node *io_rsrc_node_alloc(struct io_ring_ctx *ctx)
@@ -218,61 +205,40 @@ struct io_rsrc_node *io_rsrc_node_alloc(struct io_ring_ctx *ctx)
        }
 
        ref_node->rsrc_data = NULL;
+       ref_node->empty = 0;
        ref_node->refs = 1;
-       INIT_LIST_HEAD(&ref_node->node);
-       INIT_LIST_HEAD(&ref_node->item_list);
-       ref_node->inline_items = 0;
        return ref_node;
 }
 
-void io_rsrc_node_switch(struct io_ring_ctx *ctx,
-                        struct io_rsrc_data *data_to_kill)
-       __must_hold(&ctx->uring_lock)
-{
-       struct io_rsrc_node *node = ctx->rsrc_node;
-       struct io_rsrc_node *backup = io_rsrc_node_alloc(ctx);
-
-       if (WARN_ON_ONCE(!backup))
-               return;
-
-       data_to_kill->refs++;
-       node->rsrc_data = data_to_kill;
-       list_add_tail(&node->node, &ctx->rsrc_ref_list);
-       /* put master ref */
-       io_put_rsrc_node(ctx, node);
-       ctx->rsrc_node = backup;
-}
-
-int io_rsrc_node_switch_start(struct io_ring_ctx *ctx)
-{
-       if (io_alloc_cache_empty(&ctx->rsrc_node_cache)) {
-               struct io_rsrc_node *node = kzalloc(sizeof(*node), GFP_KERNEL);
-
-               if (!node)
-                       return -ENOMEM;
-               io_alloc_cache_put(&ctx->rsrc_node_cache, &node->cache);
-       }
-       return 0;
-}
-
 __cold static int io_rsrc_ref_quiesce(struct io_rsrc_data *data,
                                      struct io_ring_ctx *ctx)
 {
+       struct io_rsrc_node *backup;
        DEFINE_WAIT(we);
        int ret;
 
-       /* As we may drop ->uring_lock, other task may have started quiesce */
+       /* As We may drop ->uring_lock, other task may have started quiesce */
        if (data->quiesce)
                return -ENXIO;
-       ret = io_rsrc_node_switch_start(ctx);
-       if (ret)
-               return ret;
-       io_rsrc_node_switch(ctx, data);
 
-       /* kill initial ref */
-       if (io_put_rsrc_data_ref(data))
+       backup = io_rsrc_node_alloc(ctx);
+       if (!backup)
+               return -ENOMEM;
+       ctx->rsrc_node->empty = true;
+       ctx->rsrc_node->rsrc_data = data;
+       list_add_tail(&ctx->rsrc_node->node, &ctx->rsrc_ref_list);
+       io_put_rsrc_node(ctx, ctx->rsrc_node);
+       ctx->rsrc_node = backup;
+
+       if (list_empty(&ctx->rsrc_ref_list))
                return 0;
 
+       if (ctx->flags & IORING_SETUP_DEFER_TASKRUN) {
+               atomic_set(&ctx->cq_wait_nr, 1);
+               smp_mb();
+       }
+
+       ctx->rsrc_quiesce++;
        data->quiesce = true;
        do {
                prepare_to_wait(&ctx->rsrc_quiesce_wq, &we, TASK_INTERRUPTIBLE);
@@ -281,12 +247,8 @@ __cold static int io_rsrc_ref_quiesce(struct io_rsrc_data *data,
                ret = io_run_task_work_sig(ctx);
                if (ret < 0) {
                        mutex_lock(&ctx->uring_lock);
-                       if (!data->refs) {
+                       if (list_empty(&ctx->rsrc_ref_list))
                                ret = 0;
-                       } else {
-                               /* restore the master reference */
-                               data->refs++;
-                       }
                        break;
                }
 
@@ -294,10 +256,16 @@ __cold static int io_rsrc_ref_quiesce(struct io_rsrc_data *data,
                __set_current_state(TASK_RUNNING);
                mutex_lock(&ctx->uring_lock);
                ret = 0;
-       } while (data->refs);
+       } while (!list_empty(&ctx->rsrc_ref_list));
 
        finish_wait(&ctx->rsrc_quiesce_wq, &we);
        data->quiesce = false;
+       ctx->rsrc_quiesce--;
+
+       if (ctx->flags & IORING_SETUP_DEFER_TASKRUN) {
+               atomic_set(&ctx->cq_wait_nr, 0);
+               smp_mb();
+       }
        return ret;
 }
 
@@ -342,8 +310,8 @@ static __cold void **io_alloc_page_table(size_t size)
        return table;
 }
 
-__cold static int io_rsrc_data_alloc(struct io_ring_ctx *ctx,
-                                    rsrc_put_fn *do_put, u64 __user *utags,
+__cold static int io_rsrc_data_alloc(struct io_ring_ctx *ctx, int type,
+                                    u64 __user *utags,
                                     unsigned nr, struct io_rsrc_data **pdata)
 {
        struct io_rsrc_data *data;
@@ -361,8 +329,7 @@ __cold static int io_rsrc_data_alloc(struct io_ring_ctx *ctx,
 
        data->nr = nr;
        data->ctx = ctx;
-       data->do_put = do_put;
-       data->refs = 1;
+       data->rsrc_type = type;
        if (utags) {
                ret = -EFAULT;
                for (i = 0; i < nr; i++) {
@@ -391,7 +358,6 @@ static int __io_sqe_files_update(struct io_ring_ctx *ctx,
        struct file *file;
        int fd, i, err = 0;
        unsigned int done;
-       bool needs_switch = false;
 
        if (!ctx->file_data)
                return -ENXIO;
@@ -418,12 +384,11 @@ static int __io_sqe_files_update(struct io_ring_ctx *ctx,
 
                if (file_slot->file_ptr) {
                        file = (struct file *)(file_slot->file_ptr & FFS_MASK);
-                       err = io_queue_rsrc_removal(data, i, ctx->rsrc_node, file);
+                       err = io_queue_rsrc_removal(data, i, file);
                        if (err)
                                break;
                        file_slot->file_ptr = 0;
                        io_file_bitmap_clear(&ctx->file_table, i);
-                       needs_switch = true;
                }
                if (fd != -1) {
                        file = fget(fd);
@@ -454,9 +419,6 @@ static int __io_sqe_files_update(struct io_ring_ctx *ctx,
                        io_file_bitmap_set(&ctx->file_table, i);
                }
        }
-
-       if (needs_switch)
-               io_rsrc_node_switch(ctx, data);
        return done ? done : err;
 }
 
@@ -467,7 +429,6 @@ static int __io_sqe_buffers_update(struct io_ring_ctx *ctx,
        u64 __user *tags = u64_to_user_ptr(up->tags);
        struct iovec iov, __user *iovs = u64_to_user_ptr(up->data);
        struct page *last_hpage = NULL;
-       bool needs_switch = false;
        __u32 done;
        int i, err;
 
@@ -478,7 +439,6 @@ static int __io_sqe_buffers_update(struct io_ring_ctx *ctx,
 
        for (done = 0; done < nr_args; done++) {
                struct io_mapped_ubuf *imu;
-               int offset = up->offset + done;
                u64 tag = 0;
 
                err = io_copy_iov(ctx, &iov, iovs, done);
@@ -499,24 +459,20 @@ static int __io_sqe_buffers_update(struct io_ring_ctx *ctx,
                if (err)
                        break;
 
-               i = array_index_nospec(offset, ctx->nr_user_bufs);
+               i = array_index_nospec(up->offset + done, ctx->nr_user_bufs);
                if (ctx->user_bufs[i] != ctx->dummy_ubuf) {
                        err = io_queue_rsrc_removal(ctx->buf_data, i,
-                                                   ctx->rsrc_node, ctx->user_bufs[i]);
+                                                   ctx->user_bufs[i]);
                        if (unlikely(err)) {
                                io_buffer_unmap(ctx, &imu);
                                break;
                        }
                        ctx->user_bufs[i] = ctx->dummy_ubuf;
-                       needs_switch = true;
                }
 
                ctx->user_bufs[i] = imu;
                *io_get_tag_slot(ctx->buf_data, i) = tag;
        }
-
-       if (needs_switch)
-               io_rsrc_node_switch(ctx, ctx->buf_data);
        return done ? done : err;
 }
 
@@ -525,15 +481,11 @@ static int __io_register_rsrc_update(struct io_ring_ctx *ctx, unsigned type,
                                     unsigned nr_args)
 {
        __u32 tmp;
-       int err;
 
        lockdep_assert_held(&ctx->uring_lock);
 
        if (check_add_overflow(up->offset, nr_args, &tmp))
                return -EOVERFLOW;
-       err = io_rsrc_node_switch_start(ctx);
-       if (err)
-               return err;
 
        switch (type) {
        case IORING_RSRC_FILE:
@@ -690,28 +642,25 @@ int io_files_update(struct io_kiocb *req, unsigned int issue_flags)
        return IOU_OK;
 }
 
-int io_queue_rsrc_removal(struct io_rsrc_data *data, unsigned idx,
-                         struct io_rsrc_node *node, void *rsrc)
+int io_queue_rsrc_removal(struct io_rsrc_data *data, unsigned idx, void *rsrc)
 {
+       struct io_ring_ctx *ctx = data->ctx;
+       struct io_rsrc_node *node = ctx->rsrc_node;
        u64 *tag_slot = io_get_tag_slot(data, idx);
-       struct io_rsrc_put *prsrc;
-       bool inline_item = true;
 
-       if (!node->inline_items) {
-               prsrc = &node->item;
-               node->inline_items++;
-       } else {
-               prsrc = kzalloc(sizeof(*prsrc), GFP_KERNEL);
-               if (!prsrc)
-                       return -ENOMEM;
-               inline_item = false;
+       ctx->rsrc_node = io_rsrc_node_alloc(ctx);
+       if (unlikely(!ctx->rsrc_node)) {
+               ctx->rsrc_node = node;
+               return -ENOMEM;
        }
 
-       prsrc->tag = *tag_slot;
+       node->item.rsrc = rsrc;
+       node->item.tag = *tag_slot;
        *tag_slot = 0;
-       prsrc->rsrc = rsrc;
-       if (!inline_item)
-               list_add(&prsrc->list, &node->item_list);
+
+       node->rsrc_data = data;
+       list_add_tail(&node->node, &ctx->rsrc_ref_list);
+       io_put_rsrc_node(ctx, node);
        return 0;
 }
 
@@ -913,7 +862,7 @@ int io_sqe_files_register(struct io_ring_ctx *ctx, void __user *arg,
                return -EMFILE;
        if (nr_args > rlimit(RLIMIT_NOFILE))
                return -EMFILE;
-       ret = io_rsrc_data_alloc(ctx, io_rsrc_file_put, tags, nr_args,
+       ret = io_rsrc_data_alloc(ctx, IORING_RSRC_FILE, tags, nr_args,
                                 &ctx->file_data);
        if (ret)
                return ret;
@@ -1248,7 +1197,7 @@ int io_sqe_buffers_register(struct io_ring_ctx *ctx, void __user *arg,
                return -EBUSY;
        if (!nr_args || nr_args > IORING_MAX_REG_BUFFERS)
                return -EINVAL;
-       ret = io_rsrc_data_alloc(ctx, io_rsrc_buf_put, tags, nr_args, &data);
+       ret = io_rsrc_data_alloc(ctx, IORING_RSRC_BUFFER, tags, nr_args, &data);
        if (ret)
                return ret;
        ret = io_buffers_map_alloc(ctx, nr_args);