1 #include <linux/kernel.h>
2 #include <linux/errno.h>
3 #include <linux/file.h>
4 #include <linux/slab.h>
6 #include <linux/io_uring.h>
12 static void __io_notif_complete_tw(struct io_kiocb *notif, bool *locked)
14 struct io_notif_data *nd = io_notif_to_data(notif);
15 struct io_ring_ctx *ctx = notif->ctx;
17 if (nd->account_pages && ctx->user) {
18 __io_unaccount_mem(ctx->user, nd->account_pages);
19 nd->account_pages = 0;
21 io_req_task_complete(notif, locked);
24 static inline void io_notif_complete(struct io_kiocb *notif)
25 __must_hold(¬if->ctx->uring_lock)
29 __io_notif_complete_tw(notif, &locked);
32 static void io_uring_tx_zerocopy_callback(struct sk_buff *skb,
33 struct ubuf_info *uarg,
36 struct io_notif_data *nd = container_of(uarg, struct io_notif_data, uarg);
37 struct io_kiocb *notif = cmd_to_io_kiocb(nd);
39 if (refcount_dec_and_test(&uarg->refcnt)) {
40 notif->io_task_work.func = __io_notif_complete_tw;
41 io_req_task_work_add(notif);
45 struct io_kiocb *io_alloc_notif(struct io_ring_ctx *ctx,
46 struct io_notif_slot *slot)
47 __must_hold(&ctx->uring_lock)
49 struct io_kiocb *notif;
50 struct io_notif_data *nd;
52 if (unlikely(!io_alloc_req_refill(ctx)))
54 notif = io_alloc_req(ctx);
55 notif->opcode = IORING_OP_NOP;
58 notif->task = current;
60 notif->rsrc_node = NULL;
61 io_req_set_rsrc_node(notif, ctx, 0);
62 notif->cqe.user_data = slot->tag;
63 notif->cqe.flags = slot->seq++;
66 nd = io_notif_to_data(notif);
67 nd->account_pages = 0;
68 nd->uarg.flags = SKBFL_ZEROCOPY_FRAG | SKBFL_DONT_ORPHAN;
69 nd->uarg.callback = io_uring_tx_zerocopy_callback;
70 /* master ref owned by io_notif_slot, will be dropped on flush */
71 refcount_set(&nd->uarg.refcnt, 1);
75 void io_notif_slot_flush(struct io_notif_slot *slot)
76 __must_hold(&ctx->uring_lock)
78 struct io_kiocb *notif = slot->notif;
79 struct io_notif_data *nd = io_notif_to_data(notif);
83 /* drop slot's master ref */
84 if (refcount_dec_and_test(&nd->uarg.refcnt))
85 io_notif_complete(notif);
88 __cold int io_notif_unregister(struct io_ring_ctx *ctx)
89 __must_hold(&ctx->uring_lock)
93 if (!ctx->notif_slots)
96 for (i = 0; i < ctx->nr_notif_slots; i++) {
97 struct io_notif_slot *slot = &ctx->notif_slots[i];
98 struct io_kiocb *notif = slot->notif;
99 struct io_notif_data *nd;
103 nd = io_kiocb_to_cmd(notif);
105 if (!refcount_dec_and_test(&nd->uarg.refcnt))
107 notif->io_task_work.func = __io_notif_complete_tw;
108 io_req_task_work_add(notif);
111 kvfree(ctx->notif_slots);
112 ctx->notif_slots = NULL;
113 ctx->nr_notif_slots = 0;
117 __cold int io_notif_register(struct io_ring_ctx *ctx,
118 void __user *arg, unsigned int size)
119 __must_hold(&ctx->uring_lock)
121 struct io_uring_notification_slot __user *slots;
122 struct io_uring_notification_slot slot;
123 struct io_uring_notification_register reg;
126 BUILD_BUG_ON(sizeof(struct io_notif_data) > 64);
128 if (ctx->nr_notif_slots)
130 if (size != sizeof(reg))
132 if (copy_from_user(®, arg, sizeof(reg)))
134 if (!reg.nr_slots || reg.nr_slots > IORING_MAX_NOTIF_SLOTS)
136 if (reg.resv || reg.resv2 || reg.resv3)
139 slots = u64_to_user_ptr(reg.data);
140 ctx->notif_slots = kvcalloc(reg.nr_slots, sizeof(ctx->notif_slots[0]),
142 if (!ctx->notif_slots)
145 for (i = 0; i < reg.nr_slots; i++, ctx->nr_notif_slots++) {
146 struct io_notif_slot *notif_slot = &ctx->notif_slots[i];
148 if (copy_from_user(&slot, &slots[i], sizeof(slot))) {
149 io_notif_unregister(ctx);
152 if (slot.resv[0] | slot.resv[1] | slot.resv[2]) {
153 io_notif_unregister(ctx);
156 notif_slot->tag = slot.tag;