io_uring: move small helpers to headers
authorPavel Begunkov <asml.silence@gmail.com>
Wed, 15 Jun 2022 16:33:51 +0000 (17:33 +0100)
committerJens Axboe <axboe@kernel.dk>
Mon, 25 Jul 2022 00:39:13 +0000 (18:39 -0600)
There is a bunch of inline helpers that will be useful not only to the
core of io_uring, move them to headers.

Signed-off-by: Pavel Begunkov <asml.silence@gmail.com>
Link: https://lore.kernel.org/r/22df99c83723e44cba7e945e8519e64e3642c064.1655310733.git.asml.silence@gmail.com
Signed-off-by: Jens Axboe <axboe@kernel.dk>
io_uring/io_uring.c
io_uring/io_uring.h

index c703190..fd3ad78 100644 (file)
@@ -160,14 +160,6 @@ struct sock *io_uring_get_socket(struct file *file)
 }
 EXPORT_SYMBOL(io_uring_get_socket);
 
-static inline void io_tw_lock(struct io_ring_ctx *ctx, bool *locked)
-{
-       if (!*locked) {
-               mutex_lock(&ctx->uring_lock);
-               *locked = true;
-       }
-}
-
 static inline void io_submit_flush_completions(struct io_ring_ctx *ctx)
 {
        if (!wq_list_empty(&ctx->submit_state.compl_reqs))
@@ -423,15 +415,6 @@ static void io_prep_async_link(struct io_kiocb *req)
        }
 }
 
-static inline void io_req_add_compl_list(struct io_kiocb *req)
-{
-       struct io_submit_state *state = &req->ctx->submit_state;
-
-       if (!(req->flags & REQ_F_CQE_SKIP))
-               state->flush_cqes = true;
-       wq_list_add_tail(&req->comp_list, &state->compl_reqs);
-}
-
 void io_queue_iowq(struct io_kiocb *req, bool *dont_use)
 {
        struct io_kiocb *link = io_prep_linked_timeout(req);
index 22e6e52..6744ce1 100644 (file)
@@ -217,6 +217,28 @@ static inline bool io_run_task_work(void)
        return false;
 }
 
+static inline void io_req_complete_state(struct io_kiocb *req)
+{
+       req->flags |= REQ_F_COMPLETE_INLINE;
+}
+
+static inline void io_tw_lock(struct io_ring_ctx *ctx, bool *locked)
+{
+       if (!*locked) {
+               mutex_lock(&ctx->uring_lock);
+               *locked = true;
+       }
+}
+
+static inline void io_req_add_compl_list(struct io_kiocb *req)
+{
+       struct io_submit_state *state = &req->ctx->submit_state;
+
+       if (!(req->flags & REQ_F_CQE_SKIP))
+               state->flush_cqes = true;
+       wq_list_add_tail(&req->comp_list, &state->compl_reqs);
+}
+
 int io_run_task_work_sig(void);
 void io_req_complete_failed(struct io_kiocb *req, s32 res);
 void __io_req_complete(struct io_kiocb *req, unsigned issue_flags);