io_uring: inline __io_req_complete_post()
authorPavel Begunkov <asml.silence@gmail.com>
Thu, 17 Nov 2022 18:41:06 +0000 (18:41 +0000)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Wed, 1 Feb 2023 07:34:41 +0000 (08:34 +0100)
[ Upstream commit f9d567c75ec216447f36da6e855500023504fa04 ]

There is only one user of __io_req_complete_post(), inline it.

Signed-off-by: Pavel Begunkov <asml.silence@gmail.com>
Link: https://lore.kernel.org/r/ef4c9059950a3da5cf68df00f977f1fd13bd9306.1668597569.git.asml.silence@gmail.com
Signed-off-by: Jens Axboe <axboe@kernel.dk>
Stable-dep-of: ef5c600adb1d ("io_uring: always prep_async for drain requests")
Signed-off-by: Sasha Levin <sashal@kernel.org>
io_uring/io_uring.c
io_uring/io_uring.h

index b4f9707..9b1c917 100644 (file)
@@ -854,19 +854,14 @@ static void __io_req_complete_put(struct io_kiocb *req)
        }
 }
 
-void __io_req_complete_post(struct io_kiocb *req)
-{
-       if (!(req->flags & REQ_F_CQE_SKIP))
-               __io_fill_cqe_req(req->ctx, req);
-       __io_req_complete_put(req);
-}
-
 void io_req_complete_post(struct io_kiocb *req)
 {
        struct io_ring_ctx *ctx = req->ctx;
 
        io_cq_lock(ctx);
-       __io_req_complete_post(req);
+       if (!(req->flags & REQ_F_CQE_SKIP))
+               __io_fill_cqe_req(ctx, req);
+       __io_req_complete_put(req);
        io_cq_unlock_post(ctx);
 }
 
index 56ecc15..0cf544b 100644 (file)
@@ -33,7 +33,6 @@ int io_run_local_work(struct io_ring_ctx *ctx);
 void io_req_complete_failed(struct io_kiocb *req, s32 res);
 void __io_req_complete(struct io_kiocb *req, unsigned issue_flags);
 void io_req_complete_post(struct io_kiocb *req);
-void __io_req_complete_post(struct io_kiocb *req);
 bool io_post_aux_cqe(struct io_ring_ctx *ctx, u64 user_data, s32 res, u32 cflags,
                     bool allow_overflow);
 bool io_fill_cqe_aux(struct io_ring_ctx *ctx, u64 user_data, s32 res, u32 cflags,