io_uring: move io_eventfd_signal()
[platform/kernel/linux-starfive.git] / io_uring / io_uring.c
index efad2d9..61d4e6d 100644 (file)
@@ -142,8 +142,6 @@ static void io_queue_sqe(struct io_kiocb *req);
 
 static void __io_submit_flush_completions(struct io_ring_ctx *ctx);
 
-static void io_eventfd_signal(struct io_ring_ctx *ctx);
-
 static struct kmem_cache *req_cachep;
 
 struct sock *io_uring_get_socket(struct file *file)
@@ -472,20 +470,6 @@ static __cold void io_queue_deferred(struct io_ring_ctx *ctx)
        }
 }
 
-void __io_commit_cqring_flush(struct io_ring_ctx *ctx)
-{
-       if (ctx->off_timeout_used || ctx->drain_active) {
-               spin_lock(&ctx->completion_lock);
-               if (ctx->off_timeout_used)
-                       io_flush_timeouts(ctx);
-               if (ctx->drain_active)
-                       io_queue_deferred(ctx);
-               spin_unlock(&ctx->completion_lock);
-       }
-       if (ctx->has_evfd)
-               io_eventfd_signal(ctx);
-}
-
 static void io_eventfd_signal(struct io_ring_ctx *ctx)
 {
        struct io_ev_fd *ev_fd;
@@ -513,6 +497,20 @@ out:
        rcu_read_unlock();
 }
 
+void __io_commit_cqring_flush(struct io_ring_ctx *ctx)
+{
+       if (ctx->off_timeout_used || ctx->drain_active) {
+               spin_lock(&ctx->completion_lock);
+               if (ctx->off_timeout_used)
+                       io_flush_timeouts(ctx);
+               if (ctx->drain_active)
+                       io_queue_deferred(ctx);
+               spin_unlock(&ctx->completion_lock);
+       }
+       if (ctx->has_evfd)
+               io_eventfd_signal(ctx);
+}
+
 /*
  * This should only get called when at least one event has been posted.
  * Some applications rely on the eventfd notification count only changing