Merge branch 'sched/warnings' into sched/core, to pick up WARN_ON_ONCE() conversion...
[platform/kernel/linux-rpi.git] / kernel / sched / fair.c
index e8c1b88..efceb67 100644 (file)
@@ -2596,7 +2596,7 @@ static void task_numa_group(struct task_struct *p, int cpupid, int flags,
        if (!join)
                return;
 
-       BUG_ON(irqs_disabled());
+       WARN_ON_ONCE(irqs_disabled());
        double_lock_irq(&my_grp->lock, &grp->lock);
 
        for (i = 0; i < NR_NUMA_HINT_FAULT_STATS * nr_node_ids; i++) {
@@ -7280,7 +7280,7 @@ static void check_preempt_wakeup(struct rq *rq, struct task_struct *p, int wake_
                return;
 
        find_matching_se(&se, &pse);
-       BUG_ON(!pse);
+       WARN_ON_ONCE(!pse);
 
        cse_is_idle = se_is_idle(se);
        pse_is_idle = se_is_idle(pse);
@@ -8160,7 +8160,7 @@ static void attach_task(struct rq *rq, struct task_struct *p)
 {
        lockdep_assert_rq_held(rq);
 
-       BUG_ON(task_rq(p) != rq);
+       WARN_ON_ONCE(task_rq(p) != rq);
        activate_task(rq, p, ENQUEUE_NOCLOCK);
        check_preempt_curr(rq, p, 0);
 }
@@ -10135,7 +10135,7 @@ redo:
                goto out_balanced;
        }
 
-       BUG_ON(busiest == env.dst_rq);
+       WARN_ON_ONCE(busiest == env.dst_rq);
 
        schedstat_add(sd->lb_imbalance[idle], env.imbalance);
 
@@ -10431,7 +10431,7 @@ static int active_load_balance_cpu_stop(void *data)
         * we need to fix it. Originally reported by
         * Bjorn Helgaas on a 128-CPU setup.
         */
-       BUG_ON(busiest_rq == target_rq);
+       WARN_ON_ONCE(busiest_rq == target_rq);
 
        /* Search for an sd spanning us and the target CPU. */
        rcu_read_lock();