sched: Implement smarter wake-affine logic
authorMichael Wang <wangyun@linux.vnet.ibm.com>
Thu, 4 Jul 2013 04:55:51 +0000 (12:55 +0800)
committerIngo Molnar <mingo@kernel.org>
Tue, 23 Jul 2013 10:18:41 +0000 (12:18 +0200)
commit62470419e993f8d9d93db0effd3af4296ecb79a5
tree3702386db7d904f8e5163a812f4d5352bc9b93a1
parent685207963be973fbb73550db6edaf920a283e1a7
sched: Implement smarter wake-affine logic

The wake-affine scheduler feature is currently always trying to pull
the wakee close to the waker. In theory this should be beneficial if
the waker's CPU caches hot data for the wakee, and it's also beneficial
in the extreme ping-pong high context switch rate case.

Testing shows it can benefit hackbench up to 15%.

However, the feature is somewhat blind, from which some workloads
such as pgbench suffer. It's also time-consuming algorithmically.

Testing shows it can damage pgbench up to 50% - far more than the
benefit it brings in the best case.

So wake-affine should be smarter and it should realize when to
stop its thankless effort at trying to find a suitable CPU to wake on.

This patch introduces 'wakee_flips', which will be increased each
time the task flips (switches) its wakee target.

So a high 'wakee_flips' value means the task has more than one
wakee, and the bigger the number, the higher the wakeup frequency.

Now when making the decision on whether to pull or not, pay attention to
the wakee with a high 'wakee_flips', pulling such a task may benefit
the wakee. Also imply that the waker will face cruel competition later,
it could be very cruel or very fast depends on the story behind
'wakee_flips', waker therefore suffers.

Furthermore, if waker also has a high 'wakee_flips', that implies that
multiple tasks rely on it, then waker's higher latency will damage all
of them, so pulling wakee seems to be a bad deal.

Thus, when 'waker->wakee_flips / wakee->wakee_flips' becomes
higher and higher, the cost of pulling seems to be worse and worse.

The patch therefore helps the wake-affine feature to stop its pulling
work when:

wakee->wakee_flips > factor &&
waker->wakee_flips > (factor * wakee->wakee_flips)

The 'factor' here is the number of CPUs in the current CPU's NUMA node,
so a bigger node will lead to more pulling since the trial becomes more
severe.

After applying the patch, pgbench shows up to 40% improvements and no regressions.

Tested with 12 cpu x86 server and tip 3.10.0-rc7.

The percentages in the final column highlight the areas with the biggest wins,
all other areas improved as well:

pgbench     base smart

| db_size | clients |  tps  | |  tps  |
+---------+---------+-------+   +-------+
| 22 MB   |       1 | 10598 |   | 10796 |
| 22 MB   |       2 | 21257 |   | 21336 |
| 22 MB   |       4 | 41386 |   | 41622 |
| 22 MB   |       8 | 51253 |   | 57932 |
| 22 MB   |      12 | 48570 |   | 54000 |
| 22 MB   |      16 | 46748 |   | 55982 | +19.75%
| 22 MB   |      24 | 44346 |   | 55847 | +25.93%
| 22 MB   |      32 | 43460 |   | 54614 | +25.66%
| 7484 MB |       1 |  8951 |   |  9193 |
| 7484 MB |       2 | 19233 |   | 19240 |
| 7484 MB |       4 | 37239 |   | 37302 |
| 7484 MB |       8 | 46087 |   | 50018 |
| 7484 MB |      12 | 42054 |   | 48763 |
| 7484 MB |      16 | 40765 |   | 51633 | +26.66%
| 7484 MB |      24 | 37651 |   | 52377 | +39.11%
| 7484 MB |      32 | 37056 |   | 51108 | +37.92%
| 15 GB   |       1 |  8845 |   |  9104 |
| 15 GB   |       2 | 19094 |   | 19162 |
| 15 GB   |       4 | 36979 |   | 36983 |
| 15 GB   |       8 | 46087 |   | 49977 |
| 15 GB   |      12 | 41901 |   | 48591 |
| 15 GB   |      16 | 40147 |   | 50651 | +26.16%
| 15 GB   |      24 | 37250 |   | 52365 | +40.58%
| 15 GB   |      32 | 36470 |   | 50015 | +37.14%

Signed-off-by: Michael Wang <wangyun@linux.vnet.ibm.com>
Cc: Mike Galbraith <efault@gmx.de>
Signed-off-by: Peter Zijlstra <peterz@infradead.org>
Link: http://lkml.kernel.org/r/51D50057.9000809@linux.vnet.ibm.com
[ Improved the changelog. ]
Signed-off-by: Ingo Molnar <mingo@kernel.org>
include/linux/sched.h
kernel/sched/fair.c