Merge branch 'net-sched-fast-stats'
authorDavid S. Miller <davem@davemloft.net>
Tue, 7 Jun 2016 23:37:14 +0000 (16:37 -0700)
committerDavid S. Miller <davem@davemloft.net>
Tue, 7 Jun 2016 23:37:14 +0000 (16:37 -0700)
commit34fe76abbea5174e532681e420fb31139909efb4
tree1f241506d6b781b65d1033925f1c1ce6a39c3394
parent64151ae36ed93c45654069c8aff2a7f0125075e8
parentedb09eb17ed89eaa82a52dd306beac93e292b485
Merge branch 'net-sched-fast-stats'

Eric Dumazet says:

====================
net: sched: faster stats gathering

A while back, I sent one RFC patch using lockless stats gathering
on 64bit arches.

This patch series does it more cleanly, using a seqcount.

Since qdisc/class stats are written at dequeue() time,
we can ask the dequeue to change the seqcount, so that
stats readers can avoid taking the root qdisc lock,
and instead the typical read_seqcount_{begin|retry} guarded
loop.

This does not change fast path costs, as the seqcount
increments are not more expensive than the bit manipulation,
and allows readers to not freeze the fast path anymore.
====================

Signed-off-by: David S. Miller <davem@davemloft.net>