RDMA/ucma: Allow tuning the max listen backlog
authorSteve Wise <swise@opengridcomputing.com>
Fri, 13 Aug 2010 20:56:34 +0000 (20:56 +0000)
committerRoland Dreier <rolandd@cisco.com>
Sat, 23 Oct 2010 20:41:40 +0000 (13:41 -0700)
commit97cb7e40c69618ba03030b467faf60dc3ee982ee
tree89a355ff5a86a2c2f544a23d1f77b7361263d165
parent252a52aa4fa22a668f019e55b3aac3ff71ec1c29
RDMA/ucma: Allow tuning the max listen backlog

For iWARP connections, the connect request is carried in a TCP payload
on an already established TCP connection.  So if the ucma's backlog is
full, the connection request is transmitted and acked at the TCP level
by the time the connect request gets dropped in the ucma.  The end
result is the connection gets rejected by the iWARP provider.
Further, a 32 node 256NP OpenMPI job will generate > 128 connect
requests on some ranks.

This patch increases the default max backlog to 1024, and adds a
sysctl variable so the backlog can be adjusted at run time.

Signed-off-by: Steve Wise <swise@opengridcomputing.com>
Signed-off-by: Roland Dreier <rolandd@cisco.com>
drivers/infiniband/core/ucma.c