ath10k: fix throughput regression in multi client mode
authorRajkumar Manoharan <rmanohar@qti.qualcomm.com>
Fri, 2 Sep 2016 16:46:10 +0000 (19:46 +0300)
committerKalle Valo <kvalo@qca.qualcomm.com>
Fri, 9 Sep 2016 12:07:11 +0000 (15:07 +0300)
commit 7a0adc83f34d ("ath10k: improve tx scheduling") is causing
severe throughput drop in multi client mode. This issue is originally
reported in veriwave setup with 50 clients with TCP downlink traffic.
While increasing number of clients, the average throughput drops
gradually. With 50 clients, the combined peak throughput is decreased
to 98 Mbps whereas reverting given commit restored it to 550 Mbps.

Processing txqs for every tx completion is causing overhead. Ideally for
management frame tx completion, pending txqs processing can be avoided.
The change partly reverts the commit "ath10k: improve tx scheduling".
Processing pending txqs after all skbs tx completion will yeild enough
room to burst tx frames.

Fixes: 7a0adc83f34d ("ath10k: improve tx scheduling")
Signed-off-by: Rajkumar Manoharan <rmanohar@qti.qualcomm.com>
Signed-off-by: Kalle Valo <kvalo@qca.qualcomm.com>
drivers/net/wireless/ath/ath10k/htt_rx.c
drivers/net/wireless/ath/ath10k/txrx.c

index 740b0fa..2067ac2 100644 (file)
@@ -2445,6 +2445,8 @@ int ath10k_htt_txrx_compl_task(struct ath10k *ar, int budget)
        while (kfifo_get(&htt->txdone_fifo, &tx_done))
                ath10k_txrx_tx_unref(htt, &tx_done);
 
+       ath10k_mac_tx_push_pending(ar);
+
        spin_lock_irqsave(&htt->tx_fetch_ind_q.lock, flags);
        skb_queue_splice_init(&htt->tx_fetch_ind_q, &tx_ind_q);
        spin_unlock_irqrestore(&htt->tx_fetch_ind_q.lock, flags);
index 1e695d1..9852c5d 100644 (file)
@@ -119,8 +119,6 @@ int ath10k_txrx_tx_unref(struct ath10k_htt *htt,
        ieee80211_tx_status(htt->ar->hw, msdu);
        /* we do not own the msdu anymore */
 
-       ath10k_mac_tx_push_pending(ar);
-
        return 0;
 }