net/netvsc: exhausting Tx descriptors is not an error
authorStephen Hemminger <sthemmin@microsoft.com>
Thu, 30 Aug 2018 22:35:10 +0000 (15:35 -0700)
committerFerruh Yigit <ferruh.yigit@intel.com>
Fri, 14 Sep 2018 18:08:41 +0000 (20:08 +0200)
If application sends faster than vswitch can keep up, then the
transmit descriptor pool will be exhausted. This is not a failure
so change the name statistic and don't include it in oerrors.

Signed-off-by: Stephen Hemminger <sthemmin@microsoft.com>
drivers/net/netvsc/hn_ethdev.c
drivers/net/netvsc/hn_rxtx.c
drivers/net/netvsc/hn_var.h

index e61ff43..764b8d8 100644 (file)
@@ -56,7 +56,7 @@ static const struct hn_xstats_name_off hn_stat_strings[] = {
        { "good_packets",           offsetof(struct hn_stats, packets) },
        { "good_bytes",             offsetof(struct hn_stats, bytes) },
        { "errors",                 offsetof(struct hn_stats, errors) },
-       { "allocation_failed",      offsetof(struct hn_stats, nomemory) },
+       { "ring full",              offsetof(struct hn_stats, ring_full) },
        { "multicast_packets",      offsetof(struct hn_stats, multicast) },
        { "broadcast_packets",      offsetof(struct hn_stats, broadcast) },
        { "undersize_packets",      offsetof(struct hn_stats, size_bins[0]) },
@@ -406,7 +406,7 @@ static int hn_dev_stats_get(struct rte_eth_dev *dev,
 
                stats->opackets += txq->stats.packets;
                stats->obytes += txq->stats.bytes;
-               stats->oerrors += txq->stats.errors + txq->stats.nomemory;
+               stats->oerrors += txq->stats.errors;
 
                if (i < RTE_ETHDEV_QUEUE_STAT_CNTRS) {
                        stats->q_opackets[i] = txq->stats.packets;
@@ -423,7 +423,7 @@ static int hn_dev_stats_get(struct rte_eth_dev *dev,
                stats->ipackets += rxq->stats.packets;
                stats->ibytes += rxq->stats.bytes;
                stats->ierrors += rxq->stats.errors;
-               stats->imissed += rxq->ring_full;
+               stats->imissed += rxq->stats.ring_full;
 
                if (i < RTE_ETHDEV_QUEUE_STAT_CNTRS) {
                        stats->q_ipackets[i] = rxq->stats.packets;
@@ -457,7 +457,6 @@ hn_dev_stats_reset(struct rte_eth_dev *dev)
                        continue;
 
                memset(&rxq->stats, 0, sizeof(struct hn_stats));
-               rxq->ring_full = 0;
        }
 }
 
index cb5bc60..92de5d0 100644 (file)
@@ -534,7 +534,7 @@ static void hn_rxpkt(struct hn_rx_queue *rxq, struct hn_rx_bufinfo *rxb,
        hn_update_packet_stats(&rxq->stats, m);
 
        if (unlikely(rte_ring_sp_enqueue(rxq->rx_ring, m) != 0)) {
-               ++rxq->ring_full;
+               ++rxq->stats.ring_full;
                rte_pktmbuf_free(m);
        }
 }
@@ -1007,7 +1007,7 @@ static struct hn_txdesc *hn_new_txd(struct hn_data *hv,
        struct hn_txdesc *txd;
 
        if (rte_mempool_get(hv->tx_pool, (void **)&txd)) {
-               ++txq->stats.nomemory;
+               ++txq->stats.ring_full;
                PMD_TX_LOG(DEBUG, "tx pool exhausted!");
                return NULL;
        }
index f188f63..ff72256 100644 (file)
@@ -39,7 +39,7 @@ struct hn_stats {
        uint64_t        packets;
        uint64_t        bytes;
        uint64_t        errors;
-       uint64_t        nomemory;
+       uint64_t        ring_full;
        uint64_t        multicast;
        uint64_t        broadcast;
        /* Size bins in array as RFC 2819, undersized [0], 64 [1], etc */
@@ -78,7 +78,6 @@ struct hn_rx_queue {
        uint16_t port_id;
        uint16_t queue_id;
        struct hn_stats stats;
-       uint64_t ring_full;
 
        void *event_buf;
 };