timer: honor arch-specific TSC frequency query
[dpdk.git] / lib / librte_port / rte_port_sched.c
index 2107f4c..9100a19 100644 (file)
 /*
  * Reader
  */
+#ifdef RTE_PORT_STATS_COLLECT
+
+#define RTE_PORT_SCHED_READER_PKTS_IN_ADD(port, val) \
+       port->stats.n_pkts_in += val
+#define RTE_PORT_SCHED_READER_PKTS_DROP_ADD(port, val) \
+       port->stats.n_pkts_drop += val
+
+#else
+
+#define RTE_PORT_SCHED_READER_PKTS_IN_ADD(port, val)
+#define RTE_PORT_SCHED_READER_PKTS_DROP_ADD(port, val)
+
+#endif
+
 struct rte_port_sched_reader {
+       struct rte_port_in_stats stats;
+
        struct rte_sched_port *sched;
 };
 
@@ -48,7 +64,7 @@ static void *
 rte_port_sched_reader_create(void *params, int socket_id)
 {
        struct rte_port_sched_reader_params *conf =
-                       (struct rte_port_sched_reader_params *) params;
+                       params;
        struct rte_port_sched_reader *port;
 
        /* Check input parameters */
@@ -75,9 +91,13 @@ rte_port_sched_reader_create(void *params, int socket_id)
 static int
 rte_port_sched_reader_rx(void *port, struct rte_mbuf **pkts, uint32_t n_pkts)
 {
-       struct rte_port_sched_reader *p = (struct rte_port_sched_reader *) port;
+       struct rte_port_sched_reader *p = port;
+       uint32_t nb_rx;
 
-       return rte_sched_port_dequeue(p->sched, pkts, n_pkts);
+       nb_rx = rte_sched_port_dequeue(p->sched, pkts, n_pkts);
+       RTE_PORT_SCHED_READER_PKTS_IN_ADD(p, nb_rx);
+
+       return nb_rx;
 }
 
 static int
@@ -93,10 +113,42 @@ rte_port_sched_reader_free(void *port)
        return 0;
 }
 
+static int
+rte_port_sched_reader_stats_read(void *port,
+               struct rte_port_in_stats *stats, int clear)
+{
+       struct rte_port_sched_reader *p =
+               port;
+
+       if (stats != NULL)
+               memcpy(stats, &p->stats, sizeof(p->stats));
+
+       if (clear)
+               memset(&p->stats, 0, sizeof(p->stats));
+
+       return 0;
+}
+
 /*
  * Writer
  */
+#ifdef RTE_PORT_STATS_COLLECT
+
+#define RTE_PORT_SCHED_WRITER_STATS_PKTS_IN_ADD(port, val) \
+       port->stats.n_pkts_in += val
+#define RTE_PORT_SCHED_WRITER_STATS_PKTS_DROP_ADD(port, val) \
+       port->stats.n_pkts_drop += val
+
+#else
+
+#define RTE_PORT_SCHED_WRITER_STATS_PKTS_IN_ADD(port, val)
+#define RTE_PORT_SCHED_WRITER_STATS_PKTS_DROP_ADD(port, val)
+
+#endif
+
 struct rte_port_sched_writer {
+       struct rte_port_out_stats stats;
+
        struct rte_mbuf *tx_buf[2 * RTE_PORT_IN_BURST_SIZE_MAX];
        struct rte_sched_port *sched;
        uint32_t tx_burst_sz;
@@ -108,7 +160,7 @@ static void *
 rte_port_sched_writer_create(void *params, int socket_id)
 {
        struct rte_port_sched_writer_params *conf =
-                       (struct rte_port_sched_writer_params *) params;
+                       params;
        struct rte_port_sched_writer *port;
 
        /* Check input parameters */
@@ -144,8 +196,12 @@ rte_port_sched_writer_tx(void *port, struct rte_mbuf *pkt)
        struct rte_port_sched_writer *p = (struct rte_port_sched_writer *) port;
 
        p->tx_buf[p->tx_buf_count++] = pkt;
+       RTE_PORT_SCHED_WRITER_STATS_PKTS_IN_ADD(p, 1);
        if (p->tx_buf_count >= p->tx_burst_sz) {
-               rte_sched_port_enqueue(p->sched, p->tx_buf, p->tx_buf_count);
+               __rte_unused uint32_t nb_tx;
+
+               nb_tx = rte_sched_port_enqueue(p->sched, p->tx_buf, p->tx_buf_count);
+               RTE_PORT_SCHED_WRITER_STATS_PKTS_DROP_ADD(p, p->tx_buf_count - nb_tx);
                p->tx_buf_count = 0;
        }
 
@@ -158,21 +214,24 @@ rte_port_sched_writer_tx_bulk(void *port,
                uint64_t pkts_mask)
 {
        struct rte_port_sched_writer *p = (struct rte_port_sched_writer *) port;
-       uint32_t bsz_mask = p->bsz_mask;
+       uint64_t bsz_mask = p->bsz_mask;
        uint32_t tx_buf_count = p->tx_buf_count;
        uint64_t expr = (pkts_mask & (pkts_mask + 1)) |
                        ((pkts_mask & bsz_mask) ^ bsz_mask);
 
        if (expr == 0) {
+               __rte_unused uint32_t nb_tx;
                uint64_t n_pkts = __builtin_popcountll(pkts_mask);
 
                if (tx_buf_count) {
-                       rte_sched_port_enqueue(p->sched, p->tx_buf,
+                       nb_tx = rte_sched_port_enqueue(p->sched, p->tx_buf,
                                tx_buf_count);
+                       RTE_PORT_SCHED_WRITER_STATS_PKTS_DROP_ADD(p, tx_buf_count - nb_tx);
                        p->tx_buf_count = 0;
                }
 
-               rte_sched_port_enqueue(p->sched, pkts, n_pkts);
+               nb_tx = rte_sched_port_enqueue(p->sched, pkts, n_pkts);
+               RTE_PORT_SCHED_WRITER_STATS_PKTS_DROP_ADD(p, n_pkts - nb_tx);
        } else {
                for ( ; pkts_mask; ) {
                        uint32_t pkt_index = __builtin_ctzll(pkts_mask);
@@ -180,13 +239,17 @@ rte_port_sched_writer_tx_bulk(void *port,
                        struct rte_mbuf *pkt = pkts[pkt_index];
 
                        p->tx_buf[tx_buf_count++] = pkt;
+                       RTE_PORT_SCHED_WRITER_STATS_PKTS_IN_ADD(p, 1);
                        pkts_mask &= ~pkt_mask;
                }
                p->tx_buf_count = tx_buf_count;
 
                if (tx_buf_count >= p->tx_burst_sz) {
-                       rte_sched_port_enqueue(p->sched, p->tx_buf,
+                       __rte_unused uint32_t nb_tx;
+
+                       nb_tx = rte_sched_port_enqueue(p->sched, p->tx_buf,
                                tx_buf_count);
+                       RTE_PORT_SCHED_WRITER_STATS_PKTS_DROP_ADD(p, tx_buf_count - nb_tx);
                        p->tx_buf_count = 0;
                }
        }
@@ -200,7 +263,10 @@ rte_port_sched_writer_flush(void *port)
        struct rte_port_sched_writer *p = (struct rte_port_sched_writer *) port;
 
        if (p->tx_buf_count) {
-               rte_sched_port_enqueue(p->sched, p->tx_buf, p->tx_buf_count);
+               __rte_unused uint32_t nb_tx;
+
+               nb_tx = rte_sched_port_enqueue(p->sched, p->tx_buf, p->tx_buf_count);
+               RTE_PORT_SCHED_WRITER_STATS_PKTS_DROP_ADD(p, p->tx_buf_count - nb_tx);
                p->tx_buf_count = 0;
        }
 
@@ -221,6 +287,22 @@ rte_port_sched_writer_free(void *port)
        return 0;
 }
 
+static int
+rte_port_sched_writer_stats_read(void *port,
+               struct rte_port_out_stats *stats, int clear)
+{
+       struct rte_port_sched_writer *p =
+               port;
+
+       if (stats != NULL)
+               memcpy(stats, &p->stats, sizeof(p->stats));
+
+       if (clear)
+               memset(&p->stats, 0, sizeof(p->stats));
+
+       return 0;
+}
+
 /*
  * Summary of port operations
  */
@@ -228,6 +310,7 @@ struct rte_port_in_ops rte_port_sched_reader_ops = {
        .f_create = rte_port_sched_reader_create,
        .f_free = rte_port_sched_reader_free,
        .f_rx = rte_port_sched_reader_rx,
+       .f_stats = rte_port_sched_reader_stats_read,
 };
 
 struct rte_port_out_ops rte_port_sched_writer_ops = {
@@ -236,4 +319,5 @@ struct rte_port_out_ops rte_port_sched_writer_ops = {
        .f_tx = rte_port_sched_writer_tx,
        .f_tx_bulk = rte_port_sched_writer_tx_bulk,
        .f_flush = rte_port_sched_writer_flush,
+       .f_stats = rte_port_sched_writer_stats_read,
 };