app/testpmd: allocate txonly segments per bulk
[dpdk.git] / app / test-pmd / txonly.c
index db8f37a..65171c1 100644 (file)
@@ -1,34 +1,5 @@
-/*-
- *   BSD LICENSE
- *
- *   Copyright(c) 2010-2014 Intel Corporation. All rights reserved.
- *   All rights reserved.
- *
- *   Redistribution and use in source and binary forms, with or without
- *   modification, are permitted provided that the following conditions
- *   are met:
- *
- *     * Redistributions of source code must retain the above copyright
- *       notice, this list of conditions and the following disclaimer.
- *     * Redistributions in binary form must reproduce the above copyright
- *       notice, this list of conditions and the following disclaimer in
- *       the documentation and/or other materials provided with the
- *       distribution.
- *     * Neither the name of Intel Corporation nor the names of its
- *       contributors may be used to endorse or promote products derived
- *       from this software without specific prior written permission.
- *
- *   THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
- *   "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
- *   LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
- *   A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
- *   OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
- *   SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
- *   LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
- *   DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
- *   THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
- *   (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
- *   OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
+/* SPDX-License-Identifier: BSD-3-Clause
+ * Copyright(c) 2010-2014 Intel Corporation
  */
 
 #include <stdarg.h>
 #include <rte_cycles.h>
 #include <rte_memory.h>
 #include <rte_memcpy.h>
-#include <rte_memzone.h>
 #include <rte_launch.h>
 #include <rte_eal.h>
 #include <rte_per_lcore.h>
 #include <rte_lcore.h>
 #include <rte_atomic.h>
 #include <rte_branch_prediction.h>
-#include <rte_ring.h>
-#include <rte_memory.h>
 #include <rte_mempool.h>
 #include <rte_mbuf.h>
-#include <rte_memcpy.h>
 #include <rte_interrupts.h>
 #include <rte_pci.h>
 #include <rte_ether.h>
@@ -69,6 +36,7 @@
 #include <rte_tcp.h>
 #include <rte_udp.h>
 #include <rte_string_fns.h>
+#include <rte_flow.h>
 
 #include "testpmd.h"
 
 #define IP_VHL_DEF (IP_VERSION | IP_HDRLEN)
 
 static struct ipv4_hdr  pkt_ip_hdr;  /**< IP header of transmitted packets. */
+RTE_DEFINE_PER_LCORE(uint8_t, _ip_var); /**< IP address variation */
 static struct udp_hdr pkt_udp_hdr; /**< UDP header of transmitted packets. */
 
-static inline struct rte_mbuf *
-tx_mbuf_alloc(struct rte_mempool *mp)
-{
-       struct rte_mbuf *m;
-
-       m = __rte_mbuf_raw_alloc(mp);
-       __rte_mbuf_sanity_check_raw(m, 0);
-       return (m);
-}
-
 static void
 copy_buf_to_pkt_segs(void* buf, unsigned len, struct rte_mbuf *pkt,
                     unsigned offset)
@@ -117,6 +76,7 @@ copy_buf_to_pkt_segs(void* buf, unsigned len, struct rte_mbuf *pkt,
                buf = ((char*) buf + copy_len);
                seg = seg->next;
                seg_buf = rte_pktmbuf_mtod(seg, char *);
+               copy_len = seg->data_len;
        }
        rte_memcpy(seg_buf, buf, (size_t) len);
 }
@@ -195,6 +155,7 @@ static void
 pkt_burst_transmit(struct fwd_stream *fs)
 {
        struct rte_mbuf *pkts_burst[MAX_PKT_BURST];
+       struct rte_mbuf *pkt_segs[RTE_MAX_SEGS_PER_PKT];
        struct rte_port *txp;
        struct rte_mbuf *pkt;
        struct rte_mbuf *pkt_seg;
@@ -203,13 +164,17 @@ pkt_burst_transmit(struct fwd_stream *fs)
        uint16_t nb_tx;
        uint16_t nb_pkt;
        uint16_t vlan_tci, vlan_tci_outer;
+       uint32_t retry;
        uint64_t ol_flags = 0;
+       uint8_t  ip_var = RTE_PER_LCORE(_ip_var);
        uint8_t  i;
+       uint64_t tx_offloads;
 #ifdef RTE_TEST_PMD_RECORD_CORE_CYCLES
        uint64_t start_tsc;
        uint64_t end_tsc;
        uint64_t core_cycles;
 #endif
+       uint32_t nb_segs, pkt_len;
 
 #ifdef RTE_TEST_PMD_RECORD_CORE_CYCLES
        start_tsc = rte_rdtsc();
@@ -217,47 +182,87 @@ pkt_burst_transmit(struct fwd_stream *fs)
 
        mbp = current_fwd_lcore()->mbp;
        txp = &ports[fs->tx_port];
+       tx_offloads = txp->dev_conf.txmode.offloads;
        vlan_tci = txp->tx_vlan_id;
        vlan_tci_outer = txp->tx_vlan_id_outer;
-       if (txp->tx_ol_flags & TESTPMD_TX_OFFLOAD_INSERT_VLAN)
+       if (tx_offloads & DEV_TX_OFFLOAD_VLAN_INSERT)
                ol_flags = PKT_TX_VLAN_PKT;
-       if (txp->tx_ol_flags & TESTPMD_TX_OFFLOAD_INSERT_QINQ)
+       if (tx_offloads & DEV_TX_OFFLOAD_QINQ_INSERT)
                ol_flags |= PKT_TX_QINQ_PKT;
+       if (tx_offloads & DEV_TX_OFFLOAD_MACSEC_INSERT)
+               ol_flags |= PKT_TX_MACSEC;
+
+       /*
+        * Initialize Ethernet header.
+        */
+       ether_addr_copy(&peer_eth_addrs[fs->peer_addr], &eth_hdr.d_addr);
+       ether_addr_copy(&ports[fs->tx_port].eth_addr, &eth_hdr.s_addr);
+       eth_hdr.ether_type = rte_cpu_to_be_16(ETHER_TYPE_IPv4);
+
        for (nb_pkt = 0; nb_pkt < nb_pkt_per_burst; nb_pkt++) {
-               pkt = tx_mbuf_alloc(mbp);
+               pkt = rte_mbuf_raw_alloc(mbp);
                if (pkt == NULL) {
                nomore_mbuf:
                        if (nb_pkt == 0)
                                return;
                        break;
                }
+
+               /*
+                * Using raw alloc is good to improve performance,
+                * but some consumers may use the headroom and so
+                * decrement data_off. We need to make sure it is
+                * reset to default value.
+                */
+               rte_pktmbuf_reset_headroom(pkt);
                pkt->data_len = tx_pkt_seg_lengths[0];
                pkt_seg = pkt;
-               for (i = 1; i < tx_pkt_nb_segs; i++) {
-                       pkt_seg->next = tx_mbuf_alloc(mbp);
-                       if (pkt_seg->next == NULL) {
-                               pkt->nb_segs = i;
+
+               if (tx_pkt_split == TX_PKT_SPLIT_RND)
+                       nb_segs = random() % tx_pkt_nb_segs + 1;
+               else
+                       nb_segs = tx_pkt_nb_segs;
+
+               if (nb_segs > 1) {
+                       if (rte_mempool_get_bulk(mbp, (void **)pkt_segs,
+                                                       nb_segs)) {
                                rte_pktmbuf_free(pkt);
                                goto nomore_mbuf;
                        }
+               }
+
+               pkt_len = pkt->data_len;
+               for (i = 1; i < nb_segs; i++) {
+                       pkt_seg->next = pkt_segs[i - 1];
                        pkt_seg = pkt_seg->next;
                        pkt_seg->data_len = tx_pkt_seg_lengths[i];
+                       pkt_len += pkt_seg->data_len;
                }
                pkt_seg->next = NULL; /* Last segment of packet. */
 
-               /*
-                * Initialize Ethernet header.
-                */
-               ether_addr_copy(&peer_eth_addrs[fs->peer_addr],&eth_hdr.d_addr);
-               ether_addr_copy(&ports[fs->tx_port].eth_addr, &eth_hdr.s_addr);
-               eth_hdr.ether_type = rte_cpu_to_be_16(ETHER_TYPE_IPv4);
-
                /*
                 * Copy headers in first packet segment(s).
                 */
                copy_buf_to_pkt(&eth_hdr, sizeof(eth_hdr), pkt, 0);
                copy_buf_to_pkt(&pkt_ip_hdr, sizeof(pkt_ip_hdr), pkt,
                                sizeof(struct ether_hdr));
+               if (txonly_multi_flow) {
+                       struct ipv4_hdr *ip_hdr;
+                       uint32_t addr;
+
+                       ip_hdr = rte_pktmbuf_mtod_offset(pkt,
+                                       struct ipv4_hdr *,
+                                       sizeof(struct ether_hdr));
+                       /*
+                        * Generate multiple flows by varying IP src addr. This
+                        * enables packets are well distributed by RSS in
+                        * receiver side if any and txonly mode can be a decent
+                        * packet generator for developer's quick performance
+                        * regression test.
+                        */
+                       addr = (IP_DST_ADDR | (ip_var++ << 8)) + rte_lcore_id();
+                       ip_hdr->src_addr = rte_cpu_to_be_32(addr);
+               }
                copy_buf_to_pkt(&pkt_udp_hdr, sizeof(pkt_udp_hdr), pkt,
                                sizeof(struct ether_hdr) +
                                sizeof(struct ipv4_hdr));
@@ -266,8 +271,8 @@ pkt_burst_transmit(struct fwd_stream *fs)
                 * Complete first mbuf of packet and append it to the
                 * burst of packets to be transmitted.
                 */
-               pkt->nb_segs = tx_pkt_nb_segs;
-               pkt->pkt_len = tx_pkt_length;
+               pkt->nb_segs = nb_segs;
+               pkt->pkt_len = pkt_len;
                pkt->ol_flags = ol_flags;
                pkt->vlan_tci = vlan_tci;
                pkt->vlan_tci_outer = vlan_tci_outer;
@@ -276,8 +281,22 @@ pkt_burst_transmit(struct fwd_stream *fs)
                pkts_burst[nb_pkt] = pkt;
        }
        nb_tx = rte_eth_tx_burst(fs->tx_port, fs->tx_queue, pkts_burst, nb_pkt);
+       /*
+        * Retry if necessary
+        */
+       if (unlikely(nb_tx < nb_pkt) && fs->retry_enabled) {
+               retry = 0;
+               while (nb_tx < nb_pkt && retry++ < burst_tx_retry_num) {
+                       rte_delay_us(burst_tx_delay_time);
+                       nb_tx += rte_eth_tx_burst(fs->tx_port, fs->tx_queue,
+                                       &pkts_burst[nb_tx], nb_pkt - nb_tx);
+               }
+       }
        fs->tx_packets += nb_tx;
 
+       if (txonly_multi_flow)
+               RTE_PER_LCORE(_ip_var) += nb_tx;
+
 #ifdef RTE_TEST_PMD_RECORD_BURST_STATS
        fs->tx_burst_stats.pkt_burst_spread[nb_tx]++;
 #endif