]> git.droids-corp.org - dpdk.git/commitdiff
mbuf: mark old VLAN offload flags as deprecated
authorOlivier Matz <olivier.matz@6wind.com>
Fri, 15 Oct 2021 19:24:06 +0000 (21:24 +0200)
committerDavid Marchand <david.marchand@redhat.com>
Sun, 24 Oct 2021 11:30:40 +0000 (13:30 +0200)
The flags PKT_TX_VLAN_PKT and PKT_TX_QINQ_PKT are
marked as deprecated since commit 380a7aab1ae2 ("mbuf: rename deprecated
VLAN flags") (2017). But they were not using the RTE_DEPRECATED
macro, because it did not exist at this time. Add it, and replace
usage of these flags.

Signed-off-by: Olivier Matz <olivier.matz@6wind.com>
Acked-by: Andrew Rybchenko <andrew.rybchenko@oktetlabs.ru>
Acked-by: Ajit Khaparde <ajit.khaparde@broadcom.com>
35 files changed:
app/test-pmd/flowgen.c
app/test-pmd/macfwd.c
app/test-pmd/txonly.c
drivers/net/af_packet/rte_eth_af_packet.c
drivers/net/avp/avp_ethdev.c
drivers/net/axgbe/axgbe_rxtx.c
drivers/net/bnx2x/bnx2x.c
drivers/net/bnxt/bnxt_txr.c
drivers/net/cxgbe/sge.c
drivers/net/dpaa2/dpaa2_rxtx.c
drivers/net/e1000/em_rxtx.c
drivers/net/e1000/igb_rxtx.c
drivers/net/fm10k/fm10k_rxtx.c
drivers/net/hinic/hinic_pmd_tx.c
drivers/net/hns3/hns3_rxtx.c
drivers/net/i40e/i40e_rxtx.c
drivers/net/iavf/iavf_rxtx.c
drivers/net/iavf/iavf_rxtx.h
drivers/net/igc/igc_txrx.c
drivers/net/ionic/ionic_rxtx.c
drivers/net/ixgbe/ixgbe_rxtx.c
drivers/net/mlx5/mlx5_tx.h
drivers/net/netvsc/hn_rxtx.c
drivers/net/nfp/nfp_rxtx.c
drivers/net/qede/qede_rxtx.c
drivers/net/qede/qede_rxtx.h
drivers/net/sfc/sfc_ef100_tx.c
drivers/net/sfc/sfc_ef10_tx.c
drivers/net/sfc/sfc_tx.c
drivers/net/txgbe/txgbe_rxtx.c
drivers/net/vhost/rte_eth_vhost.c
drivers/net/virtio/virtio_rxtx.c
drivers/net/vmxnet3/vmxnet3_rxtx.c
examples/vhost/main.c
lib/mbuf/rte_mbuf_core.h

index 03d026dec1693c3c588bd780202dab1e7ca1feea..e027dbe1a1db8df718f027454c66a9d8c33bd921 100644 (file)
@@ -100,9 +100,9 @@ pkt_burst_flow_gen(struct fwd_stream *fs)
 
        tx_offloads = ports[fs->tx_port].dev_conf.txmode.offloads;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT)
-               ol_flags |= PKT_TX_VLAN_PKT;
+               ol_flags |= PKT_TX_VLAN;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT)
-               ol_flags |= PKT_TX_QINQ_PKT;
+               ol_flags |= PKT_TX_QINQ;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_MACSEC_INSERT)
                ol_flags |= PKT_TX_MACSEC;
 
index 57e00bca20e70239b956c7113124bc277cae3f62..e40aa66fdadb5c9a08395eb1fd01ce028c4516ef 100644 (file)
@@ -73,9 +73,9 @@ pkt_burst_mac_forward(struct fwd_stream *fs)
        txp = &ports[fs->tx_port];
        tx_offloads = txp->dev_conf.txmode.offloads;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT)
-               ol_flags = PKT_TX_VLAN_PKT;
+               ol_flags = PKT_TX_VLAN;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT)
-               ol_flags |= PKT_TX_QINQ_PKT;
+               ol_flags |= PKT_TX_QINQ;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_MACSEC_INSERT)
                ol_flags |= PKT_TX_MACSEC;
        for (i = 0; i < nb_rx; i++) {
index 9eb7992815e81280046e94ceecd7187ef2ad84b4..2af61daf5258257f608d9a89151b80cfb806791f 100644 (file)
@@ -355,9 +355,9 @@ pkt_burst_transmit(struct fwd_stream *fs)
        vlan_tci = txp->tx_vlan_id;
        vlan_tci_outer = txp->tx_vlan_id_outer;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_VLAN_INSERT)
-               ol_flags = PKT_TX_VLAN_PKT;
+               ol_flags = PKT_TX_VLAN;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_QINQ_INSERT)
-               ol_flags |= PKT_TX_QINQ_PKT;
+               ol_flags |= PKT_TX_QINQ;
        if (tx_offloads & RTE_ETH_TX_OFFLOAD_MACSEC_INSERT)
                ol_flags |= PKT_TX_MACSEC;
 
index 8f778f0c241939ea5f674f0c68859834b8aece88..77b3e94c9f07a04b5ce26db1c54106124053d44c 100644 (file)
@@ -229,7 +229,7 @@ eth_af_packet_tx(void *queue, struct rte_mbuf **bufs, uint16_t nb_pkts)
                }
 
                /* insert vlan info if necessary */
-               if (mbuf->ol_flags & PKT_TX_VLAN_PKT) {
+               if (mbuf->ol_flags & PKT_TX_VLAN) {
                        if (rte_vlan_insert(&mbuf)) {
                                rte_pktmbuf_free(mbuf);
                                continue;
index 5d94db02c506a0e2a6aa877041648525cd45b0fa..aef335af5d0283c5cd3ff1d5580ca58963b7bfa8 100644 (file)
@@ -1675,7 +1675,7 @@ avp_dev_copy_to_buffers(struct avp_dev *avp,
        first_buf->nb_segs = count;
        first_buf->pkt_len = total_length;
 
-       if (mbuf->ol_flags & PKT_TX_VLAN_PKT) {
+       if (mbuf->ol_flags & PKT_TX_VLAN) {
                first_buf->ol_flags |= RTE_AVP_TX_VLAN_PKT;
                first_buf->vlan_tci = mbuf->vlan_tci;
        }
@@ -1906,7 +1906,7 @@ avp_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
                pkt_buf->nb_segs = 1;
                pkt_buf->next = NULL;
 
-               if (m->ol_flags & PKT_TX_VLAN_PKT) {
+               if (m->ol_flags & PKT_TX_VLAN) {
                        pkt_buf->ol_flags |= RTE_AVP_TX_VLAN_PKT;
                        pkt_buf->vlan_tci = m->vlan_tci;
                }
index aa2c27ebaa4997fdbe27a58fe75d2628d17fa028..fb2eb2658d561a037cc1da0612d3b0df12dfe865 100644 (file)
@@ -811,7 +811,7 @@ static int axgbe_xmit_hw(struct axgbe_tx_queue *txq,
                AXGMAC_SET_BITS_LE(desc->desc3, TX_NORMAL_DESC3, CIC, 0x1);
        rte_wmb();
 
-       if (mbuf->ol_flags & (PKT_TX_VLAN_PKT | PKT_TX_QINQ_PKT)) {
+       if (mbuf->ol_flags & (PKT_TX_VLAN | PKT_TX_QINQ)) {
                /* Mark it as a CONTEXT descriptor */
                AXGMAC_SET_BITS_LE(desc->desc3, TX_CONTEXT_DESC3,
                                  CTXT, 1);
index 083deff1b17a6ab368746ec4fd0fc6c0a2383b4b..819e54044bc93bf658131ce9ce52a5460879e548 100644 (file)
@@ -2189,7 +2189,7 @@ int bnx2x_tx_encap(struct bnx2x_tx_queue *txq, struct rte_mbuf *m0)
 
        tx_start_bd->nbd = rte_cpu_to_le_16(2);
 
-       if (m0->ol_flags & PKT_TX_VLAN_PKT) {
+       if (m0->ol_flags & PKT_TX_VLAN) {
                tx_start_bd->vlan_or_ethertype =
                    rte_cpu_to_le_16(m0->vlan_tci);
                tx_start_bd->bd_flags.as_bitfield |=
index f2fcaf53021cf679b06516fff69e2c02dd887146..bd9c83e82930551f9095b67c8da86852cf53ade8 100644 (file)
@@ -113,10 +113,10 @@ bnxt_xmit_need_long_bd(struct rte_mbuf *tx_pkt, struct bnxt_tx_queue *txq)
 {
        if (tx_pkt->ol_flags & (PKT_TX_TCP_SEG | PKT_TX_TCP_CKSUM |
                                PKT_TX_UDP_CKSUM | PKT_TX_IP_CKSUM |
-                               PKT_TX_VLAN_PKT | PKT_TX_OUTER_IP_CKSUM |
+                               PKT_TX_VLAN | PKT_TX_OUTER_IP_CKSUM |
                                PKT_TX_TUNNEL_GRE | PKT_TX_TUNNEL_VXLAN |
                                PKT_TX_TUNNEL_GENEVE | PKT_TX_IEEE1588_TMST |
-                               PKT_TX_QINQ_PKT) ||
+                               PKT_TX_QINQ) ||
             (BNXT_TRUFLOW_EN(txq->bp) &&
              (txq->bp->tx_cfa_action || txq->vfr_tx_cfa_action)))
                return true;
@@ -203,13 +203,13 @@ static uint16_t bnxt_start_xmit(struct rte_mbuf *tx_pkt,
                vlan_tag_flags = 0;
 
                /* HW can accelerate only outer vlan in QinQ mode */
-               if (tx_pkt->ol_flags & PKT_TX_QINQ_PKT) {
+               if (tx_pkt->ol_flags & PKT_TX_QINQ) {
                        vlan_tag_flags = TX_BD_LONG_CFA_META_KEY_VLAN_TAG |
                                tx_pkt->vlan_tci_outer;
                        outer_tpid_bd = txq->bp->outer_tpid_bd &
                                BNXT_OUTER_TPID_BD_MASK;
                        vlan_tag_flags |= outer_tpid_bd;
-               } else if (tx_pkt->ol_flags & PKT_TX_VLAN_PKT) {
+               } else if (tx_pkt->ol_flags & PKT_TX_VLAN) {
                        /* shurd: Should this mask at
                         * TX_BD_LONG_CFA_META_VLAN_VID_MASK?
                         */
index 21b8fe61c9a7ee748bc6a820fc311dd8763c9ec6..634e6d20d20eaa7b5ed503a5edae14d3cb3e4577 100644 (file)
@@ -1034,7 +1034,7 @@ static inline int tx_do_packet_coalesce(struct sge_eth_txq *txq,
                cntrl = F_TXPKT_L4CSUM_DIS | F_TXPKT_IPCSUM_DIS;
        }
 
-       if (mbuf->ol_flags & PKT_TX_VLAN_PKT) {
+       if (mbuf->ol_flags & PKT_TX_VLAN) {
                txq->stats.vlan_ins++;
                cntrl |= F_TXPKT_VLAN_VLD | V_TXPKT_VLAN(mbuf->vlan_tci);
        }
@@ -1256,7 +1256,7 @@ out_free:
                txq->stats.tx_cso += m->tso_segsz;
        }
 
-       if (m->ol_flags & PKT_TX_VLAN_PKT) {
+       if (m->ol_flags & PKT_TX_VLAN) {
                txq->stats.vlan_ins++;
                cntrl |= F_TXPKT_VLAN_VLD | V_TXPKT_VLAN(m->vlan_tci);
        }
index 7c77243b5d1a167f1063e2cc2b48f81e6bd1c587..d232ef6b8937f1944dfe52f0826eeedd6d86a600 100644 (file)
@@ -1228,7 +1228,7 @@ dpaa2_dev_tx(void *queue, struct rte_mbuf **bufs, uint16_t nb_pkts)
                                    (*bufs)->nb_segs == 1 &&
                                    rte_mbuf_refcnt_read((*bufs)) == 1)) {
                                        if (unlikely(((*bufs)->ol_flags
-                                               & PKT_TX_VLAN_PKT) ||
+                                               & PKT_TX_VLAN) ||
                                                (eth_data->dev_conf.txmode.offloads
                                                & RTE_ETH_TX_OFFLOAD_VLAN_INSERT))) {
                                                ret = rte_vlan_insert(bufs);
@@ -1271,7 +1271,7 @@ dpaa2_dev_tx(void *queue, struct rte_mbuf **bufs, uint16_t nb_pkts)
                                goto send_n_return;
                        }
 
-                       if (unlikely(((*bufs)->ol_flags & PKT_TX_VLAN_PKT) ||
+                       if (unlikely(((*bufs)->ol_flags & PKT_TX_VLAN) ||
                                (eth_data->dev_conf.txmode.offloads
                                & RTE_ETH_TX_OFFLOAD_VLAN_INSERT))) {
                                int ret = rte_vlan_insert(bufs);
@@ -1532,7 +1532,7 @@ dpaa2_dev_tx_ordered(void *queue, struct rte_mbuf **bufs, uint16_t nb_pkts)
                                    (*bufs)->nb_segs == 1 &&
                                    rte_mbuf_refcnt_read((*bufs)) == 1)) {
                                        if (unlikely((*bufs)->ol_flags
-                                               & PKT_TX_VLAN_PKT)) {
+                                               & PKT_TX_VLAN)) {
                                          ret = rte_vlan_insert(bufs);
                                          if (ret)
                                                goto send_n_return;
index 648b04154c5b6c92689187c934614d7cdac38cde..13f7b0cda0d02ad374264225dc1ac8e525a5d5de 100644 (file)
@@ -55,7 +55,7 @@
                PKT_TX_IPV4 |           \
                PKT_TX_IP_CKSUM |       \
                PKT_TX_L4_MASK |        \
-               PKT_TX_VLAN_PKT)
+               PKT_TX_VLAN)
 
 #define E1000_TX_OFFLOAD_NOTSUP_MASK \
                (PKT_TX_OFFLOAD_MASK ^ E1000_TX_OFFLOAD_MASK)
@@ -508,7 +508,7 @@ eth_em_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
                popts_spec = 0;
 
                /* Set VLAN Tag offload fields. */
-               if (ol_flags & PKT_TX_VLAN_PKT) {
+               if (ol_flags & PKT_TX_VLAN) {
                        cmd_type_len |= E1000_TXD_CMD_VLE;
                        popts_spec = tx_pkt->vlan_tci << E1000_TXD_VLAN_SHIFT;
                }
index 5ad185cc65f43ab03f6337ba8d39fc99d905b498..92bcd72da590c6e96f87b633efe10cf7eb40df23 100644 (file)
@@ -54,7 +54,7 @@
                PKT_TX_OUTER_IPV4 |      \
                PKT_TX_IPV6 |            \
                PKT_TX_IPV4 |            \
-               PKT_TX_VLAN_PKT |                \
+               PKT_TX_VLAN |            \
                PKT_TX_IP_CKSUM |                \
                PKT_TX_L4_MASK |                 \
                PKT_TX_TCP_SEG |                 \
@@ -262,7 +262,7 @@ igbe_set_xmit_ctx(struct igb_tx_queue* txq,
        /* Specify which HW CTX to upload. */
        mss_l4len_idx = (ctx_idx << E1000_ADVTXD_IDX_SHIFT);
 
-       if (ol_flags & PKT_TX_VLAN_PKT)
+       if (ol_flags & PKT_TX_VLAN)
                tx_offload_mask.data |= TX_VLAN_CMP_MASK;
 
        /* check if TCP segmentation required for this packet */
@@ -371,7 +371,7 @@ tx_desc_vlan_flags_to_cmdtype(uint64_t ol_flags)
        uint32_t cmdtype;
        static uint32_t vlan_cmd[2] = {0, E1000_ADVTXD_DCMD_VLE};
        static uint32_t tso_cmd[2] = {0, E1000_ADVTXD_DCMD_TSE};
-       cmdtype = vlan_cmd[(ol_flags & PKT_TX_VLAN_PKT) != 0];
+       cmdtype = vlan_cmd[(ol_flags & PKT_TX_VLAN) != 0];
        cmdtype |= tso_cmd[(ol_flags & PKT_TX_TCP_SEG) != 0];
        return cmdtype;
 }
index b3515ae96af7ad5ac17212601c8b90a6ecca9615..f3c1198426df7ee064ff7ebf4ea20c5a3939dd06 100644 (file)
@@ -38,7 +38,7 @@ static inline void dump_rxd(union fm10k_rx_desc *rxd)
 #endif
 
 #define FM10K_TX_OFFLOAD_MASK (  \
-               PKT_TX_VLAN_PKT |        \
+               PKT_TX_VLAN |        \
                PKT_TX_IPV6 |            \
                PKT_TX_IPV4 |            \
                PKT_TX_IP_CKSUM |        \
@@ -584,7 +584,7 @@ static inline void tx_xmit_pkt(struct fm10k_tx_queue *q, struct rte_mbuf *mb)
                q->hw_ring[q->next_free].flags |= FM10K_TXD_FLAG_CSUM;
 
        /* set vlan if requested */
-       if (mb->ol_flags & PKT_TX_VLAN_PKT)
+       if (mb->ol_flags & PKT_TX_VLAN)
                q->hw_ring[q->next_free].vlan = mb->vlan_tci;
        else
                q->hw_ring[q->next_free].vlan = 0;
index 669f82389cf2baa65f07b82441c607a68ee11d20..e14937139d61b04f2a3d9fc12ea9177d31ccf2d7 100644 (file)
@@ -592,7 +592,7 @@ hinic_fill_tx_offload_info(struct rte_mbuf *mbuf,
        task->pkt_info2 = 0;
 
        /* Base VLAN */
-       if (unlikely(ol_flags & PKT_TX_VLAN_PKT)) {
+       if (unlikely(ol_flags & PKT_TX_VLAN)) {
                vlan_tag = mbuf->vlan_tci;
                hinic_set_vlan_tx_offload(task, queue_info, vlan_tag,
                                          vlan_tag >> VLAN_PRIO_SHIFT);
index 920ee8ceeab9b423d48cac2ce0a258867632f3c2..794f736869254ffa511a4e0dad06ec882a4b306a 100644 (file)
@@ -3202,11 +3202,11 @@ hns3_fill_first_desc(struct hns3_tx_queue *txq, struct hns3_desc *desc,
         * To avoid the VLAN of Tx descriptor is overwritten by PVID, it should
         * be added to the position close to the IP header when PVID is enabled.
         */
-       if (!txq->pvid_sw_shift_en && ol_flags & (PKT_TX_VLAN_PKT |
-                               PKT_TX_QINQ_PKT)) {
+       if (!txq->pvid_sw_shift_en && ol_flags & (PKT_TX_VLAN |
+                               PKT_TX_QINQ)) {
                desc->tx.ol_type_vlan_len_msec |=
                                rte_cpu_to_le_32(BIT(HNS3_TXD_OVLAN_B));
-               if (ol_flags & PKT_TX_QINQ_PKT)
+               if (ol_flags & PKT_TX_QINQ)
                        desc->tx.outer_vlan_tag =
                                        rte_cpu_to_le_16(rxm->vlan_tci_outer);
                else
@@ -3214,8 +3214,8 @@ hns3_fill_first_desc(struct hns3_tx_queue *txq, struct hns3_desc *desc,
                                        rte_cpu_to_le_16(rxm->vlan_tci);
        }
 
-       if (ol_flags & PKT_TX_QINQ_PKT ||
-           ((ol_flags & PKT_TX_VLAN_PKT) && txq->pvid_sw_shift_en)) {
+       if (ol_flags & PKT_TX_QINQ ||
+           ((ol_flags & PKT_TX_VLAN) && txq->pvid_sw_shift_en)) {
                desc->tx.type_cs_vlan_tso_len |=
                                        rte_cpu_to_le_32(BIT(HNS3_TXD_VLAN_B));
                desc->tx.vlan_tag = rte_cpu_to_le_16(rxm->vlan_tci);
@@ -3754,12 +3754,12 @@ hns3_vld_vlan_chk(struct hns3_tx_queue *txq, struct rte_mbuf *m)
         * implementation function named hns3_prep_pkts to inform users that
         * these packets will be discarded.
         */
-       if (m->ol_flags & PKT_TX_QINQ_PKT)
+       if (m->ol_flags & PKT_TX_QINQ)
                return -EINVAL;
 
        eh = rte_pktmbuf_mtod(m, struct rte_ether_hdr *);
        if (eh->ether_type == rte_cpu_to_be_16(RTE_ETHER_TYPE_VLAN)) {
-               if (m->ol_flags & PKT_TX_VLAN_PKT)
+               if (m->ol_flags & PKT_TX_VLAN)
                        return -EINVAL;
 
                /* Ensure the incoming packet is not a QinQ packet */
index 6f09e1162948ba1366c68a1164562b772d4597e4..c8f443dbd76516efb5ef6287efd39da135b11a3f 100644 (file)
@@ -64,8 +64,8 @@
                PKT_TX_L4_MASK |        \
                PKT_TX_OUTER_IP_CKSUM | \
                PKT_TX_TCP_SEG |        \
-               PKT_TX_QINQ_PKT |       \
-               PKT_TX_VLAN_PKT |       \
+               PKT_TX_QINQ |       \
+               PKT_TX_VLAN |   \
                PKT_TX_TUNNEL_MASK |    \
                I40E_TX_IEEE1588_TMST)
 
@@ -1006,7 +1006,7 @@ i40e_calc_context_desc(uint64_t flags)
 {
        static uint64_t mask = PKT_TX_OUTER_IP_CKSUM |
                PKT_TX_TCP_SEG |
-               PKT_TX_QINQ_PKT |
+               PKT_TX_QINQ |
                PKT_TX_TUNNEL_MASK;
 
 #ifdef RTE_LIBRTE_IEEE1588
@@ -1151,7 +1151,7 @@ i40e_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
                }
 
                /* Descriptor based VLAN insertion */
-               if (ol_flags & (PKT_TX_VLAN_PKT | PKT_TX_QINQ_PKT)) {
+               if (ol_flags & (PKT_TX_VLAN | PKT_TX_QINQ)) {
                        td_cmd |= I40E_TX_DESC_CMD_IL2TAG1;
                        td_tag = tx_pkt->vlan_tci;
                }
@@ -1200,7 +1200,7 @@ i40e_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
 
                        ctx_txd->tunneling_params =
                                rte_cpu_to_le_32(cd_tunneling_params);
-                       if (ol_flags & PKT_TX_QINQ_PKT) {
+                       if (ol_flags & PKT_TX_QINQ) {
                                cd_l2tag2 = tx_pkt->vlan_tci_outer;
                                cd_type_cmd_tso_mss |=
                                        ((uint64_t)I40E_TX_CTX_DESC_IL2TAG2 <<
index ac4db117f5cd484de126fb99545c23653893abac..5f83cbcbbd481bc23925c0cd33e53b2ba5c3ef77 100644 (file)
@@ -2074,7 +2074,7 @@ iavf_calc_context_desc(uint64_t flags, uint8_t vlan_flag)
 {
        if (flags & PKT_TX_TCP_SEG)
                return 1;
-       if (flags & PKT_TX_VLAN_PKT &&
+       if (flags & PKT_TX_VLAN &&
            vlan_flag & IAVF_TX_FLAGS_VLAN_TAG_LOC_L2TAG2)
                return 1;
        return 0;
@@ -2260,7 +2260,7 @@ iavf_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
                }
 
                /* Descriptor based VLAN insertion */
-               if (ol_flags & PKT_TX_VLAN_PKT &&
+               if (ol_flags & PKT_TX_VLAN &&
                    txq->vlan_flag & IAVF_TX_FLAGS_VLAN_TAG_LOC_L2TAG1) {
                        td_cmd |= IAVF_TX_DESC_CMD_IL2TAG1;
                        td_tag = tx_pkt->vlan_tci;
@@ -2301,7 +2301,7 @@ iavf_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
                                cd_type_cmd_tso_mss |=
                                        iavf_set_tso_ctx(tx_pkt, tx_offload);
 
-                       if (ol_flags & PKT_TX_VLAN_PKT &&
+                       if (ol_flags & PKT_TX_VLAN &&
                           txq->vlan_flag & IAVF_TX_FLAGS_VLAN_TAG_LOC_L2TAG2) {
                                cd_type_cmd_tso_mss |= IAVF_TX_CTX_DESC_IL2TAG2
                                        << IAVF_TXD_CTX_QW1_CMD_SHIFT;
index 2d7f6b1b2dca8cfad1b125af47c1f4bf3f0eca13..d9a875dda792527b4b30c6125c0ec687c29b6eb9 100644 (file)
@@ -62,7 +62,7 @@
                PKT_TX_OUTER_IPV4 |              \
                PKT_TX_IPV6 |                    \
                PKT_TX_IPV4 |                    \
-               PKT_TX_VLAN_PKT |                \
+               PKT_TX_VLAN |            \
                PKT_TX_IP_CKSUM |                \
                PKT_TX_L4_MASK |                 \
                PKT_TX_TCP_SEG)
index d5e21f8e4347e8d621e14d01e312396af62f5155..05112b8c7877eb850361e9724b68cad24a8f8822 100644 (file)
@@ -78,7 +78,7 @@
                PKT_TX_OUTER_IPV4 |     \
                PKT_TX_IPV6 |           \
                PKT_TX_IPV4 |           \
-               PKT_TX_VLAN_PKT |       \
+               PKT_TX_VLAN |   \
                PKT_TX_IP_CKSUM |       \
                PKT_TX_L4_MASK |        \
                PKT_TX_TCP_SEG |        \
@@ -1511,7 +1511,7 @@ igc_set_xmit_ctx(struct igc_tx_queue *txq,
        /* Specify which HW CTX to upload. */
        mss_l4len_idx = (ctx_curr << IGC_ADVTXD_IDX_SHIFT);
 
-       if (ol_flags & PKT_TX_VLAN_PKT)
+       if (ol_flags & PKT_TX_VLAN)
                tx_offload_mask.vlan_tci = 0xffff;
 
        /* check if TCP segmentation required for this packet */
@@ -1585,7 +1585,7 @@ tx_desc_vlan_flags_to_cmdtype(uint64_t ol_flags)
        uint32_t cmdtype;
        static uint32_t vlan_cmd[2] = {0, IGC_ADVTXD_DCMD_VLE};
        static uint32_t tso_cmd[2] = {0, IGC_ADVTXD_DCMD_TSE};
-       cmdtype = vlan_cmd[(ol_flags & PKT_TX_VLAN_PKT) != 0];
+       cmdtype = vlan_cmd[(ol_flags & PKT_TX_VLAN) != 0];
        cmdtype |= tso_cmd[(ol_flags & IGC_TX_OFFLOAD_SEG) != 0];
        return cmdtype;
 }
index e3df7c56debe8dce217a5c9a3ee165774d138b98..a1f1df8adb0ee820a1def685c5ead00c82868fef 100644 (file)
@@ -355,7 +355,7 @@ ionic_tx_tso(struct ionic_tx_qcq *txq, struct rte_mbuf *txm)
        uint32_t offset = 0;
        bool start, done;
        bool encap;
-       bool has_vlan = !!(txm->ol_flags & PKT_TX_VLAN_PKT);
+       bool has_vlan = !!(txm->ol_flags & PKT_TX_VLAN);
        uint16_t vlan_tci = txm->vlan_tci;
        uint64_t ol_flags = txm->ol_flags;
 
@@ -494,7 +494,7 @@ ionic_tx(struct ionic_tx_qcq *txq, struct rte_mbuf *txm)
        if (opcode == IONIC_TXQ_DESC_OPCODE_CSUM_NONE)
                stats->no_csum++;
 
-       has_vlan = (ol_flags & PKT_TX_VLAN_PKT);
+       has_vlan = (ol_flags & PKT_TX_VLAN);
        encap = ((ol_flags & PKT_TX_OUTER_IP_CKSUM) ||
                        (ol_flags & PKT_TX_OUTER_UDP_CKSUM)) &&
                        ((ol_flags & PKT_TX_OUTER_IPV4) ||
index 80afe83d7cc0215f8d89e6141202dec4c43e9a3f..68736afbd6f7a995b702d4256c8c3cf3e61bc286 100644 (file)
@@ -64,7 +64,7 @@
                PKT_TX_OUTER_IPV4 |              \
                PKT_TX_IPV6 |                    \
                PKT_TX_IPV4 |                    \
-               PKT_TX_VLAN_PKT |                \
+               PKT_TX_VLAN |            \
                PKT_TX_IP_CKSUM |                \
                PKT_TX_L4_MASK |                 \
                PKT_TX_TCP_SEG |                 \
@@ -384,9 +384,8 @@ ixgbe_set_xmit_ctx(struct ixgbe_tx_queue *txq,
        /* Specify which HW CTX to upload. */
        mss_l4len_idx |= (ctx_idx << IXGBE_ADVTXD_IDX_SHIFT);
 
-       if (ol_flags & PKT_TX_VLAN_PKT) {
+       if (ol_flags & PKT_TX_VLAN)
                tx_offload_mask.vlan_tci |= ~0;
-       }
 
        /* check if TCP segmentation required for this packet */
        if (ol_flags & PKT_TX_TCP_SEG) {
@@ -543,7 +542,7 @@ tx_desc_ol_flags_to_cmdtype(uint64_t ol_flags)
 {
        uint32_t cmdtype = 0;
 
-       if (ol_flags & PKT_TX_VLAN_PKT)
+       if (ol_flags & PKT_TX_VLAN)
                cmdtype |= IXGBE_ADVTXD_DCMD_VLE;
        if (ol_flags & PKT_TX_TCP_SEG)
                cmdtype |= IXGBE_ADVTXD_DCMD_TSE;
index 3d0d4e748f4e90b515d61af97fe3c38922284241..909cc626fbab749c9c82aa631d5da7d3c1397e0d 100644 (file)
@@ -524,7 +524,7 @@ txq_mbuf_to_swp(struct mlx5_txq_local *__rte_restrict loc,
         * should be set regardless of HW offload.
         */
        off = loc->mbuf->outer_l2_len;
-       if (MLX5_TXOFF_CONFIG(VLAN) && ol & PKT_TX_VLAN_PKT)
+       if (MLX5_TXOFF_CONFIG(VLAN) && ol & PKT_TX_VLAN)
                off += sizeof(struct rte_vlan_hdr);
        set = (off >> 1) << 8; /* Outer L3 offset. */
        off += loc->mbuf->outer_l3_len;
@@ -943,7 +943,7 @@ mlx5_tx_eseg_none(struct mlx5_txq_data *__rte_restrict txq __rte_unused,
                       0 : 0;
        /* Engage VLAN tag insertion feature if requested. */
        if (MLX5_TXOFF_CONFIG(VLAN) &&
-           loc->mbuf->ol_flags & PKT_TX_VLAN_PKT) {
+           loc->mbuf->ol_flags & PKT_TX_VLAN) {
                /*
                 * We should get here only if device support
                 * this feature correctly.
@@ -1804,7 +1804,7 @@ mlx5_tx_packet_multi_tso(struct mlx5_txq_data *__rte_restrict txq,
         * the required space in WQE ring buffer.
         */
        dlen = rte_pktmbuf_pkt_len(loc->mbuf);
-       if (MLX5_TXOFF_CONFIG(VLAN) && loc->mbuf->ol_flags & PKT_TX_VLAN_PKT)
+       if (MLX5_TXOFF_CONFIG(VLAN) && loc->mbuf->ol_flags & PKT_TX_VLAN)
                vlan = sizeof(struct rte_vlan_hdr);
        inlen = loc->mbuf->l2_len + vlan +
                loc->mbuf->l3_len + loc->mbuf->l4_len;
@@ -1919,7 +1919,7 @@ mlx5_tx_packet_multi_send(struct mlx5_txq_data *__rte_restrict txq,
        /* Update sent data bytes counter. */
        txq->stats.obytes += rte_pktmbuf_pkt_len(loc->mbuf);
        if (MLX5_TXOFF_CONFIG(VLAN) &&
-           loc->mbuf->ol_flags & PKT_TX_VLAN_PKT)
+           loc->mbuf->ol_flags & PKT_TX_VLAN)
                txq->stats.obytes += sizeof(struct rte_vlan_hdr);
 #endif
        /*
@@ -2018,7 +2018,7 @@ mlx5_tx_packet_multi_inline(struct mlx5_txq_data *__rte_restrict txq,
         * to estimate the required space for WQE.
         */
        dlen = rte_pktmbuf_pkt_len(loc->mbuf);
-       if (MLX5_TXOFF_CONFIG(VLAN) && loc->mbuf->ol_flags & PKT_TX_VLAN_PKT)
+       if (MLX5_TXOFF_CONFIG(VLAN) && loc->mbuf->ol_flags & PKT_TX_VLAN)
                vlan = sizeof(struct rte_vlan_hdr);
        inlen = dlen + vlan;
        /* Check against minimal length. */
@@ -2281,7 +2281,7 @@ mlx5_tx_burst_tso(struct mlx5_txq_data *__rte_restrict txq,
                }
                dlen = rte_pktmbuf_data_len(loc->mbuf);
                if (MLX5_TXOFF_CONFIG(VLAN) &&
-                   loc->mbuf->ol_flags & PKT_TX_VLAN_PKT) {
+                   loc->mbuf->ol_flags & PKT_TX_VLAN) {
                        vlan = sizeof(struct rte_vlan_hdr);
                }
                /*
@@ -2406,7 +2406,7 @@ mlx5_tx_able_to_empw(struct mlx5_txq_data *__rte_restrict txq,
                return MLX5_TXCMP_CODE_SINGLE;
        /* Check if eMPW can be engaged. */
        if (MLX5_TXOFF_CONFIG(VLAN) &&
-           unlikely(loc->mbuf->ol_flags & PKT_TX_VLAN_PKT) &&
+           unlikely(loc->mbuf->ol_flags & PKT_TX_VLAN) &&
                (!MLX5_TXOFF_CONFIG(INLINE) ||
                 unlikely((rte_pktmbuf_data_len(loc->mbuf) +
                           sizeof(struct rte_vlan_hdr)) > txq->inlen_empw))) {
@@ -2468,7 +2468,7 @@ mlx5_tx_match_empw(struct mlx5_txq_data *__rte_restrict txq,
                return false;
        /* There must be no VLAN packets in eMPW loop. */
        if (MLX5_TXOFF_CONFIG(VLAN))
-               MLX5_ASSERT(!(loc->mbuf->ol_flags & PKT_TX_VLAN_PKT));
+               MLX5_ASSERT(!(loc->mbuf->ol_flags & PKT_TX_VLAN));
        /* Check if the scheduling is requested. */
        if (MLX5_TXOFF_CONFIG(TXPP) &&
            loc->mbuf->ol_flags & txq->ts_mask)
@@ -2929,7 +2929,7 @@ mlx5_tx_burst_empw_inline(struct mlx5_txq_data *__rte_restrict txq,
                        }
                        /* Inline entire packet, optional VLAN insertion. */
                        if (MLX5_TXOFF_CONFIG(VLAN) &&
-                           loc->mbuf->ol_flags & PKT_TX_VLAN_PKT) {
+                           loc->mbuf->ol_flags & PKT_TX_VLAN) {
                                /*
                                 * The packet length must be checked in
                                 * mlx5_tx_able_to_empw() and packet
@@ -2994,7 +2994,7 @@ pointer_empw:
                        MLX5_ASSERT(room >= MLX5_WQE_DSEG_SIZE);
                        if (MLX5_TXOFF_CONFIG(VLAN))
                                MLX5_ASSERT(!(loc->mbuf->ol_flags &
-                                           PKT_TX_VLAN_PKT));
+                                           PKT_TX_VLAN));
                        mlx5_tx_dseg_ptr(txq, loc, dseg, dptr, dlen, olx);
                        /* We have to store mbuf in elts.*/
                        txq->elts[txq->elts_head++ & txq->elts_m] = loc->mbuf;
@@ -3139,7 +3139,7 @@ mlx5_tx_burst_single_send(struct mlx5_txq_data *__rte_restrict txq,
 
                        inlen = rte_pktmbuf_data_len(loc->mbuf);
                        if (MLX5_TXOFF_CONFIG(VLAN) &&
-                           loc->mbuf->ol_flags & PKT_TX_VLAN_PKT) {
+                           loc->mbuf->ol_flags & PKT_TX_VLAN) {
                                vlan = sizeof(struct rte_vlan_hdr);
                                inlen += vlan;
                        }
@@ -3370,7 +3370,7 @@ single_no_inline:
                        /* Update sent data bytes counter. */
                        txq->stats.obytes += rte_pktmbuf_data_len(loc->mbuf);
                        if (MLX5_TXOFF_CONFIG(VLAN) &&
-                           loc->mbuf->ol_flags & PKT_TX_VLAN_PKT)
+                           loc->mbuf->ol_flags & PKT_TX_VLAN)
                                txq->stats.obytes +=
                                        sizeof(struct rte_vlan_hdr);
 #endif
index f8fff1bcd10bab520ff62dd57a6b291bbe85c917..33ec6983b8f3b8f3f5a570f18a009fbb09c6c4ec 100644 (file)
@@ -1331,7 +1331,7 @@ static void hn_encap(struct rndis_packet_msg *pkt,
                                          NDIS_PKTINFO_TYPE_HASHVAL);
        *pi_data = queue_id;
 
-       if (m->ol_flags & PKT_TX_VLAN_PKT) {
+       if (m->ol_flags & PKT_TX_VLAN) {
                pi_data = hn_rndis_pktinfo_append(pkt, NDIS_VLAN_INFO_SIZE,
                                                  NDIS_PKTINFO_TYPE_VLAN);
                *pi_data = m->vlan_tci;
index 733f81e4b295c24eb5e78a80631db8a2920b8c8f..4120d7d18657246e5bd50a4e4a21ae893199a13c 100644 (file)
@@ -935,7 +935,7 @@ nfp_net_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
                nfp_net_tx_tso(txq, &txd, pkt);
                nfp_net_tx_cksum(txq, &txd, pkt);
 
-               if ((pkt->ol_flags & PKT_TX_VLAN_PKT) &&
+               if ((pkt->ol_flags & PKT_TX_VLAN) &&
                    (hw->cap & NFP_NET_CFG_CTRL_TXVLAN)) {
                        txd.flags |= PCIE_DESC_TX_VLAN;
                        txd.vlan = pkt->vlan_tci;
index d585db8b61e894aab64e02ce41db981ba013c9be..b82a7de8dfeb33334a875c4ae1054c863fb592fe 100644 (file)
@@ -2587,7 +2587,7 @@ qede_xmit_pkts(void *p_txq, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
                }
 
                /* Descriptor based VLAN insertion */
-               if (tx_ol_flags & PKT_TX_VLAN_PKT) {
+               if (tx_ol_flags & PKT_TX_VLAN) {
                        vlan = rte_cpu_to_le_16(mbuf->vlan_tci);
                        bd1_bd_flags_bf |=
                            1 << ETH_TX_1ST_BD_FLAGS_VLAN_INSERTION_SHIFT;
index 15112b83f4f79360fcd129d4d79341d4702a139c..9b73a58cc364de6aecc9e89943d3178cc3ebc5c1 100644 (file)
                                   PKT_TX_IPV6)
 
 #define QEDE_TX_OFFLOAD_MASK (QEDE_TX_CSUM_OFFLOAD_MASK | \
-                             PKT_TX_VLAN_PKT           | \
+                             PKT_TX_VLAN               | \
                              PKT_TX_TUNNEL_MASK)
 
 #define QEDE_TX_OFFLOAD_NOTSUP_MASK \
index 67980a587fe4c769348737c824ac1b7eae38f99c..290414de9d6dac323c771f8bc04ea2f6d100effe 100644 (file)
@@ -396,7 +396,7 @@ sfc_ef100_tx_qdesc_send_create(const struct rte_mbuf *m, efx_oword_t *tx_desc)
                        ESF_GZ_TX_SEND_CSO_OUTER_L4, outer_l4,
                        ESF_GZ_TX_DESC_TYPE, ESE_GZ_TX_DESC_TYPE_SEND);
 
-       if (m->ol_flags & PKT_TX_VLAN_PKT) {
+       if (m->ol_flags & PKT_TX_VLAN) {
                efx_oword_t tx_desc_extra_fields;
 
                EFX_POPULATE_OWORD_2(tx_desc_extra_fields,
@@ -478,7 +478,7 @@ sfc_ef100_tx_qdesc_tso_create(const struct rte_mbuf *m,
 
        EFX_OR_OWORD(*tx_desc, tx_desc_extra_fields);
 
-       if (m->ol_flags & PKT_TX_VLAN_PKT) {
+       if (m->ol_flags & PKT_TX_VLAN) {
                EFX_POPULATE_OWORD_2(tx_desc_extra_fields,
                                ESF_GZ_TX_TSO_VLAN_INSERT_EN, 1,
                                ESF_GZ_TX_TSO_VLAN_INSERT_TCI, m->vlan_tci);
index e7da4608bcb0520f6ba098cd71103096a9f20e22..d622c52e8faefa37c57d8315c0918be7d6ae660a 100644 (file)
@@ -805,7 +805,7 @@ sfc_ef10_simple_prepare_pkts(__rte_unused void *tx_queue,
 
                /* ef10_simple does not support TSO and VLAN insertion */
                if (unlikely(m->ol_flags &
-                            (PKT_TX_TCP_SEG | PKT_TX_VLAN_PKT))) {
+                            (PKT_TX_TCP_SEG | PKT_TX_VLAN))) {
                        rte_errno = ENOTSUP;
                        break;
                }
index 0273788c20ce58cf641088159f287b5ce5e7ebc2..6b838f641f7543c4f28218fa79d4c3a61102b0c9 100644 (file)
@@ -780,7 +780,7 @@ static unsigned int
 sfc_efx_tx_maybe_insert_tag(struct sfc_efx_txq *txq, struct rte_mbuf *m,
                            efx_desc_t **pend)
 {
-       uint16_t this_tag = ((m->ol_flags & PKT_TX_VLAN_PKT) ?
+       uint16_t this_tag = ((m->ol_flags & PKT_TX_VLAN) ?
                             m->vlan_tci : 0);
 
        if (this_tag == txq->hw_vlan_tci)
index 1204dc5499a5e1da9d803c4d94e041354f2fa5f7..cbea7252fb984b8f274d9b0dc37df9cc42a237ee 100644 (file)
@@ -54,7 +54,7 @@ static const u64 TXGBE_TX_OFFLOAD_MASK = (PKT_TX_IP_CKSUM |
                PKT_TX_OUTER_IPV4 |
                PKT_TX_IPV6 |
                PKT_TX_IPV4 |
-               PKT_TX_VLAN_PKT |
+               PKT_TX_VLAN |
                PKT_TX_L4_MASK |
                PKT_TX_TCP_SEG |
                PKT_TX_TUNNEL_MASK |
@@ -408,7 +408,7 @@ txgbe_set_xmit_ctx(struct txgbe_tx_queue *txq,
                vlan_macip_lens |= TXGBE_TXD_MACLEN(tx_offload.l2_len);
        }
 
-       if (ol_flags & PKT_TX_VLAN_PKT) {
+       if (ol_flags & PKT_TX_VLAN) {
                tx_offload_mask.vlan_tci |= ~0;
                vlan_macip_lens |= TXGBE_TXD_VLAN(tx_offload.vlan_tci);
        }
@@ -496,7 +496,7 @@ tx_desc_cksum_flags_to_olinfo(uint64_t ol_flags)
                        tmp |= TXGBE_TXD_IPCS;
                tmp |= TXGBE_TXD_L4CS;
        }
-       if (ol_flags & PKT_TX_VLAN_PKT)
+       if (ol_flags & PKT_TX_VLAN)
                tmp |= TXGBE_TXD_CC;
 
        return tmp;
@@ -507,7 +507,7 @@ tx_desc_ol_flags_to_cmdtype(uint64_t ol_flags)
 {
        uint32_t cmdtype = 0;
 
-       if (ol_flags & PKT_TX_VLAN_PKT)
+       if (ol_flags & PKT_TX_VLAN)
                cmdtype |= TXGBE_TXD_VLE;
        if (ol_flags & PKT_TX_TCP_SEG)
                cmdtype |= TXGBE_TXD_TSE;
index 17b6a1a1ceec2f63f04297119a2897da0309af61..b1c39a5c7dc68fd06b38b6f37c2059a62d4d087b 100644 (file)
@@ -434,7 +434,7 @@ eth_vhost_tx(void *q, struct rte_mbuf **bufs, uint16_t nb_bufs)
                struct rte_mbuf *m = bufs[i];
 
                /* Do VLAN tag insertion */
-               if (m->ol_flags & PKT_TX_VLAN_PKT) {
+               if (m->ol_flags & PKT_TX_VLAN) {
                        int error = rte_vlan_insert(&m);
                        if (unlikely(error)) {
                                rte_pktmbuf_free(m);
index e378e66ad572b4ba03ff37e69fefbbb0454d6890..8c4ec2d9540b66b6331be986bc5d9fc136fe6226 100644 (file)
@@ -1735,7 +1735,7 @@ virtio_xmit_pkts_prepare(void *tx_queue __rte_unused, struct rte_mbuf **tx_pkts,
 #endif
 
                /* Do VLAN tag insertion */
-               if (unlikely(m->ol_flags & PKT_TX_VLAN_PKT)) {
+               if (unlikely(m->ol_flags & PKT_TX_VLAN)) {
                        error = rte_vlan_insert(&m);
                        /* rte_vlan_insert() may change pointer
                         * even in the case of failure
index 870100fa4f1165b08abce9d6e22d7ebcde839418..73a3cc3a2e33c1039535f4b77ec8d7489b93be7d 100644 (file)
@@ -49,7 +49,7 @@
 #include "vmxnet3_ethdev.h"
 
 #define        VMXNET3_TX_OFFLOAD_MASK ( \
-               PKT_TX_VLAN_PKT | \
+               PKT_TX_VLAN | \
                PKT_TX_IPV6 |     \
                PKT_TX_IPV4 |     \
                PKT_TX_L4_MASK |  \
@@ -520,7 +520,7 @@ vmxnet3_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
 
                /* Add VLAN tag if present */
                gdesc = txq->cmd_ring.base + first2fill;
-               if (txm->ol_flags & PKT_TX_VLAN_PKT) {
+               if (txm->ol_flags & PKT_TX_VLAN) {
                        gdesc->txd.ti = 1;
                        gdesc->txd.tci = txm->vlan_tci;
                }
index 44376417f83d6cb9dc2786574fd92d7b3f18cb0c..6b1245437aa6ceae22a99c7e29f2278b539a9e62 100644 (file)
@@ -1116,7 +1116,7 @@ queue2nic:
                        (vh->vlan_tci != vlan_tag_be))
                        vh->vlan_tci = vlan_tag_be;
        } else {
-               m->ol_flags |= PKT_TX_VLAN_PKT;
+               m->ol_flags |= PKT_TX_VLAN;
 
                /*
                 * Find the right seg to adjust the data len when offset is
index 7fa87404d24c33d0c7d03686c2c57d07bd058534..f7ead7b067b7a6ecf95ea95237543ca28002df86 100644 (file)
@@ -266,7 +266,7 @@ extern "C" {
  */
 #define PKT_TX_QINQ        (1ULL << 49)
 /** This old name is deprecated. */
-#define PKT_TX_QINQ_PKT    PKT_TX_QINQ
+#define PKT_TX_QINQ_PKT RTE_DEPRECATED(PKT_TX_QINQ_PKT) PKT_TX_QINQ
 
 /**
  * TCP segmentation offload. To enable this offload feature for a
@@ -335,7 +335,7 @@ extern "C" {
  */
 #define PKT_TX_VLAN          (1ULL << 57)
 /* this old name is deprecated */
-#define PKT_TX_VLAN_PKT      PKT_TX_VLAN
+#define PKT_TX_VLAN_PKT RTE_DEPRECATED(PKT_TX_VLAN_PKT) PKT_TX_VLAN
 
 /**
  * Offload the IP checksum of an external header in the hardware. The
@@ -367,14 +367,14 @@ extern "C" {
                PKT_TX_OUTER_IPV6 |      \
                PKT_TX_OUTER_IPV4 |      \
                PKT_TX_OUTER_IP_CKSUM |  \
-               PKT_TX_VLAN_PKT |        \
+               PKT_TX_VLAN |        \
                PKT_TX_IPV6 |            \
                PKT_TX_IPV4 |            \
                PKT_TX_IP_CKSUM |        \
                PKT_TX_L4_MASK |         \
                PKT_TX_IEEE1588_TMST |   \
                PKT_TX_TCP_SEG |         \
-               PKT_TX_QINQ_PKT |        \
+               PKT_TX_QINQ |        \
                PKT_TX_TUNNEL_MASK |     \
                PKT_TX_MACSEC |          \
                PKT_TX_SEC_OFFLOAD |     \