net/bnxt: add Tx TruFlow table config for P4 device
[dpdk.git] / drivers / net / nfp / nfp_rxtx.c
index 4120d7d..0fe1415 100644 (file)
@@ -203,7 +203,7 @@ nfp_net_set_hash(struct nfp_net_rxq *rxq, struct nfp_net_rx_desc *rxd,
        }
 
        mbuf->hash.rss = hash;
-       mbuf->ol_flags |= PKT_RX_RSS_HASH;
+       mbuf->ol_flags |= RTE_MBUF_F_RX_RSS_HASH;
 
        switch (hash_type) {
        case NFP_NET_RSS_IPV4:
@@ -245,9 +245,9 @@ nfp_net_rx_cksum(struct nfp_net_rxq *rxq, struct nfp_net_rx_desc *rxd,
        /* If IPv4 and IP checksum error, fail */
        if (unlikely((rxd->rxd.flags & PCIE_DESC_RX_IP4_CSUM) &&
            !(rxd->rxd.flags & PCIE_DESC_RX_IP4_CSUM_OK)))
-               mb->ol_flags |= PKT_RX_IP_CKSUM_BAD;
+               mb->ol_flags |= RTE_MBUF_F_RX_IP_CKSUM_BAD;
        else
-               mb->ol_flags |= PKT_RX_IP_CKSUM_GOOD;
+               mb->ol_flags |= RTE_MBUF_F_RX_IP_CKSUM_GOOD;
 
        /* If neither UDP nor TCP return */
        if (!(rxd->rxd.flags & PCIE_DESC_RX_TCP_CSUM) &&
@@ -255,9 +255,9 @@ nfp_net_rx_cksum(struct nfp_net_rxq *rxq, struct nfp_net_rx_desc *rxd,
                return;
 
        if (likely(rxd->rxd.flags & PCIE_DESC_RX_L4_CSUM_OK))
-               mb->ol_flags |= PKT_RX_L4_CKSUM_GOOD;
+               mb->ol_flags |= RTE_MBUF_F_RX_L4_CKSUM_GOOD;
        else
-               mb->ol_flags |= PKT_RX_L4_CKSUM_BAD;
+               mb->ol_flags |= RTE_MBUF_F_RX_L4_CKSUM_BAD;
 }
 
 /*
@@ -403,7 +403,7 @@ nfp_net_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts, uint16_t nb_pkts)
                if ((rxds->rxd.flags & PCIE_DESC_RX_VLAN) &&
                    (hw->ctrl & NFP_NET_CFG_CTRL_RXVLAN)) {
                        mb->vlan_tci = rte_cpu_to_le_32(rxds->rxd.vlan);
-                       mb->ol_flags |= PKT_RX_VLAN | PKT_RX_VLAN_STRIPPED;
+                       mb->ol_flags |= RTE_MBUF_F_RX_VLAN | RTE_MBUF_F_RX_VLAN_STRIPPED;
                }
 
                /* Adding the mbuf to the mbuf array passed by the app */
@@ -827,7 +827,7 @@ nfp_net_tx_tso(struct nfp_net_txq *txq, struct nfp_net_tx_desc *txd,
 
        ol_flags = mb->ol_flags;
 
-       if (!(ol_flags & PKT_TX_TCP_SEG))
+       if (!(ol_flags & RTE_MBUF_F_TX_TCP_SEG))
                goto clean_txd;
 
        txd->l3_offset = mb->l2_len;
@@ -859,19 +859,19 @@ nfp_net_tx_cksum(struct nfp_net_txq *txq, struct nfp_net_tx_desc *txd,
        ol_flags = mb->ol_flags;
 
        /* IPv6 does not need checksum */
-       if (ol_flags & PKT_TX_IP_CKSUM)
+       if (ol_flags & RTE_MBUF_F_TX_IP_CKSUM)
                txd->flags |= PCIE_DESC_TX_IP4_CSUM;
 
-       switch (ol_flags & PKT_TX_L4_MASK) {
-       case PKT_TX_UDP_CKSUM:
+       switch (ol_flags & RTE_MBUF_F_TX_L4_MASK) {
+       case RTE_MBUF_F_TX_UDP_CKSUM:
                txd->flags |= PCIE_DESC_TX_UDP_CSUM;
                break;
-       case PKT_TX_TCP_CKSUM:
+       case RTE_MBUF_F_TX_TCP_CKSUM:
                txd->flags |= PCIE_DESC_TX_TCP_CSUM;
                break;
        }
 
-       if (ol_flags & (PKT_TX_IP_CKSUM | PKT_TX_L4_MASK))
+       if (ol_flags & (RTE_MBUF_F_TX_IP_CKSUM | RTE_MBUF_F_TX_L4_MASK))
                txd->flags |= PCIE_DESC_TX_CSUM;
 }
 
@@ -935,7 +935,7 @@ nfp_net_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
                nfp_net_tx_tso(txq, &txd, pkt);
                nfp_net_tx_cksum(txq, &txd, pkt);
 
-               if ((pkt->ol_flags & PKT_TX_VLAN) &&
+               if ((pkt->ol_flags & RTE_MBUF_F_TX_VLAN) &&
                    (hw->cap & NFP_NET_CFG_CTRL_TXVLAN)) {
                        txd.flags |= PCIE_DESC_TX_VLAN;
                        txd.vlan = pkt->vlan_tci;