net/ice: support new devices
[dpdk.git] / drivers / net / mlx5 / mlx5_rxtx.c
index 227289e..1b71e94 100644 (file)
@@ -7,17 +7,6 @@
 #include <string.h>
 #include <stdlib.h>
 
-/* Verbs header. */
-/* ISO C doesn't support unnamed structs/unions, disabling -pedantic. */
-#ifdef PEDANTIC
-#pragma GCC diagnostic ignored "-Wpedantic"
-#endif
-#include <infiniband/verbs.h>
-#include <infiniband/mlx5dv.h>
-#ifdef PEDANTIC
-#pragma GCC diagnostic error "-Wpedantic"
-#endif
-
 #include <rte_mbuf.h>
 #include <rte_mempool.h>
 #include <rte_prefetch.h>
@@ -27,6 +16,7 @@
 #include <rte_cycles.h>
 #include <rte_flow.h>
 
+#include <mlx5_glue.h>
 #include <mlx5_devx_cmds.h>
 #include <mlx5_prm.h>
 #include <mlx5_common.h>
@@ -66,6 +56,7 @@ enum mlx5_txcmp_code {
 #define MLX5_TXOFF_CONFIG_METADATA (1u << 6) /* Flow metadata. */
 #define MLX5_TXOFF_CONFIG_EMPW (1u << 8) /* Enhanced MPW supported.*/
 #define MLX5_TXOFF_CONFIG_MPW (1u << 9) /* Legacy MPW supported.*/
+#define MLX5_TXOFF_CONFIG_TXPP (1u << 10) /* Scheduling on timestamp.*/
 
 /* The most common offloads groups. */
 #define MLX5_TXOFF_CONFIG_NONE 0
@@ -1388,7 +1379,11 @@ rxq_cq_to_mbuf(struct mlx5_rxq_data *rxq, struct rte_mbuf *pkt,
                pkt->vlan_tci = rte_be_to_cpu_16(cqe->vlan_info);
        }
        if (rxq->hw_timestamp) {
-               pkt->timestamp = rte_be_to_cpu_64(cqe->timestamp);
+               uint64_t ts = rte_be_to_cpu_64(cqe->timestamp);
+
+               if (rxq->rt_timestamp)
+                       ts = mlx5_txpp_convert_rx_ts(rxq->sh, ts);
+               pkt->timestamp = ts;
                pkt->ol_flags |= PKT_RX_TIMESTAMP;
        }
 }
@@ -2402,6 +2397,37 @@ mlx5_tx_cseg_init(struct mlx5_txq_data *__rte_restrict txq,
        cs->misc = RTE_BE32(0);
 }
 
+/**
+ * Build the Synchronize Queue Segment with specified completion index.
+ *
+ * @param txq
+ *   Pointer to TX queue structure.
+ * @param loc
+ *   Pointer to burst routine local context.
+ * @param wqe
+ *   Pointer to WQE to fill with built Control Segment.
+ * @param wci
+ *   Completion index in Clock Queue to wait.
+ * @param olx
+ *   Configured Tx offloads mask. It is fully defined at
+ *   compile time and may be used for optimization.
+ */
+static __rte_always_inline void
+mlx5_tx_wseg_init(struct mlx5_txq_data *restrict txq,
+                 struct mlx5_txq_local *restrict loc __rte_unused,
+                 struct mlx5_wqe *restrict wqe,
+                 unsigned int wci,
+                 unsigned int olx __rte_unused)
+{
+       struct mlx5_wqe_qseg *qs;
+
+       qs = RTE_PTR_ADD(wqe, MLX5_WSEG_SIZE);
+       qs->max_index = rte_cpu_to_be_32(wci);
+       qs->qpn_cqn = rte_cpu_to_be_32(txq->sh->txpp.clock_queue.cq->id);
+       qs->reserved0 = RTE_BE32(0);
+       qs->reserved1 = RTE_BE32(0);
+}
+
 /**
  * Build the Ethernet Segment without inlined data.
  * Supports Software Parser, Checksums and VLAN
@@ -3239,6 +3265,59 @@ dseg_done:
        return ds;
 }
 
+/**
+ * The routine checks timestamp flag in the current packet,
+ * and push WAIT WQE into the queue if scheduling is required.
+ *
+ * @param txq
+ *   Pointer to TX queue structure.
+ * @param loc
+ *   Pointer to burst routine local context.
+ * @param olx
+ *   Configured Tx offloads mask. It is fully defined at
+ *   compile time and may be used for optimization.
+ *
+ * @return
+ *   MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
+ *   MLX5_TXCMP_CODE_SINGLE - continue processing with the packet.
+ *   MLX5_TXCMP_CODE_MULTI - the WAIT inserted, continue processing.
+ * Local context variables partially updated.
+ */
+static __rte_always_inline enum mlx5_txcmp_code
+mlx5_tx_schedule_send(struct mlx5_txq_data *restrict txq,
+                     struct mlx5_txq_local *restrict loc,
+                     unsigned int olx)
+{
+       if (MLX5_TXOFF_CONFIG(TXPP) &&
+           loc->mbuf->ol_flags & txq->ts_mask) {
+               struct mlx5_wqe *wqe;
+               uint64_t ts;
+               int32_t wci;
+
+               /*
+                * Estimate the required space quickly and roughly.
+                * We would like to ensure the packet can be pushed
+                * to the queue and we won't get the orphan WAIT WQE.
+                */
+               if (loc->wqe_free <= MLX5_WQE_SIZE_MAX / MLX5_WQE_SIZE ||
+                   loc->elts_free < NB_SEGS(loc->mbuf))
+                       return MLX5_TXCMP_CODE_EXIT;
+               /* Convert the timestamp into completion to wait. */
+               ts = *RTE_MBUF_DYNFIELD(loc->mbuf, txq->ts_offset, uint64_t *);
+               wci = mlx5_txpp_convert_tx_ts(txq->sh, ts);
+               if (unlikely(wci < 0))
+                       return MLX5_TXCMP_CODE_SINGLE;
+               /* Build the WAIT WQE with specified completion. */
+               wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
+               mlx5_tx_cseg_init(txq, loc, wqe, 2, MLX5_OPCODE_WAIT, olx);
+               mlx5_tx_wseg_init(txq, loc, wqe, wci, olx);
+               ++txq->wqe_ci;
+               --loc->wqe_free;
+               return MLX5_TXCMP_CODE_MULTI;
+       }
+       return MLX5_TXCMP_CODE_SINGLE;
+}
+
 /**
  * Tx one packet function for multi-segment TSO. Supports all
  * types of Tx offloads, uses MLX5_OPCODE_TSO to build WQEs,
@@ -3268,6 +3347,16 @@ mlx5_tx_packet_multi_tso(struct mlx5_txq_data *__rte_restrict txq,
        struct mlx5_wqe *__rte_restrict wqe;
        unsigned int ds, dlen, inlen, ntcp, vlan = 0;
 
+       if (MLX5_TXOFF_CONFIG(TXPP)) {
+               enum mlx5_txcmp_code wret;
+
+               /* Generate WAIT for scheduling if requested. */
+               wret = mlx5_tx_schedule_send(txq, loc, olx);
+               if (wret == MLX5_TXCMP_CODE_EXIT)
+                       return MLX5_TXCMP_CODE_EXIT;
+               if (wret == MLX5_TXCMP_CODE_ERROR)
+                       return MLX5_TXCMP_CODE_ERROR;
+       }
        /*
         * Calculate data length to be inlined to estimate
         * the required space in WQE ring buffer.
@@ -3359,6 +3448,16 @@ mlx5_tx_packet_multi_send(struct mlx5_txq_data *__rte_restrict txq,
        unsigned int ds, nseg;
 
        MLX5_ASSERT(NB_SEGS(loc->mbuf) > 1);
+       if (MLX5_TXOFF_CONFIG(TXPP)) {
+               enum mlx5_txcmp_code wret;
+
+               /* Generate WAIT for scheduling if requested. */
+               wret = mlx5_tx_schedule_send(txq, loc, olx);
+               if (wret == MLX5_TXCMP_CODE_EXIT)
+                       return MLX5_TXCMP_CODE_EXIT;
+               if (wret == MLX5_TXCMP_CODE_ERROR)
+                       return MLX5_TXCMP_CODE_ERROR;
+       }
        /*
         * No inline at all, it means the CPU cycles saving
         * is prioritized at configuration, we should not
@@ -3467,6 +3566,16 @@ mlx5_tx_packet_multi_inline(struct mlx5_txq_data *__rte_restrict txq,
 
        MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE));
        MLX5_ASSERT(NB_SEGS(loc->mbuf) > 1);
+       if (MLX5_TXOFF_CONFIG(TXPP)) {
+               enum mlx5_txcmp_code wret;
+
+               /* Generate WAIT for scheduling if requested. */
+               wret = mlx5_tx_schedule_send(txq, loc, olx);
+               if (wret == MLX5_TXCMP_CODE_EXIT)
+                       return MLX5_TXCMP_CODE_EXIT;
+               if (wret == MLX5_TXCMP_CODE_ERROR)
+                       return MLX5_TXCMP_CODE_ERROR;
+       }
        /*
         * First calculate data length to be inlined
         * to estimate the required space for WQE.
@@ -3729,6 +3838,16 @@ mlx5_tx_burst_tso(struct mlx5_txq_data *__rte_restrict txq,
                uint8_t *dptr;
 
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                dlen = rte_pktmbuf_data_len(loc->mbuf);
                if (MLX5_TXOFF_CONFIG(VLAN) &&
                    loc->mbuf->ol_flags & PKT_TX_VLAN_PKT) {
@@ -3891,7 +4010,7 @@ mlx5_tx_able_to_empw(struct mlx5_txq_data *__rte_restrict txq,
  *  false - no match, eMPW should be restarted.
  */
 static __rte_always_inline bool
-mlx5_tx_match_empw(struct mlx5_txq_data *__rte_restrict txq __rte_unused,
+mlx5_tx_match_empw(struct mlx5_txq_data *__rte_restrict txq,
                   struct mlx5_wqe_eseg *__rte_restrict es,
                   struct mlx5_txq_local *__rte_restrict loc,
                   uint32_t dlen,
@@ -3920,6 +4039,10 @@ mlx5_tx_match_empw(struct mlx5_txq_data *__rte_restrict txq __rte_unused,
        /* There must be no VLAN packets in eMPW loop. */
        if (MLX5_TXOFF_CONFIG(VLAN))
                MLX5_ASSERT(!(loc->mbuf->ol_flags & PKT_TX_VLAN_PKT));
+       /* Check if the scheduling is requested. */
+       if (MLX5_TXOFF_CONFIG(TXPP) &&
+           loc->mbuf->ol_flags & txq->ts_mask)
+               return false;
        return true;
 }
 
@@ -4105,6 +4228,16 @@ mlx5_tx_burst_empw_simple(struct mlx5_txq_data *__rte_restrict txq,
 
 next_empw:
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                part = RTE_MIN(pkts_n, MLX5_TXOFF_CONFIG(MPW) ?
                                       MLX5_MPW_MAX_PACKETS :
                                       MLX5_EMPW_MAX_PACKETS);
@@ -4200,6 +4333,7 @@ next_empw:
                         * - metadata value
                         * - software parser settings
                         * - packets length (legacy MPW only)
+                        * - scheduling is not required
                         */
                        if (!mlx5_tx_match_empw(txq, eseg, loc, dlen, olx)) {
                                MLX5_ASSERT(loop);
@@ -4270,6 +4404,16 @@ mlx5_tx_burst_empw_inline(struct mlx5_txq_data *__rte_restrict txq,
                unsigned int slen = 0;
 
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                /*
                 * Limits the amount of packets in one WQE
                 * to improve CQE latency generation.
@@ -4495,6 +4639,7 @@ next_mbuf:
                         * - metadata value
                         * - software parser settings
                         * - packets length (legacy MPW only)
+                        * - scheduling is not required
                         */
                        if (!mlx5_tx_match_empw(txq, &wqem->eseg,
                                                loc, dlen, olx))
@@ -4544,6 +4689,16 @@ mlx5_tx_burst_single_send(struct mlx5_txq_data *__rte_restrict txq,
                enum mlx5_txcmp_code ret;
 
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                if (MLX5_TXOFF_CONFIG(INLINE)) {
                        unsigned int inlen, vlan = 0;
 
@@ -4584,6 +4739,8 @@ mlx5_tx_burst_single_send(struct mlx5_txq_data *__rte_restrict txq,
                                              txq->inlen_mode) ||
                                            (MLX5_TXOFF_CONFIG(MPW) &&
                                             txq->inlen_mode)) {
+                                               if (inlen <= txq->inlen_send)
+                                                       goto single_inline;
                                                /*
                                                 * The hardware requires the
                                                 * minimal inline data header.
@@ -4600,6 +4757,7 @@ mlx5_tx_burst_single_send(struct mlx5_txq_data *__rte_restrict txq,
                                        }
                                        goto single_no_inline;
                                }
+single_inline:
                                /*
                                 * Completely inlined packet data WQE:
                                 * - Control Segment, SEND opcode
@@ -5268,6 +5426,45 @@ MLX5_TXOFF_DECL(iv,
                MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
                MLX5_TXOFF_CONFIG_METADATA)
 
+/* Generate routines with timestamp scheduling. */
+MLX5_TXOFF_DECL(full_ts_nompw,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_DECL(full_ts_nompwi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_DECL(full_ts,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(full_ts_noi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(none_ts,
+               MLX5_TXOFF_CONFIG_NONE | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(mdi_ts,
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(mti_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(mtiv_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
+               MLX5_TXOFF_CONFIG_METADATA | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
 /*
  * Generate routines with Legacy Multi-Packet Write support.
  * This mode is supported by ConnectX-4 Lx only and imposes
@@ -5372,6 +5569,44 @@ MLX5_TXOFF_INFO(iv_empw,
                MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
                MLX5_TXOFF_CONFIG_METADATA | MLX5_TXOFF_CONFIG_EMPW)
 
+MLX5_TXOFF_INFO(full_ts_nompw,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_INFO(full_ts_nompwi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_INFO(full_ts,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(full_ts_noi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(none_ts,
+               MLX5_TXOFF_CONFIG_NONE | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(mdi_ts,
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(mti_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(mtiv_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
+               MLX5_TXOFF_CONFIG_METADATA | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
 MLX5_TXOFF_INFO(full,
                MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
                MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
@@ -5518,6 +5753,14 @@ mlx5_select_tx_function(struct rte_eth_dev *dev)
                /* We should support VLAN insertion. */
                olx |= MLX5_TXOFF_CONFIG_VLAN;
        }
+       if (tx_offloads & DEV_TX_OFFLOAD_SEND_ON_TIMESTAMP &&
+           rte_mbuf_dynflag_lookup
+                       (RTE_MBUF_DYNFLAG_TX_TIMESTAMP_NAME, NULL) > 0 &&
+           rte_mbuf_dynfield_lookup
+                       (RTE_MBUF_DYNFIELD_TIMESTAMP_NAME, NULL) > 0) {
+               /* Offload configured, dynamic entities registered. */
+               olx |= MLX5_TXOFF_CONFIG_TXPP;
+       }
        if (priv->txqs_n && (*priv->txqs)[0]) {
                struct mlx5_txq_data *txd = (*priv->txqs)[0];
 
@@ -5587,6 +5830,9 @@ mlx5_select_tx_function(struct rte_eth_dev *dev)
                if ((olx ^ tmp) & MLX5_TXOFF_CONFIG_INLINE)
                        /* Do not enable inlining if not configured. */
                        continue;
+               if ((olx ^ tmp) & MLX5_TXOFF_CONFIG_TXPP)
+                       /* Do not enable scheduling if not configured. */
+                       continue;
                /*
                 * Some routine meets the requirements.
                 * Check whether it has minimal amount
@@ -5631,6 +5877,8 @@ mlx5_select_tx_function(struct rte_eth_dev *dev)
                DRV_LOG(DEBUG, "\tVLANI (VLAN insertion)");
        if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_METADATA)
                DRV_LOG(DEBUG, "\tMETAD (tx Flow metadata)");
+       if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_TXPP)
+               DRV_LOG(DEBUG, "\tMETAD (tx Scheduling)");
        if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_EMPW) {
                if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_MPW)
                        DRV_LOG(DEBUG, "\tMPW   (Legacy MPW)");
@@ -5705,7 +5953,7 @@ mlx5_tx_burst_mode_get(struct rte_eth_dev *dev,
                if (pkt_burst == txoff_func[i].func) {
                        olx = txoff_func[i].olx;
                        snprintf(mode->info, sizeof(mode->info),
-                                "%s%s%s%s%s%s%s%s",
+                                "%s%s%s%s%s%s%s%s%s",
                                 (olx & MLX5_TXOFF_CONFIG_EMPW) ?
                                 ((olx & MLX5_TXOFF_CONFIG_MPW) ?
                                 "Legacy MPW" : "Enhanced MPW") : "No MPW",
@@ -5722,7 +5970,9 @@ mlx5_tx_burst_mode_get(struct rte_eth_dev *dev,
                                 (olx & MLX5_TXOFF_CONFIG_VLAN) ?
                                 " + VLAN" : "",
                                 (olx & MLX5_TXOFF_CONFIG_METADATA) ?
-                                " + METADATA" : "");
+                                " + METADATA" : "",
+                                (olx & MLX5_TXOFF_CONFIG_TXPP) ?
+                                " + TXPP" : "");
                        return 0;
                }
        }