net/mlx5: convert Rx timestamps in real-time format
[dpdk.git] / drivers / net / mlx5 / mlx5_rxtx.c
index 9de6a50..65239f9 100644 (file)
@@ -33,6 +33,7 @@
 
 #include "mlx5_defs.h"
 #include "mlx5.h"
+#include "mlx5_mr.h"
 #include "mlx5_utils.h"
 #include "mlx5_rxtx.h"
 #include "mlx5_autoconf.h"
@@ -65,6 +66,7 @@ enum mlx5_txcmp_code {
 #define MLX5_TXOFF_CONFIG_METADATA (1u << 6) /* Flow metadata. */
 #define MLX5_TXOFF_CONFIG_EMPW (1u << 8) /* Enhanced MPW supported.*/
 #define MLX5_TXOFF_CONFIG_MPW (1u << 9) /* Legacy MPW supported.*/
+#define MLX5_TXOFF_CONFIG_TXPP (1u << 10) /* Scheduling on timestamp.*/
 
 /* The most common offloads groups. */
 #define MLX5_TXOFF_CONFIG_NONE 0
@@ -112,13 +114,13 @@ mlx5_queue_state_modify(struct rte_eth_dev *dev,
                        struct mlx5_mp_arg_queue_state_modify *sm);
 
 static inline void
-mlx5_lro_update_tcp_hdr(struct rte_tcp_hdr *restrict tcp,
-                       volatile struct mlx5_cqe *restrict cqe,
+mlx5_lro_update_tcp_hdr(struct rte_tcp_hdr *__rte_restrict tcp,
+                       volatile struct mlx5_cqe *__rte_restrict cqe,
                        uint32_t phcsum);
 
 static inline void
-mlx5_lro_update_hdr(uint8_t *restrict padd,
-                   volatile struct mlx5_cqe *restrict cqe,
+mlx5_lro_update_hdr(uint8_t *__rte_restrict padd,
+                   volatile struct mlx5_cqe *__rte_restrict cqe,
                    uint32_t len);
 
 uint32_t mlx5_ptype_table[] __rte_cache_aligned = {
@@ -373,7 +375,7 @@ mlx5_set_swp_types_table(void)
  *   Software Parser flags are set by pointer.
  */
 static __rte_always_inline uint32_t
-txq_mbuf_to_swp(struct mlx5_txq_local *restrict loc,
+txq_mbuf_to_swp(struct mlx5_txq_local *__rte_restrict loc,
                uint8_t *swp_flags,
                unsigned int olx)
 {
@@ -746,7 +748,7 @@ check_err_cqe_seen(volatile struct mlx5_err_cqe *err_cqe)
  *   the error completion entry is handled successfully.
  */
 static int
-mlx5_tx_error_cqe_handle(struct mlx5_txq_data *restrict txq,
+mlx5_tx_error_cqe_handle(struct mlx5_txq_data *__rte_restrict txq,
                         volatile struct mlx5_err_cqe *err_cqe)
 {
        if (err_cqe->syndrome != MLX5_CQE_SYNDROME_WR_FLUSH_ERR) {
@@ -943,43 +945,79 @@ mlx5_queue_state_modify_primary(struct rte_eth_dev *dev,
                struct mlx5_txq_data *txq = (*priv->txqs)[sm->queue_id];
                struct mlx5_txq_ctrl *txq_ctrl =
                        container_of(txq, struct mlx5_txq_ctrl, txq);
-               struct ibv_qp_attr mod = {
-                       .qp_state = IBV_QPS_RESET,
-                       .port_num = (uint8_t)priv->ibv_port,
-               };
-               struct ibv_qp *qp = txq_ctrl->obj->qp;
 
-               ret = mlx5_glue->modify_qp(qp, &mod, IBV_QP_STATE);
-               if (ret) {
-                       DRV_LOG(ERR, "Cannot change the Tx QP state to RESET "
-                               "%s", strerror(errno));
-                       rte_errno = errno;
-                       return ret;
-               }
-               mod.qp_state = IBV_QPS_INIT;
-               ret = mlx5_glue->modify_qp(qp, &mod,
-                                          (IBV_QP_STATE | IBV_QP_PORT));
-               if (ret) {
-                       DRV_LOG(ERR, "Cannot change Tx QP state to INIT %s",
-                               strerror(errno));
-                       rte_errno = errno;
-                       return ret;
-               }
-               mod.qp_state = IBV_QPS_RTR;
-               ret = mlx5_glue->modify_qp(qp, &mod, IBV_QP_STATE);
-               if (ret) {
-                       DRV_LOG(ERR, "Cannot change Tx QP state to RTR %s",
-                               strerror(errno));
-                       rte_errno = errno;
-                       return ret;
-               }
-               mod.qp_state = IBV_QPS_RTS;
-               ret = mlx5_glue->modify_qp(qp, &mod, IBV_QP_STATE);
-               if (ret) {
-                       DRV_LOG(ERR, "Cannot change Tx QP state to RTS %s",
-                               strerror(errno));
-                       rte_errno = errno;
-                       return ret;
+               if (txq_ctrl->obj->type == MLX5_TXQ_OBJ_TYPE_DEVX_SQ) {
+                       struct mlx5_devx_modify_sq_attr msq_attr = { 0 };
+
+                       /* Change queue state to reset. */
+                       msq_attr.sq_state = MLX5_SQC_STATE_ERR;
+                       msq_attr.state = MLX5_SQC_STATE_RST;
+                       ret = mlx5_devx_cmd_modify_sq(txq_ctrl->obj->sq_devx,
+                                                     &msq_attr);
+                       if (ret) {
+                               DRV_LOG(ERR, "Cannot change the "
+                                       "Tx QP state to RESET %s",
+                                       strerror(errno));
+                               rte_errno = errno;
+                               return ret;
+                       }
+                       /* Change queue state to ready. */
+                       msq_attr.sq_state = MLX5_SQC_STATE_RST;
+                       msq_attr.state = MLX5_SQC_STATE_RDY;
+                       ret = mlx5_devx_cmd_modify_sq(txq_ctrl->obj->sq_devx,
+                                                     &msq_attr);
+                       if (ret) {
+                               DRV_LOG(ERR, "Cannot change the "
+                                       "Tx QP state to READY %s",
+                                       strerror(errno));
+                               rte_errno = errno;
+                               return ret;
+                       }
+               } else {
+                       struct ibv_qp_attr mod = {
+                               .qp_state = IBV_QPS_RESET,
+                               .port_num = (uint8_t)priv->dev_port,
+                       };
+                       struct ibv_qp *qp = txq_ctrl->obj->qp;
+
+                       MLX5_ASSERT
+                               (txq_ctrl->obj->type == MLX5_TXQ_OBJ_TYPE_IBV);
+
+                       ret = mlx5_glue->modify_qp(qp, &mod, IBV_QP_STATE);
+                       if (ret) {
+                               DRV_LOG(ERR, "Cannot change the "
+                                       "Tx QP state to RESET %s",
+                                       strerror(errno));
+                               rte_errno = errno;
+                               return ret;
+                       }
+                       mod.qp_state = IBV_QPS_INIT;
+                       ret = mlx5_glue->modify_qp(qp, &mod, IBV_QP_STATE);
+                       if (ret) {
+                               DRV_LOG(ERR, "Cannot change the "
+                                       "Tx QP state to INIT %s",
+                                       strerror(errno));
+                               rte_errno = errno;
+                               return ret;
+                       }
+                       mod.qp_state = IBV_QPS_RTR;
+                       ret = mlx5_glue->modify_qp(qp, &mod, IBV_QP_STATE);
+                       if (ret) {
+                               DRV_LOG(ERR, "Cannot change the "
+                                       "Tx QP state to RTR %s",
+                                       strerror(errno));
+                               rte_errno = errno;
+                               return ret;
+                       }
+                       mod.qp_state = IBV_QPS_RTS;
+                       ret = mlx5_glue->modify_qp(qp, &mod, IBV_QP_STATE);
+                       if (ret) {
+                               DRV_LOG(ERR, "Cannot change the "
+                                       "Tx QP state to RTS %s",
+                                       strerror(errno));
+                               rte_errno = errno;
+                               return ret;
+                       }
                }
        }
        return 0;
@@ -1000,6 +1038,7 @@ static int
 mlx5_queue_state_modify(struct rte_eth_dev *dev,
                        struct mlx5_mp_arg_queue_state_modify *sm)
 {
+       struct mlx5_priv *priv = dev->data->dev_private;
        int ret = 0;
 
        switch (rte_eal_process_type()) {
@@ -1007,7 +1046,7 @@ mlx5_queue_state_modify(struct rte_eth_dev *dev,
                ret = mlx5_queue_state_modify_primary(dev, sm);
                break;
        case RTE_PROC_SECONDARY:
-               ret = mlx5_mp_req_queue_state_modify(dev, sm);
+               ret = mlx5_mp_req_queue_state_modify(&priv->mp_id, sm);
                break;
        default:
                break;
@@ -1337,9 +1376,10 @@ rxq_cq_to_mbuf(struct mlx5_rxq_data *rxq, struct rte_mbuf *pkt,
                        pkt->hash.fdir.hi = mlx5_flow_mark_get(mark);
                }
        }
-       if (rte_flow_dynf_metadata_avail() && cqe->flow_table_metadata) {
-               pkt->ol_flags |= PKT_RX_DYNF_METADATA;
-               *RTE_FLOW_DYNF_METADATA(pkt) = cqe->flow_table_metadata;
+       if (rxq->dynf_meta && cqe->flow_table_metadata) {
+               pkt->ol_flags |= rxq->flow_meta_mask;
+               *RTE_MBUF_DYNFIELD(pkt, rxq->flow_meta_offset, uint32_t *) =
+                       cqe->flow_table_metadata;
        }
        if (rxq->csum)
                pkt->ol_flags |= rxq_cq_to_ol_flags(cqe);
@@ -1349,7 +1389,11 @@ rxq_cq_to_mbuf(struct mlx5_rxq_data *rxq, struct rte_mbuf *pkt,
                pkt->vlan_tci = rte_be_to_cpu_16(cqe->vlan_info);
        }
        if (rxq->hw_timestamp) {
-               pkt->timestamp = rte_be_to_cpu_64(cqe->timestamp);
+               uint64_t ts = rte_be_to_cpu_64(cqe->timestamp);
+
+               if (rxq->rt_timestamp)
+                       ts = mlx5_txpp_convert_rx_ts(rxq->sh, ts);
+               pkt->timestamp = ts;
                pkt->ol_flags |= PKT_RX_TIMESTAMP;
        }
 }
@@ -1505,8 +1549,8 @@ mlx5_rx_burst(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
  *   The L3 pseudo-header checksum.
  */
 static inline void
-mlx5_lro_update_tcp_hdr(struct rte_tcp_hdr *restrict tcp,
-                       volatile struct mlx5_cqe *restrict cqe,
+mlx5_lro_update_tcp_hdr(struct rte_tcp_hdr *__rte_restrict tcp,
+                       volatile struct mlx5_cqe *__rte_restrict cqe,
                        uint32_t phcsum)
 {
        uint8_t l4_type = (rte_be_to_cpu_16(cqe->hdr_type_etc) &
@@ -1526,7 +1570,7 @@ mlx5_lro_update_tcp_hdr(struct rte_tcp_hdr *restrict tcp,
        if (cqe->lro_tcppsh_abort_dupack & MLX5_CQE_LRO_PUSH_MASK)
                tcp->tcp_flags |= RTE_TCP_PSH_FLAG;
        tcp->cksum = 0;
-       csum += rte_raw_cksum(tcp, (tcp->data_off & 0xF) * 4);
+       csum += rte_raw_cksum(tcp, (tcp->data_off >> 4) * 4);
        csum = ((csum & 0xffff0000) >> 16) + (csum & 0xffff);
        csum = (~csum) & 0xffff;
        if (csum == 0)
@@ -1547,8 +1591,8 @@ mlx5_lro_update_tcp_hdr(struct rte_tcp_hdr *restrict tcp,
  *   The packet length.
  */
 static inline void
-mlx5_lro_update_hdr(uint8_t *restrict padd,
-                   volatile struct mlx5_cqe *restrict cqe,
+mlx5_lro_update_hdr(uint8_t *__rte_restrict padd,
+                   volatile struct mlx5_cqe *__rte_restrict cqe,
                    uint32_t len)
 {
        union {
@@ -1658,21 +1702,20 @@ mlx5_rx_burst_mprq(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
        unsigned int i = 0;
        uint32_t rq_ci = rxq->rq_ci;
        uint16_t consumed_strd = rxq->consumed_strd;
-       uint16_t headroom_sz = rxq->strd_headroom_en * RTE_PKTMBUF_HEADROOM;
        struct mlx5_mprq_buf *buf = (*rxq->mprq_bufs)[rq_ci & wq_mask];
 
        while (i < pkts_n) {
                struct rte_mbuf *pkt;
                void *addr;
                int ret;
-               unsigned int len;
+               uint32_t len;
                uint16_t strd_cnt;
                uint16_t strd_idx;
                uint32_t offset;
                uint32_t byte_cnt;
+               int32_t hdrm_overlap;
                volatile struct mlx5_mini_cqe8 *mcqe = NULL;
                uint32_t rss_hash_res = 0;
-               uint8_t lro_num_seg;
 
                if (consumed_strd == strd_n) {
                        /* Replace WQE only if the buffer is still in use. */
@@ -1719,18 +1762,6 @@ mlx5_rx_burst_mprq(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
                MLX5_ASSERT(strd_idx < strd_n);
                MLX5_ASSERT(!((rte_be_to_cpu_16(cqe->wqe_id) ^ rq_ci) &
                            wq_mask));
-               lro_num_seg = cqe->lro_num_seg;
-               /*
-                * Currently configured to receive a packet per a stride. But if
-                * MTU is adjusted through kernel interface, device could
-                * consume multiple strides without raising an error. In this
-                * case, the packet should be dropped because it is bigger than
-                * the max_rx_pkt_len.
-                */
-               if (unlikely(!lro_num_seg && strd_cnt > 1)) {
-                       ++rxq->stats.idropped;
-                       continue;
-               }
                pkt = rte_pktmbuf_alloc(rxq->mp);
                if (unlikely(pkt == NULL)) {
                        ++rxq->stats.rx_nombuf;
@@ -1742,23 +1773,57 @@ mlx5_rx_burst_mprq(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
                        len -= RTE_ETHER_CRC_LEN;
                offset = strd_idx * strd_sz + strd_shift;
                addr = RTE_PTR_ADD(mlx5_mprq_buf_addr(buf, strd_n), offset);
+               hdrm_overlap = len + RTE_PKTMBUF_HEADROOM - strd_cnt * strd_sz;
                /*
                 * Memcpy packets to the target mbuf if:
                 * - The size of packet is smaller than mprq_max_memcpy_len.
                 * - Out of buffer in the Mempool for Multi-Packet RQ.
+                * - The packet's stride overlaps a headroom and scatter is off.
                 */
-               if (len <= rxq->mprq_max_memcpy_len || rxq->mprq_repl == NULL) {
-                       /*
-                        * When memcpy'ing packet due to out-of-buffer, the
-                        * packet must be smaller than the target mbuf.
-                        */
-                       if (unlikely(rte_pktmbuf_tailroom(pkt) < len)) {
+               if (len <= rxq->mprq_max_memcpy_len ||
+                   rxq->mprq_repl == NULL ||
+                   (hdrm_overlap > 0 && !rxq->strd_scatter_en)) {
+                       if (likely(rte_pktmbuf_tailroom(pkt) >= len)) {
+                               rte_memcpy(rte_pktmbuf_mtod(pkt, void *),
+                                          addr, len);
+                               DATA_LEN(pkt) = len;
+                       } else if (rxq->strd_scatter_en) {
+                               struct rte_mbuf *prev = pkt;
+                               uint32_t seg_len =
+                                       RTE_MIN(rte_pktmbuf_tailroom(pkt), len);
+                               uint32_t rem_len = len - seg_len;
+
+                               rte_memcpy(rte_pktmbuf_mtod(pkt, void *),
+                                          addr, seg_len);
+                               DATA_LEN(pkt) = seg_len;
+                               while (rem_len) {
+                                       struct rte_mbuf *next =
+                                               rte_pktmbuf_alloc(rxq->mp);
+
+                                       if (unlikely(next == NULL)) {
+                                               rte_pktmbuf_free(pkt);
+                                               ++rxq->stats.rx_nombuf;
+                                               goto out;
+                                       }
+                                       NEXT(prev) = next;
+                                       SET_DATA_OFF(next, 0);
+                                       addr = RTE_PTR_ADD(addr, seg_len);
+                                       seg_len = RTE_MIN
+                                               (rte_pktmbuf_tailroom(next),
+                                                rem_len);
+                                       rte_memcpy
+                                               (rte_pktmbuf_mtod(next, void *),
+                                                addr, seg_len);
+                                       DATA_LEN(next) = seg_len;
+                                       rem_len -= seg_len;
+                                       prev = next;
+                                       ++NB_SEGS(pkt);
+                               }
+                       } else {
                                rte_pktmbuf_free_seg(pkt);
                                ++rxq->stats.idropped;
                                continue;
                        }
-                       rte_memcpy(rte_pktmbuf_mtod(pkt, void *), addr, len);
-                       DATA_LEN(pkt) = len;
                } else {
                        rte_iova_t buf_iova;
                        struct rte_mbuf_ext_shared_info *shinfo;
@@ -1769,7 +1834,7 @@ mlx5_rx_burst_mprq(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
                        rte_atomic16_add_return(&buf->refcnt, 1);
                        MLX5_ASSERT((uint16_t)rte_atomic16_read(&buf->refcnt) <=
                                    strd_n + 1);
-                       buf_addr = RTE_PTR_SUB(addr, headroom_sz);
+                       buf_addr = RTE_PTR_SUB(addr, RTE_PKTMBUF_HEADROOM);
                        /*
                         * MLX5 device doesn't use iova but it is necessary in a
                         * case where the Rx packet is transmitted via a
@@ -1788,43 +1853,42 @@ mlx5_rx_burst_mprq(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
                        rte_pktmbuf_attach_extbuf(pkt, buf_addr, buf_iova,
                                                  buf_len, shinfo);
                        /* Set mbuf head-room. */
-                       pkt->data_off = headroom_sz;
+                       SET_DATA_OFF(pkt, RTE_PKTMBUF_HEADROOM);
                        MLX5_ASSERT(pkt->ol_flags == EXT_ATTACHED_MBUF);
-                       /*
-                        * Prevent potential overflow due to MTU change through
-                        * kernel interface.
-                        */
-                       if (unlikely(rte_pktmbuf_tailroom(pkt) < len)) {
-                               rte_pktmbuf_free_seg(pkt);
-                               ++rxq->stats.idropped;
-                               continue;
-                       }
+                       MLX5_ASSERT(rte_pktmbuf_tailroom(pkt) >=
+                               len - (hdrm_overlap > 0 ? hdrm_overlap : 0));
                        DATA_LEN(pkt) = len;
                        /*
-                        * LRO packet may consume all the stride memory, in this
-                        * case packet head-room space is not guaranteed so must
-                        * to add an empty mbuf for the head-room.
+                        * Copy the last fragment of a packet (up to headroom
+                        * size bytes) in case there is a stride overlap with
+                        * a next packet's headroom. Allocate a separate mbuf
+                        * to store this fragment and link it. Scatter is on.
                         */
-                       if (!rxq->strd_headroom_en) {
-                               struct rte_mbuf *headroom_mbuf =
-                                               rte_pktmbuf_alloc(rxq->mp);
+                       if (hdrm_overlap > 0) {
+                               MLX5_ASSERT(rxq->strd_scatter_en);
+                               struct rte_mbuf *seg =
+                                       rte_pktmbuf_alloc(rxq->mp);
 
-                               if (unlikely(headroom_mbuf == NULL)) {
+                               if (unlikely(seg == NULL)) {
                                        rte_pktmbuf_free_seg(pkt);
                                        ++rxq->stats.rx_nombuf;
                                        break;
                                }
-                               PORT(pkt) = rxq->port_id;
-                               NEXT(headroom_mbuf) = pkt;
-                               pkt = headroom_mbuf;
+                               SET_DATA_OFF(seg, 0);
+                               rte_memcpy(rte_pktmbuf_mtod(seg, void *),
+                                       RTE_PTR_ADD(addr, len - hdrm_overlap),
+                                       hdrm_overlap);
+                               DATA_LEN(seg) = hdrm_overlap;
+                               DATA_LEN(pkt) = len - hdrm_overlap;
+                               NEXT(pkt) = seg;
                                NB_SEGS(pkt) = 2;
                        }
                }
                rxq_cq_to_mbuf(rxq, pkt, cqe, rss_hash_res);
-               if (lro_num_seg > 1) {
+               if (cqe->lro_num_seg > 1) {
                        mlx5_lro_update_hdr(addr, cqe, len);
                        pkt->ol_flags |= PKT_RX_LRO;
-                       pkt->tso_segsz = strd_sz;
+                       pkt->tso_segsz = len / cqe->lro_num_seg;
                }
                PKT_LEN(pkt) = len;
                PORT(pkt) = rxq->port_id;
@@ -1836,6 +1900,7 @@ mlx5_rx_burst_mprq(void *dpdk_rxq, struct rte_mbuf **pkts, uint16_t pkts_n)
                *(pkts++) = pkt;
                ++i;
        }
+out:
        /* Update the consumer indexes. */
        rxq->consumed_strd = consumed_strd;
        rte_cio_wmb();
@@ -1941,7 +2006,7 @@ mlx5_check_vec_rx_support(struct rte_eth_dev *dev __rte_unused)
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_free_mbuf(struct rte_mbuf **restrict pkts,
+mlx5_tx_free_mbuf(struct rte_mbuf **__rte_restrict pkts,
                  unsigned int pkts_n,
                  unsigned int olx __rte_unused)
 {
@@ -2046,7 +2111,7 @@ mlx5_tx_free_mbuf(struct rte_mbuf **restrict pkts,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_free_elts(struct mlx5_txq_data *restrict txq,
+mlx5_tx_free_elts(struct mlx5_txq_data *__rte_restrict txq,
                  uint16_t tail,
                  unsigned int olx __rte_unused)
 {
@@ -2087,8 +2152,8 @@ mlx5_tx_free_elts(struct mlx5_txq_data *restrict txq,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_copy_elts(struct mlx5_txq_data *restrict txq,
-                 struct rte_mbuf **restrict pkts,
+mlx5_tx_copy_elts(struct mlx5_txq_data *__rte_restrict txq,
+                 struct rte_mbuf **__rte_restrict pkts,
                  unsigned int pkts_n,
                  unsigned int olx __rte_unused)
 {
@@ -2124,7 +2189,7 @@ mlx5_tx_copy_elts(struct mlx5_txq_data *restrict txq,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_comp_flush(struct mlx5_txq_data *restrict txq,
+mlx5_tx_comp_flush(struct mlx5_txq_data *__rte_restrict txq,
                   volatile struct mlx5_cqe *last_cqe,
                   unsigned int olx __rte_unused)
 {
@@ -2155,12 +2220,12 @@ mlx5_tx_comp_flush(struct mlx5_txq_data *restrict txq,
  * routine smaller, simple and faster - from experiments.
  */
 static void
-mlx5_tx_handle_completion(struct mlx5_txq_data *restrict txq,
+mlx5_tx_handle_completion(struct mlx5_txq_data *__rte_restrict txq,
                          unsigned int olx __rte_unused)
 {
        unsigned int count = MLX5_TX_COMP_MAX_CQE;
        volatile struct mlx5_cqe *last_cqe = NULL;
-       uint16_t ci = txq->cq_ci;
+       bool ring_doorbell = false;
        int ret;
 
        static_assert(MLX5_CQE_STATUS_HW_OWN < 0, "Must be negative value");
@@ -2168,8 +2233,8 @@ mlx5_tx_handle_completion(struct mlx5_txq_data *restrict txq,
        do {
                volatile struct mlx5_cqe *cqe;
 
-               cqe = &txq->cqes[ci & txq->cqe_m];
-               ret = check_cqe(cqe, txq->cqe_s, ci);
+               cqe = &txq->cqes[txq->cq_ci & txq->cqe_m];
+               ret = check_cqe(cqe, txq->cqe_s, txq->cq_ci);
                if (unlikely(ret != MLX5_CQE_STATUS_SW_OWN)) {
                        if (likely(ret != MLX5_CQE_STATUS_ERR)) {
                                /* No new CQEs in completion queue. */
@@ -2183,7 +2248,6 @@ mlx5_tx_handle_completion(struct mlx5_txq_data *restrict txq,
                         * here, before we might perform SQ reset.
                         */
                        rte_wmb();
-                       txq->cq_ci = ci;
                        ret = mlx5_tx_error_cqe_handle
                                (txq, (volatile struct mlx5_err_cqe *)cqe);
                        if (unlikely(ret < 0)) {
@@ -2199,16 +2263,18 @@ mlx5_tx_handle_completion(struct mlx5_txq_data *restrict txq,
                         * MLX5_CQE_SYNDROME_WR_FLUSH_ERR status.
                         * The send queue is supposed to be empty.
                         */
-                       ++ci;
-                       txq->cq_pi = ci;
+                       ring_doorbell = true;
+                       ++txq->cq_ci;
+                       txq->cq_pi = txq->cq_ci;
                        last_cqe = NULL;
                        continue;
                }
                /* Normal transmit completion. */
-               MLX5_ASSERT(ci != txq->cq_pi);
-               MLX5_ASSERT((txq->fcqs[ci & txq->cqe_m] >> 16) ==
+               MLX5_ASSERT(txq->cq_ci != txq->cq_pi);
+               MLX5_ASSERT((txq->fcqs[txq->cq_ci & txq->cqe_m] >> 16) ==
                            cqe->wqe_counter);
-               ++ci;
+               ring_doorbell = true;
+               ++txq->cq_ci;
                last_cqe = cqe;
                /*
                 * We have to restrict the amount of processed CQEs
@@ -2221,14 +2287,10 @@ mlx5_tx_handle_completion(struct mlx5_txq_data *restrict txq,
                if (likely(--count == 0))
                        break;
        } while (true);
-       if (likely(ci != txq->cq_ci)) {
-               /*
-                * Update completion queue consuming index
-                * and ring doorbell to notify hardware.
-                */
+       if (likely(ring_doorbell)) {
+               /* Ring doorbell to notify hardware. */
                rte_compiler_barrier();
-               txq->cq_ci = ci;
-               *txq->cq_db = rte_cpu_to_be_32(ci);
+               *txq->cq_db = rte_cpu_to_be_32(txq->cq_ci);
                mlx5_tx_comp_flush(txq, last_cqe, olx);
        }
 }
@@ -2247,8 +2309,8 @@ mlx5_tx_handle_completion(struct mlx5_txq_data *restrict txq,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_request_completion(struct mlx5_txq_data *restrict txq,
-                          struct mlx5_txq_local *restrict loc,
+mlx5_tx_request_completion(struct mlx5_txq_data *__rte_restrict txq,
+                          struct mlx5_txq_local *__rte_restrict loc,
                           unsigned int olx)
 {
        uint16_t head = txq->elts_head;
@@ -2295,7 +2357,7 @@ mlx5_tx_request_completion(struct mlx5_txq_data *restrict txq,
 int
 mlx5_tx_descriptor_status(void *tx_queue, uint16_t offset)
 {
-       struct mlx5_txq_data *restrict txq = tx_queue;
+       struct mlx5_txq_data *__rte_restrict txq = tx_queue;
        uint16_t used;
 
        mlx5_tx_handle_completion(txq, 0);
@@ -2326,14 +2388,14 @@ mlx5_tx_descriptor_status(void *tx_queue, uint16_t offset)
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_cseg_init(struct mlx5_txq_data *restrict txq,
-                 struct mlx5_txq_local *restrict loc __rte_unused,
-                 struct mlx5_wqe *restrict wqe,
+mlx5_tx_cseg_init(struct mlx5_txq_data *__rte_restrict txq,
+                 struct mlx5_txq_local *__rte_restrict loc __rte_unused,
+                 struct mlx5_wqe *__rte_restrict wqe,
                  unsigned int ds,
                  unsigned int opcode,
                  unsigned int olx __rte_unused)
 {
-       struct mlx5_wqe_cseg *restrict cs = &wqe->cseg;
+       struct mlx5_wqe_cseg *__rte_restrict cs = &wqe->cseg;
 
        /* For legacy MPW replace the EMPW by TSO with modifier. */
        if (MLX5_TXOFF_CONFIG(MPW) && opcode == MLX5_OPCODE_ENHANCED_MPSW)
@@ -2345,6 +2407,37 @@ mlx5_tx_cseg_init(struct mlx5_txq_data *restrict txq,
        cs->misc = RTE_BE32(0);
 }
 
+/**
+ * Build the Synchronize Queue Segment with specified completion index.
+ *
+ * @param txq
+ *   Pointer to TX queue structure.
+ * @param loc
+ *   Pointer to burst routine local context.
+ * @param wqe
+ *   Pointer to WQE to fill with built Control Segment.
+ * @param wci
+ *   Completion index in Clock Queue to wait.
+ * @param olx
+ *   Configured Tx offloads mask. It is fully defined at
+ *   compile time and may be used for optimization.
+ */
+static __rte_always_inline void
+mlx5_tx_wseg_init(struct mlx5_txq_data *restrict txq,
+                 struct mlx5_txq_local *restrict loc __rte_unused,
+                 struct mlx5_wqe *restrict wqe,
+                 unsigned int wci,
+                 unsigned int olx __rte_unused)
+{
+       struct mlx5_wqe_qseg *qs;
+
+       qs = RTE_PTR_ADD(wqe, MLX5_WSEG_SIZE);
+       qs->max_index = rte_cpu_to_be_32(wci);
+       qs->qpn_cqn = rte_cpu_to_be_32(txq->sh->txpp.clock_queue.cq->id);
+       qs->reserved0 = RTE_BE32(0);
+       qs->reserved1 = RTE_BE32(0);
+}
+
 /**
  * Build the Ethernet Segment without inlined data.
  * Supports Software Parser, Checksums and VLAN
@@ -2361,12 +2454,12 @@ mlx5_tx_cseg_init(struct mlx5_txq_data *restrict txq,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_eseg_none(struct mlx5_txq_data *restrict txq __rte_unused,
-                 struct mlx5_txq_local *restrict loc,
-                 struct mlx5_wqe *restrict wqe,
+mlx5_tx_eseg_none(struct mlx5_txq_data *__rte_restrict txq __rte_unused,
+                 struct mlx5_txq_local *__rte_restrict loc,
+                 struct mlx5_wqe *__rte_restrict wqe,
                  unsigned int olx)
 {
-       struct mlx5_wqe_eseg *restrict es = &wqe->eseg;
+       struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
        uint32_t csum;
 
        /*
@@ -2419,13 +2512,13 @@ mlx5_tx_eseg_none(struct mlx5_txq_data *restrict txq __rte_unused,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_eseg_dmin(struct mlx5_txq_data *restrict txq __rte_unused,
-                 struct mlx5_txq_local *restrict loc,
-                 struct mlx5_wqe *restrict wqe,
+mlx5_tx_eseg_dmin(struct mlx5_txq_data *__rte_restrict txq __rte_unused,
+                 struct mlx5_txq_local *__rte_restrict loc,
+                 struct mlx5_wqe *__rte_restrict wqe,
                  unsigned int vlan,
                  unsigned int olx)
 {
-       struct mlx5_wqe_eseg *restrict es = &wqe->eseg;
+       struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
        uint32_t csum;
        uint8_t *psrc, *pdst;
 
@@ -2503,15 +2596,15 @@ mlx5_tx_eseg_dmin(struct mlx5_txq_data *restrict txq __rte_unused,
  *   Pointer to the next Data Segment (aligned and wrapped around).
  */
 static __rte_always_inline struct mlx5_wqe_dseg *
-mlx5_tx_eseg_data(struct mlx5_txq_data *restrict txq,
-                 struct mlx5_txq_local *restrict loc,
-                 struct mlx5_wqe *restrict wqe,
+mlx5_tx_eseg_data(struct mlx5_txq_data *__rte_restrict txq,
+                 struct mlx5_txq_local *__rte_restrict loc,
+                 struct mlx5_wqe *__rte_restrict wqe,
                  unsigned int vlan,
                  unsigned int inlen,
                  unsigned int tso,
                  unsigned int olx)
 {
-       struct mlx5_wqe_eseg *restrict es = &wqe->eseg;
+       struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
        uint32_t csum;
        uint8_t *psrc, *pdst;
        unsigned int part;
@@ -2629,7 +2722,7 @@ mlx5_tx_eseg_data(struct mlx5_txq_data *restrict txq,
  */
 static __rte_always_inline unsigned int
 mlx5_tx_mseg_memcpy(uint8_t *pdst,
-                   struct mlx5_txq_local *restrict loc,
+                   struct mlx5_txq_local *__rte_restrict loc,
                    unsigned int len,
                    unsigned int must,
                    unsigned int olx __rte_unused)
@@ -2726,15 +2819,15 @@ mlx5_tx_mseg_memcpy(uint8_t *pdst,
  *   wrapping check on its own).
  */
 static __rte_always_inline struct mlx5_wqe_dseg *
-mlx5_tx_eseg_mdat(struct mlx5_txq_data *restrict txq,
-                 struct mlx5_txq_local *restrict loc,
-                 struct mlx5_wqe *restrict wqe,
+mlx5_tx_eseg_mdat(struct mlx5_txq_data *__rte_restrict txq,
+                 struct mlx5_txq_local *__rte_restrict loc,
+                 struct mlx5_wqe *__rte_restrict wqe,
                  unsigned int vlan,
                  unsigned int inlen,
                  unsigned int tso,
                  unsigned int olx)
 {
-       struct mlx5_wqe_eseg *restrict es = &wqe->eseg;
+       struct mlx5_wqe_eseg *__rte_restrict es = &wqe->eseg;
        uint32_t csum;
        uint8_t *pdst;
        unsigned int part, tlen = 0;
@@ -2830,9 +2923,9 @@ mlx5_tx_eseg_mdat(struct mlx5_txq_data *restrict txq,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_dseg_ptr(struct mlx5_txq_data *restrict txq,
-                struct mlx5_txq_local *restrict loc,
-                struct mlx5_wqe_dseg *restrict dseg,
+mlx5_tx_dseg_ptr(struct mlx5_txq_data *__rte_restrict txq,
+                struct mlx5_txq_local *__rte_restrict loc,
+                struct mlx5_wqe_dseg *__rte_restrict dseg,
                 uint8_t *buf,
                 unsigned int len,
                 unsigned int olx __rte_unused)
@@ -2864,9 +2957,9 @@ mlx5_tx_dseg_ptr(struct mlx5_txq_data *restrict txq,
  *   compile time and may be used for optimization.
  */
 static __rte_always_inline void
-mlx5_tx_dseg_iptr(struct mlx5_txq_data *restrict txq,
-                 struct mlx5_txq_local *restrict loc,
-                 struct mlx5_wqe_dseg *restrict dseg,
+mlx5_tx_dseg_iptr(struct mlx5_txq_data *__rte_restrict txq,
+                 struct mlx5_txq_local *__rte_restrict loc,
+                 struct mlx5_wqe_dseg *__rte_restrict dseg,
                  uint8_t *buf,
                  unsigned int len,
                  unsigned int olx __rte_unused)
@@ -2940,9 +3033,9 @@ mlx5_tx_dseg_iptr(struct mlx5_txq_data *restrict txq,
  *   last packet in the eMPW session.
  */
 static __rte_always_inline struct mlx5_wqe_dseg *
-mlx5_tx_dseg_empw(struct mlx5_txq_data *restrict txq,
-                 struct mlx5_txq_local *restrict loc __rte_unused,
-                 struct mlx5_wqe_dseg *restrict dseg,
+mlx5_tx_dseg_empw(struct mlx5_txq_data *__rte_restrict txq,
+                 struct mlx5_txq_local *__rte_restrict loc __rte_unused,
+                 struct mlx5_wqe_dseg *__rte_restrict dseg,
                  uint8_t *buf,
                  unsigned int len,
                  unsigned int olx __rte_unused)
@@ -3003,9 +3096,9 @@ mlx5_tx_dseg_empw(struct mlx5_txq_data *restrict txq,
  *   Ring buffer wraparound check is needed.
  */
 static __rte_always_inline struct mlx5_wqe_dseg *
-mlx5_tx_dseg_vlan(struct mlx5_txq_data *restrict txq,
-                 struct mlx5_txq_local *restrict loc __rte_unused,
-                 struct mlx5_wqe_dseg *restrict dseg,
+mlx5_tx_dseg_vlan(struct mlx5_txq_data *__rte_restrict txq,
+                 struct mlx5_txq_local *__rte_restrict loc __rte_unused,
+                 struct mlx5_wqe_dseg *__rte_restrict dseg,
                  uint8_t *buf,
                  unsigned int len,
                  unsigned int olx __rte_unused)
@@ -3091,15 +3184,15 @@ mlx5_tx_dseg_vlan(struct mlx5_txq_data *restrict txq,
  *   Actual size of built WQE in segments.
  */
 static __rte_always_inline unsigned int
-mlx5_tx_mseg_build(struct mlx5_txq_data *restrict txq,
-                  struct mlx5_txq_local *restrict loc,
-                  struct mlx5_wqe *restrict wqe,
+mlx5_tx_mseg_build(struct mlx5_txq_data *__rte_restrict txq,
+                  struct mlx5_txq_local *__rte_restrict loc,
+                  struct mlx5_wqe *__rte_restrict wqe,
                   unsigned int vlan,
                   unsigned int inlen,
                   unsigned int tso,
                   unsigned int olx __rte_unused)
 {
-       struct mlx5_wqe_dseg *restrict dseg;
+       struct mlx5_wqe_dseg *__rte_restrict dseg;
        unsigned int ds;
 
        MLX5_ASSERT((rte_pktmbuf_pkt_len(loc->mbuf) + vlan) >= inlen);
@@ -3182,6 +3275,59 @@ dseg_done:
        return ds;
 }
 
+/**
+ * The routine checks timestamp flag in the current packet,
+ * and push WAIT WQE into the queue if scheduling is required.
+ *
+ * @param txq
+ *   Pointer to TX queue structure.
+ * @param loc
+ *   Pointer to burst routine local context.
+ * @param olx
+ *   Configured Tx offloads mask. It is fully defined at
+ *   compile time and may be used for optimization.
+ *
+ * @return
+ *   MLX5_TXCMP_CODE_EXIT - sending is done or impossible.
+ *   MLX5_TXCMP_CODE_SINGLE - continue processing with the packet.
+ *   MLX5_TXCMP_CODE_MULTI - the WAIT inserted, continue processing.
+ * Local context variables partially updated.
+ */
+static __rte_always_inline enum mlx5_txcmp_code
+mlx5_tx_schedule_send(struct mlx5_txq_data *restrict txq,
+                     struct mlx5_txq_local *restrict loc,
+                     unsigned int olx)
+{
+       if (MLX5_TXOFF_CONFIG(TXPP) &&
+           loc->mbuf->ol_flags & txq->ts_mask) {
+               struct mlx5_wqe *wqe;
+               uint64_t ts;
+               int32_t wci;
+
+               /*
+                * Estimate the required space quickly and roughly.
+                * We would like to ensure the packet can be pushed
+                * to the queue and we won't get the orphan WAIT WQE.
+                */
+               if (loc->wqe_free <= MLX5_WQE_SIZE_MAX / MLX5_WQE_SIZE ||
+                   loc->elts_free < NB_SEGS(loc->mbuf))
+                       return MLX5_TXCMP_CODE_EXIT;
+               /* Convert the timestamp into completion to wait. */
+               ts = *RTE_MBUF_DYNFIELD(loc->mbuf, txq->ts_offset, uint64_t *);
+               wci = mlx5_txpp_convert_tx_ts(txq->sh, ts);
+               if (unlikely(wci < 0))
+                       return MLX5_TXCMP_CODE_SINGLE;
+               /* Build the WAIT WQE with specified completion. */
+               wqe = txq->wqes + (txq->wqe_ci & txq->wqe_m);
+               mlx5_tx_cseg_init(txq, loc, wqe, 2, MLX5_OPCODE_WAIT, olx);
+               mlx5_tx_wseg_init(txq, loc, wqe, wci, olx);
+               ++txq->wqe_ci;
+               --loc->wqe_free;
+               return MLX5_TXCMP_CODE_MULTI;
+       }
+       return MLX5_TXCMP_CODE_SINGLE;
+}
+
 /**
  * Tx one packet function for multi-segment TSO. Supports all
  * types of Tx offloads, uses MLX5_OPCODE_TSO to build WQEs,
@@ -3204,13 +3350,23 @@ dseg_done:
  * Local context variables partially updated.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_packet_multi_tso(struct mlx5_txq_data *restrict txq,
-                       struct mlx5_txq_local *restrict loc,
+mlx5_tx_packet_multi_tso(struct mlx5_txq_data *__rte_restrict txq,
+                       struct mlx5_txq_local *__rte_restrict loc,
                        unsigned int olx)
 {
-       struct mlx5_wqe *restrict wqe;
+       struct mlx5_wqe *__rte_restrict wqe;
        unsigned int ds, dlen, inlen, ntcp, vlan = 0;
 
+       if (MLX5_TXOFF_CONFIG(TXPP)) {
+               enum mlx5_txcmp_code wret;
+
+               /* Generate WAIT for scheduling if requested. */
+               wret = mlx5_tx_schedule_send(txq, loc, olx);
+               if (wret == MLX5_TXCMP_CODE_EXIT)
+                       return MLX5_TXCMP_CODE_EXIT;
+               if (wret == MLX5_TXCMP_CODE_ERROR)
+                       return MLX5_TXCMP_CODE_ERROR;
+       }
        /*
         * Calculate data length to be inlined to estimate
         * the required space in WQE ring buffer.
@@ -3293,15 +3449,25 @@ mlx5_tx_packet_multi_tso(struct mlx5_txq_data *restrict txq,
  * Local context variables partially updated.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_packet_multi_send(struct mlx5_txq_data *restrict txq,
-                         struct mlx5_txq_local *restrict loc,
+mlx5_tx_packet_multi_send(struct mlx5_txq_data *__rte_restrict txq,
+                         struct mlx5_txq_local *__rte_restrict loc,
                          unsigned int olx)
 {
-       struct mlx5_wqe_dseg *restrict dseg;
-       struct mlx5_wqe *restrict wqe;
+       struct mlx5_wqe_dseg *__rte_restrict dseg;
+       struct mlx5_wqe *__rte_restrict wqe;
        unsigned int ds, nseg;
 
        MLX5_ASSERT(NB_SEGS(loc->mbuf) > 1);
+       if (MLX5_TXOFF_CONFIG(TXPP)) {
+               enum mlx5_txcmp_code wret;
+
+               /* Generate WAIT for scheduling if requested. */
+               wret = mlx5_tx_schedule_send(txq, loc, olx);
+               if (wret == MLX5_TXCMP_CODE_EXIT)
+                       return MLX5_TXCMP_CODE_EXIT;
+               if (wret == MLX5_TXCMP_CODE_ERROR)
+                       return MLX5_TXCMP_CODE_ERROR;
+       }
        /*
         * No inline at all, it means the CPU cycles saving
         * is prioritized at configuration, we should not
@@ -3401,15 +3567,25 @@ mlx5_tx_packet_multi_send(struct mlx5_txq_data *restrict txq,
  * Local context variables partially updated.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_packet_multi_inline(struct mlx5_txq_data *restrict txq,
-                           struct mlx5_txq_local *restrict loc,
+mlx5_tx_packet_multi_inline(struct mlx5_txq_data *__rte_restrict txq,
+                           struct mlx5_txq_local *__rte_restrict loc,
                            unsigned int olx)
 {
-       struct mlx5_wqe *restrict wqe;
+       struct mlx5_wqe *__rte_restrict wqe;
        unsigned int ds, inlen, dlen, vlan = 0;
 
        MLX5_ASSERT(MLX5_TXOFF_CONFIG(INLINE));
        MLX5_ASSERT(NB_SEGS(loc->mbuf) > 1);
+       if (MLX5_TXOFF_CONFIG(TXPP)) {
+               enum mlx5_txcmp_code wret;
+
+               /* Generate WAIT for scheduling if requested. */
+               wret = mlx5_tx_schedule_send(txq, loc, olx);
+               if (wret == MLX5_TXCMP_CODE_EXIT)
+                       return MLX5_TXCMP_CODE_EXIT;
+               if (wret == MLX5_TXCMP_CODE_ERROR)
+                       return MLX5_TXCMP_CODE_ERROR;
+       }
        /*
         * First calculate data length to be inlined
         * to estimate the required space for WQE.
@@ -3566,10 +3742,10 @@ do_align:
  * Local context variables updated.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_burst_mseg(struct mlx5_txq_data *restrict txq,
-                  struct rte_mbuf **restrict pkts,
+mlx5_tx_burst_mseg(struct mlx5_txq_data *__rte_restrict txq,
+                  struct rte_mbuf **__rte_restrict pkts,
                   unsigned int pkts_n,
-                  struct mlx5_txq_local *restrict loc,
+                  struct mlx5_txq_local *__rte_restrict loc,
                   unsigned int olx)
 {
        MLX5_ASSERT(loc->elts_free && loc->wqe_free);
@@ -3655,10 +3831,10 @@ mlx5_tx_burst_mseg(struct mlx5_txq_data *restrict txq,
  * Local context variables updated.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_burst_tso(struct mlx5_txq_data *restrict txq,
-                 struct rte_mbuf **restrict pkts,
+mlx5_tx_burst_tso(struct mlx5_txq_data *__rte_restrict txq,
+                 struct rte_mbuf **__rte_restrict pkts,
                  unsigned int pkts_n,
-                 struct mlx5_txq_local *restrict loc,
+                 struct mlx5_txq_local *__rte_restrict loc,
                  unsigned int olx)
 {
        MLX5_ASSERT(loc->elts_free && loc->wqe_free);
@@ -3666,12 +3842,22 @@ mlx5_tx_burst_tso(struct mlx5_txq_data *restrict txq,
        pkts += loc->pkts_sent + 1;
        pkts_n -= loc->pkts_sent;
        for (;;) {
-               struct mlx5_wqe_dseg *restrict dseg;
-               struct mlx5_wqe *restrict wqe;
+               struct mlx5_wqe_dseg *__rte_restrict dseg;
+               struct mlx5_wqe *__rte_restrict wqe;
                unsigned int ds, dlen, hlen, ntcp, vlan = 0;
                uint8_t *dptr;
 
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                dlen = rte_pktmbuf_data_len(loc->mbuf);
                if (MLX5_TXOFF_CONFIG(VLAN) &&
                    loc->mbuf->ol_flags & PKT_TX_VLAN_PKT) {
@@ -3779,8 +3965,8 @@ mlx5_tx_burst_tso(struct mlx5_txq_data *restrict txq,
  *  MLX5_TXCMP_CODE_EMPW - single-segment packet, use MPW.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_able_to_empw(struct mlx5_txq_data *restrict txq,
-                    struct mlx5_txq_local *restrict loc,
+mlx5_tx_able_to_empw(struct mlx5_txq_data *__rte_restrict txq,
+                    struct mlx5_txq_local *__rte_restrict loc,
                     unsigned int olx,
                     bool newp)
 {
@@ -3834,9 +4020,9 @@ mlx5_tx_able_to_empw(struct mlx5_txq_data *restrict txq,
  *  false - no match, eMPW should be restarted.
  */
 static __rte_always_inline bool
-mlx5_tx_match_empw(struct mlx5_txq_data *restrict txq __rte_unused,
-                  struct mlx5_wqe_eseg *restrict es,
-                  struct mlx5_txq_local *restrict loc,
+mlx5_tx_match_empw(struct mlx5_txq_data *__rte_restrict txq,
+                  struct mlx5_wqe_eseg *__rte_restrict es,
+                  struct mlx5_txq_local *__rte_restrict loc,
                   uint32_t dlen,
                   unsigned int olx)
 {
@@ -3863,6 +4049,10 @@ mlx5_tx_match_empw(struct mlx5_txq_data *restrict txq __rte_unused,
        /* There must be no VLAN packets in eMPW loop. */
        if (MLX5_TXOFF_CONFIG(VLAN))
                MLX5_ASSERT(!(loc->mbuf->ol_flags & PKT_TX_VLAN_PKT));
+       /* Check if the scheduling is requested. */
+       if (MLX5_TXOFF_CONFIG(TXPP) &&
+           loc->mbuf->ol_flags & txq->ts_mask)
+               return false;
        return true;
 }
 
@@ -3888,8 +4078,8 @@ mlx5_tx_match_empw(struct mlx5_txq_data *restrict txq __rte_unused,
  *  false - no match, eMPW should be restarted.
  */
 static __rte_always_inline void
-mlx5_tx_sdone_empw(struct mlx5_txq_data *restrict txq,
-                  struct mlx5_txq_local *restrict loc,
+mlx5_tx_sdone_empw(struct mlx5_txq_data *__rte_restrict txq,
+                  struct mlx5_txq_local *__rte_restrict loc,
                   unsigned int ds,
                   unsigned int slen,
                   unsigned int olx __rte_unused)
@@ -3933,11 +4123,11 @@ mlx5_tx_sdone_empw(struct mlx5_txq_data *restrict txq,
  *  false - no match, eMPW should be restarted.
  */
 static __rte_always_inline void
-mlx5_tx_idone_empw(struct mlx5_txq_data *restrict txq,
-                  struct mlx5_txq_local *restrict loc,
+mlx5_tx_idone_empw(struct mlx5_txq_data *__rte_restrict txq,
+                  struct mlx5_txq_local *__rte_restrict loc,
                   unsigned int len,
                   unsigned int slen,
-                  struct mlx5_wqe *restrict wqem,
+                  struct mlx5_wqe *__rte_restrict wqem,
                   unsigned int olx __rte_unused)
 {
        struct mlx5_wqe_dseg *dseg = &wqem->dseg[0];
@@ -4021,10 +4211,10 @@ mlx5_tx_idone_empw(struct mlx5_txq_data *restrict txq,
  * No VLAN insertion is supported.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_burst_empw_simple(struct mlx5_txq_data *restrict txq,
-                         struct rte_mbuf **restrict pkts,
+mlx5_tx_burst_empw_simple(struct mlx5_txq_data *__rte_restrict txq,
+                         struct rte_mbuf **__rte_restrict pkts,
                          unsigned int pkts_n,
-                         struct mlx5_txq_local *restrict loc,
+                         struct mlx5_txq_local *__rte_restrict loc,
                          unsigned int olx)
 {
        /*
@@ -4040,14 +4230,24 @@ mlx5_tx_burst_empw_simple(struct mlx5_txq_data *restrict txq,
        pkts += loc->pkts_sent + 1;
        pkts_n -= loc->pkts_sent;
        for (;;) {
-               struct mlx5_wqe_dseg *restrict dseg;
-               struct mlx5_wqe_eseg *restrict eseg;
+               struct mlx5_wqe_dseg *__rte_restrict dseg;
+               struct mlx5_wqe_eseg *__rte_restrict eseg;
                enum mlx5_txcmp_code ret;
                unsigned int part, loop;
                unsigned int slen = 0;
 
 next_empw:
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                part = RTE_MIN(pkts_n, MLX5_TXOFF_CONFIG(MPW) ?
                                       MLX5_MPW_MAX_PACKETS :
                                       MLX5_EMPW_MAX_PACKETS);
@@ -4143,6 +4343,7 @@ next_empw:
                         * - metadata value
                         * - software parser settings
                         * - packets length (legacy MPW only)
+                        * - scheduling is not required
                         */
                        if (!mlx5_tx_match_empw(txq, eseg, loc, dlen, olx)) {
                                MLX5_ASSERT(loop);
@@ -4187,10 +4388,10 @@ next_empw:
  * with inlining, optionally supports VLAN insertion.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_burst_empw_inline(struct mlx5_txq_data *restrict txq,
-                         struct rte_mbuf **restrict pkts,
+mlx5_tx_burst_empw_inline(struct mlx5_txq_data *__rte_restrict txq,
+                         struct rte_mbuf **__rte_restrict pkts,
                          unsigned int pkts_n,
-                         struct mlx5_txq_local *restrict loc,
+                         struct mlx5_txq_local *__rte_restrict loc,
                          unsigned int olx)
 {
        /*
@@ -4206,13 +4407,23 @@ mlx5_tx_burst_empw_inline(struct mlx5_txq_data *restrict txq,
        pkts += loc->pkts_sent + 1;
        pkts_n -= loc->pkts_sent;
        for (;;) {
-               struct mlx5_wqe_dseg *restrict dseg;
-               struct mlx5_wqe *restrict wqem;
+               struct mlx5_wqe_dseg *__rte_restrict dseg;
+               struct mlx5_wqe *__rte_restrict wqem;
                enum mlx5_txcmp_code ret;
                unsigned int room, part, nlim;
                unsigned int slen = 0;
 
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                /*
                 * Limits the amount of packets in one WQE
                 * to improve CQE latency generation.
@@ -4286,6 +4497,8 @@ mlx5_tx_burst_empw_inline(struct mlx5_txq_data *restrict txq,
                            loc->mbuf->ol_flags & PKT_TX_DYNF_NOINLINE)
                                goto pointer_empw;
                        if (MLX5_TXOFF_CONFIG(MPW)) {
+                               if (dlen > txq->inlen_send)
+                                       goto pointer_empw;
                                tlen = dlen;
                                if (part == room) {
                                        /* Open new inline MPW session. */
@@ -4436,6 +4649,7 @@ next_mbuf:
                         * - metadata value
                         * - software parser settings
                         * - packets length (legacy MPW only)
+                        * - scheduling is not required
                         */
                        if (!mlx5_tx_match_empw(txq, &wqem->eseg,
                                                loc, dlen, olx))
@@ -4466,10 +4680,10 @@ next_mbuf:
  * Data inlining and VLAN insertion are supported.
  */
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_burst_single_send(struct mlx5_txq_data *restrict txq,
-                         struct rte_mbuf **restrict pkts,
+mlx5_tx_burst_single_send(struct mlx5_txq_data *__rte_restrict txq,
+                         struct rte_mbuf **__rte_restrict pkts,
                          unsigned int pkts_n,
-                         struct mlx5_txq_local *restrict loc,
+                         struct mlx5_txq_local *__rte_restrict loc,
                          unsigned int olx)
 {
        /*
@@ -4481,10 +4695,20 @@ mlx5_tx_burst_single_send(struct mlx5_txq_data *restrict txq,
        pkts += loc->pkts_sent + 1;
        pkts_n -= loc->pkts_sent;
        for (;;) {
-               struct mlx5_wqe *restrict wqe;
+               struct mlx5_wqe *__rte_restrict wqe;
                enum mlx5_txcmp_code ret;
 
                MLX5_ASSERT(NB_SEGS(loc->mbuf) == 1);
+               if (MLX5_TXOFF_CONFIG(TXPP)) {
+                       enum mlx5_txcmp_code wret;
+
+                       /* Generate WAIT for scheduling if requested. */
+                       wret = mlx5_tx_schedule_send(txq, loc, olx);
+                       if (wret == MLX5_TXCMP_CODE_EXIT)
+                               return MLX5_TXCMP_CODE_EXIT;
+                       if (wret == MLX5_TXCMP_CODE_ERROR)
+                               return MLX5_TXCMP_CODE_ERROR;
+               }
                if (MLX5_TXOFF_CONFIG(INLINE)) {
                        unsigned int inlen, vlan = 0;
 
@@ -4579,7 +4803,7 @@ mlx5_tx_burst_single_send(struct mlx5_txq_data *restrict txq,
                                 * not contain inlined data for eMPW due to
                                 * segment shared for all packets.
                                 */
-                               struct mlx5_wqe_dseg *restrict dseg;
+                               struct mlx5_wqe_dseg *__rte_restrict dseg;
                                unsigned int ds;
                                uint8_t *dptr;
 
@@ -4742,10 +4966,10 @@ single_no_inline:
 }
 
 static __rte_always_inline enum mlx5_txcmp_code
-mlx5_tx_burst_single(struct mlx5_txq_data *restrict txq,
-                    struct rte_mbuf **restrict pkts,
+mlx5_tx_burst_single(struct mlx5_txq_data *__rte_restrict txq,
+                    struct rte_mbuf **__rte_restrict pkts,
                     unsigned int pkts_n,
-                    struct mlx5_txq_local *restrict loc,
+                    struct mlx5_txq_local *__rte_restrict loc,
                     unsigned int olx)
 {
        enum mlx5_txcmp_code ret;
@@ -4796,8 +5020,8 @@ ordinary_send:
  *   Number of packets successfully transmitted (<= pkts_n).
  */
 static __rte_always_inline uint16_t
-mlx5_tx_burst_tmpl(struct mlx5_txq_data *restrict txq,
-                  struct rte_mbuf **restrict pkts,
+mlx5_tx_burst_tmpl(struct mlx5_txq_data *__rte_restrict txq,
+                  struct rte_mbuf **__rte_restrict pkts,
                   uint16_t pkts_n,
                   unsigned int olx)
 {
@@ -4827,7 +5051,7 @@ send_loop:
        /*
         * Calculate the number of available resources - elts and WQEs.
         * There are two possible different scenarios:
-        * - no data inlining into WQEs, one WQEBB may contains upto
+        * - no data inlining into WQEs, one WQEBB may contains up to
         *   four packets, in this case elts become scarce resource
         * - data inlining into WQEs, one packet may require multiple
         *   WQEBBs, the WQEs become the limiting factor.
@@ -5209,9 +5433,48 @@ MLX5_TXOFF_DECL(iv,
                MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
                MLX5_TXOFF_CONFIG_METADATA)
 
+/* Generate routines with timestamp scheduling. */
+MLX5_TXOFF_DECL(full_ts_nompw,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_DECL(full_ts_nompwi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_DECL(full_ts,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(full_ts_noi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(none_ts,
+               MLX5_TXOFF_CONFIG_NONE | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(mdi_ts,
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(mti_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_DECL(mtiv_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
+               MLX5_TXOFF_CONFIG_METADATA | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
 /*
  * Generate routines with Legacy Multi-Packet Write support.
- * This mode is supported by ConnectX-4LX only and imposes
+ * This mode is supported by ConnectX-4 Lx only and imposes
  * offload limitations, not supported:
  *   - ACL/Flows (metadata are becoming meaningless)
  *   - WQE Inline headers
@@ -5313,6 +5576,44 @@ MLX5_TXOFF_INFO(iv_empw,
                MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
                MLX5_TXOFF_CONFIG_METADATA | MLX5_TXOFF_CONFIG_EMPW)
 
+MLX5_TXOFF_INFO(full_ts_nompw,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_INFO(full_ts_nompwi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP)
+
+MLX5_TXOFF_INFO(full_ts,
+               MLX5_TXOFF_CONFIG_FULL | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(full_ts_noi,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
+               MLX5_TXOFF_CONFIG_VLAN | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(none_ts,
+               MLX5_TXOFF_CONFIG_NONE | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(mdi_ts,
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(mti_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_METADATA |
+               MLX5_TXOFF_CONFIG_TXPP | MLX5_TXOFF_CONFIG_EMPW)
+
+MLX5_TXOFF_INFO(mtiv_ts,
+               MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
+               MLX5_TXOFF_CONFIG_INLINE | MLX5_TXOFF_CONFIG_VLAN |
+               MLX5_TXOFF_CONFIG_METADATA | MLX5_TXOFF_CONFIG_TXPP |
+               MLX5_TXOFF_CONFIG_EMPW)
+
 MLX5_TXOFF_INFO(full,
                MLX5_TXOFF_CONFIG_MULTI | MLX5_TXOFF_CONFIG_TSO |
                MLX5_TXOFF_CONFIG_SWP | MLX5_TXOFF_CONFIG_CSUM |
@@ -5459,6 +5760,14 @@ mlx5_select_tx_function(struct rte_eth_dev *dev)
                /* We should support VLAN insertion. */
                olx |= MLX5_TXOFF_CONFIG_VLAN;
        }
+       if (tx_offloads & DEV_TX_OFFLOAD_SEND_ON_TIMESTAMP &&
+           rte_mbuf_dynflag_lookup
+                       (RTE_MBUF_DYNFLAG_TX_TIMESTAMP_NAME, NULL) > 0 &&
+           rte_mbuf_dynfield_lookup
+                       (RTE_MBUF_DYNFIELD_TIMESTAMP_NAME, NULL) > 0) {
+               /* Offload configured, dynamic entities registered. */
+               olx |= MLX5_TXOFF_CONFIG_TXPP;
+       }
        if (priv->txqs_n && (*priv->txqs)[0]) {
                struct mlx5_txq_data *txd = (*priv->txqs)[0];
 
@@ -5519,12 +5828,18 @@ mlx5_select_tx_function(struct rte_eth_dev *dev)
                        /* Does not meet requested offloads at all. */
                        continue;
                }
+               if ((olx ^ tmp) & MLX5_TXOFF_CONFIG_MPW)
+                       /* Do not enable legacy MPW if not configured. */
+                       continue;
                if ((olx ^ tmp) & MLX5_TXOFF_CONFIG_EMPW)
                        /* Do not enable eMPW if not configured. */
                        continue;
                if ((olx ^ tmp) & MLX5_TXOFF_CONFIG_INLINE)
                        /* Do not enable inlining if not configured. */
                        continue;
+               if ((olx ^ tmp) & MLX5_TXOFF_CONFIG_TXPP)
+                       /* Do not enable scheduling if not configured. */
+                       continue;
                /*
                 * Some routine meets the requirements.
                 * Check whether it has minimal amount
@@ -5569,6 +5884,8 @@ mlx5_select_tx_function(struct rte_eth_dev *dev)
                DRV_LOG(DEBUG, "\tVLANI (VLAN insertion)");
        if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_METADATA)
                DRV_LOG(DEBUG, "\tMETAD (tx Flow metadata)");
+       if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_TXPP)
+               DRV_LOG(DEBUG, "\tMETAD (tx Scheduling)");
        if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_EMPW) {
                if (txoff_func[m].olx & MLX5_TXOFF_CONFIG_MPW)
                        DRV_LOG(DEBUG, "\tMPW   (Legacy MPW)");
@@ -5643,7 +5960,7 @@ mlx5_tx_burst_mode_get(struct rte_eth_dev *dev,
                if (pkt_burst == txoff_func[i].func) {
                        olx = txoff_func[i].olx;
                        snprintf(mode->info, sizeof(mode->info),
-                                "%s%s%s%s%s%s%s%s",
+                                "%s%s%s%s%s%s%s%s%s",
                                 (olx & MLX5_TXOFF_CONFIG_EMPW) ?
                                 ((olx & MLX5_TXOFF_CONFIG_MPW) ?
                                 "Legacy MPW" : "Enhanced MPW") : "No MPW",
@@ -5660,7 +5977,9 @@ mlx5_tx_burst_mode_get(struct rte_eth_dev *dev,
                                 (olx & MLX5_TXOFF_CONFIG_VLAN) ?
                                 " + VLAN" : "",
                                 (olx & MLX5_TXOFF_CONFIG_METADATA) ?
-                                " + METADATA" : "");
+                                " + METADATA" : "",
+                                (olx & MLX5_TXOFF_CONFIG_TXPP) ?
+                                " + TXPP" : "");
                        return 0;
                }
        }