]> git.droids-corp.org - dpdk.git/commitdiff
net/mlx5: separate Tx queue object creations
authorMichael Baum <michaelba@nvidia.com>
Thu, 1 Oct 2020 14:09:18 +0000 (14:09 +0000)
committerFerruh Yigit <ferruh.yigit@intel.com>
Fri, 9 Oct 2020 11:17:42 +0000 (13:17 +0200)
As an arrangement to Windows OS support, the Verbs operations should be
separated to another file.
By this way, the build can easily cut the unsupported Verbs APIs from
the compilation process.

Define operation structure and DevX module in addition to the existing
Linux Verbs module.
Separate Tx object creation into the Verbs/DevX modules and update the
operation structure according to the OS support and the user
configuration.

Signed-off-by: Michael Baum <michaelba@nvidia.com>
Acked-by: Matan Azrad <matan@nvidia.com>
drivers/net/mlx5/linux/mlx5_os.c
drivers/net/mlx5/linux/mlx5_verbs.c
drivers/net/mlx5/linux/mlx5_verbs.h
drivers/net/mlx5/mlx5.h
drivers/net/mlx5/mlx5_devx.c
drivers/net/mlx5/mlx5_devx.h
drivers/net/mlx5/mlx5_rxtx.h
drivers/net/mlx5/mlx5_trigger.c
drivers/net/mlx5/mlx5_txq.c

index 188a6d4c38e9a9626c0a4f9249cdce8372f79423..c5332a0992a1f28bc0169f19c3d50de6d7140f87 100644 (file)
@@ -511,6 +511,70 @@ out:
        return ret;
 }
 
+/**
+ * Create the Tx queue DevX/Verbs object.
+ *
+ * @param dev
+ *   Pointer to Ethernet device.
+ * @param idx
+ *   Queue index in DPDK Tx queue array.
+ *
+ * @return
+ *   The DevX/Verbs object initialized, NULL otherwise and rte_errno is set.
+ */
+static struct mlx5_txq_obj *
+mlx5_os_txq_obj_new(struct rte_eth_dev *dev, uint16_t idx)
+{
+       struct mlx5_priv *priv = dev->data->dev_private;
+       struct mlx5_dev_config *config = &priv->config;
+       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
+       struct mlx5_txq_ctrl *txq_ctrl =
+                       container_of(txq_data, struct mlx5_txq_ctrl, txq);
+
+       /*
+        * When DevX is supported and DV flow is enable, and dest tir is enable,
+        * hairpin functions use DevX API.
+        * When, in addition, DV E-Switch is enable and DevX uar offset is
+        * supported, all Tx functions also use DevX API.
+        * Otherwise, all Tx functions use Verbs API.
+        */
+       if (config->devx && config->dv_flow_en && config->dest_tir) {
+               if (txq_ctrl->type == MLX5_TXQ_TYPE_HAIRPIN)
+                       return mlx5_txq_devx_obj_new(dev, idx);
+#ifdef HAVE_MLX5DV_DEVX_UAR_OFFSET
+               if (config->dv_esw_en)
+                       return mlx5_txq_devx_obj_new(dev, idx);
+#endif
+       }
+       return mlx5_txq_ibv_obj_new(dev, idx);
+}
+
+/**
+ * Release an Tx DevX/verbs queue object.
+ *
+ * @param txq_obj
+ *   DevX/Verbs Tx queue object.
+ */
+static void
+mlx5_os_txq_obj_release(struct mlx5_txq_obj *txq_obj)
+{
+       struct mlx5_dev_config *config = &txq_obj->txq_ctrl->priv->config;
+
+       if (config->devx && config->dv_flow_en && config->dest_tir) {
+#ifdef HAVE_MLX5DV_DEVX_UAR_OFFSET
+               if (config->dv_esw_en) {
+                       mlx5_txq_devx_obj_release(txq_obj);
+                       return;
+               }
+#endif
+               if (txq_obj->txq_ctrl->type == MLX5_TXQ_TYPE_HAIRPIN) {
+                       mlx5_txq_devx_obj_release(txq_obj);
+                       return;
+               }
+       }
+       mlx5_txq_ibv_obj_release(txq_obj);
+}
+
 /**
  * Spawn an Ethernet device from Verbs information.
  *
@@ -1299,6 +1363,12 @@ err_secondary:
                        goto error;
                }
        }
+       /*
+        * Initialize the dev_ops structure with DevX/Verbs function pointers.
+        * When DevX is supported and both DV flow and dest tir are enabled, all
+        * Rx functions use DevX API (except for drop that has not yet been
+        * implemented in DevX).
+        */
        if (config->devx && config->dv_flow_en && config->dest_tir) {
                priv->obj_ops = devx_obj_ops;
                priv->obj_ops.drop_action_create =
@@ -1308,6 +1378,9 @@ err_secondary:
        } else {
                priv->obj_ops = ibv_obj_ops;
        }
+       /* The Tx objects are managed by a specific linux wrapper functions. */
+       priv->obj_ops.txq_obj_new = mlx5_os_txq_obj_new;
+       priv->obj_ops.txq_obj_release = mlx5_os_txq_obj_release;
        /* Supported Verbs flow priority number detection. */
        err = mlx5_flow_discover_priorities(eth_dev);
        if (err < 0) {
index 20f659e8ac04c6cf68acb5de7475d965673dc9a8..c79c4a220a0eb8e743377e5d8464c4e0f53d7f06 100644 (file)
@@ -782,6 +782,289 @@ mlx5_ibv_drop_action_destroy(struct rte_eth_dev *dev)
        mlx5_rxq_ibv_obj_drop_release(dev);
 }
 
+/**
+ * Create a QP Verbs object.
+ *
+ * @param dev
+ *   Pointer to Ethernet device.
+ * @param idx
+ *   Queue index in DPDK Tx queue array.
+ * @param rxq_obj
+ *   Pointer to Tx queue object data.
+ *
+ * @return
+ *   The QP Verbs object initialized, NULL otherwise and rte_errno is set.
+ */
+static struct ibv_qp *
+mlx5_ibv_qp_new(struct rte_eth_dev *dev, uint16_t idx,
+               struct mlx5_txq_obj *txq_obj)
+{
+       struct mlx5_priv *priv = dev->data->dev_private;
+       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
+       struct mlx5_txq_ctrl *txq_ctrl =
+                       container_of(txq_data, struct mlx5_txq_ctrl, txq);
+       struct ibv_qp *qp_obj = NULL;
+       struct ibv_qp_init_attr_ex qp_attr = { 0 };
+       const int desc = 1 << txq_data->elts_n;
+
+       MLX5_ASSERT(!txq_ctrl->obj);
+       /* CQ to be associated with the send queue. */
+       qp_attr.send_cq = txq_obj->cq;
+       /* CQ to be associated with the receive queue. */
+       qp_attr.recv_cq = txq_obj->cq;
+       /* Max number of outstanding WRs. */
+       qp_attr.cap.max_send_wr = ((priv->sh->device_attr.max_qp_wr < desc) ?
+                                  priv->sh->device_attr.max_qp_wr : desc);
+       /*
+        * Max number of scatter/gather elements in a WR, must be 1 to prevent
+        * libmlx5 from trying to affect must be 1 to prevent libmlx5 from
+        * trying to affect too much memory. TX gather is not impacted by the
+        * device_attr.max_sge limit and will still work properly.
+        */
+       qp_attr.cap.max_send_sge = 1;
+       qp_attr.qp_type = IBV_QPT_RAW_PACKET,
+       /* Do *NOT* enable this, completions events are managed per Tx burst. */
+       qp_attr.sq_sig_all = 0;
+       qp_attr.pd = priv->sh->pd;
+       qp_attr.comp_mask = IBV_QP_INIT_ATTR_PD;
+       if (txq_data->inlen_send)
+               qp_attr.cap.max_inline_data = txq_ctrl->max_inline_data;
+       if (txq_data->tso_en) {
+               qp_attr.max_tso_header = txq_ctrl->max_tso_header;
+               qp_attr.comp_mask |= IBV_QP_INIT_ATTR_MAX_TSO_HEADER;
+       }
+       qp_obj = mlx5_glue->create_qp_ex(priv->sh->ctx, &qp_attr);
+       if (qp_obj == NULL) {
+               DRV_LOG(ERR, "Port %u Tx queue %u QP creation failure.",
+                       dev->data->port_id, idx);
+               rte_errno = errno;
+       }
+       return qp_obj;
+}
+
+/**
+ * Create the Tx queue Verbs object.
+ *
+ * @param dev
+ *   Pointer to Ethernet device.
+ * @param idx
+ *   Queue index in DPDK Tx queue array.
+ *
+ * @return
+ *   The Verbs object initialized, NULL otherwise and rte_errno is set.
+ */
+struct mlx5_txq_obj *
+mlx5_txq_ibv_obj_new(struct rte_eth_dev *dev, uint16_t idx)
+{
+       struct mlx5_priv *priv = dev->data->dev_private;
+       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
+       struct mlx5_txq_ctrl *txq_ctrl =
+               container_of(txq_data, struct mlx5_txq_ctrl, txq);
+       struct mlx5_txq_obj tmpl;
+       struct mlx5_txq_obj *txq_obj = NULL;
+       struct ibv_qp_attr mod;
+       unsigned int cqe_n;
+       struct mlx5dv_qp qp;
+       struct mlx5dv_cq cq_info;
+       struct mlx5dv_obj obj;
+       const int desc = 1 << txq_data->elts_n;
+       int ret = 0;
+
+       MLX5_ASSERT(txq_data);
+       priv->verbs_alloc_ctx.type = MLX5_VERBS_ALLOC_TYPE_TX_QUEUE;
+       priv->verbs_alloc_ctx.obj = txq_ctrl;
+       if (mlx5_getenv_int("MLX5_ENABLE_CQE_COMPRESSION")) {
+               DRV_LOG(ERR, "Port %u MLX5_ENABLE_CQE_COMPRESSION "
+                       "must never be set.", dev->data->port_id);
+               rte_errno = EINVAL;
+               return NULL;
+       }
+       memset(&tmpl, 0, sizeof(struct mlx5_txq_obj));
+       cqe_n = desc / MLX5_TX_COMP_THRESH +
+               1 + MLX5_TX_COMP_THRESH_INLINE_DIV;
+       tmpl.cq = mlx5_glue->create_cq(priv->sh->ctx, cqe_n, NULL, NULL, 0);
+       if (tmpl.cq == NULL) {
+               DRV_LOG(ERR, "Port %u Tx queue %u CQ creation failure.",
+                       dev->data->port_id, idx);
+               rte_errno = errno;
+               goto error;
+       }
+       tmpl.qp = mlx5_ibv_qp_new(dev, idx, &tmpl);
+       if (tmpl.qp == NULL) {
+               rte_errno = errno;
+               goto error;
+       }
+       mod = (struct ibv_qp_attr){
+               /* Move the QP to this state. */
+               .qp_state = IBV_QPS_INIT,
+               /* IB device port number. */
+               .port_num = (uint8_t)priv->dev_port,
+       };
+       ret = mlx5_glue->modify_qp(tmpl.qp, &mod, (IBV_QP_STATE | IBV_QP_PORT));
+       if (ret) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u QP state to IBV_QPS_INIT failed.",
+                       dev->data->port_id, idx);
+               rte_errno = errno;
+               goto error;
+       }
+       mod = (struct ibv_qp_attr){
+               .qp_state = IBV_QPS_RTR
+       };
+       ret = mlx5_glue->modify_qp(tmpl.qp, &mod, IBV_QP_STATE);
+       if (ret) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u QP state to IBV_QPS_RTR failed.",
+                       dev->data->port_id, idx);
+               rte_errno = errno;
+               goto error;
+       }
+       mod.qp_state = IBV_QPS_RTS;
+       ret = mlx5_glue->modify_qp(tmpl.qp, &mod, IBV_QP_STATE);
+       if (ret) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u QP state to IBV_QPS_RTS failed.",
+                       dev->data->port_id, idx);
+               rte_errno = errno;
+               goto error;
+       }
+       txq_obj = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
+                             sizeof(struct mlx5_txq_obj), 0,
+                             txq_ctrl->socket);
+       if (!txq_obj) {
+               DRV_LOG(ERR, "Port %u Tx queue %u cannot allocate memory.",
+                       dev->data->port_id, idx);
+               rte_errno = ENOMEM;
+               goto error;
+       }
+       qp.comp_mask = MLX5DV_QP_MASK_UAR_MMAP_OFFSET;
+#ifdef HAVE_IBV_FLOW_DV_SUPPORT
+       /* If using DevX, need additional mask to read tisn value. */
+       if (priv->sh->devx && !priv->sh->tdn)
+               qp.comp_mask |= MLX5DV_QP_MASK_RAW_QP_HANDLES;
+#endif
+       obj.cq.in = tmpl.cq;
+       obj.cq.out = &cq_info;
+       obj.qp.in = tmpl.qp;
+       obj.qp.out = &qp;
+       ret = mlx5_glue->dv_init_obj(&obj, MLX5DV_OBJ_CQ | MLX5DV_OBJ_QP);
+       if (ret != 0) {
+               rte_errno = errno;
+               goto error;
+       }
+       if (cq_info.cqe_size != RTE_CACHE_LINE_SIZE) {
+               DRV_LOG(ERR,
+                       "Port %u wrong MLX5_CQE_SIZE environment variable"
+                       " value: it should be set to %u.",
+                       dev->data->port_id, RTE_CACHE_LINE_SIZE);
+               rte_errno = EINVAL;
+               goto error;
+       }
+       txq_data->cqe_n = log2above(cq_info.cqe_cnt);
+       txq_data->cqe_s = 1 << txq_data->cqe_n;
+       txq_data->cqe_m = txq_data->cqe_s - 1;
+       txq_data->qp_num_8s = ((struct ibv_qp *)tmpl.qp)->qp_num << 8;
+       txq_data->wqes = qp.sq.buf;
+       txq_data->wqe_n = log2above(qp.sq.wqe_cnt);
+       txq_data->wqe_s = 1 << txq_data->wqe_n;
+       txq_data->wqe_m = txq_data->wqe_s - 1;
+       txq_data->wqes_end = txq_data->wqes + txq_data->wqe_s;
+       txq_data->qp_db = &qp.dbrec[MLX5_SND_DBR];
+       txq_data->cq_db = cq_info.dbrec;
+       txq_data->cqes = (volatile struct mlx5_cqe *)cq_info.buf;
+       txq_data->cq_ci = 0;
+       txq_data->cq_pi = 0;
+       txq_data->wqe_ci = 0;
+       txq_data->wqe_pi = 0;
+       txq_data->wqe_comp = 0;
+       txq_data->wqe_thres = txq_data->wqe_s / MLX5_TX_COMP_THRESH_INLINE_DIV;
+       txq_data->fcqs = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
+                                    txq_data->cqe_s * sizeof(*txq_data->fcqs),
+                                    RTE_CACHE_LINE_SIZE, txq_ctrl->socket);
+       if (!txq_data->fcqs) {
+               DRV_LOG(ERR, "Port %u Tx queue %u can't allocate memory (FCQ).",
+                       dev->data->port_id, idx);
+               rte_errno = ENOMEM;
+               goto error;
+       }
+#ifdef HAVE_IBV_FLOW_DV_SUPPORT
+       /*
+        * If using DevX need to query and store TIS transport domain value.
+        * This is done once per port.
+        * Will use this value on Rx, when creating matching TIR.
+        */
+       if (priv->sh->devx && !priv->sh->tdn) {
+               ret = mlx5_devx_cmd_qp_query_tis_td(tmpl.qp, qp.tisn,
+                                                   &priv->sh->tdn);
+               if (ret) {
+                       DRV_LOG(ERR, "Fail to query port %u Tx queue %u QP TIS "
+                               "transport domain.", dev->data->port_id, idx);
+                       rte_errno = EINVAL;
+                       goto error;
+               } else {
+                       DRV_LOG(DEBUG, "Port %u Tx queue %u TIS number %d "
+                               "transport domain %d.", dev->data->port_id,
+                               idx, qp.tisn, priv->sh->tdn);
+               }
+       }
+#endif
+       txq_obj->qp = tmpl.qp;
+       txq_obj->cq = tmpl.cq;
+       txq_ctrl->bf_reg = qp.bf.reg;
+       if (qp.comp_mask & MLX5DV_QP_MASK_UAR_MMAP_OFFSET) {
+               txq_ctrl->uar_mmap_offset = qp.uar_mmap_offset;
+               DRV_LOG(DEBUG, "Port %u: uar_mmap_offset 0x%" PRIx64 ".",
+                       dev->data->port_id, txq_ctrl->uar_mmap_offset);
+       } else {
+               DRV_LOG(ERR,
+                       "Port %u failed to retrieve UAR info, invalid"
+                       " libmlx5.so",
+                       dev->data->port_id);
+               rte_errno = EINVAL;
+               goto error;
+       }
+       txq_uar_init(txq_ctrl);
+       txq_obj->txq_ctrl = txq_ctrl;
+       LIST_INSERT_HEAD(&priv->txqsobj, txq_obj, next);
+       priv->verbs_alloc_ctx.type = MLX5_VERBS_ALLOC_TYPE_NONE;
+       return txq_obj;
+error:
+       ret = rte_errno; /* Save rte_errno before cleanup. */
+       if (tmpl.cq)
+               claim_zero(mlx5_glue->destroy_cq(tmpl.cq));
+       if (tmpl.qp)
+               claim_zero(mlx5_glue->destroy_qp(tmpl.qp));
+       if (txq_data->fcqs) {
+               mlx5_free(txq_data->fcqs);
+               txq_data->fcqs = NULL;
+       }
+       if (txq_obj)
+               mlx5_free(txq_obj);
+       priv->verbs_alloc_ctx.type = MLX5_VERBS_ALLOC_TYPE_NONE;
+       rte_errno = ret; /* Restore rte_errno. */
+       return NULL;
+}
+
+/**
+ * Release an Tx verbs queue object.
+ *
+ * @param txq_obj
+ *   Verbs Tx queue object..
+ */
+void
+mlx5_txq_ibv_obj_release(struct mlx5_txq_obj *txq_obj)
+{
+       MLX5_ASSERT(txq_obj);
+       claim_zero(mlx5_glue->destroy_qp(txq_obj->qp));
+       claim_zero(mlx5_glue->destroy_cq(txq_obj->cq));
+       if (txq_obj->txq_ctrl->txq.fcqs) {
+               mlx5_free(txq_obj->txq_ctrl->txq.fcqs);
+               txq_obj->txq_ctrl->txq.fcqs = NULL;
+       }
+       LIST_REMOVE(txq_obj, next);
+       mlx5_free(txq_obj);
+}
+
 struct mlx5_obj_ops ibv_obj_ops = {
        .rxq_obj_modify_vlan_strip = mlx5_rxq_obj_modify_wq_vlan_strip,
        .rxq_obj_new = mlx5_rxq_ibv_obj_new,
@@ -794,4 +1077,6 @@ struct mlx5_obj_ops ibv_obj_ops = {
        .hrxq_destroy = mlx5_ibv_qp_destroy,
        .drop_action_create = mlx5_ibv_drop_action_create,
        .drop_action_destroy = mlx5_ibv_drop_action_destroy,
+       .txq_obj_new = mlx5_txq_ibv_obj_new,
+       .txq_obj_release = mlx5_txq_ibv_obj_release,
 };
index 2e69c0ff3d10e071a577d0e4bd7cef80df16d2ad..7f6bb997c90a4bb362c17203515f9d14f9ba14ad 100644 (file)
@@ -12,6 +12,10 @@ struct mlx5_verbs_ops {
        mlx5_dereg_mr_t dereg_mr;
 };
 
+struct mlx5_txq_obj *mlx5_txq_ibv_obj_new(struct rte_eth_dev *dev,
+                                         uint16_t idx);
+void mlx5_txq_ibv_obj_release(struct mlx5_txq_obj *txq_obj);
+
 /* Verbs ops struct */
 extern const struct mlx5_verbs_ops mlx5_verbs_ops;
 extern struct mlx5_obj_ops ibv_obj_ops;
index 050d3a9883e7faa0b1700ee0670a4141420159ae..867975003295686d4429199d306177ba1a2e36e0 100644 (file)
@@ -735,6 +735,45 @@ struct mlx5_hrxq {
        uint8_t rss_key[]; /* Hash key. */
 };
 
+enum mlx5_txq_obj_type {
+       MLX5_TXQ_OBJ_TYPE_IBV,          /* mlx5_txq_obj with ibv_wq. */
+       MLX5_TXQ_OBJ_TYPE_DEVX_SQ,      /* mlx5_txq_obj with mlx5_devx_sq. */
+       MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN,
+       /* mlx5_txq_obj with mlx5_devx_tq and hairpin support. */
+};
+
+/* Verbs/DevX Tx queue elements. */
+struct mlx5_txq_obj {
+       LIST_ENTRY(mlx5_txq_obj) next; /* Pointer to the next element. */
+       struct mlx5_txq_ctrl *txq_ctrl; /* Pointer to the control queue. */
+       enum mlx5_txq_obj_type type; /* The txq object type. */
+       RTE_STD_C11
+       union {
+               struct {
+                       void *cq; /* Completion Queue. */
+                       void *qp; /* Queue Pair. */
+               };
+               struct {
+                       struct mlx5_devx_obj *sq;
+                       /* DevX object for Sx queue. */
+                       struct mlx5_devx_obj *tis; /* The TIS object. */
+               };
+               struct {
+                       struct rte_eth_dev *dev;
+                       struct mlx5_devx_obj *cq_devx;
+                       void *cq_umem;
+                       void *cq_buf;
+                       int64_t cq_dbrec_offset;
+                       struct mlx5_devx_dbr_page *cq_dbrec_page;
+                       struct mlx5_devx_obj *sq_devx;
+                       void *sq_umem;
+                       void *sq_buf;
+                       int64_t sq_dbrec_offset;
+                       struct mlx5_devx_dbr_page *sq_dbrec_page;
+               };
+       };
+};
+
 /* HW objects operations structure. */
 struct mlx5_obj_ops {
        int (*rxq_obj_modify_vlan_strip)(struct mlx5_rxq_obj *rxq_obj, int on);
@@ -750,6 +789,9 @@ struct mlx5_obj_ops {
        void (*hrxq_destroy)(struct mlx5_hrxq *hrxq);
        int (*drop_action_create)(struct rte_eth_dev *dev);
        void (*drop_action_destroy)(struct rte_eth_dev *dev);
+       struct mlx5_txq_obj *(*txq_obj_new)(struct rte_eth_dev *dev,
+                                           uint16_t idx);
+       void (*txq_obj_release)(struct mlx5_txq_obj *txq_obj);
 };
 
 struct mlx5_priv {
index cddfe43386eae8d68a0593e280ebc8c9448161d0..0b6e116167e9041043bf430a56103252c6924ca4 100644 (file)
@@ -791,7 +791,7 @@ static int
 mlx5_devx_drop_action_create(struct rte_eth_dev *dev)
 {
        (void)dev;
-       DRV_LOG(ERR, "DevX drop action is not supported yet");
+       DRV_LOG(ERR, "DevX drop action is not supported yet.");
        rte_errno = ENOTSUP;
        return -rte_errno;
 }
@@ -806,10 +806,535 @@ static void
 mlx5_devx_drop_action_destroy(struct rte_eth_dev *dev)
 {
        (void)dev;
-       DRV_LOG(ERR, "DevX drop action is not supported yet");
+       DRV_LOG(ERR, "DevX drop action is not supported yet.");
        rte_errno = ENOTSUP;
 }
 
+/**
+ * Create the Tx hairpin queue object.
+ *
+ * @param dev
+ *   Pointer to Ethernet device.
+ * @param idx
+ *   Queue index in DPDK Tx queue array.
+ *
+ * @return
+ *   The hairpin DevX object initialized, NULL otherwise and rte_errno is set.
+ */
+static struct mlx5_txq_obj *
+mlx5_txq_obj_hairpin_new(struct rte_eth_dev *dev, uint16_t idx)
+{
+       struct mlx5_priv *priv = dev->data->dev_private;
+       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
+       struct mlx5_txq_ctrl *txq_ctrl =
+               container_of(txq_data, struct mlx5_txq_ctrl, txq);
+       struct mlx5_devx_create_sq_attr attr = { 0 };
+       struct mlx5_txq_obj *tmpl = NULL;
+       uint32_t max_wq_data;
+
+       MLX5_ASSERT(txq_data);
+       MLX5_ASSERT(!txq_ctrl->obj);
+       tmpl = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO, sizeof(*tmpl), 0,
+                          txq_ctrl->socket);
+       if (!tmpl) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u cannot allocate memory resources.",
+                       dev->data->port_id, txq_data->idx);
+               rte_errno = ENOMEM;
+               return NULL;
+       }
+       tmpl->type = MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN;
+       tmpl->txq_ctrl = txq_ctrl;
+       attr.hairpin = 1;
+       attr.tis_lst_sz = 1;
+       max_wq_data = priv->config.hca_attr.log_max_hairpin_wq_data_sz;
+       /* Jumbo frames > 9KB should be supported, and more packets. */
+       if (priv->config.log_hp_size != (uint32_t)MLX5_ARG_UNSET) {
+               if (priv->config.log_hp_size > max_wq_data) {
+                       DRV_LOG(ERR, "Total data size %u power of 2 is "
+                               "too large for hairpin.",
+                               priv->config.log_hp_size);
+                       mlx5_free(tmpl);
+                       rte_errno = ERANGE;
+                       return NULL;
+               }
+               attr.wq_attr.log_hairpin_data_sz = priv->config.log_hp_size;
+       } else {
+               attr.wq_attr.log_hairpin_data_sz =
+                               (max_wq_data < MLX5_HAIRPIN_JUMBO_LOG_SIZE) ?
+                                max_wq_data : MLX5_HAIRPIN_JUMBO_LOG_SIZE;
+       }
+       /* Set the packets number to the maximum value for performance. */
+       attr.wq_attr.log_hairpin_num_packets =
+                       attr.wq_attr.log_hairpin_data_sz -
+                       MLX5_HAIRPIN_QUEUE_STRIDE;
+       attr.tis_num = priv->sh->tis->id;
+       tmpl->sq = mlx5_devx_cmd_create_sq(priv->sh->ctx, &attr);
+       if (!tmpl->sq) {
+               DRV_LOG(ERR,
+                       "Port %u tx hairpin queue %u can't create SQ object.",
+                       dev->data->port_id, idx);
+               mlx5_free(tmpl);
+               rte_errno = errno;
+               return NULL;
+       }
+       DRV_LOG(DEBUG, "Port %u sxq %u updated with %p.", dev->data->port_id,
+               idx, (void *)&tmpl);
+       LIST_INSERT_HEAD(&priv->txqsobj, tmpl, next);
+       return tmpl;
+}
+
+#ifdef HAVE_MLX5DV_DEVX_UAR_OFFSET
+/**
+ * Release DevX SQ resources.
+ *
+ * @param txq_obj
+ *   DevX Tx queue object.
+ */
+static void
+txq_release_devx_sq_resources(struct mlx5_txq_obj *txq_obj)
+{
+       if (txq_obj->sq_devx)
+               claim_zero(mlx5_devx_cmd_destroy(txq_obj->sq_devx));
+       if (txq_obj->sq_umem)
+               claim_zero(mlx5_glue->devx_umem_dereg(txq_obj->sq_umem));
+       if (txq_obj->sq_buf)
+               mlx5_free(txq_obj->sq_buf);
+       if (txq_obj->sq_dbrec_page)
+               claim_zero(mlx5_release_dbr(&txq_obj->txq_ctrl->priv->dbrpgs,
+                                           mlx5_os_get_umem_id
+                                                (txq_obj->sq_dbrec_page->umem),
+                                           txq_obj->sq_dbrec_offset));
+}
+
+/**
+ * Release DevX Tx CQ resources.
+ *
+ * @param txq_obj
+ *   DevX Tx queue object.
+ */
+static void
+txq_release_devx_cq_resources(struct mlx5_txq_obj *txq_obj)
+{
+       if (txq_obj->cq_devx)
+               claim_zero(mlx5_devx_cmd_destroy(txq_obj->cq_devx));
+       if (txq_obj->cq_umem)
+               claim_zero(mlx5_glue->devx_umem_dereg(txq_obj->cq_umem));
+       if (txq_obj->cq_buf)
+               mlx5_free(txq_obj->cq_buf);
+       if (txq_obj->cq_dbrec_page)
+               claim_zero(mlx5_release_dbr(&txq_obj->txq_ctrl->priv->dbrpgs,
+                                           mlx5_os_get_umem_id
+                                                (txq_obj->cq_dbrec_page->umem),
+                                           txq_obj->cq_dbrec_offset));
+}
+
+/**
+ * Destroy the Tx queue DevX object.
+ *
+ * @param txq_obj
+ *   Txq object to destroy.
+ */
+static void
+txq_release_devx_resources(struct mlx5_txq_obj *txq_obj)
+{
+       MLX5_ASSERT(txq_obj->type == MLX5_TXQ_OBJ_TYPE_DEVX_SQ);
+
+       txq_release_devx_cq_resources(txq_obj);
+       txq_release_devx_sq_resources(txq_obj);
+}
+
+/**
+ * Create a DevX CQ object for an Tx queue.
+ *
+ * @param dev
+ *   Pointer to Ethernet device.
+ * @param cqe_n
+ *   Number of entries in the CQ.
+ * @param idx
+ *   Queue index in DPDK Tx queue array.
+ * @param rxq_obj
+ *   Pointer to Tx queue object data.
+ *
+ * @return
+ *   The DevX CQ object initialized, NULL otherwise and rte_errno is set.
+ */
+static struct mlx5_devx_obj *
+mlx5_tx_devx_cq_new(struct rte_eth_dev *dev, uint32_t cqe_n, uint16_t idx,
+                   struct mlx5_txq_obj *txq_obj)
+{
+       struct mlx5_priv *priv = dev->data->dev_private;
+       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
+       struct mlx5_devx_obj *cq_obj = NULL;
+       struct mlx5_devx_cq_attr cq_attr = { 0 };
+       struct mlx5_cqe *cqe;
+       size_t page_size;
+       size_t alignment;
+       uint32_t i;
+       int ret;
+
+       MLX5_ASSERT(txq_data);
+       MLX5_ASSERT(txq_obj);
+       page_size = rte_mem_page_size();
+       if (page_size == (size_t)-1) {
+               DRV_LOG(ERR, "Failed to get mem page size.");
+               rte_errno = ENOMEM;
+               return NULL;
+       }
+       /* Allocate memory buffer for CQEs. */
+       alignment = MLX5_CQE_BUF_ALIGNMENT;
+       if (alignment == (size_t)-1) {
+               DRV_LOG(ERR, "Failed to get CQE buf alignment.");
+               rte_errno = ENOMEM;
+               return NULL;
+       }
+       cqe_n = 1UL << log2above(cqe_n);
+       if (cqe_n > UINT16_MAX) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u requests to many CQEs %u.",
+                       dev->data->port_id, txq_data->idx, cqe_n);
+               rte_errno = EINVAL;
+               return NULL;
+       }
+       txq_obj->cq_buf = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
+                                     cqe_n * sizeof(struct mlx5_cqe),
+                                     alignment,
+                                     priv->sh->numa_node);
+       if (!txq_obj->cq_buf) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u cannot allocate memory (CQ).",
+                       dev->data->port_id, txq_data->idx);
+               rte_errno = ENOMEM;
+               return NULL;
+       }
+       /* Register allocated buffer in user space with DevX. */
+       txq_obj->cq_umem = mlx5_glue->devx_umem_reg(priv->sh->ctx,
+                                               (void *)txq_obj->cq_buf,
+                                               cqe_n * sizeof(struct mlx5_cqe),
+                                               IBV_ACCESS_LOCAL_WRITE);
+       if (!txq_obj->cq_umem) {
+               rte_errno = errno;
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u cannot register memory (CQ).",
+                       dev->data->port_id, txq_data->idx);
+               goto error;
+       }
+       /* Allocate doorbell record for completion queue. */
+       txq_obj->cq_dbrec_offset = mlx5_get_dbr(priv->sh->ctx,
+                                               &priv->dbrpgs,
+                                               &txq_obj->cq_dbrec_page);
+       if (txq_obj->cq_dbrec_offset < 0) {
+               rte_errno = errno;
+               DRV_LOG(ERR, "Failed to allocate CQ door-bell.");
+               goto error;
+       }
+       cq_attr.cqe_size = (sizeof(struct mlx5_cqe) == 128) ?
+                           MLX5_CQE_SIZE_128B : MLX5_CQE_SIZE_64B;
+       cq_attr.uar_page_id = mlx5_os_get_devx_uar_page_id(priv->sh->tx_uar);
+       cq_attr.eqn = priv->sh->eqn;
+       cq_attr.q_umem_valid = 1;
+       cq_attr.q_umem_offset = (uintptr_t)txq_obj->cq_buf % page_size;
+       cq_attr.q_umem_id = mlx5_os_get_umem_id(txq_obj->cq_umem);
+       cq_attr.db_umem_valid = 1;
+       cq_attr.db_umem_offset = txq_obj->cq_dbrec_offset;
+       cq_attr.db_umem_id = mlx5_os_get_umem_id(txq_obj->cq_dbrec_page->umem);
+       cq_attr.log_cq_size = rte_log2_u32(cqe_n);
+       cq_attr.log_page_size = rte_log2_u32(page_size);
+       /* Create completion queue object with DevX. */
+       cq_obj = mlx5_devx_cmd_create_cq(priv->sh->ctx, &cq_attr);
+       if (!cq_obj) {
+               rte_errno = errno;
+               DRV_LOG(ERR, "Port %u Tx queue %u CQ creation failure.",
+                       dev->data->port_id, idx);
+               goto error;
+       }
+       txq_data->cqe_n = log2above(cqe_n);
+       txq_data->cqe_s = 1 << txq_data->cqe_n;
+       /* Initial fill CQ buffer with invalid CQE opcode. */
+       cqe = (struct mlx5_cqe *)txq_obj->cq_buf;
+       for (i = 0; i < txq_data->cqe_s; i++) {
+               cqe->op_own = (MLX5_CQE_INVALID << 4) | MLX5_CQE_OWNER_MASK;
+               ++cqe;
+       }
+       return cq_obj;
+error:
+       ret = rte_errno;
+       txq_release_devx_cq_resources(txq_obj);
+       rte_errno = ret;
+       return NULL;
+}
+
+/**
+ * Create a SQ object using DevX.
+ *
+ * @param dev
+ *   Pointer to Ethernet device.
+ * @param idx
+ *   Queue index in DPDK Tx queue array.
+ * @param rxq_obj
+ *   Pointer to Tx queue object data.
+ *
+ * @return
+ *   The DevX SQ object initialized, NULL otherwise and rte_errno is set.
+ */
+static struct mlx5_devx_obj *
+mlx5_devx_sq_new(struct rte_eth_dev *dev, uint16_t idx,
+                struct mlx5_txq_obj *txq_obj)
+{
+       struct mlx5_priv *priv = dev->data->dev_private;
+       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
+       struct mlx5_devx_create_sq_attr sq_attr = { 0 };
+       struct mlx5_devx_obj *sq_obj = NULL;
+       size_t page_size;
+       uint32_t wqe_n;
+       int ret;
+
+       MLX5_ASSERT(txq_data);
+       MLX5_ASSERT(txq_obj);
+       page_size = rte_mem_page_size();
+       if (page_size == (size_t)-1) {
+               DRV_LOG(ERR, "Failed to get mem page size.");
+               rte_errno = ENOMEM;
+               return NULL;
+       }
+       wqe_n = RTE_MIN(1UL << txq_data->elts_n,
+                       (uint32_t)priv->sh->device_attr.max_qp_wr);
+       txq_obj->sq_buf = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
+                                     wqe_n * sizeof(struct mlx5_wqe),
+                                     page_size, priv->sh->numa_node);
+       if (!txq_obj->sq_buf) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u cannot allocate memory (SQ).",
+                       dev->data->port_id, txq_data->idx);
+               rte_errno = ENOMEM;
+               goto error;
+       }
+       /* Register allocated buffer in user space with DevX. */
+       txq_obj->sq_umem = mlx5_glue->devx_umem_reg
+                                       (priv->sh->ctx,
+                                        (void *)txq_obj->sq_buf,
+                                        wqe_n * sizeof(struct mlx5_wqe),
+                                        IBV_ACCESS_LOCAL_WRITE);
+       if (!txq_obj->sq_umem) {
+               rte_errno = errno;
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u cannot register memory (SQ).",
+                       dev->data->port_id, txq_data->idx);
+               goto error;
+       }
+       /* Allocate doorbell record for send queue. */
+       txq_obj->sq_dbrec_offset = mlx5_get_dbr(priv->sh->ctx,
+                                               &priv->dbrpgs,
+                                               &txq_obj->sq_dbrec_page);
+       if (txq_obj->sq_dbrec_offset < 0) {
+               rte_errno = errno;
+               DRV_LOG(ERR, "Failed to allocate SQ door-bell.");
+               goto error;
+       }
+       txq_data->wqe_n = log2above(wqe_n);
+       sq_attr.tis_lst_sz = 1;
+       sq_attr.tis_num = priv->sh->tis->id;
+       sq_attr.state = MLX5_SQC_STATE_RST;
+       sq_attr.cqn = txq_obj->cq_devx->id;
+       sq_attr.flush_in_error_en = 1;
+       sq_attr.allow_multi_pkt_send_wqe = !!priv->config.mps;
+       sq_attr.allow_swp = !!priv->config.swp;
+       sq_attr.min_wqe_inline_mode = priv->config.hca_attr.vport_inline_mode;
+       sq_attr.wq_attr.uar_page =
+                               mlx5_os_get_devx_uar_page_id(priv->sh->tx_uar);
+       sq_attr.wq_attr.wq_type = MLX5_WQ_TYPE_CYCLIC;
+       sq_attr.wq_attr.pd = priv->sh->pdn;
+       sq_attr.wq_attr.log_wq_stride = rte_log2_u32(MLX5_WQE_SIZE);
+       sq_attr.wq_attr.log_wq_sz = txq_data->wqe_n;
+       sq_attr.wq_attr.dbr_umem_valid = 1;
+       sq_attr.wq_attr.dbr_addr = txq_obj->sq_dbrec_offset;
+       sq_attr.wq_attr.dbr_umem_id =
+                       mlx5_os_get_umem_id(txq_obj->sq_dbrec_page->umem);
+       sq_attr.wq_attr.wq_umem_valid = 1;
+       sq_attr.wq_attr.wq_umem_id = mlx5_os_get_umem_id(txq_obj->sq_umem);
+       sq_attr.wq_attr.wq_umem_offset = (uintptr_t)txq_obj->sq_buf % page_size;
+       /* Create Send Queue object with DevX. */
+       sq_obj = mlx5_devx_cmd_create_sq(priv->sh->ctx, &sq_attr);
+       if (!sq_obj) {
+               rte_errno = errno;
+               DRV_LOG(ERR, "Port %u Tx queue %u SQ creation failure.",
+                       dev->data->port_id, idx);
+               goto error;
+       }
+       return sq_obj;
+error:
+       ret = rte_errno;
+       txq_release_devx_sq_resources(txq_obj);
+       rte_errno = ret;
+       return NULL;
+}
+#endif
+
+/**
+ * Create the Tx queue DevX object.
+ *
+ * @param dev
+ *   Pointer to Ethernet device.
+ * @param idx
+ *   Queue index in DPDK Tx queue array.
+ *
+ * @return
+ *   The DevX object initialized, NULL otherwise and rte_errno is set.
+ */
+struct mlx5_txq_obj *
+mlx5_txq_devx_obj_new(struct rte_eth_dev *dev, uint16_t idx)
+{
+       struct mlx5_priv *priv = dev->data->dev_private;
+       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
+       struct mlx5_txq_ctrl *txq_ctrl =
+                       container_of(txq_data, struct mlx5_txq_ctrl, txq);
+
+       if (txq_ctrl->type == MLX5_TXQ_TYPE_HAIRPIN)
+               return mlx5_txq_obj_hairpin_new(dev, idx);
+#ifndef HAVE_MLX5DV_DEVX_UAR_OFFSET
+       DRV_LOG(ERR, "Port %u Tx queue %u cannot create with DevX, no UAR.",
+                    dev->data->port_id, idx);
+       rte_errno = ENOMEM;
+       return NULL;
+#else
+       struct mlx5_dev_ctx_shared *sh = priv->sh;
+       struct mlx5_devx_modify_sq_attr msq_attr = { 0 };
+       struct mlx5_txq_obj *txq_obj = NULL;
+       void *reg_addr;
+       uint32_t cqe_n;
+       int ret = 0;
+
+       MLX5_ASSERT(txq_data);
+       MLX5_ASSERT(!txq_ctrl->obj);
+       txq_obj = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
+                             sizeof(struct mlx5_txq_obj), 0,
+                             txq_ctrl->socket);
+       if (!txq_obj) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u cannot allocate memory resources.",
+                       dev->data->port_id, txq_data->idx);
+               rte_errno = ENOMEM;
+               return NULL;
+       }
+       txq_obj->type = MLX5_TXQ_OBJ_TYPE_DEVX_SQ;
+       txq_obj->txq_ctrl = txq_ctrl;
+       txq_obj->dev = dev;
+       /* Create the Completion Queue. */
+       cqe_n = (1UL << txq_data->elts_n) / MLX5_TX_COMP_THRESH +
+               1 + MLX5_TX_COMP_THRESH_INLINE_DIV;
+       /* Create completion queue object with DevX. */
+       txq_obj->cq_devx = mlx5_tx_devx_cq_new(dev, cqe_n, idx, txq_obj);
+       if (!txq_obj->cq_devx) {
+               rte_errno = errno;
+               goto error;
+       }
+       txq_data->cqe_m = txq_data->cqe_s - 1;
+       txq_data->cqes = (volatile struct mlx5_cqe *)txq_obj->cq_buf;
+       txq_data->cq_ci = 0;
+       txq_data->cq_pi = 0;
+       txq_data->cq_db = (volatile uint32_t *)(txq_obj->cq_dbrec_page->dbrs +
+                                               txq_obj->cq_dbrec_offset);
+       *txq_data->cq_db = 0;
+       /* Create Send Queue object with DevX. */
+       txq_obj->sq_devx = mlx5_devx_sq_new(dev, idx, txq_obj);
+       if (!txq_obj->sq_devx) {
+               rte_errno = errno;
+               goto error;
+       }
+       /* Create the Work Queue. */
+       txq_data->wqe_s = 1 << txq_data->wqe_n;
+       txq_data->wqe_m = txq_data->wqe_s - 1;
+       txq_data->wqes = (struct mlx5_wqe *)txq_obj->sq_buf;
+       txq_data->wqes_end = txq_data->wqes + txq_data->wqe_s;
+       txq_data->wqe_ci = 0;
+       txq_data->wqe_pi = 0;
+       txq_data->wqe_comp = 0;
+       txq_data->wqe_thres = txq_data->wqe_s / MLX5_TX_COMP_THRESH_INLINE_DIV;
+       txq_data->qp_db = (volatile uint32_t *)
+                                       (txq_obj->sq_dbrec_page->dbrs +
+                                        txq_obj->sq_dbrec_offset +
+                                        MLX5_SND_DBR * sizeof(uint32_t));
+       *txq_data->qp_db = 0;
+       txq_data->qp_num_8s = txq_obj->sq_devx->id << 8;
+       /* Change Send Queue state to Ready-to-Send. */
+       msq_attr.sq_state = MLX5_SQC_STATE_RST;
+       msq_attr.state = MLX5_SQC_STATE_RDY;
+       ret = mlx5_devx_cmd_modify_sq(txq_obj->sq_devx, &msq_attr);
+       if (ret) {
+               rte_errno = errno;
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u SP state to SQC_STATE_RDY failed.",
+                       dev->data->port_id, idx);
+               goto error;
+       }
+       txq_data->fcqs = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
+                                    txq_data->cqe_s * sizeof(*txq_data->fcqs),
+                                    RTE_CACHE_LINE_SIZE,
+                                    txq_ctrl->socket);
+       if (!txq_data->fcqs) {
+               DRV_LOG(ERR,
+                       "Port %u Tx queue %u cannot allocate memory (FCQ).",
+                       dev->data->port_id, idx);
+               rte_errno = ENOMEM;
+               goto error;
+       }
+#ifdef HAVE_IBV_FLOW_DV_SUPPORT
+       /*
+        * If using DevX need to query and store TIS transport domain value.
+        * This is done once per port.
+        * Will use this value on Rx, when creating matching TIR.
+        */
+       if (!priv->sh->tdn)
+               priv->sh->tdn = priv->sh->td->id;
+#endif
+       MLX5_ASSERT(sh->tx_uar);
+       reg_addr = mlx5_os_get_devx_uar_reg_addr(sh->tx_uar);
+       MLX5_ASSERT(reg_addr);
+       txq_ctrl->bf_reg = reg_addr;
+       txq_ctrl->uar_mmap_offset =
+                               mlx5_os_get_devx_uar_mmap_offset(sh->tx_uar);
+       txq_uar_init(txq_ctrl);
+       LIST_INSERT_HEAD(&priv->txqsobj, txq_obj, next);
+       return txq_obj;
+error:
+       ret = rte_errno; /* Save rte_errno before cleanup. */
+       txq_release_devx_resources(txq_obj);
+       if (txq_data->fcqs) {
+               mlx5_free(txq_data->fcqs);
+               txq_data->fcqs = NULL;
+       }
+       mlx5_free(txq_obj);
+       rte_errno = ret; /* Restore rte_errno. */
+       return NULL;
+#endif
+}
+
+/**
+ * Release an Tx DevX queue object.
+ *
+ * @param txq_obj
+ *   DevX Tx queue object.
+ */
+void
+mlx5_txq_devx_obj_release(struct mlx5_txq_obj *txq_obj)
+{
+       MLX5_ASSERT(txq_obj);
+       if (txq_obj->type == MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN) {
+               if (txq_obj->tis)
+                       claim_zero(mlx5_devx_cmd_destroy(txq_obj->tis));
+#ifdef HAVE_MLX5DV_DEVX_UAR_OFFSET
+       } else {
+               txq_release_devx_resources(txq_obj);
+#endif
+       }
+       if (txq_obj->txq_ctrl->txq.fcqs) {
+               mlx5_free(txq_obj->txq_ctrl->txq.fcqs);
+               txq_obj->txq_ctrl->txq.fcqs = NULL;
+       }
+       LIST_REMOVE(txq_obj, next);
+       mlx5_free(txq_obj);
+}
+
 struct mlx5_obj_ops devx_obj_ops = {
        .rxq_obj_modify_vlan_strip = mlx5_rxq_obj_modify_rq_vlan_strip,
        .rxq_obj_new = mlx5_rxq_devx_obj_new,
@@ -822,4 +1347,6 @@ struct mlx5_obj_ops devx_obj_ops = {
        .hrxq_destroy = mlx5_devx_tir_destroy,
        .drop_action_create = mlx5_devx_drop_action_create,
        .drop_action_destroy = mlx5_devx_drop_action_destroy,
+       .txq_obj_new = mlx5_txq_devx_obj_new,
+       .txq_obj_release = mlx5_txq_devx_obj_release,
 };
index 844985c22beb02998fdc6ca3eae8cda12c522b90..0bbbbc0de9a832a97b5ae2e4a67065d51da212d8 100644 (file)
@@ -7,6 +7,10 @@
 
 #include "mlx5.h"
 
+struct mlx5_txq_obj *mlx5_txq_devx_obj_new(struct rte_eth_dev *dev,
+                                          uint16_t idx);
+void mlx5_txq_devx_obj_release(struct mlx5_txq_obj *txq_obj);
+
 extern struct mlx5_obj_ops devx_obj_ops;
 
 #endif /* RTE_PMD_MLX5_DEVX_H_ */
index d947e0ede8eda247ca7d1dac1004a780b648fa12..674296ee98832c1ede3d44449606bec400471e3a 100644 (file)
@@ -261,50 +261,11 @@ struct mlx5_txq_data {
        /* Storage for queued packets, must be the last field. */
 } __rte_cache_aligned;
 
-enum mlx5_txq_obj_type {
-       MLX5_TXQ_OBJ_TYPE_IBV,          /* mlx5_txq_obj with ibv_wq. */
-       MLX5_TXQ_OBJ_TYPE_DEVX_SQ,      /* mlx5_txq_obj with mlx5_devx_sq. */
-       MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN,
-       /* mlx5_txq_obj with mlx5_devx_tq and hairpin support. */
-};
-
 enum mlx5_txq_type {
        MLX5_TXQ_TYPE_STANDARD, /* Standard Tx queue. */
        MLX5_TXQ_TYPE_HAIRPIN, /* Hairpin Rx queue. */
 };
 
-/* Verbs/DevX Tx queue elements. */
-struct mlx5_txq_obj {
-       LIST_ENTRY(mlx5_txq_obj) next; /* Pointer to the next element. */
-       struct mlx5_txq_ctrl *txq_ctrl; /* Pointer to the control queue. */
-       enum mlx5_txq_obj_type type; /* The txq object type. */
-       RTE_STD_C11
-       union {
-               struct {
-                       void *cq; /* Completion Queue. */
-                       void *qp; /* Queue Pair. */
-               };
-               struct {
-                       struct mlx5_devx_obj *sq;
-                       /* DevX object for Sx queue. */
-                       struct mlx5_devx_obj *tis; /* The TIS object. */
-               };
-               struct {
-                       struct rte_eth_dev *dev;
-                       struct mlx5_devx_obj *cq_devx;
-                       void *cq_umem;
-                       void *cq_buf;
-                       int64_t cq_dbrec_offset;
-                       struct mlx5_devx_dbr_page *cq_dbrec_page;
-                       struct mlx5_devx_obj *sq_devx;
-                       void *sq_umem;
-                       void *sq_buf;
-                       int64_t sq_dbrec_offset;
-                       struct mlx5_devx_dbr_page *sq_dbrec_page;
-               };
-       };
-};
-
 /* TX queue control descriptor. */
 struct mlx5_txq_ctrl {
        LIST_ENTRY(mlx5_txq_ctrl) next; /* Pointer to the next element. */
@@ -400,11 +361,9 @@ int mlx5_tx_hairpin_queue_setup
        (struct rte_eth_dev *dev, uint16_t idx, uint16_t desc,
         const struct rte_eth_hairpin_conf *hairpin_conf);
 void mlx5_tx_queue_release(void *dpdk_txq);
+void txq_uar_init(struct mlx5_txq_ctrl *txq_ctrl);
 int mlx5_tx_uar_init_secondary(struct rte_eth_dev *dev, int fd);
 void mlx5_tx_uar_uninit_secondary(struct rte_eth_dev *dev);
-struct mlx5_txq_obj *mlx5_txq_obj_new(struct rte_eth_dev *dev, uint16_t idx,
-                                     enum mlx5_txq_obj_type type);
-void mlx5_txq_obj_release(struct mlx5_txq_obj *txq_obj);
 int mlx5_txq_obj_verify(struct rte_eth_dev *dev);
 struct mlx5_txq_ctrl *mlx5_txq_new(struct rte_eth_dev *dev, uint16_t idx,
                                   uint16_t desc, unsigned int socket,
index 0f4d031a02aa87b1841685af0b6a73e3a0a14d3b..67630426c59a5df94f37d3704be381dbd43f57d3 100644 (file)
@@ -55,16 +55,9 @@ mlx5_txq_start(struct rte_eth_dev *dev)
 
                if (!txq_ctrl)
                        continue;
-               if (txq_ctrl->type == MLX5_TXQ_TYPE_HAIRPIN) {
-                       txq_ctrl->obj = mlx5_txq_obj_new
-                               (dev, i, MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN);
-               } else {
+               if (txq_ctrl->type == MLX5_TXQ_TYPE_STANDARD)
                        txq_alloc_elts(txq_ctrl);
-                       txq_ctrl->obj = mlx5_txq_obj_new
-                               (dev, i, priv->txpp_en ?
-                               MLX5_TXQ_OBJ_TYPE_DEVX_SQ :
-                               MLX5_TXQ_OBJ_TYPE_IBV);
-               }
+               txq_ctrl->obj = priv->obj_ops.txq_obj_new(dev, i);
                if (!txq_ctrl->obj) {
                        rte_errno = ENOMEM;
                        goto error;
index c6789712cc8f5aac96a647183169e973fda8b500..c1d36c329c425d0a8dc5bd4c0d71dbd754e3c7c2 100644 (file)
@@ -20,7 +20,6 @@
 #include <mlx5_devx_cmds.h>
 #include <mlx5_common.h>
 #include <mlx5_common_mr.h>
-#include <mlx5_common_os.h>
 #include <mlx5_malloc.h>
 
 #include "mlx5_defs.h"
@@ -589,7 +588,7 @@ txq_uar_ncattr_init(struct mlx5_txq_ctrl *txq_ctrl, size_t page_size)
  * @param txq_ctrl
  *   Pointer to Tx queue control structure.
  */
-static void
+void
 txq_uar_init(struct mlx5_txq_ctrl *txq_ctrl)
 {
        struct mlx5_priv *priv = txq_ctrl->priv;
@@ -764,799 +763,6 @@ error:
        return -rte_errno;
 }
 
-/**
- * Create the Tx hairpin queue object.
- *
- * @param dev
- *   Pointer to Ethernet device.
- * @param idx
- *   Queue index in DPDK Tx queue array
- *
- * @return
- *   The hairpin DevX object initialised, NULL otherwise and rte_errno is set.
- */
-static struct mlx5_txq_obj *
-mlx5_txq_obj_hairpin_new(struct rte_eth_dev *dev, uint16_t idx)
-{
-       struct mlx5_priv *priv = dev->data->dev_private;
-       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
-       struct mlx5_txq_ctrl *txq_ctrl =
-               container_of(txq_data, struct mlx5_txq_ctrl, txq);
-       struct mlx5_devx_create_sq_attr attr = { 0 };
-       struct mlx5_txq_obj *tmpl = NULL;
-       uint32_t max_wq_data;
-
-       MLX5_ASSERT(txq_data);
-       MLX5_ASSERT(!txq_ctrl->obj);
-       tmpl = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO, sizeof(*tmpl), 0,
-                          txq_ctrl->socket);
-       if (!tmpl) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u cannot allocate memory resources",
-                       dev->data->port_id, txq_data->idx);
-               rte_errno = ENOMEM;
-               return NULL;
-       }
-       tmpl->type = MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN;
-       tmpl->txq_ctrl = txq_ctrl;
-       attr.hairpin = 1;
-       attr.tis_lst_sz = 1;
-       max_wq_data = priv->config.hca_attr.log_max_hairpin_wq_data_sz;
-       /* Jumbo frames > 9KB should be supported, and more packets. */
-       if (priv->config.log_hp_size != (uint32_t)MLX5_ARG_UNSET) {
-               if (priv->config.log_hp_size > max_wq_data) {
-                       DRV_LOG(ERR, "total data size %u power of 2 is "
-                               "too large for hairpin",
-                               priv->config.log_hp_size);
-                       mlx5_free(tmpl);
-                       rte_errno = ERANGE;
-                       return NULL;
-               }
-               attr.wq_attr.log_hairpin_data_sz = priv->config.log_hp_size;
-       } else {
-               attr.wq_attr.log_hairpin_data_sz =
-                               (max_wq_data < MLX5_HAIRPIN_JUMBO_LOG_SIZE) ?
-                                max_wq_data : MLX5_HAIRPIN_JUMBO_LOG_SIZE;
-       }
-       /* Set the packets number to the maximum value for performance. */
-       attr.wq_attr.log_hairpin_num_packets =
-                       attr.wq_attr.log_hairpin_data_sz -
-                       MLX5_HAIRPIN_QUEUE_STRIDE;
-       attr.tis_num = priv->sh->tis->id;
-       tmpl->sq = mlx5_devx_cmd_create_sq(priv->sh->ctx, &attr);
-       if (!tmpl->sq) {
-               DRV_LOG(ERR,
-                       "port %u tx hairpin queue %u can't create sq object",
-                       dev->data->port_id, idx);
-               mlx5_free(tmpl);
-               rte_errno = errno;
-               return NULL;
-       }
-       DRV_LOG(DEBUG, "port %u sxq %u updated with %p", dev->data->port_id,
-               idx, (void *)&tmpl);
-       LIST_INSERT_HEAD(&priv->txqsobj, tmpl, next);
-       return tmpl;
-}
-
-/**
- * Release DevX SQ resources.
- *
- * @param txq_ctrl
- *   DevX Tx queue object.
- */
-static void
-txq_release_devx_sq_resources(struct mlx5_txq_obj *txq_obj)
-{
-       if (txq_obj->sq_devx)
-               claim_zero(mlx5_devx_cmd_destroy(txq_obj->sq_devx));
-       if (txq_obj->sq_umem)
-               claim_zero(mlx5_glue->devx_umem_dereg(txq_obj->sq_umem));
-       if (txq_obj->sq_buf)
-               mlx5_free(txq_obj->sq_buf);
-       if (txq_obj->sq_dbrec_page)
-               claim_zero(mlx5_release_dbr(&txq_obj->txq_ctrl->priv->dbrpgs,
-                                           mlx5_os_get_umem_id
-                                                (txq_obj->sq_dbrec_page->umem),
-                                           txq_obj->sq_dbrec_offset));
-}
-
-/**
- * Release DevX Tx CQ resources.
- *
- * @param txq_ctrl
- *   DevX Tx queue object.
- */
-static void
-txq_release_devx_cq_resources(struct mlx5_txq_obj *txq_obj)
-{
-       if (txq_obj->cq_devx)
-               claim_zero(mlx5_devx_cmd_destroy(txq_obj->cq_devx));
-       if (txq_obj->cq_umem)
-               claim_zero(mlx5_glue->devx_umem_dereg(txq_obj->cq_umem));
-       if (txq_obj->cq_buf)
-               mlx5_free(txq_obj->cq_buf);
-       if (txq_obj->cq_dbrec_page)
-               claim_zero(mlx5_release_dbr(&txq_obj->txq_ctrl->priv->dbrpgs,
-                                           mlx5_os_get_umem_id
-                                                (txq_obj->cq_dbrec_page->umem),
-                                           txq_obj->cq_dbrec_offset));
-}
-
-/**
- * Destroy the Tx queue DevX object.
- *
- * @param txq_obj
- *   Txq object to destroy
- */
-static void
-txq_release_devx_resources(struct mlx5_txq_obj *txq_obj)
-{
-       MLX5_ASSERT(txq_obj->type == MLX5_TXQ_OBJ_TYPE_DEVX_SQ);
-
-       txq_release_devx_sq_resources(txq_obj);
-       txq_release_devx_cq_resources(txq_obj);
-}
-
-#ifdef HAVE_MLX5DV_DEVX_UAR_OFFSET
-/**
- * Create a DevX CQ object for a Tx queue.
- *
- * @param dev
- *   Pointer to Ethernet device.
- * @param cqe_n
- *   Number of entries in the CQ.
- * @param idx
- *   Queue index in DPDK Tx queue array.
- * @param type
- *   Type of the Tx queue object to create.
- *
- * @return
- *   The DevX CQ object initialized, NULL otherwise and rte_errno is set.
- */
-static struct mlx5_devx_obj *
-mlx5_devx_cq_new(struct rte_eth_dev *dev, uint32_t cqe_n, uint16_t idx,
-                struct mlx5_txq_obj *txq_obj)
-{
-       struct mlx5_priv *priv = dev->data->dev_private;
-       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
-       struct mlx5_devx_obj *cq_obj = NULL;
-       struct mlx5_devx_cq_attr cq_attr = { 0 };
-       struct mlx5_cqe *cqe;
-       size_t page_size;
-       size_t alignment;
-       uint32_t i;
-       int ret;
-
-       MLX5_ASSERT(txq_data);
-       MLX5_ASSERT(txq_obj);
-       page_size = rte_mem_page_size();
-       if (page_size == (size_t)-1) {
-               DRV_LOG(ERR, "Failed to get mem page size");
-               rte_errno = ENOMEM;
-               return NULL;
-       }
-       /* Allocate memory buffer for CQEs. */
-       alignment = MLX5_CQE_BUF_ALIGNMENT;
-       if (alignment == (size_t)-1) {
-               DRV_LOG(ERR, "Failed to get CQE buf alignment");
-               rte_errno = ENOMEM;
-               return NULL;
-       }
-       cqe_n = 1UL << log2above(cqe_n);
-       if (cqe_n > UINT16_MAX) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u requests to many CQEs %u",
-                       dev->data->port_id, txq_data->idx, cqe_n);
-               rte_errno = EINVAL;
-               return NULL;
-       }
-       txq_obj->cq_buf = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
-                                     cqe_n * sizeof(struct mlx5_cqe),
-                                     alignment,
-                                     priv->sh->numa_node);
-       if (!txq_obj->cq_buf) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u cannot allocate memory (CQ)",
-                       dev->data->port_id, txq_data->idx);
-               rte_errno = ENOMEM;
-               return NULL;
-       }
-       /* Register allocated buffer in user space with DevX. */
-       txq_obj->cq_umem = mlx5_glue->devx_umem_reg(priv->sh->ctx,
-                                               (void *)txq_obj->cq_buf,
-                                               cqe_n * sizeof(struct mlx5_cqe),
-                                               IBV_ACCESS_LOCAL_WRITE);
-       if (!txq_obj->cq_umem) {
-               rte_errno = errno;
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u cannot register memory (CQ)",
-                       dev->data->port_id, txq_data->idx);
-               goto error;
-       }
-       /* Allocate doorbell record for completion queue. */
-       txq_obj->cq_dbrec_offset = mlx5_get_dbr(priv->sh->ctx,
-                                               &priv->dbrpgs,
-                                               &txq_obj->cq_dbrec_page);
-       if (txq_obj->cq_dbrec_offset < 0) {
-               rte_errno = errno;
-               DRV_LOG(ERR, "Failed to allocate CQ door-bell.");
-               goto error;
-       }
-       cq_attr.cqe_size = (sizeof(struct mlx5_cqe) == 128) ?
-                           MLX5_CQE_SIZE_128B : MLX5_CQE_SIZE_64B;
-       cq_attr.uar_page_id = mlx5_os_get_devx_uar_page_id(priv->sh->tx_uar);
-       cq_attr.eqn = priv->sh->eqn;
-       cq_attr.q_umem_valid = 1;
-       cq_attr.q_umem_offset = (uintptr_t)txq_obj->cq_buf % page_size;
-       cq_attr.q_umem_id = mlx5_os_get_umem_id(txq_obj->cq_umem);
-       cq_attr.db_umem_valid = 1;
-       cq_attr.db_umem_offset = txq_obj->cq_dbrec_offset;
-       cq_attr.db_umem_id = mlx5_os_get_umem_id(txq_obj->cq_dbrec_page->umem);
-       cq_attr.log_cq_size = rte_log2_u32(cqe_n);
-       cq_attr.log_page_size = rte_log2_u32(page_size);
-       /* Create completion queue object with DevX. */
-       cq_obj = mlx5_devx_cmd_create_cq(priv->sh->ctx, &cq_attr);
-       if (!cq_obj) {
-               rte_errno = errno;
-               DRV_LOG(ERR, "port %u Tx queue %u CQ creation failure",
-                       dev->data->port_id, idx);
-               goto error;
-       }
-       txq_data->cqe_n = log2above(cqe_n);
-       txq_data->cqe_s = 1 << txq_data->cqe_n;
-       /* Initial fill CQ buffer with invalid CQE opcode. */
-       cqe = (struct mlx5_cqe *)txq_obj->cq_buf;
-       for (i = 0; i < txq_data->cqe_s; i++) {
-               cqe->op_own = (MLX5_CQE_INVALID << 4) | MLX5_CQE_OWNER_MASK;
-               ++cqe;
-       }
-       return cq_obj;
-error:
-       ret = rte_errno;
-       txq_release_devx_cq_resources(txq_obj);
-       rte_errno = ret;
-       return NULL;
-}
-
-/**
- * Create a SQ object using DevX.
- *
- * @param dev
- *   Pointer to Ethernet device.
- * @param idx
- *   Queue index in DPDK Tx queue array.
- * @param type
- *   Type of the Tx queue object to create.
- *
- * @return
- *   The DevX object initialized, NULL otherwise and rte_errno is set.
- */
-static struct mlx5_devx_obj *
-mlx5_devx_sq_new(struct rte_eth_dev *dev, uint16_t idx,
-                struct mlx5_txq_obj *txq_obj)
-{
-       struct mlx5_priv *priv = dev->data->dev_private;
-       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
-       struct mlx5_devx_create_sq_attr sq_attr = { 0 };
-       struct mlx5_devx_obj *sq_obj = NULL;
-       size_t page_size;
-       uint32_t wqe_n;
-       int ret;
-
-       MLX5_ASSERT(txq_data);
-       MLX5_ASSERT(txq_obj);
-       page_size = rte_mem_page_size();
-       if (page_size == (size_t)-1) {
-               DRV_LOG(ERR, "Failed to get mem page size");
-               rte_errno = ENOMEM;
-               return NULL;
-       }
-       wqe_n = RTE_MIN(1UL << txq_data->elts_n,
-                       (uint32_t)priv->sh->device_attr.max_qp_wr);
-       txq_obj->sq_buf = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
-                                     wqe_n * sizeof(struct mlx5_wqe),
-                                     page_size, priv->sh->numa_node);
-       if (!txq_obj->sq_buf) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u cannot allocate memory (SQ)",
-                       dev->data->port_id, txq_data->idx);
-               rte_errno = ENOMEM;
-               goto error;
-       }
-       /* Register allocated buffer in user space with DevX. */
-       txq_obj->sq_umem = mlx5_glue->devx_umem_reg
-                                       (priv->sh->ctx,
-                                        (void *)txq_obj->sq_buf,
-                                        wqe_n * sizeof(struct mlx5_wqe),
-                                        IBV_ACCESS_LOCAL_WRITE);
-       if (!txq_obj->sq_umem) {
-               rte_errno = errno;
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u cannot register memory (SQ)",
-                       dev->data->port_id, txq_data->idx);
-               goto error;
-       }
-       /* Allocate doorbell record for send queue. */
-       txq_obj->sq_dbrec_offset = mlx5_get_dbr(priv->sh->ctx,
-                                               &priv->dbrpgs,
-                                               &txq_obj->sq_dbrec_page);
-       if (txq_obj->sq_dbrec_offset < 0) {
-               rte_errno = errno;
-               DRV_LOG(ERR, "Failed to allocate SQ door-bell.");
-               goto error;
-       }
-       sq_attr.tis_lst_sz = 1;
-       sq_attr.tis_num = priv->sh->tis->id;
-       sq_attr.state = MLX5_SQC_STATE_RST;
-       sq_attr.cqn = txq_obj->cq_devx->id;
-       sq_attr.flush_in_error_en = 1;
-       sq_attr.allow_multi_pkt_send_wqe = !!priv->config.mps;
-       sq_attr.allow_swp = !!priv->config.swp;
-       sq_attr.min_wqe_inline_mode = priv->config.hca_attr.vport_inline_mode;
-       sq_attr.wq_attr.uar_page =
-                               mlx5_os_get_devx_uar_page_id(priv->sh->tx_uar);
-       sq_attr.wq_attr.wq_type = MLX5_WQ_TYPE_CYCLIC;
-       sq_attr.wq_attr.pd = priv->sh->pdn;
-       sq_attr.wq_attr.log_wq_stride = rte_log2_u32(MLX5_WQE_SIZE);
-       sq_attr.wq_attr.log_wq_sz = log2above(wqe_n);
-       sq_attr.wq_attr.dbr_umem_valid = 1;
-       sq_attr.wq_attr.dbr_addr = txq_obj->sq_dbrec_offset;
-       sq_attr.wq_attr.dbr_umem_id =
-                       mlx5_os_get_umem_id(txq_obj->sq_dbrec_page->umem);
-       sq_attr.wq_attr.wq_umem_valid = 1;
-       sq_attr.wq_attr.wq_umem_id = mlx5_os_get_umem_id(txq_obj->sq_umem);
-       sq_attr.wq_attr.wq_umem_offset = (uintptr_t)txq_obj->sq_buf % page_size;
-       /* Create Send Queue object with DevX. */
-       sq_obj = mlx5_devx_cmd_create_sq(priv->sh->ctx, &sq_attr);
-       if (!sq_obj) {
-               rte_errno = errno;
-               DRV_LOG(ERR, "port %u Tx queue %u SQ creation failure",
-                       dev->data->port_id, idx);
-               goto error;
-       }
-       txq_data->wqe_n = log2above(wqe_n);
-       return sq_obj;
-error:
-       ret = rte_errno;
-       txq_release_devx_sq_resources(txq_obj);
-       rte_errno = ret;
-       return NULL;
-}
-#endif
-
-/**
- * Create the Tx queue DevX object.
- *
- * @param dev
- *   Pointer to Ethernet device.
- * @param idx
- *   Queue index in DPDK Tx queue array.
- *
- * @return
- *   The DevX object initialised, NULL otherwise and rte_errno is set.
- */
-static struct mlx5_txq_obj *
-mlx5_txq_obj_devx_new(struct rte_eth_dev *dev, uint16_t idx)
-{
-#ifndef HAVE_MLX5DV_DEVX_UAR_OFFSET
-       DRV_LOG(ERR, "port %u Tx queue %u cannot create with DevX, no UAR",
-                    dev->data->port_id, idx);
-       rte_errno = ENOMEM;
-       return NULL;
-#else
-       struct mlx5_priv *priv = dev->data->dev_private;
-       struct mlx5_dev_ctx_shared *sh = priv->sh;
-       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
-       struct mlx5_txq_ctrl *txq_ctrl =
-               container_of(txq_data, struct mlx5_txq_ctrl, txq);
-       struct mlx5_devx_modify_sq_attr msq_attr = { 0 };
-       struct mlx5_txq_obj *txq_obj = NULL;
-       void *reg_addr;
-       uint32_t cqe_n;
-       int ret = 0;
-
-       MLX5_ASSERT(txq_data);
-       MLX5_ASSERT(!txq_ctrl->obj);
-       txq_obj = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
-                             sizeof(struct mlx5_txq_obj), 0,
-                             txq_ctrl->socket);
-       if (!txq_obj) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u cannot allocate memory resources",
-                       dev->data->port_id, txq_data->idx);
-               rte_errno = ENOMEM;
-               return NULL;
-       }
-       txq_obj->type = MLX5_TXQ_OBJ_TYPE_DEVX_SQ;
-       txq_obj->txq_ctrl = txq_ctrl;
-       txq_obj->dev = dev;
-       /* Create the Completion Queue. */
-       cqe_n = (1UL << txq_data->elts_n) / MLX5_TX_COMP_THRESH +
-               1 + MLX5_TX_COMP_THRESH_INLINE_DIV;
-       /* Create completion queue object with DevX. */
-       txq_obj->cq_devx = mlx5_devx_cq_new(dev, cqe_n, idx, txq_obj);
-       if (!txq_obj->cq_devx) {
-               rte_errno = errno;
-               goto error;
-       }
-       txq_data->cqe_m = txq_data->cqe_s - 1;
-       txq_data->cqes = (volatile struct mlx5_cqe *)txq_obj->cq_buf;
-       txq_data->cq_ci = 0;
-       txq_data->cq_pi = 0;
-       txq_data->cq_db = (volatile uint32_t *)(txq_obj->cq_dbrec_page->dbrs +
-                                               txq_obj->cq_dbrec_offset);
-       *txq_data->cq_db = 0;
-       /* Create Send Queue object with DevX. */
-       txq_obj->sq_devx = mlx5_devx_sq_new(dev, idx, txq_obj);
-       if (!txq_obj->sq_devx) {
-               rte_errno = errno;
-               goto error;
-       }
-       /* Create the Work Queue. */
-       txq_data->wqe_s = 1 << txq_data->wqe_n;
-       txq_data->wqe_m = txq_data->wqe_s - 1;
-       txq_data->wqes = (struct mlx5_wqe *)txq_obj->sq_buf;
-       txq_data->wqes_end = txq_data->wqes + txq_data->wqe_s;
-       txq_data->wqe_ci = 0;
-       txq_data->wqe_pi = 0;
-       txq_data->wqe_comp = 0;
-       txq_data->wqe_thres = txq_data->wqe_s / MLX5_TX_COMP_THRESH_INLINE_DIV;
-       txq_data->qp_db = (volatile uint32_t *)
-                                       (txq_obj->sq_dbrec_page->dbrs +
-                                        txq_obj->sq_dbrec_offset +
-                                        MLX5_SND_DBR * sizeof(uint32_t));
-       *txq_data->qp_db = 0;
-       txq_data->qp_num_8s = txq_obj->sq_devx->id << 8;
-       /* Change Send Queue state to Ready-to-Send. */
-       msq_attr.sq_state = MLX5_SQC_STATE_RST;
-       msq_attr.state = MLX5_SQC_STATE_RDY;
-       ret = mlx5_devx_cmd_modify_sq(txq_obj->sq_devx, &msq_attr);
-       if (ret) {
-               rte_errno = errno;
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u SP state to SQC_STATE_RDY failed",
-                       dev->data->port_id, idx);
-               goto error;
-       }
-       txq_data->fcqs = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
-                                    txq_data->cqe_s * sizeof(*txq_data->fcqs),
-                                    RTE_CACHE_LINE_SIZE,
-                                    txq_ctrl->socket);
-       if (!txq_data->fcqs) {
-               DRV_LOG(ERR, "port %u Tx queue %u cannot allocate memory (FCQ)",
-                       dev->data->port_id, idx);
-               rte_errno = ENOMEM;
-               goto error;
-       }
-#ifdef HAVE_IBV_FLOW_DV_SUPPORT
-       /*
-        * If using DevX need to query and store TIS transport domain value.
-        * This is done once per port.
-        * Will use this value on Rx, when creating matching TIR.
-        */
-       if (priv->config.devx && !priv->sh->tdn)
-               priv->sh->tdn = priv->sh->td->id;
-#endif
-       MLX5_ASSERT(sh->tx_uar);
-       reg_addr = mlx5_os_get_devx_uar_reg_addr(sh->tx_uar);
-       MLX5_ASSERT(reg_addr);
-       txq_ctrl->bf_reg = reg_addr;
-       txq_ctrl->uar_mmap_offset =
-               mlx5_os_get_devx_uar_mmap_offset(sh->tx_uar);
-       txq_uar_init(txq_ctrl);
-       LIST_INSERT_HEAD(&priv->txqsobj, txq_obj, next);
-       return txq_obj;
-error:
-       ret = rte_errno; /* Save rte_errno before cleanup. */
-       txq_release_devx_resources(txq_obj);
-       if (txq_data->fcqs) {
-               mlx5_free(txq_data->fcqs);
-               txq_data->fcqs = NULL;
-       }
-       mlx5_free(txq_obj);
-       rte_errno = ret; /* Restore rte_errno. */
-       return NULL;
-#endif
-}
-
-/**
- * Create a QP Verbs object.
- *
- * @param dev
- *   Pointer to Ethernet device.
- * @param idx
- *   Queue index in DPDK Tx queue array.
- * @param rxq_obj
- *   Pointer to Tx queue object data.
- *
- * @return
- *   The QP Verbs object initialized, NULL otherwise and rte_errno is set.
- */
-static struct ibv_qp *
-mlx5_ibv_qp_new(struct rte_eth_dev *dev, uint16_t idx,
-               struct mlx5_txq_obj *txq_obj)
-{
-       struct mlx5_priv *priv = dev->data->dev_private;
-       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
-       struct mlx5_txq_ctrl *txq_ctrl =
-                       container_of(txq_data, struct mlx5_txq_ctrl, txq);
-       struct ibv_qp *qp_obj = NULL;
-       struct ibv_qp_init_attr_ex qp_attr = { 0 };
-       const int desc = 1 << txq_data->elts_n;
-
-       MLX5_ASSERT(!txq_ctrl->obj);
-       /* CQ to be associated with the send queue. */
-       qp_attr.send_cq = txq_obj->cq;
-       /* CQ to be associated with the receive queue. */
-       qp_attr.recv_cq = txq_obj->cq;
-       /* Max number of outstanding WRs. */
-       qp_attr.cap.max_send_wr = ((priv->sh->device_attr.max_qp_wr < desc) ?
-                                  priv->sh->device_attr.max_qp_wr : desc);
-       /*
-        * Max number of scatter/gather elements in a WR, must be 1 to prevent
-        * libmlx5 from trying to affect must be 1 to prevent libmlx5 from
-        * trying to affect too much memory. TX gather is not impacted by the
-        * device_attr.max_sge limit and will still work properly.
-        */
-       qp_attr.cap.max_send_sge = 1;
-       qp_attr.qp_type = IBV_QPT_RAW_PACKET,
-       /* Do *NOT* enable this, completions events are managed per Tx burst. */
-       qp_attr.sq_sig_all = 0;
-       qp_attr.pd = priv->sh->pd;
-       qp_attr.comp_mask = IBV_QP_INIT_ATTR_PD;
-       if (txq_data->inlen_send)
-               qp_attr.cap.max_inline_data = txq_ctrl->max_inline_data;
-       if (txq_data->tso_en) {
-               qp_attr.max_tso_header = txq_ctrl->max_tso_header;
-               qp_attr.comp_mask |= IBV_QP_INIT_ATTR_MAX_TSO_HEADER;
-       }
-       qp_obj = mlx5_glue->create_qp_ex(priv->sh->ctx, &qp_attr);
-       if (qp_obj == NULL) {
-               DRV_LOG(ERR, "port %u Tx queue %u QP creation failure",
-                       dev->data->port_id, idx);
-               rte_errno = errno;
-       }
-       return qp_obj;
-}
-
-/**
- * Create the Tx queue Verbs object.
- *
- * @param dev
- *   Pointer to Ethernet device.
- * @param idx
- *   Queue index in DPDK Tx queue array.
- * @param type
- *   Type of the Tx queue object to create.
- *
- * @return
- *   The Verbs object initialised, NULL otherwise and rte_errno is set.
- */
-struct mlx5_txq_obj *
-mlx5_txq_obj_new(struct rte_eth_dev *dev, uint16_t idx,
-                enum mlx5_txq_obj_type type)
-{
-       struct mlx5_priv *priv = dev->data->dev_private;
-       struct mlx5_txq_data *txq_data = (*priv->txqs)[idx];
-       struct mlx5_txq_ctrl *txq_ctrl =
-               container_of(txq_data, struct mlx5_txq_ctrl, txq);
-       struct mlx5_txq_obj tmpl;
-       struct mlx5_txq_obj *txq_obj = NULL;
-       struct ibv_qp_attr mod;
-       unsigned int cqe_n;
-       struct mlx5dv_qp qp = { .comp_mask = MLX5DV_QP_MASK_UAR_MMAP_OFFSET };
-       struct mlx5dv_cq cq_info;
-       struct mlx5dv_obj obj;
-       const int desc = 1 << txq_data->elts_n;
-       int ret = 0;
-
-       if (type == MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN)
-               return mlx5_txq_obj_hairpin_new(dev, idx);
-       if (type == MLX5_TXQ_OBJ_TYPE_DEVX_SQ)
-               return mlx5_txq_obj_devx_new(dev, idx);
-#ifdef HAVE_IBV_FLOW_DV_SUPPORT
-       /* If using DevX, need additional mask to read tisn value. */
-       if (priv->config.devx && !priv->sh->tdn)
-               qp.comp_mask |= MLX5DV_QP_MASK_RAW_QP_HANDLES;
-#endif
-       MLX5_ASSERT(txq_data);
-       priv->verbs_alloc_ctx.type = MLX5_VERBS_ALLOC_TYPE_TX_QUEUE;
-       priv->verbs_alloc_ctx.obj = txq_ctrl;
-       if (mlx5_getenv_int("MLX5_ENABLE_CQE_COMPRESSION")) {
-               DRV_LOG(ERR,
-                       "port %u MLX5_ENABLE_CQE_COMPRESSION must never be set",
-                       dev->data->port_id);
-               rte_errno = EINVAL;
-               return NULL;
-       }
-       memset(&tmpl, 0, sizeof(struct mlx5_txq_obj));
-       cqe_n = desc / MLX5_TX_COMP_THRESH +
-               1 + MLX5_TX_COMP_THRESH_INLINE_DIV;
-       tmpl.cq = mlx5_glue->create_cq(priv->sh->ctx, cqe_n, NULL, NULL, 0);
-       if (tmpl.cq == NULL) {
-               DRV_LOG(ERR, "port %u Tx queue %u CQ creation failure",
-                       dev->data->port_id, idx);
-               rte_errno = errno;
-               goto error;
-       }
-       tmpl.qp = mlx5_ibv_qp_new(dev, idx, &tmpl);
-       if (tmpl.qp == NULL) {
-               rte_errno = errno;
-               goto error;
-       }
-       mod = (struct ibv_qp_attr){
-               /* Move the QP to this state. */
-               .qp_state = IBV_QPS_INIT,
-               /* IB device port number. */
-               .port_num = (uint8_t)priv->dev_port,
-       };
-       ret = mlx5_glue->modify_qp(tmpl.qp, &mod,
-                                  (IBV_QP_STATE | IBV_QP_PORT));
-       if (ret) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u QP state to IBV_QPS_INIT failed",
-                       dev->data->port_id, idx);
-               rte_errno = errno;
-               goto error;
-       }
-       mod = (struct ibv_qp_attr){
-               .qp_state = IBV_QPS_RTR
-       };
-       ret = mlx5_glue->modify_qp(tmpl.qp, &mod, IBV_QP_STATE);
-       if (ret) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u QP state to IBV_QPS_RTR failed",
-                       dev->data->port_id, idx);
-               rte_errno = errno;
-               goto error;
-       }
-       mod.qp_state = IBV_QPS_RTS;
-       ret = mlx5_glue->modify_qp(tmpl.qp, &mod, IBV_QP_STATE);
-       if (ret) {
-               DRV_LOG(ERR,
-                       "port %u Tx queue %u QP state to IBV_QPS_RTS failed",
-                       dev->data->port_id, idx);
-               rte_errno = errno;
-               goto error;
-       }
-       txq_obj = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
-                             sizeof(struct mlx5_txq_obj), 0,
-                             txq_ctrl->socket);
-       if (!txq_obj) {
-               DRV_LOG(ERR, "port %u Tx queue %u cannot allocate memory",
-                       dev->data->port_id, idx);
-               rte_errno = ENOMEM;
-               goto error;
-       }
-       obj.cq.in = tmpl.cq;
-       obj.cq.out = &cq_info;
-       obj.qp.in = tmpl.qp;
-       obj.qp.out = &qp;
-       ret = mlx5_glue->dv_init_obj(&obj, MLX5DV_OBJ_CQ | MLX5DV_OBJ_QP);
-       if (ret != 0) {
-               rte_errno = errno;
-               goto error;
-       }
-       if (cq_info.cqe_size != RTE_CACHE_LINE_SIZE) {
-               DRV_LOG(ERR,
-                       "port %u wrong MLX5_CQE_SIZE environment variable"
-                       " value: it should be set to %u",
-                       dev->data->port_id, RTE_CACHE_LINE_SIZE);
-               rte_errno = EINVAL;
-               goto error;
-       }
-       txq_data->cqe_n = log2above(cq_info.cqe_cnt);
-       txq_data->cqe_s = 1 << txq_data->cqe_n;
-       txq_data->cqe_m = txq_data->cqe_s - 1;
-       txq_data->qp_num_8s = ((struct ibv_qp *)tmpl.qp)->qp_num << 8;
-       txq_data->wqes = qp.sq.buf;
-       txq_data->wqe_n = log2above(qp.sq.wqe_cnt);
-       txq_data->wqe_s = 1 << txq_data->wqe_n;
-       txq_data->wqe_m = txq_data->wqe_s - 1;
-       txq_data->wqes_end = txq_data->wqes + txq_data->wqe_s;
-       txq_data->qp_db = &qp.dbrec[MLX5_SND_DBR];
-       txq_data->cq_db = cq_info.dbrec;
-       txq_data->cqes = (volatile struct mlx5_cqe *)cq_info.buf;
-       txq_data->cq_ci = 0;
-       txq_data->cq_pi = 0;
-       txq_data->wqe_ci = 0;
-       txq_data->wqe_pi = 0;
-       txq_data->wqe_comp = 0;
-       txq_data->wqe_thres = txq_data->wqe_s / MLX5_TX_COMP_THRESH_INLINE_DIV;
-       txq_data->fcqs = mlx5_malloc(MLX5_MEM_RTE | MLX5_MEM_ZERO,
-                                    txq_data->cqe_s * sizeof(*txq_data->fcqs),
-                                    RTE_CACHE_LINE_SIZE, txq_ctrl->socket);
-       if (!txq_data->fcqs) {
-               DRV_LOG(ERR, "port %u Tx queue %u cannot allocate memory (FCQ)",
-                       dev->data->port_id, idx);
-               rte_errno = ENOMEM;
-               goto error;
-       }
-#ifdef HAVE_IBV_FLOW_DV_SUPPORT
-       /*
-        * If using DevX need to query and store TIS transport domain value.
-        * This is done once per port.
-        * Will use this value on Rx, when creating matching TIR.
-        */
-       if (priv->config.devx && !priv->sh->tdn) {
-               ret = mlx5_devx_cmd_qp_query_tis_td(tmpl.qp, qp.tisn,
-                                                   &priv->sh->tdn);
-               if (ret) {
-                       DRV_LOG(ERR, "Fail to query port %u Tx queue %u QP TIS "
-                               "transport domain", dev->data->port_id, idx);
-                       rte_errno = EINVAL;
-                       goto error;
-               } else {
-                       DRV_LOG(DEBUG, "port %u Tx queue %u TIS number %d "
-                               "transport domain %d", dev->data->port_id,
-                               idx, qp.tisn, priv->sh->tdn);
-               }
-       }
-#endif
-       txq_obj->qp = tmpl.qp;
-       txq_obj->cq = tmpl.cq;
-       txq_ctrl->bf_reg = qp.bf.reg;
-       if (qp.comp_mask & MLX5DV_QP_MASK_UAR_MMAP_OFFSET) {
-               txq_ctrl->uar_mmap_offset = qp.uar_mmap_offset;
-               DRV_LOG(DEBUG, "port %u: uar_mmap_offset 0x%"PRIx64,
-                       dev->data->port_id, txq_ctrl->uar_mmap_offset);
-       } else {
-               DRV_LOG(ERR,
-                       "port %u failed to retrieve UAR info, invalid"
-                       " libmlx5.so",
-                       dev->data->port_id);
-               rte_errno = EINVAL;
-               goto error;
-       }
-       txq_uar_init(txq_ctrl);
-       LIST_INSERT_HEAD(&priv->txqsobj, txq_obj, next);
-       txq_obj->txq_ctrl = txq_ctrl;
-       priv->verbs_alloc_ctx.type = MLX5_VERBS_ALLOC_TYPE_NONE;
-       return txq_obj;
-error:
-       ret = rte_errno; /* Save rte_errno before cleanup. */
-       if (tmpl.cq)
-               claim_zero(mlx5_glue->destroy_cq(tmpl.cq));
-       if (tmpl.qp)
-               claim_zero(mlx5_glue->destroy_qp(tmpl.qp));
-       if (txq_data && txq_data->fcqs) {
-               mlx5_free(txq_data->fcqs);
-               txq_data->fcqs = NULL;
-       }
-       if (txq_obj)
-               mlx5_free(txq_obj);
-       priv->verbs_alloc_ctx.type = MLX5_VERBS_ALLOC_TYPE_NONE;
-       rte_errno = ret; /* Restore rte_errno. */
-       return NULL;
-}
-
-/**
- * Release an Tx verbs queue object.
- *
- * @param txq_obj
- *   Verbs Tx queue object..
- */
-void
-mlx5_txq_obj_release(struct mlx5_txq_obj *txq_obj)
-{
-       MLX5_ASSERT(txq_obj);
-       if (txq_obj->type == MLX5_TXQ_OBJ_TYPE_DEVX_HAIRPIN) {
-               if (txq_obj->tis)
-                       claim_zero(mlx5_devx_cmd_destroy(txq_obj->tis));
-       } else if (txq_obj->type == MLX5_TXQ_OBJ_TYPE_DEVX_SQ) {
-               txq_release_devx_resources(txq_obj);
-       } else {
-               claim_zero(mlx5_glue->destroy_qp(txq_obj->qp));
-               claim_zero(mlx5_glue->destroy_cq(txq_obj->cq));
-       }
-       if (txq_obj->txq_ctrl->txq.fcqs) {
-               mlx5_free(txq_obj->txq_ctrl->txq.fcqs);
-               txq_obj->txq_ctrl->txq.fcqs = NULL;
-       }
-       LIST_REMOVE(txq_obj, next);
-       mlx5_free(txq_obj);
-}
-
 /**
  * Verify the Verbs Tx queue list is empty
  *
@@ -2100,7 +1306,7 @@ mlx5_txq_release(struct rte_eth_dev *dev, uint16_t idx)
        if (!rte_atomic32_dec_and_test(&txq->refcnt))
                return 1;
        if (txq->obj) {
-               mlx5_txq_obj_release(txq->obj);
+               priv->obj_ops.txq_obj_release(txq->obj);
                txq->obj = NULL;
        }
        txq_free_elts(txq);