common/mlx5: introduce common library
[dpdk.git] / drivers / net / mlx5 / mlx5_txq.c
index dfc379c..1d2ba8a 100644 (file)
@@ -18,6 +18,7 @@
 #pragma GCC diagnostic ignored "-Wpedantic"
 #endif
 #include <infiniband/verbs.h>
+#include <infiniband/mlx5dv.h>
 #ifdef PEDANTIC
 #pragma GCC diagnostic error "-Wpedantic"
 #endif
 #include <rte_ethdev_driver.h>
 #include <rte_common.h>
 
-#include "mlx5_utils.h"
+#include <mlx5_glue.h>
+#include <mlx5_devx_cmds.h>
+
 #include "mlx5_defs.h"
+#include "mlx5_utils.h"
 #include "mlx5.h"
 #include "mlx5_rxtx.h"
 #include "mlx5_autoconf.h"
-#include "mlx5_glue.h"
 
 /**
  * Allocate TX queue elements.
@@ -61,7 +64,7 @@ txq_alloc_elts(struct mlx5_txq_ctrl *txq_ctrl)
  * @param txq_ctrl
  *   Pointer to TX queue structure.
  */
-static void
+void
 txq_free_elts(struct mlx5_txq_ctrl *txq_ctrl)
 {
        const uint16_t elts_n = 1 << txq_ctrl->txq.elts_n;
@@ -126,12 +129,9 @@ mlx5_get_tx_port_offloads(struct rte_eth_dev *dev)
                        offloads |= DEV_TX_OFFLOAD_OUTER_IPV4_CKSUM;
                if (config->tso)
                        offloads |= (DEV_TX_OFFLOAD_VXLAN_TNL_TSO |
-                                    DEV_TX_OFFLOAD_GRE_TNL_TSO);
+                                    DEV_TX_OFFLOAD_GRE_TNL_TSO |
+                                    DEV_TX_OFFLOAD_GENEVE_TNL_TSO);
        }
-#ifdef HAVE_IBV_FLOW_DV_SUPPORT
-       if (config->dv_flow_en)
-               offloads |= DEV_TX_OFFLOAD_MATCH_METADATA;
-#endif
        return offloads;
 }
 
@@ -274,7 +274,6 @@ mlx5_tx_hairpin_queue_setup(struct rte_eth_dev *dev, uint16_t idx,
        DRV_LOG(DEBUG, "port %u adding Tx queue %u to list",
                dev->data->port_id, idx);
        (*priv->txqs)[idx] = &txq_ctrl->txq;
-       txq_ctrl->type = MLX5_TXQ_TYPE_HAIRPIN;
        return 0;
 }
 
@@ -305,6 +304,30 @@ mlx5_tx_queue_release(void *dpdk_txq)
                }
 }
 
+/**
+ * Configure the doorbell register non-cached attribute.
+ *
+ * @param txq_ctrl
+ *   Pointer to Tx queue control structure.
+ * @param page_size
+ *   Systme page size
+ */
+static void
+txq_uar_ncattr_init(struct mlx5_txq_ctrl *txq_ctrl, size_t page_size)
+{
+       struct mlx5_priv *priv = txq_ctrl->priv;
+       off_t cmd;
+
+       txq_ctrl->txq.db_heu = priv->config.dbnc == MLX5_TXDB_HEURISTIC;
+       txq_ctrl->txq.db_nc = 0;
+       /* Check the doorbell register mapping type. */
+       cmd = txq_ctrl->uar_mmap_offset / page_size;
+       cmd >>= MLX5_UAR_MMAP_CMD_SHIFT;
+       cmd &= MLX5_UAR_MMAP_CMD_MASK;
+       if (cmd == MLX5_MMAP_GET_NC_PAGES_CMD)
+               txq_ctrl->txq.db_nc = 1;
+}
+
 /**
  * Initialize Tx UAR registers for primary process.
  *
@@ -316,9 +339,9 @@ txq_uar_init(struct mlx5_txq_ctrl *txq_ctrl)
 {
        struct mlx5_priv *priv = txq_ctrl->priv;
        struct mlx5_proc_priv *ppriv = MLX5_PROC_PRIV(PORT_ID(priv));
+       const size_t page_size = sysconf(_SC_PAGESIZE);
 #ifndef RTE_ARCH_64
        unsigned int lock_idx;
-       const size_t page_size = sysconf(_SC_PAGESIZE);
 #endif
 
        if (txq_ctrl->type != MLX5_TXQ_TYPE_STANDARD)
@@ -326,6 +349,7 @@ txq_uar_init(struct mlx5_txq_ctrl *txq_ctrl)
        assert(rte_eal_process_type() == RTE_PROC_PRIMARY);
        assert(ppriv);
        ppriv->uar_table[txq_ctrl->txq.idx] = txq_ctrl->bf_reg;
+       txq_uar_ncattr_init(txq_ctrl, page_size);
 #ifndef RTE_ARCH_64
        /* Assign an UAR lock according to UAR page number */
        lock_idx = (txq_ctrl->uar_mmap_offset / page_size) &
@@ -379,6 +403,7 @@ txq_uar_init_secondary(struct mlx5_txq_ctrl *txq_ctrl, int fd)
        }
        addr = RTE_PTR_ADD(addr, offset);
        ppriv->uar_table[txq->idx] = addr;
+       txq_uar_ncattr_init(txq_ctrl, page_size);
        return 0;
 }
 
@@ -694,13 +719,22 @@ mlx5_txq_obj_new(struct rte_eth_dev *dev, uint16_t idx,
        txq_data->cq_db = cq_info.dbrec;
        txq_data->cqes = (volatile struct mlx5_cqe *)cq_info.buf;
        txq_data->cq_ci = 0;
-#ifndef NDEBUG
        txq_data->cq_pi = 0;
-#endif
        txq_data->wqe_ci = 0;
        txq_data->wqe_pi = 0;
        txq_data->wqe_comp = 0;
        txq_data->wqe_thres = txq_data->wqe_s / MLX5_TX_COMP_THRESH_INLINE_DIV;
+       txq_data->fcqs = rte_calloc_socket(__func__,
+                                          txq_data->cqe_s,
+                                          sizeof(*txq_data->fcqs),
+                                          RTE_CACHE_LINE_SIZE,
+                                          txq_ctrl->socket);
+       if (!txq_data->fcqs) {
+               DRV_LOG(ERR, "port %u Tx queue %u cannot allocate memory (FCQ)",
+                       dev->data->port_id, idx);
+               rte_errno = ENOMEM;
+               goto error;
+       }
 #ifdef HAVE_IBV_FLOW_DV_SUPPORT
        /*
         * If using DevX need to query and store TIS transport domain value.
@@ -749,6 +783,8 @@ error:
                claim_zero(mlx5_glue->destroy_cq(tmpl.cq));
        if (tmpl.qp)
                claim_zero(mlx5_glue->destroy_qp(tmpl.qp));
+       if (txq_data && txq_data->fcqs)
+               rte_free(txq_data->fcqs);
        if (txq_obj)
                rte_free(txq_obj);
        priv->verbs_alloc_ctx.type = MLX5_VERBS_ALLOC_TYPE_NONE;
@@ -803,6 +839,8 @@ mlx5_txq_obj_release(struct mlx5_txq_obj *txq_obj)
                } else {
                        claim_zero(mlx5_glue->destroy_qp(txq_obj->qp));
                        claim_zero(mlx5_glue->destroy_cq(txq_obj->cq));
+                               if (txq_obj->txq_ctrl->txq.fcqs)
+                                       rte_free(txq_obj->txq_ctrl->txq.fcqs);
                }
                LIST_REMOVE(txq_obj, next);
                rte_free(txq_obj);
@@ -934,7 +972,7 @@ txq_set_params(struct mlx5_txq_ctrl *txq_ctrl)
                     (unsigned int)config->txq_inline_mpw;
        inlen_mode = (config->txq_inline_min == MLX5_ARG_UNSET) ?
                     0 : (unsigned int)config->txq_inline_min;
-       if (config->mps != MLX5_MPW_ENHANCED)
+       if (config->mps != MLX5_MPW_ENHANCED && config->mps != MLX5_MPW)
                inlen_empw = 0;
        /*
         * If there is requested minimal amount of data to inline
@@ -1189,7 +1227,8 @@ txq_adjust_params(struct mlx5_txq_ctrl *txq_ctrl)
        assert(txq_ctrl->max_inline_data <= max_inline);
        assert(txq_ctrl->txq.inlen_mode <= max_inline);
        assert(txq_ctrl->txq.inlen_mode <= txq_ctrl->txq.inlen_send);
-       assert(txq_ctrl->txq.inlen_mode <= txq_ctrl->txq.inlen_empw);
+       assert(txq_ctrl->txq.inlen_mode <= txq_ctrl->txq.inlen_empw ||
+              !txq_ctrl->txq.inlen_empw);
        return 0;
 error:
        rte_errno = ENOMEM;