net/mlx5: zero LRO mbuf headroom
[dpdk.git] / drivers / net / mlx5 / mlx5_rxtx.h
index 0e7b428..4252832 100644 (file)
@@ -75,10 +75,23 @@ struct mlx5_mprq_buf {
        struct rte_mempool *mp;
        rte_atomic16_t refcnt; /* Atomically accessed refcnt. */
        uint8_t pad[RTE_PKTMBUF_HEADROOM]; /* Headroom for the first packet. */
+       struct rte_mbuf_ext_shared_info shinfos[];
+       /*
+        * Shared information per stride.
+        * More memory will be allocated for the first stride head-room and for
+        * the strides data.
+        */
 } __rte_cache_aligned;
 
 /* Get pointer to the first stride. */
-#define mlx5_mprq_buf_addr(ptr) ((ptr) + 1)
+#define mlx5_mprq_buf_addr(ptr, strd_n) (RTE_PTR_ADD((ptr), \
+                               sizeof(struct mlx5_mprq_buf) + \
+                               (strd_n) * \
+                               sizeof(struct rte_mbuf_ext_shared_info) + \
+                               RTE_PKTMBUF_HEADROOM))
+
+#define MLX5_MIN_SINGLE_STRIDE_LOG_NUM_BYTES 6
+#define MLX5_MIN_SINGLE_WQE_LOG_NUM_STRIDES 9
 
 enum mlx5_rxq_err_state {
        MLX5_RXQ_ERR_STATE_NO_ERROR = 0,
@@ -101,7 +114,8 @@ struct mlx5_rxq_data {
        unsigned int strd_sz_n:4; /* Log 2 of stride size. */
        unsigned int strd_shift_en:1; /* Enable 2bytes shift on a stride. */
        unsigned int err_state:2; /* enum mlx5_rxq_err_state. */
-       unsigned int :4; /* Remaining bits. */
+       unsigned int strd_headroom_en:1; /* Enable mbuf headroom in MPRQ. */
+       unsigned int :3; /* Remaining bits. */
        volatile uint32_t *rq_db;
        volatile uint32_t *cq_db;
        uint16_t port_id;
@@ -174,6 +188,9 @@ struct mlx5_rxq_ctrl {
        uint32_t flow_tunnels_n[MLX5_FLOW_TUNNEL]; /* Tunnels counters. */
        uint32_t wqn; /* WQ number. */
        uint16_t dump_file_n; /* Number of dump files. */
+       uint32_t dbr_umem_id; /* Storing door-bell information, */
+       uint64_t dbr_offset;  /* needed when freeing door-bell. */
+       struct mlx5dv_devx_umem *wq_umem; /* WQ buffer registration info. */
 };
 
 enum mlx5_ind_tbl_type {
@@ -200,7 +217,11 @@ struct mlx5_hrxq {
        LIST_ENTRY(mlx5_hrxq) next; /* Pointer to the next element. */
        rte_atomic32_t refcnt; /* Reference counter. */
        struct mlx5_ind_table_obj *ind_table; /* Indirection table. */
-       struct ibv_qp *qp; /* Verbs queue pair. */
+       RTE_STD_C11
+       union {
+               struct ibv_qp *qp; /* Verbs queue pair. */
+               struct mlx5_devx_obj *tir; /* DevX TIR object. */
+       };
 #ifdef HAVE_IBV_FLOW_DV_SUPPORT
        void *action; /* DV QP action pointer. */
 #endif
@@ -320,7 +341,8 @@ int mlx5_rx_intr_vec_enable(struct rte_eth_dev *dev);
 void mlx5_rx_intr_vec_disable(struct rte_eth_dev *dev);
 int mlx5_rx_intr_enable(struct rte_eth_dev *dev, uint16_t rx_queue_id);
 int mlx5_rx_intr_disable(struct rte_eth_dev *dev, uint16_t rx_queue_id);
-struct mlx5_rxq_obj *mlx5_rxq_obj_new(struct rte_eth_dev *dev, uint16_t idx);
+struct mlx5_rxq_obj *mlx5_rxq_obj_new(struct rte_eth_dev *dev, uint16_t idx,
+                                     enum mlx5_rxq_obj_type type);
 int mlx5_rxq_obj_verify(struct rte_eth_dev *dev);
 struct mlx5_rxq_ctrl *mlx5_rxq_new(struct rte_eth_dev *dev, uint16_t idx,
                                   uint16_t desc, unsigned int socket,
@@ -335,13 +357,13 @@ struct mlx5_hrxq *mlx5_hrxq_new(struct rte_eth_dev *dev,
                                const uint8_t *rss_key, uint32_t rss_key_len,
                                uint64_t hash_fields,
                                const uint16_t *queues, uint32_t queues_n,
-                               int tunnel __rte_unused);
+                               int tunnel __rte_unused, int lro);
 struct mlx5_hrxq *mlx5_hrxq_get(struct rte_eth_dev *dev,
                                const uint8_t *rss_key, uint32_t rss_key_len,
                                uint64_t hash_fields,
                                const uint16_t *queues, uint32_t queues_n);
 int mlx5_hrxq_release(struct rte_eth_dev *dev, struct mlx5_hrxq *hxrq);
-int mlx5_hrxq_ibv_verify(struct rte_eth_dev *dev);
+int mlx5_hrxq_verify(struct rte_eth_dev *dev);
 struct mlx5_hrxq *mlx5_hrxq_drop_new(struct rte_eth_dev *dev);
 void mlx5_hrxq_drop_release(struct rte_eth_dev *dev);
 uint64_t mlx5_get_rx_port_offloads(struct rte_eth_dev *dev);