net/mlx5: support shared Rx queue
[dpdk.git] / drivers / net / mlx5 / mlx5_rx.h
index b219182..eda6eca 100644 (file)
 /* Support tunnel matching. */
 #define MLX5_FLOW_TUNNEL 10
 
+#define RXQ_PORT(rxq_ctrl) LIST_FIRST(&(rxq_ctrl)->owners)->priv
+#define RXQ_DEV(rxq_ctrl) ETH_DEV(RXQ_PORT(rxq_ctrl))
+#define RXQ_PORT_ID(rxq_ctrl) PORT_ID(RXQ_PORT(rxq_ctrl))
+
 /* First entry must be NULL for comparison. */
 #define mlx5_mr_btree_len(bt) ((bt)->len - 1)
 
@@ -92,6 +96,7 @@ struct mlx5_rxq_data {
        unsigned int lro:1; /* Enable LRO. */
        unsigned int dynf_meta:1; /* Dynamic metadata is configured. */
        unsigned int mcqe_format:3; /* CQE compression format. */
+       unsigned int shared:1; /* Shared RXQ. */
        volatile uint32_t *rq_db;
        volatile uint32_t *cq_db;
        uint16_t port_id;
@@ -152,11 +157,12 @@ struct mlx5_rxq_ctrl {
        LIST_HEAD(priv, mlx5_rxq_priv) owners; /* Owner rxq list. */
        struct mlx5_rxq_obj *obj; /* Verbs/DevX elements. */
        struct mlx5_dev_ctx_shared *sh; /* Shared context. */
-       struct mlx5_priv *priv; /* Back pointer to private data. */
        enum mlx5_rxq_type type; /* Rxq type. */
        unsigned int socket; /* CPU socket ID for allocations. */
+       LIST_ENTRY(mlx5_rxq_ctrl) share_entry; /* Entry in shared RXQ list. */
        uint32_t share_group; /* Group ID of shared RXQ. */
        uint16_t share_qid; /* Shared RxQ ID in group. */
+       unsigned int started:1; /* Whether (shared) RXQ has been started. */
        unsigned int irq:1; /* Whether IRQ is enabled. */
        uint32_t flow_mark_n; /* Number of Mark/Flag flows using this Queue. */
        uint32_t flow_tunnels_n[MLX5_FLOW_TUNNEL]; /* Tunnels counters. */
@@ -171,6 +177,7 @@ struct mlx5_rxq_priv {
        struct mlx5_rxq_ctrl *ctrl; /* Shared Rx Queue. */
        LIST_ENTRY(mlx5_rxq_priv) owner_entry; /* Entry in shared rxq_ctrl. */
        struct mlx5_priv *priv; /* Back pointer to private data. */
+       struct mlx5_devx_rq devx_rq;
        struct rte_eth_hairpin_conf hairpin_conf; /* Hairpin configuration. */
        uint32_t hairpin_status; /* Hairpin binding status. */
 };
@@ -318,7 +325,7 @@ mlx5_rx_addr2mr(struct mlx5_rxq_data *rxq, uintptr_t addr)
         */
        rxq_ctrl = container_of(rxq, struct mlx5_rxq_ctrl, rxq);
        mp = mlx5_rxq_mprq_enabled(rxq) ? rxq->mprq_mp : rxq->mp;
-       return mlx5_mr_mempool2mr_bh(&rxq_ctrl->priv->sh->cdev->mr_scache,
+       return mlx5_mr_mempool2mr_bh(&rxq_ctrl->sh->cdev->mr_scache,
                                     mr_ctrl, mp, addr);
 }
 
@@ -599,14 +606,13 @@ mlx5_mprq_enabled(struct rte_eth_dev *dev)
                return 0;
        /* All the configured queues should be enabled. */
        for (i = 0; i < priv->rxqs_n; ++i) {
-               struct mlx5_rxq_data *rxq = (*priv->rxqs)[i];
-               struct mlx5_rxq_ctrl *rxq_ctrl = container_of
-                       (rxq, struct mlx5_rxq_ctrl, rxq);
+               struct mlx5_rxq_ctrl *rxq_ctrl = mlx5_rxq_ctrl_get(dev, i);
 
-               if (rxq == NULL || rxq_ctrl->type != MLX5_RXQ_TYPE_STANDARD)
+               if (rxq_ctrl == NULL ||
+                   rxq_ctrl->type != MLX5_RXQ_TYPE_STANDARD)
                        continue;
                n_ibv++;
-               if (mlx5_rxq_mprq_enabled(rxq))
+               if (mlx5_rxq_mprq_enabled(&rxq_ctrl->rxq))
                        ++n;
        }
        /* Multi-Packet RQ can't be partially configured. */