net/mlx4: fix Rx packet type offloads
[dpdk.git] / drivers / net / mlx4 / mlx4_rxtx.h
index ff27126..463df2b 100644 (file)
@@ -63,27 +63,28 @@ struct mlx4_rxq_stats {
        uint64_t rx_nombuf; /**< Total of Rx mbuf allocation failures. */
 };
 
-/** Rx element. */
-struct rxq_elt {
-       struct ibv_recv_wr wr; /**< Work request. */
-       struct ibv_sge sge; /**< Scatter/gather element. */
-       struct rte_mbuf *buf; /**< Buffer. */
-};
-
 /** Rx queue descriptor. */
 struct rxq {
        struct priv *priv; /**< Back pointer to private data. */
        struct rte_mempool *mp; /**< Memory pool for allocations. */
-       struct ibv_mr *mr; /**< Memory region (for mp). */
+       struct mlx4_mr *mr; /**< Memory region. */
        struct ibv_cq *cq; /**< Completion queue. */
        struct ibv_wq *wq; /**< Work queue. */
        struct ibv_comp_channel *channel; /**< Rx completion channel. */
-       unsigned int port_id; /**< Port ID for incoming packets. */
-       unsigned int elts_n; /**< (*elts)[] length. */
-       unsigned int elts_head; /**< Current index in (*elts)[]. */
-       struct rxq_elt (*elts)[]; /**< Rx elements. */
+       uint16_t rq_ci; /**< Saved RQ consumer index. */
+       uint16_t port_id; /**< Port ID for incoming packets. */
+       uint16_t sges_n; /**< Number of segments per packet (log2 value). */
+       uint16_t elts_n; /**< Mbuf queue size (log2 value). */
+       struct rte_mbuf *(*elts)[]; /**< Rx elements. */
+       volatile struct mlx4_wqe_data_seg (*wqes)[]; /**< HW queue entries. */
+       volatile uint32_t *rq_db; /**< RQ doorbell record. */
+       uint32_t csum:1; /**< Enable checksum offloading. */
+       uint32_t csum_l2tun:1; /**< Same for L2 tunnels. */
+       uint32_t l2tun_offload:1; /**< L2 tunnel offload is enabled. */
+       struct mlx4_cq mcq;  /**< Info for directly manipulating the CQ. */
        struct mlx4_rxq_stats stats; /**< Rx queue counters. */
        unsigned int socket; /**< CPU socket ID for allocations. */
+       uint32_t usecnt; /**< Number of users relying on queue resources. */
        uint8_t data[]; /**< Remaining queue resources. */
 };
 
@@ -127,11 +128,14 @@ struct txq {
        struct txq_elt (*elts)[]; /**< Tx elements. */
        struct mlx4_txq_stats stats; /**< Tx queue counters. */
        uint32_t max_inline; /**< Max inline send size. */
+       uint32_t csum:1; /**< Enable checksum offloading. */
+       uint32_t csum_l2tun:1; /**< Same for L2 tunnels. */
+       uint32_t lb:1; /**< Whether packets should be looped back by eSwitch. */
        uint8_t *bounce_buf;
        /**< Memory used for storing the first DWORD of data TXBBs. */
        struct {
                const struct rte_mempool *mp; /**< Cached memory pool. */
-               struct ibv_mr *mr; /**< Memory region (for mp). */
+               struct mlx4_mr *mr; /**< Memory region (for mp). */
                uint32_t lkey; /**< mr->lkey copy. */
        } mp2mr[MLX4_PMD_TX_MP_CACHE]; /**< MP to MR translation table. */
        struct priv *priv; /**< Back pointer to private data. */
@@ -144,12 +148,16 @@ struct txq {
 /* mlx4_rxq.c */
 
 uint8_t mlx4_rss_hash_key_default[MLX4_RSS_HASH_KEY_SIZE];
+int mlx4_rss_init(struct priv *priv);
+void mlx4_rss_deinit(struct priv *priv);
 struct mlx4_rss *mlx4_rss_get(struct priv *priv, uint64_t fields,
                              uint8_t key[MLX4_RSS_HASH_KEY_SIZE],
                              uint16_t queues, const uint16_t queue_id[]);
 void mlx4_rss_put(struct mlx4_rss *rss);
 int mlx4_rss_attach(struct mlx4_rss *rss);
 void mlx4_rss_detach(struct mlx4_rss *rss);
+int mlx4_rxq_attach(struct rxq *rxq);
+void mlx4_rxq_detach(struct rxq *rxq);
 int mlx4_rx_queue_setup(struct rte_eth_dev *dev, uint16_t idx,
                        uint16_t desc, unsigned int socket,
                        const struct rte_eth_rxconf *conf,
@@ -158,7 +166,6 @@ void mlx4_rx_queue_release(void *dpdk_rxq);
 
 /* mlx4_rxtx.c */
 
-uint32_t mlx4_txq_mp2mr(struct txq *txq, struct rte_mempool *mp);
 uint16_t mlx4_tx_burst(void *dpdk_txq, struct rte_mbuf **pkts,
                       uint16_t pkts_n);
 uint16_t mlx4_rx_burst(void *dpdk_rxq, struct rte_mbuf **pkts,
@@ -175,4 +182,34 @@ int mlx4_tx_queue_setup(struct rte_eth_dev *dev, uint16_t idx,
                        const struct rte_eth_txconf *conf);
 void mlx4_tx_queue_release(void *dpdk_txq);
 
+/**
+ * Get memory region (MR) <-> memory pool (MP) association from txq->mp2mr[].
+ * Call mlx4_txq_add_mr() if MP is not registered yet.
+ *
+ * @param txq
+ *   Pointer to Tx queue structure.
+ * @param[in] mp
+ *   Memory pool for which a memory region lkey must be returned.
+ *
+ * @return
+ *   mr->lkey on success, (uint32_t)-1 on failure.
+ */
+static inline uint32_t
+mlx4_txq_mp2mr(struct txq *txq, struct rte_mempool *mp)
+{
+       unsigned int i;
+
+       for (i = 0; (i != RTE_DIM(txq->mp2mr)); ++i) {
+               if (unlikely(txq->mp2mr[i].mp == NULL)) {
+                       /* Unknown MP, add a new MR for it. */
+                       break;
+               }
+               if (txq->mp2mr[i].mp == mp) {
+                       /* MP found MP. */
+                       return txq->mp2mr[i].lkey;
+               }
+       }
+       return mlx4_txq_add_mr(txq, mp, i);
+}
+
 #endif /* MLX4_RXTX_H_ */