net/ice: support new devices
[dpdk.git] / drivers / net / mlx5 / mlx5.h
index 3aea3b5..865e72d 100644 (file)
@@ -24,7 +24,6 @@
 #include <mlx5_glue.h>
 #include <mlx5_devx_cmds.h>
 #include <mlx5_prm.h>
-#include <mlx5_nl.h>
 #include <mlx5_common_mp.h>
 #include <mlx5_common_mr.h>
 
@@ -528,7 +527,7 @@ struct mlx5_flow_id_pool {
 struct mlx5_txpp_wq {
        /* Completion Queue related data.*/
        struct mlx5_devx_obj *cq;
-       struct mlx5dv_devx_umem *cq_umem;
+       void *cq_umem;
        union {
                volatile void *cq_buf;
                volatile struct mlx5_cqe *cqes;
@@ -538,7 +537,7 @@ struct mlx5_txpp_wq {
        uint32_t arm_sn:2;
        /* Send Queue related data.*/
        struct mlx5_devx_obj *sq;
-       struct mlx5dv_devx_umem *sq_umem;
+       void *sq_umem;
        union {
                volatile void *sq_buf;
                volatile struct mlx5_wqe *wqes;
@@ -564,10 +563,10 @@ struct mlx5_dev_txpp {
        int32_t skew; /* Scheduling skew. */
        uint32_t eqn; /* Event Queue number. */
        struct rte_intr_handle intr_handle; /* Periodic interrupt. */
-       struct mlx5dv_devx_event_channel *echan; /* Event Channel. */
+       void *echan; /* Event Channel. */
        struct mlx5_txpp_wq clock_queue; /* Clock Queue. */
        struct mlx5_txpp_wq rearm_queue; /* Clock Queue. */
-       struct mlx5dv_pp *pp; /* Packet pacing context. */
+       void *pp; /* Packet pacing context. */
        uint16_t pp_id; /* Packet pacing context index. */
        uint16_t ts_n; /* Number of captured timestamps. */
        uint16_t ts_p; /* Pointer to statisticks timestamp. */
@@ -654,10 +653,10 @@ struct mlx5_dev_ctx_shared {
        struct mlx5_devx_obj *tis; /* TIS object. */
        struct mlx5_devx_obj *td; /* Transport domain. */
        struct mlx5_flow_id_pool *flow_id_pool; /* Flow ID pool. */
-       struct mlx5dv_devx_uar *tx_uar; /* Tx/packer pacing shared UAR. */
+       void *tx_uar; /* Tx/packet pacing shared UAR. */
        struct mlx5_flex_parser_profiles fp[MLX5_FLEX_PARSER_MAX];
        /* Flex parser profiles information. */
-       struct mlx5dv_devx_uar *devx_rx_uar; /* DevX UAR for Rx. */
+       void *devx_rx_uar; /* DevX UAR for Rx. */
        struct mlx5_dev_shared_port port[]; /* per device port data array. */
 };
 
@@ -677,6 +676,82 @@ TAILQ_HEAD(mlx5_flow_meters, mlx5_flow_meter);
 #define MLX5_PROC_PRIV(port_id) \
        ((struct mlx5_proc_priv *)rte_eth_devices[port_id].process_private)
 
+enum mlx5_rxq_obj_type {
+       MLX5_RXQ_OBJ_TYPE_IBV,          /* mlx5_rxq_obj with ibv_wq. */
+       MLX5_RXQ_OBJ_TYPE_DEVX_RQ,      /* mlx5_rxq_obj with mlx5_devx_rq. */
+       MLX5_RXQ_OBJ_TYPE_DEVX_HAIRPIN,
+       /* mlx5_rxq_obj with mlx5_devx_rq and hairpin support. */
+};
+
+/* Verbs/DevX Rx queue elements. */
+struct mlx5_rxq_obj {
+       LIST_ENTRY(mlx5_rxq_obj) next; /* Pointer to the next element. */
+       struct mlx5_rxq_ctrl *rxq_ctrl; /* Back pointer to parent. */
+       enum mlx5_rxq_obj_type type;
+       int fd; /* File descriptor for event channel */
+       RTE_STD_C11
+       union {
+               struct {
+                       void *wq; /* Work Queue. */
+                       void *ibv_cq; /* Completion Queue. */
+                       void *ibv_channel;
+               };
+               struct {
+                       struct mlx5_devx_obj *rq; /* DevX Rx Queue object. */
+                       struct mlx5_devx_obj *devx_cq; /* DevX CQ object. */
+                       void *devx_channel;
+               };
+       };
+};
+
+/* Indirection table. */
+struct mlx5_ind_table_obj {
+       LIST_ENTRY(mlx5_ind_table_obj) next; /* Pointer to the next element. */
+       rte_atomic32_t refcnt; /* Reference counter. */
+       RTE_STD_C11
+       union {
+               void *ind_table; /**< Indirection table. */
+               struct mlx5_devx_obj *rqt; /* DevX RQT object. */
+       };
+       uint32_t queues_n; /**< Number of queues in the list. */
+       uint16_t queues[]; /**< Queue list. */
+};
+
+/* Hash Rx queue. */
+struct mlx5_hrxq {
+       ILIST_ENTRY(uint32_t)next; /* Index to the next element. */
+       rte_atomic32_t refcnt; /* Reference counter. */
+       struct mlx5_ind_table_obj *ind_table; /* Indirection table. */
+       RTE_STD_C11
+       union {
+               void *qp; /* Verbs queue pair. */
+               struct mlx5_devx_obj *tir; /* DevX TIR object. */
+       };
+#ifdef HAVE_IBV_FLOW_DV_SUPPORT
+       void *action; /* DV QP action pointer. */
+#endif
+       uint64_t hash_fields; /* Verbs Hash fields. */
+       uint32_t rss_key_len; /* Hash key length in bytes. */
+       uint8_t rss_key[]; /* Hash key. */
+};
+
+/* HW objects operations structure. */
+struct mlx5_obj_ops {
+       int (*rxq_obj_modify_vlan_strip)(struct mlx5_rxq_obj *rxq_obj, int on);
+       int (*rxq_obj_new)(struct rte_eth_dev *dev, uint16_t idx);
+       int (*rxq_event_get)(struct mlx5_rxq_obj *rxq_obj);
+       int (*rxq_obj_modify)(struct mlx5_rxq_obj *rxq_obj, bool is_start);
+       void (*rxq_obj_release)(struct mlx5_rxq_obj *rxq_obj);
+       int (*ind_table_new)(struct rte_eth_dev *dev, const unsigned int log_n,
+                            struct mlx5_ind_table_obj *ind_tbl);
+       void (*ind_table_destroy)(struct mlx5_ind_table_obj *ind_tbl);
+       int (*hrxq_new)(struct rte_eth_dev *dev, struct mlx5_hrxq *hrxq,
+                       int tunnel __rte_unused);
+       void (*hrxq_destroy)(struct mlx5_hrxq *hrxq);
+       int (*drop_action_create)(struct rte_eth_dev *dev);
+       void (*drop_action_destroy)(struct rte_eth_dev *dev);
+};
+
 struct mlx5_priv {
        struct rte_eth_dev_data *dev_data;  /* Pointer to device data. */
        struct mlx5_dev_ctx_shared *sh; /* Shared device context. */
@@ -720,6 +795,7 @@ struct mlx5_priv {
        void *rss_desc; /* Intermediate rss description resources. */
        int flow_idx; /* Intermediate device flow index. */
        int flow_nested_idx; /* Intermediate device flow index, nested. */
+       struct mlx5_obj_ops obj_ops; /* HW objects operations. */
        LIST_HEAD(rxq, mlx5_rxq_ctrl) rxqsctrl; /* DPDK Rx queues. */
        LIST_HEAD(rxqobj, mlx5_rxq_obj) rxqsobj; /* Verbs/DevX Rx queues. */
        uint32_t hrxqs; /* Verbs Hash Rx queues. */
@@ -848,8 +924,6 @@ void mlx5_os_stats_init(struct rte_eth_dev *dev);
 void mlx5_mac_addr_remove(struct rte_eth_dev *dev, uint32_t index);
 int mlx5_mac_addr_add(struct rte_eth_dev *dev, struct rte_ether_addr *mac,
                      uint32_t index, uint32_t vmdq);
-struct mlx5_nl_vlan_vmwa_context *mlx5_vlan_vmwa_init
-                                   (struct rte_eth_dev *dev, uint32_t ifindex);
 int mlx5_mac_addr_set(struct rte_eth_dev *dev, struct rte_ether_addr *mac_addr);
 int mlx5_set_mc_addr_list(struct rte_eth_dev *dev,
                        struct rte_ether_addr *mc_addr_set,
@@ -892,11 +966,15 @@ int mlx5_xstats_get_names(struct rte_eth_dev *dev __rte_unused,
 int mlx5_vlan_filter_set(struct rte_eth_dev *dev, uint16_t vlan_id, int on);
 void mlx5_vlan_strip_queue_set(struct rte_eth_dev *dev, uint16_t queue, int on);
 int mlx5_vlan_offload_set(struct rte_eth_dev *dev, int mask);
-void mlx5_vlan_vmwa_exit(struct mlx5_nl_vlan_vmwa_context *ctx);
+
+/* mlx5_vlan_os.c */
+
+void mlx5_vlan_vmwa_exit(void *ctx);
 void mlx5_vlan_vmwa_release(struct rte_eth_dev *dev,
                            struct mlx5_vf_vlan *vf_vlan);
 void mlx5_vlan_vmwa_acquire(struct rte_eth_dev *dev,
                            struct mlx5_vf_vlan *vf_vlan);
+void *mlx5_vlan_vmwa_init(struct rte_eth_dev *dev, uint32_t ifindex);
 
 /* mlx5_trigger.c */
 
@@ -1018,6 +1096,7 @@ int mlx5_os_vf_mac_addr_modify(struct mlx5_priv *priv, unsigned int iface_idx,
 int mlx5_os_set_promisc(struct rte_eth_dev *dev, int enable);
 int mlx5_os_set_allmulti(struct rte_eth_dev *dev, int enable);
 int mlx5_os_set_nonblock_channel_fd(int fd);
+void mlx5_os_mac_addr_flush(struct rte_eth_dev *dev);
 
 /* mlx5_txpp.c */