net/mlx5: move static asserts to global scope
[dpdk.git] / drivers / net / mlx5 / mlx5.h
index 547733f..2186677 100644 (file)
@@ -44,6 +44,8 @@ enum mlx5_ipool_index {
        MLX5_IPOOL_JUMP, /* Pool for jump resource. */
        MLX5_IPOOL_SAMPLE, /* Pool for sample resource. */
        MLX5_IPOOL_DEST_ARRAY, /* Pool for destination array resource. */
+       MLX5_IPOOL_TUNNEL_ID, /* Pool for tunnel offload context */
+       MLX5_IPOOL_TNL_TBL_ID, /* Pool for tunnel table ID. */
 #endif
        MLX5_IPOOL_MTR, /* Pool for meter resource. */
        MLX5_IPOOL_MCP, /* Pool for metadata resource. */
@@ -51,8 +53,6 @@ enum mlx5_ipool_index {
        MLX5_IPOOL_MLX5_FLOW, /* Pool for mlx5 flow handle. */
        MLX5_IPOOL_RTE_FLOW, /* Pool for rte_flow. */
        MLX5_IPOOL_RSS_EXPANTION_FLOW_ID, /* Pool for Queue/RSS flow ID. */
-       MLX5_IPOOL_TUNNEL_ID, /* Pool for flow tunnel ID. */
-       MLX5_IPOOL_TNL_TBL_ID, /* Pool for tunnel table ID. */
        MLX5_IPOOL_RSS_SHARED_ACTIONS, /* Pool for RSS shared actions. */
        MLX5_IPOOL_MAX,
 };
@@ -83,6 +83,11 @@ struct mlx5_dev_attr {
        int             max_sge;
        int             max_cq;
        int             max_qp;
+       int             max_cqe;
+       uint32_t        max_pd;
+       uint32_t        max_mr;
+       uint32_t        max_srq;
+       uint32_t        max_srq_wr;
        uint32_t        raw_packet_caps;
        uint32_t        max_rwq_indirection_table_size;
        uint32_t        max_tso;
@@ -258,30 +263,12 @@ struct mlx5_dev_config {
 };
 
 
-/**
- * Type of object being allocated.
- */
-enum mlx5_verbs_alloc_type {
-       MLX5_VERBS_ALLOC_TYPE_NONE,
-       MLX5_VERBS_ALLOC_TYPE_TX_QUEUE,
-       MLX5_VERBS_ALLOC_TYPE_RX_QUEUE,
-};
-
 /* Structure for VF VLAN workaround. */
 struct mlx5_vf_vlan {
        uint32_t tag:12;
        uint32_t created:1;
 };
 
-/**
- * Verbs allocator needs a context to know in the callback which kind of
- * resources it is allocating.
- */
-struct mlx5_verbs_alloc_ctx {
-       enum mlx5_verbs_alloc_type type; /* Kind of object being allocated. */
-       const void *obj; /* Pointer to the DPDK object. */
-};
-
 /* Flow drop context necessary due to Verbs API. */
 struct mlx5_drop {
        struct mlx5_hrxq *hrxq; /* Hash Rx queue queue. */
@@ -467,7 +454,8 @@ struct mlx5_flow_counter_mng {
        uint8_t pending_queries;
        uint16_t pool_index;
        uint8_t query_thread_on;
-       bool relaxed_ordering;
+       bool relaxed_ordering_read;
+       bool relaxed_ordering_write;
        bool counter_fallback; /* Use counter fallback management. */
        LIST_HEAD(mem_mngs, mlx5_counter_stats_mem_mng) mem_mngs;
        LIST_HEAD(stat_raws, mlx5_counter_stats_raw) free_stat_raws;
@@ -512,11 +500,11 @@ struct mlx5_aso_sq {
                volatile struct mlx5_aso_wqe *wqes;
        };
        volatile uint32_t *db_rec;
-       struct mlx5dv_devx_uar *uar_obj;
        volatile uint64_t *uar_addr;
        struct mlx5_aso_devx_mr mr;
        uint16_t pi;
-       uint16_t ci;
+       uint32_t head;
+       uint32_t tail;
        uint32_t sqn;
        struct mlx5_aso_sq_elem elts[1 << MLX5_ASO_QUEUE_LOG_DESC];
        uint16_t next; /* Pool index of the next pool to query. */
@@ -525,6 +513,7 @@ struct mlx5_aso_sq {
 struct mlx5_aso_age_action {
        LIST_ENTRY(mlx5_aso_age_action) next;
        void *dr_action;
+       uint32_t refcnt;
        /* Following fields relevant only when action is active. */
        uint16_t offset; /* Offset of ASO Flow Hit flag in DevX object. */
        struct mlx5_age_param age_params;
@@ -565,10 +554,8 @@ struct mlx5_aso_age_mng {
 /* Aging information for per port. */
 struct mlx5_age_info {
        uint8_t flags; /* Indicate if is new event or need to be triggered. */
-       union {
-               struct mlx5_counters aged_counters; /* Aged counter list. */
-               struct aso_age_list aged_aso; /* Aged ASO actions list. */
-       };
+       struct mlx5_counters aged_counters; /* Aged counter list. */
+       struct aso_age_list aged_aso; /* Aged ASO actions list. */
        rte_spinlock_t aged_sl; /* Aged flow list lock. */
 };
 
@@ -611,9 +598,9 @@ struct mlx5_flow_tbl_resource {
 #define MLX5_FLOW_MREG_ACT_TABLE_GROUP (MLX5_MAX_TABLES - 1)
 #define MLX5_FLOW_MREG_CP_TABLE_GROUP (MLX5_MAX_TABLES - 2)
 /* Tables for metering splits should be added here. */
-#define MLX5_MAX_TABLES_EXTERNAL (MLX5_MAX_TABLES - 3)
-#define MLX5_FLOW_TABLE_LEVEL_METER (MLX5_MAX_TABLES - 4)
 #define MLX5_FLOW_TABLE_LEVEL_SUFFIX (MLX5_MAX_TABLES - 3)
+#define MLX5_FLOW_TABLE_LEVEL_METER (MLX5_MAX_TABLES - 4)
+#define MLX5_MAX_TABLES_EXTERNAL MLX5_FLOW_TABLE_LEVEL_METER
 #define MLX5_MAX_TABLES_FDB UINT16_MAX
 #define MLX5_FLOW_TABLE_FACTOR 10
 
@@ -705,6 +692,7 @@ struct mlx5_flex_parser_profiles {
 struct mlx5_dev_ctx_shared {
        LIST_ENTRY(mlx5_dev_ctx_shared) next;
        uint32_t refcnt;
+       uint16_t bond_dev; /* Bond primary device id. */
        uint32_t devx:1; /* Opened with DV. */
        uint32_t flow_hit_aso_en:1; /* Flow Hit ASO is supported. */
        uint32_t eqn; /* Event Queue number. */
@@ -789,11 +777,13 @@ struct mlx5_flow_rss_desc {
        uint8_t key[MLX5_RSS_HASH_KEY_LEN]; /**< RSS hash key. */
        uint32_t key_len; /**< RSS hash key len. */
        uint32_t tunnel; /**< Queue in tunnel. */
+       uint32_t shared_rss; /**< Shared RSS index. */
+       struct mlx5_ind_table_obj *ind_tbl;
+       /**< Indirection table for shared RSS hash RX queues. */
        union {
                uint16_t *queue; /**< Destination queues. */
                const uint16_t *const_q; /**< Const pointer convert. */
        };
-       bool standalone; /**< Queue is standalone or not. */
 };
 
 #define MLX5_PROC_PRIV(port_id) \
@@ -829,14 +819,13 @@ struct mlx5_ind_table_obj {
                struct mlx5_devx_obj *rqt; /* DevX RQT object. */
        };
        uint32_t queues_n; /**< Number of queues in the list. */
-       uint16_t queues[]; /**< Queue list. */
+       uint16_t *queues; /**< Queue list. */
 };
 
 /* Hash Rx queue. */
 __extension__
 struct mlx5_hrxq {
        struct mlx5_cache_entry entry; /* Cache entry. */
-       uint32_t refcnt; /* Reference counter. */
        uint32_t standalone:1; /* This object used in shared action. */
        struct mlx5_ind_table_obj *ind_table; /* Indirection table. */
        RTE_STD_C11
@@ -906,6 +895,10 @@ struct mlx5_obj_ops {
        void (*rxq_obj_release)(struct mlx5_rxq_obj *rxq_obj);
        int (*ind_table_new)(struct rte_eth_dev *dev, const unsigned int log_n,
                             struct mlx5_ind_table_obj *ind_tbl);
+       int (*ind_table_modify)(struct rte_eth_dev *dev,
+                               const unsigned int log_n,
+                               const uint16_t *queues, const uint32_t queues_n,
+                               struct mlx5_ind_table_obj *ind_tbl);
        void (*ind_table_destroy)(struct mlx5_ind_table_obj *ind_tbl);
        int (*hrxq_new)(struct rte_eth_dev *dev, struct mlx5_hrxq *hrxq,
                        int tunnel __rte_unused);
@@ -983,7 +976,6 @@ struct mlx5_priv {
        struct mlx5_xstats_ctrl xstats_ctrl; /* Extended stats control. */
        struct mlx5_stats_ctrl stats_ctrl; /* Stats control. */
        struct mlx5_dev_config config; /* Device configuration. */
-       struct mlx5_verbs_alloc_ctx verbs_alloc_ctx;
        /* Context for Verbs allocator. */
        int nl_socket_rdma; /* Netlink socket (NETLINK_RDMA). */
        int nl_socket_route; /* Netlink socket (NETLINK_ROUTE). */