common/mlx5: get PCI device address from any bus
[dpdk.git] / drivers / net / mlx5 / mlx5.h
index 6d3f895..94618e1 100644 (file)
 
 #define MLX5_SH(dev) (((struct mlx5_priv *)(dev)->data->dev_private)->sh)
 
+/*
+ * Number of modification commands.
+ * The maximal actions amount in FW is some constant, and it is 16 in the
+ * latest releases. In some old releases, it will be limited to 8.
+ * Since there is no interface to query the capacity, the maximal value should
+ * be used to allow PMD to create the flow. The validation will be done in the
+ * lower driver layer or FW. A failure will be returned if exceeds the maximal
+ * supported actions number on the root table.
+ * On non-root tables, there is no limitation, but 32 is enough right now.
+ */
+#define MLX5_MAX_MODIFY_NUM                    32
+#define MLX5_ROOT_TBL_MODIFY_NUM               16
+
 enum mlx5_ipool_index {
 #if defined(HAVE_IBV_FLOW_DV_SUPPORT) || !defined(HAVE_INFINIBAND_VERBS_H)
        MLX5_IPOOL_DECAP_ENCAP = 0, /* Pool for encap/decap resource. */
@@ -71,11 +84,20 @@ enum mlx5_reclaim_mem_mode {
        MLX5_RCM_AGGR, /* Reclaim PMD and rdma-core level. */
 };
 
-/* Hash and cache list callback context. */
+/* The type of flow. */
+enum mlx5_flow_type {
+       MLX5_FLOW_TYPE_CTL, /* Control flow. */
+       MLX5_FLOW_TYPE_GEN, /* General flow. */
+       MLX5_FLOW_TYPE_MCP, /* MCP flow. */
+       MLX5_FLOW_TYPE_MAXI,
+};
+
+/* Hlist and list callback context. */
 struct mlx5_flow_cb_ctx {
        struct rte_eth_dev *dev;
        struct rte_flow_error *error;
        void *data;
+       void *data2;
 };
 
 /* Device attributes used in mlx5 PMD */
@@ -244,6 +266,8 @@ struct mlx5_dev_config {
        unsigned int sys_mem_en:1; /* The default memory allocator. */
        unsigned int decap_en:1; /* Whether decap will be used or not. */
        unsigned int dv_miss_info:1; /* restore packet after partial hw miss */
+       unsigned int allow_duplicate_pattern:1;
+       /* Allow/Prevent the duplicate rules pattern. */
        struct {
                unsigned int enabled:1; /* Whether MPRQ is enabled. */
                unsigned int stride_num_n; /* Number of strides. */
@@ -287,6 +311,13 @@ struct mlx5_drop {
        struct mlx5_rxq_obj *rxq; /* Rx queue object. */
 };
 
+/* Loopback dummy queue resources required due to Verbs API. */
+struct mlx5_lb_ctx {
+       struct ibv_qp *qp; /* QP object. */
+       void *ibv_cq; /* Completion queue. */
+       uint16_t refcnt; /* Reference count for representors. */
+};
+
 #define MLX5_COUNTERS_PER_POOL 512
 #define MLX5_MAX_PENDING_QUERIES 4
 #define MLX5_CNT_CONTAINER_RESIZE 64
@@ -624,6 +655,20 @@ enum mlx5_meter_domain {
                                        MLX5_MTR_DOMAIN_EGRESS_BIT | \
                                        MLX5_MTR_DOMAIN_TRANSFER_BIT)
 
+/* The color tag rule structure. */
+struct mlx5_sub_policy_color_rule {
+       void *rule;
+       /* The color rule. */
+       struct mlx5_flow_dv_matcher *matcher;
+       /* The color matcher. */
+       TAILQ_ENTRY(mlx5_sub_policy_color_rule) next_port;
+       /**< Pointer to the next color rule structure. */
+       int32_t src_port;
+       /* On which src port this rule applied. */
+};
+
+TAILQ_HEAD(mlx5_sub_policy_color_rules, mlx5_sub_policy_color_rule);
+
 /*
  * Meter sub-policy structure.
  * Each RSS TIR in meter policy need its own sub-policy resource.
@@ -641,10 +686,8 @@ struct mlx5_flow_meter_sub_policy {
        /* Index to TIR resource. */
        struct mlx5_flow_tbl_resource *jump_tbl[MLX5_MTR_RTE_COLORS];
        /* Meter jump/drop table. */
-       struct mlx5_flow_dv_matcher *color_matcher[RTE_COLORS];
-       /* Matcher for Color. */
-       void *color_rule[RTE_COLORS];
-       /* Meter green/yellow/drop rule. */
+       struct mlx5_sub_policy_color_rules color_rules[RTE_COLORS];
+       /* List for the color rules. */
 };
 
 struct mlx5_meter_policy_acts {
@@ -668,11 +711,21 @@ struct mlx5_meter_policy_action_container {
                /* Index to port ID action resource. */
                void *dr_jump_action[MLX5_MTR_DOMAIN_MAX];
                /* Jump/drop action per color. */
+               uint16_t queue;
+               /* Queue action configuration. */
+               struct {
+                       uint32_t next_mtr_id;
+                       /* The next meter id. */
+                       void *next_sub_policy;
+                       /* Next meter's sub-policy. */
+               };
        };
 };
 
 /* Flow meter policy parameter structure. */
 struct mlx5_flow_meter_policy {
+       struct rte_eth_dev *dev;
+       /* The port dev on which policy is created. */
        uint32_t is_rss:1;
        /* Is RSS policy table. */
        uint32_t ingress:1;
@@ -681,6 +734,10 @@ struct mlx5_flow_meter_policy {
        /* Rule applies to egress domain. */
        uint32_t transfer:1;
        /* Rule applies to transfer domain. */
+       uint32_t is_queue:1;
+       /* Is queue action in policy table. */
+       uint32_t is_hierarchy:1;
+       /* Is meter action in policy table. */
        rte_spinlock_t sl;
        uint32_t ref_cnt;
        /* Use count. */
@@ -699,6 +756,7 @@ struct mlx5_flow_meter_policy {
 #define MLX5_MTR_SUB_POLICY_NUM_SHIFT  3
 #define MLX5_MTR_SUB_POLICY_NUM_MASK  0x7
 #define MLX5_MTRS_DEFAULT_RULE_PRIORITY 0xFFFF
+#define MLX5_MTR_CHAIN_MAX_NUM 8
 
 /* Flow meter default policy parameter structure.
  * Policy index 0 is reserved by default policy table.
@@ -859,8 +917,6 @@ struct mlx5_flow_mtr_mng {
        /* Default policy id. */
        uint32_t def_policy_ref_cnt;
        /** def_policy meter use count. */
-       struct mlx5_l3t_tbl *policy_idx_tbl;
-       /* Policy index lookup table. */
        struct mlx5_flow_tbl_resource *drop_tbl[MLX5_MTR_DOMAIN_MAX];
        /* Meter drop table. */
        struct mlx5_flow_dv_matcher *
@@ -1060,6 +1116,9 @@ struct mlx5_dev_ctx_shared {
        uint32_t qp_ts_format:2; /* QP timestamp formats supported. */
        uint32_t meter_aso_en:1; /* Flow Meter ASO is supported. */
        uint32_t ct_aso_en:1; /* Connection Tracking ASO is supported. */
+       uint32_t tunnel_header_0_1:1; /* tunnel_header_0_1 is supported. */
+       uint32_t misc5_cap:1; /* misc5 matcher parameter is supported. */
+       uint32_t reclaim_mode:1; /* Reclaim memory. */
        uint32_t max_port; /* Maximal IB device port index. */
        struct mlx5_bond_info bond; /* Bonding information. */
        void *ctx; /* Verbs/DV/DevX context. */
@@ -1095,14 +1154,15 @@ struct mlx5_dev_ctx_shared {
        struct mlx5_hlist *encaps_decaps; /* Encap/decap action hash list. */
        struct mlx5_hlist *modify_cmds;
        struct mlx5_hlist *tag_table;
-       struct mlx5_cache_list port_id_action_list; /* Port ID action cache. */
-       struct mlx5_cache_list push_vlan_action_list; /* Push VLAN actions. */
-       struct mlx5_cache_list sample_action_list; /* List of sample actions. */
-       struct mlx5_cache_list dest_array_list;
+       struct mlx5_list *port_id_action_list; /* Port ID action list. */
+       struct mlx5_list *push_vlan_action_list; /* Push VLAN actions. */
+       struct mlx5_list *sample_action_list; /* List of sample actions. */
+       struct mlx5_list *dest_array_list;
        /* List of destination array actions. */
        struct mlx5_flow_counter_mng cmng; /* Counters management structure. */
        void *default_miss_action; /* Default miss action. */
        struct mlx5_indexed_pool *ipool[MLX5_IPOOL_MAX];
+       struct mlx5_indexed_pool *mdh_ipools[MLX5_MAX_MODIFY_NUM];
        /* Memory Pool for mlx5 flow resources. */
        struct mlx5_l3t_tbl *cnt_id_tbl; /* Shared counter lookup table. */
        /* Shared interrupt handler section. */
@@ -1124,6 +1184,7 @@ struct mlx5_dev_ctx_shared {
        /* Meter management structure. */
        struct mlx5_aso_ct_pools_mng *ct_mng;
        /* Management data for ASO connection tracking. */
+       struct mlx5_lb_ctx self_lb; /* QP to enable self loopback for Devx. */
        struct mlx5_dev_shared_port port[]; /* per device port data array. */
 };
 
@@ -1201,7 +1262,7 @@ struct mlx5_ind_table_obj {
 /* Hash Rx queue. */
 __extension__
 struct mlx5_hrxq {
-       struct mlx5_cache_entry entry; /* Cache entry. */
+       struct mlx5_list_entry entry; /* List entry. */
        uint32_t standalone:1; /* This object used in shared action. */
        struct mlx5_ind_table_obj *ind_table; /* Indirection table. */
        RTE_STD_C11
@@ -1283,6 +1344,8 @@ struct mlx5_obj_ops {
        int (*txq_obj_modify)(struct mlx5_txq_obj *obj,
                              enum mlx5_txq_modify_type type, uint8_t dev_port);
        void (*txq_obj_release)(struct mlx5_txq_obj *txq_obj);
+       int (*lb_dummy_queue_create)(struct rte_eth_dev *dev);
+       void (*lb_dummy_queue_release)(struct rte_eth_dev *dev);
 };
 
 #define MLX5_RSS_HASH_FIELDS_LEN RTE_DIM(mlx5_rss_hash_fields)
@@ -1312,11 +1375,12 @@ struct mlx5_priv {
        unsigned int sampler_en:1; /* Whether support sampler. */
        unsigned int mtr_en:1; /* Whether support meter. */
        unsigned int mtr_reg_share:1; /* Whether support meter REG_C share. */
+       unsigned int lb_used:1; /* Loopback queue is referred to. */
        uint16_t domain_id; /* Switch domain identifier. */
        uint16_t vport_id; /* Associated VF vport index (if any). */
        uint32_t vport_meta_tag; /* Used for vport index match ove VF LAG. */
        uint32_t vport_meta_mask; /* Used for vport index field match mask. */
-       int32_t representor_id; /* -1 if not a representor. */
+       uint16_t representor_id; /* UINT16_MAX if not a representor. */
        int32_t pf_bond; /* >=0, representor owner PF index in bonding. */
        unsigned int if_index; /* Associated kernel network device index. */
        /* RX/TX queues. */
@@ -1329,23 +1393,24 @@ struct mlx5_priv {
        unsigned int (*reta_idx)[]; /* RETA index table. */
        unsigned int reta_idx_n; /* RETA index size. */
        struct mlx5_drop drop_queue; /* Flow drop queues. */
-       uint32_t flows; /* RTE Flow rules. */
+       struct mlx5_indexed_pool *flows[MLX5_FLOW_TYPE_MAXI];
+       /* RTE Flow rules. */
        uint32_t ctrl_flows; /* Control flow rules. */
        rte_spinlock_t flow_list_lock;
        struct mlx5_obj_ops obj_ops; /* HW objects operations. */
        LIST_HEAD(rxq, mlx5_rxq_ctrl) rxqsctrl; /* DPDK Rx queues. */
        LIST_HEAD(rxqobj, mlx5_rxq_obj) rxqsobj; /* Verbs/DevX Rx queues. */
-       struct mlx5_cache_list hrxqs; /* Hash Rx queues. */
+       struct mlx5_list *hrxqs; /* Hash Rx queues. */
        LIST_HEAD(txq, mlx5_txq_ctrl) txqsctrl; /* DPDK Tx queues. */
        LIST_HEAD(txqobj, mlx5_txq_obj) txqsobj; /* Verbs/DevX Tx queues. */
        /* Indirection tables. */
        LIST_HEAD(ind_tables, mlx5_ind_table_obj) ind_tbls;
        /* Pointer to next element. */
+       rte_rwlock_t ind_tbls_lock;
        uint32_t refcnt; /**< Reference counter. */
        /**< Verbs modify header action object. */
        uint8_t ft_type; /**< Flow table type, Rx or Tx. */
        uint8_t max_lro_msg_size;
-       /* Tags resources cache. */
        uint32_t link_speed_capa; /* Link speed capabilities. */
        struct mlx5_xstats_ctrl xstats_ctrl; /* Extended stats control. */
        struct mlx5_stats_ctrl stats_ctrl; /* Stats control. */
@@ -1358,8 +1423,9 @@ struct mlx5_priv {
        /* Hash table of Rx metadata register copy table. */
        uint8_t mtr_sfx_reg; /* Meter prefix-suffix flow match REG_C. */
        uint8_t mtr_color_reg; /* Meter color match REG_C. */
-       struct mlx5_mtr_profiles flow_meter_profiles; /* MTR profile list. */
        struct mlx5_legacy_flow_meters flow_meters; /* MTR list. */
+       struct mlx5_l3t_tbl *mtr_profile_tbl; /* Meter index lookup table. */
+       struct mlx5_l3t_tbl *policy_idx_tbl; /* Policy index lookup table. */
        struct mlx5_l3t_tbl *mtr_idx_tbl; /* Meter index lookup table. */
        uint8_t skip_default_rss_reta; /* Skip configuration of default reta. */
        uint8_t fdb_def_rule; /* Whether fdb jump to table 1 is configured. */
@@ -1382,6 +1448,13 @@ struct rte_hairpin_peer_info {
        uint16_t manual_bind;
 };
 
+#define BUF_SIZE 1024
+enum dr_dump_rec_type {
+       DR_DUMP_REC_TYPE_PMD_PKT_REFORMAT = 4410,
+       DR_DUMP_REC_TYPE_PMD_MODIFY_HDR = 4420,
+       DR_DUMP_REC_TYPE_PMD_COUNTER = 4430,
+};
+
 /* mlx5.c */
 
 int mlx5_getenv_int(const char *);
@@ -1581,7 +1654,8 @@ struct rte_flow *mlx5_flow_create(struct rte_eth_dev *dev,
                                  struct rte_flow_error *error);
 int mlx5_flow_destroy(struct rte_eth_dev *dev, struct rte_flow *flow,
                      struct rte_flow_error *error);
-void mlx5_flow_list_flush(struct rte_eth_dev *dev, uint32_t *list, bool active);
+void mlx5_flow_list_flush(struct rte_eth_dev *dev, enum mlx5_flow_type type,
+                         bool active);
 int mlx5_flow_flush(struct rte_eth_dev *dev, struct rte_flow_error *error);
 int mlx5_flow_query(struct rte_eth_dev *dev, struct rte_flow *flow,
                    const struct rte_flow_action *action, void *data,
@@ -1613,9 +1687,21 @@ int mlx5_counter_query(struct rte_eth_dev *dev, uint32_t cnt,
                       bool clear, uint64_t *pkts, uint64_t *bytes);
 int mlx5_flow_dev_dump(struct rte_eth_dev *dev, struct rte_flow *flow,
                        FILE *file, struct rte_flow_error *error);
+int save_dump_file(const unsigned char *data, uint32_t size,
+               uint32_t type, uint32_t id, void *arg, FILE *file);
+int mlx5_flow_query_counter(struct rte_eth_dev *dev, struct rte_flow *flow,
+       struct rte_flow_query_count *count, struct rte_flow_error *error);
+#ifdef HAVE_IBV_FLOW_DV_SUPPORT
+int mlx5_flow_dev_dump_ipool(struct rte_eth_dev *dev, struct rte_flow *flow,
+               FILE *file, struct rte_flow_error *error);
+#endif
 void mlx5_flow_rxq_dynf_metadata_set(struct rte_eth_dev *dev);
 int mlx5_flow_get_aged_flows(struct rte_eth_dev *dev, void **contexts,
                        uint32_t nb_contexts, struct rte_flow_error *error);
+int mlx5_validate_action_ct(struct rte_eth_dev *dev,
+                           const struct rte_flow_action_conntrack *conntrack,
+                           struct rte_flow_error *error);
+
 
 /* mlx5_mp_os.c */
 
@@ -1649,8 +1735,12 @@ struct mlx5_flow_meter_policy *mlx5_flow_meter_policy_find
                (struct rte_eth_dev *dev,
                uint32_t policy_id,
                uint32_t *policy_idx);
+struct mlx5_flow_meter_policy *
+mlx5_flow_meter_hierarchy_get_final_policy(struct rte_eth_dev *dev,
+                                       struct mlx5_flow_meter_policy *policy);
 int mlx5_flow_meter_flush(struct rte_eth_dev *dev,
                          struct rte_mtr_error *error);
+void mlx5_flow_meter_rxq_flush(struct rte_eth_dev *dev);
 
 /* mlx5_os.c */
 struct rte_pci_driver;
@@ -1715,5 +1805,7 @@ int mlx5_aso_ct_wait_ready(struct mlx5_dev_ctx_shared *sh,
 int mlx5_aso_ct_query_by_wqe(struct mlx5_dev_ctx_shared *sh,
                             struct mlx5_aso_ct_action *ct,
                             struct rte_flow_action_conntrack *profile);
+int mlx5_aso_ct_available(struct mlx5_dev_ctx_shared *sh,
+                         struct mlx5_aso_ct_action *ct);
 
 #endif /* RTE_PMD_MLX5_H_ */