net/mlx5: support single flow dump
[dpdk.git] / drivers / net / mlx5 / mlx5.h
index 2186677..c61f8ff 100644 (file)
 #include <stdbool.h>
 #include <stdint.h>
 #include <limits.h>
-#include <netinet/in.h>
 #include <sys/queue.h>
 
 #include <rte_pci.h>
 #include <rte_ether.h>
-#include <rte_ethdev_driver.h>
+#include <ethdev_driver.h>
 #include <rte_rwlock.h>
 #include <rte_interrupts.h>
 #include <rte_errno.h>
@@ -26,6 +25,7 @@
 #include <mlx5_prm.h>
 #include <mlx5_common_mp.h>
 #include <mlx5_common_mr.h>
+#include <mlx5_common_devx.h>
 
 #include "mlx5_defs.h"
 #include "mlx5_utils.h"
@@ -36,7 +36,7 @@
 #define MLX5_SH(dev) (((struct mlx5_priv *)(dev)->data->dev_private)->sh)
 
 enum mlx5_ipool_index {
-#ifdef HAVE_IBV_FLOW_DV_SUPPORT
+#if defined(HAVE_IBV_FLOW_DV_SUPPORT) || !defined(HAVE_INFINIBAND_VERBS_H)
        MLX5_IPOOL_DECAP_ENCAP = 0, /* Pool for encap/decap resource. */
        MLX5_IPOOL_PUSH_VLAN, /* Pool for push vlan resource. */
        MLX5_IPOOL_TAG, /* Pool for tag resource. */
@@ -114,6 +114,17 @@ struct mlx5_dev_spawn_data {
        void *phys_dev; /**< Associated physical device. */
        struct rte_eth_dev *eth_dev; /**< Associated Ethernet device. */
        struct rte_pci_device *pci_dev; /**< Backend PCI device. */
+       struct mlx5_bond_info *bond_info;
+};
+
+/** Data associated with socket messages. */
+struct mlx5_flow_dump_req  {
+       uint32_t port_id; /**< There are plans in DPDK to extend port_id. */
+       uint64_t flow_id;
+} __rte_packed;
+
+struct mlx5_flow_dump_ack {
+       int rc; /**< Return code. */
 };
 
 /** Key string for IPC. */
@@ -140,9 +151,9 @@ struct mlx5_local_data {
 extern struct mlx5_shared_data *mlx5_shared_data;
 
 /* Dev ops structs */
-extern const struct eth_dev_ops mlx5_os_dev_ops;
-extern const struct eth_dev_ops mlx5_os_dev_sec_ops;
-extern const struct eth_dev_ops mlx5_os_dev_ops_isolate;
+extern const struct eth_dev_ops mlx5_dev_ops;
+extern const struct eth_dev_ops mlx5_dev_sec_ops;
+extern const struct eth_dev_ops mlx5_dev_ops_isolate;
 
 struct mlx5_counter_ctrl {
        /* Name of the counter. */
@@ -212,7 +223,6 @@ struct mlx5_dev_config {
        unsigned int mpls_en:1; /* MPLS over GRE/UDP is enabled. */
        unsigned int cqe_comp:1; /* CQE compression is enabled. */
        unsigned int cqe_comp_fmt:3; /* CQE compression format. */
-       unsigned int cqe_pad:1; /* CQE padding is enabled. */
        unsigned int tso:1; /* Whether TSO is supported. */
        unsigned int rx_vec_en:1; /* Rx vector is enabled. */
        unsigned int mr_ext_memseg_en:1;
@@ -467,13 +477,7 @@ struct mlx5_flow_counter_mng {
 struct mlx5_aso_cq {
        uint16_t log_desc_n;
        uint32_t cq_ci:24;
-       struct mlx5_devx_obj *cq;
-       struct mlx5dv_devx_umem *umem_obj;
-       union {
-               volatile void *umem_buf;
-               volatile struct mlx5_cqe *cqes;
-       };
-       volatile uint32_t *db_rec;
+       struct mlx5_devx_cq cq_obj;
        uint64_t errors;
 };
 
@@ -493,13 +497,7 @@ struct mlx5_aso_sq_elem {
 struct mlx5_aso_sq {
        uint16_t log_desc_n;
        struct mlx5_aso_cq cq;
-       struct mlx5_devx_obj *sq;
-       struct mlx5dv_devx_umem *wqe_umem; /* SQ buffer umem. */
-       union {
-               volatile void *umem_buf;
-               volatile struct mlx5_aso_wqe *wqes;
-       };
-       volatile uint32_t *db_rec;
+       struct mlx5_devx_sq sq_obj;
        volatile uint64_t *uar_addr;
        struct mlx5_aso_devx_mr mr;
        uint16_t pi;
@@ -540,6 +538,16 @@ struct mlx5_aso_age_mng {
        struct mlx5_aso_sq aso_sq; /* ASO queue objects. */
 };
 
+/* Management structure for geneve tlv option */
+struct mlx5_geneve_tlv_option_resource {
+       struct mlx5_devx_obj *obj; /* Pointer to the geneve tlv opt object. */
+       rte_be16_t option_class; /* geneve tlv opt class.*/
+       uint8_t option_type; /* geneve tlv opt type.*/
+       uint8_t length; /* geneve tlv opt length. */
+       uint32_t refcnt; /* geneve tlv object reference counter */
+};
+
+
 #define MLX5_AGE_EVENT_NEW             1
 #define MLX5_AGE_TRIGGER               2
 #define MLX5_AGE_SET(age_info, BIT) \
@@ -617,25 +625,13 @@ struct mlx5_flow_id_pool {
 /* Tx pacing queue structure - for Clock and Rearm queues. */
 struct mlx5_txpp_wq {
        /* Completion Queue related data.*/
-       struct mlx5_devx_obj *cq;
-       void *cq_umem;
-       union {
-               volatile void *cq_buf;
-               volatile struct mlx5_cqe *cqes;
-       };
-       volatile uint32_t *cq_dbrec;
+       struct mlx5_devx_cq cq_obj;
        uint32_t cq_ci:24;
        uint32_t arm_sn:2;
        /* Send Queue related data.*/
-       struct mlx5_devx_obj *sq;
-       void *sq_umem;
-       union {
-               volatile void *sq_buf;
-               volatile struct mlx5_wqe *wqes;
-       };
+       struct mlx5_devx_sq sq_obj;
        uint16_t sq_size; /* Number of WQEs in the queue. */
        uint16_t sq_ci; /* Next WQE to execute. */
-       volatile uint32_t *sq_dbrec;
 };
 
 /* Tx packet pacing internal timestamp. */
@@ -685,6 +681,21 @@ struct mlx5_flex_parser_profiles {
        void *obj;              /* Flex parser node object. */
 };
 
+/* Max member ports per bonding device. */
+#define MLX5_BOND_MAX_PORTS 2
+
+/* Bonding device information. */
+struct mlx5_bond_info {
+       int n_port; /* Number of bond member ports. */
+       uint32_t ifindex;
+       char ifname[MLX5_NAMESIZE + 1];
+       struct {
+               char ifname[MLX5_NAMESIZE + 1];
+               uint32_t ifindex;
+               struct rte_pci_addr pci_addr;
+       } ports[MLX5_BOND_MAX_PORTS];
+};
+
 /*
  * Shared Infiniband device context for Master/Representors
  * which belong to same IB device with multiple IB ports.
@@ -692,17 +703,19 @@ struct mlx5_flex_parser_profiles {
 struct mlx5_dev_ctx_shared {
        LIST_ENTRY(mlx5_dev_ctx_shared) next;
        uint32_t refcnt;
-       uint16_t bond_dev; /* Bond primary device id. */
        uint32_t devx:1; /* Opened with DV. */
        uint32_t flow_hit_aso_en:1; /* Flow Hit ASO is supported. */
-       uint32_t eqn; /* Event Queue number. */
+       uint32_t rq_ts_format:2; /* RQ timestamp formats supported. */
+       uint32_t sq_ts_format:2; /* SQ timestamp formats supported. */
+       uint32_t qp_ts_format:2; /* QP timestamp formats supported. */
        uint32_t max_port; /* Maximal IB device port index. */
+       struct mlx5_bond_info bond; /* Bonding information. */
        void *ctx; /* Verbs/DV/DevX context. */
        void *pd; /* Protection Domain. */
        uint32_t pdn; /* Protection Domain number. */
        uint32_t tdn; /* Transport Domain number. */
-       char ibdev_name[DEV_SYSFS_NAME_MAX]; /* SYSFS dev name. */
-       char ibdev_path[DEV_SYSFS_PATH_MAX]; /* SYSFS dev path for secondary */
+       char ibdev_name[MLX5_FS_NAME_MAX]; /* SYSFS dev name. */
+       char ibdev_path[MLX5_FS_PATH_MAX]; /* SYSFS dev path for secondary */
        struct mlx5_dev_attr device_attr; /* Device properties. */
        int numa_node; /* Numa node of backing physical device. */
        LIST_ENTRY(mlx5_dev_ctx_shared) mem_event_cb;
@@ -725,7 +738,7 @@ struct mlx5_dev_ctx_shared {
        struct mlx5_hlist *flow_tbls;
        struct mlx5_flow_tunnel_hub *tunnel_hub;
        /* Direct Rules tables for FDB, NIC TX+RX */
-       void *esw_drop_action; /* Pointer to DR E-Switch drop action. */
+       void *dr_drop_action; /* Pointer to DR drop action, any domain. */
        void *pop_vlan_action; /* Pointer to DR pop VLAN action. */
        struct mlx5_hlist *encaps_decaps; /* Encap/decap action hash list. */
        struct mlx5_hlist *modify_cmds;
@@ -752,10 +765,16 @@ struct mlx5_dev_ctx_shared {
        void *devx_rx_uar; /* DevX UAR for Rx. */
        struct mlx5_aso_age_mng *aso_age_mng;
        /* Management data for aging mechanism using ASO Flow Hit. */
+       struct mlx5_geneve_tlv_option_resource *geneve_tlv_option_resource;
+       /* Management structure for geneve tlv option */
+       rte_spinlock_t geneve_tlv_opt_sl; /* Lock for geneve tlv resource */
        struct mlx5_dev_shared_port port[]; /* per device port data array. */
 };
 
-/* Per-process private structure. */
+/*
+ * Per-process private structure.
+ * Caution, secondary process may rebuild the struct during port start.
+ */
 struct mlx5_proc_priv {
        size_t uar_table_sz;
        /* Size of UAR register table. */
@@ -801,9 +820,10 @@ struct mlx5_rxq_obj {
                        void *ibv_cq; /* Completion Queue. */
                        void *ibv_channel;
                };
+               struct mlx5_devx_obj *rq; /* DevX RQ object for hairpin. */
                struct {
-                       struct mlx5_devx_obj *rq; /* DevX Rx Queue object. */
-                       struct mlx5_devx_obj *devx_cq; /* DevX CQ object. */
+                       struct mlx5_devx_rq rq_obj; /* DevX RQ object. */
+                       struct mlx5_devx_cq cq_obj; /* DevX CQ object. */
                        void *devx_channel;
                };
        };
@@ -833,7 +853,7 @@ struct mlx5_hrxq {
                void *qp; /* Verbs queue pair. */
                struct mlx5_devx_obj *tir; /* DevX TIR object. */
        };
-#ifdef HAVE_IBV_FLOW_DV_SUPPORT
+#if defined(HAVE_IBV_FLOW_DV_SUPPORT) || !defined(HAVE_INFINIBAND_VERBS_H)
        void *action; /* DV QP action pointer. */
 #endif
        uint64_t hash_fields; /* Verbs Hash fields. */
@@ -859,16 +879,10 @@ struct mlx5_txq_obj {
                };
                struct {
                        struct rte_eth_dev *dev;
-                       struct mlx5_devx_obj *cq_devx;
-                       void *cq_umem;
-                       void *cq_buf;
-                       int64_t cq_dbrec_offset;
-                       struct mlx5_devx_dbr_page *cq_dbrec_page;
-                       struct mlx5_devx_obj *sq_devx;
-                       void *sq_umem;
-                       void *sq_buf;
-                       int64_t sq_dbrec_offset;
-                       struct mlx5_devx_dbr_page *sq_dbrec_page;
+                       struct mlx5_devx_cq cq_obj;
+                       /* DevX CQ object and its resources. */
+                       struct mlx5_devx_sq sq_obj;
+                       /* DevX SQ object and its resources. */
                };
        };
 };
@@ -917,6 +931,12 @@ struct mlx5_obj_ops {
 
 #define MLX5_RSS_HASH_FIELDS_LEN RTE_DIM(mlx5_rss_hash_fields)
 
+/* MR operations structure. */
+struct mlx5_mr_ops {
+       mlx5_reg_mr_t reg_mr;
+       mlx5_dereg_mr_t dereg_mr;
+};
+
 struct mlx5_priv {
        struct rte_eth_dev_data *dev_data;  /* Pointer to device data. */
        struct mlx5_dev_ctx_shared *sh; /* Shared device context. */
@@ -940,11 +960,9 @@ struct mlx5_priv {
        uint16_t vport_id; /* Associated VF vport index (if any). */
        uint32_t vport_meta_tag; /* Used for vport index match ove VF LAG. */
        uint32_t vport_meta_mask; /* Used for vport index field match mask. */
-       int32_t representor_id; /* Port representor identifier. */
-       int32_t pf_bond; /* >=0 means PF index in bonding configuration. */
+       int32_t representor_id; /* -1 if not a representor. */
+       int32_t pf_bond; /* >=0, representor owner PF index in bonding. */
        unsigned int if_index; /* Associated kernel network device index. */
-       uint32_t bond_ifindex; /**< Bond interface index. */
-       char bond_name[IF_NAMESIZE]; /**< Bond interface name. */
        /* RX/TX queues. */
        unsigned int rxqs_n; /* RX queues array size. */
        unsigned int txqs_n; /* TX queues array size. */
@@ -979,7 +997,6 @@ struct mlx5_priv {
        /* Context for Verbs allocator. */
        int nl_socket_rdma; /* Netlink socket (NETLINK_RDMA). */
        int nl_socket_route; /* Netlink socket (NETLINK_ROUTE). */
-       struct mlx5_dbr_page_list dbrpgs; /* Door-bell pages. */
        struct mlx5_nl_vlan_vmwa_context *vmwa_context; /* VLAN WA context. */
        struct mlx5_hlist *mreg_cp_tbl;
        /* Hash table of Rx metadata register copy table. */
@@ -993,6 +1010,8 @@ struct mlx5_priv {
        LIST_HEAD(fdir, mlx5_fdir_flow) fdir_flows; /* fdir flows. */
        rte_spinlock_t shared_act_sl; /* Shared actions spinlock. */
        uint32_t rss_shared_actions; /* RSS shared actions. */
+       struct mlx5_devx_obj *q_counters; /* DevX queue counter object. */
+       uint32_t counter_set_id; /* Queue counter ID to set in DevX objects. */
 };
 
 #define PORT_ID(priv) ((priv)->dev_data->port_id)
@@ -1010,10 +1029,12 @@ struct rte_hairpin_peer_info {
 
 int mlx5_getenv_int(const char *);
 int mlx5_proc_priv_init(struct rte_eth_dev *dev);
+void mlx5_proc_priv_uninit(struct rte_eth_dev *dev);
 int mlx5_udp_tunnel_port_add(struct rte_eth_dev *dev,
                              struct rte_eth_udp_tunnel *udp_tunnel);
 uint16_t mlx5_eth_find_next(uint16_t port_id, struct rte_pci_device *pci_dev);
 int mlx5_dev_close(struct rte_eth_dev *dev);
+bool mlx5_is_hpf(struct rte_eth_dev *dev);
 void mlx5_age_event_prepare(struct mlx5_dev_ctx_shared *sh);
 
 /* Macro to iterate over all valid ports for mlx5 driver. */
@@ -1046,6 +1067,16 @@ int mlx5_flow_aso_age_mng_init(struct mlx5_dev_ctx_shared *sh);
 /* mlx5_ethdev.c */
 
 int mlx5_dev_configure(struct rte_eth_dev *dev);
+int mlx5_representor_info_get(struct rte_eth_dev *dev,
+                             struct rte_eth_representor_info *info);
+#define MLX5_REPRESENTOR_ID(pf, type, repr) \
+               (((pf) << 14) + ((type) << 12) + ((repr) & 0xfff))
+#define MLX5_REPRESENTOR_REPR(repr_id) \
+               ((repr_id) & 0xfff)
+#define MLX5_REPRESENTOR_TYPE(repr_id) \
+               (((repr_id) >> 12) & 3)
+uint16_t mlx5_representor_id_encode(const struct mlx5_switch_info *info,
+                                   enum rte_eth_representor_type hpf_type);
 int mlx5_fw_version_get(struct rte_eth_dev *dev, char *fw_ver,
                        size_t fw_size);
 int mlx5_dev_infos_get(struct rte_eth_dev *dev,
@@ -1061,6 +1092,8 @@ int mlx5_dev_configure_rss_reta(struct rte_eth_dev *dev);
 
 /* mlx5_ethdev_os.c */
 
+int mlx5_get_ifname(const struct rte_eth_dev *dev,
+                       char (*ifname)[MLX5_NAMESIZE]);
 unsigned int mlx5_ifindex(const struct rte_eth_dev *dev);
 int mlx5_get_mac(struct rte_eth_dev *dev, uint8_t (*mac)[RTE_ETHER_ADDR_LEN]);
 int mlx5_get_mtu(struct rte_eth_dev *dev, uint16_t *mtu);
@@ -1196,10 +1229,7 @@ int mlx5_flow_query(struct rte_eth_dev *dev, struct rte_flow *flow,
                    struct rte_flow_error *error);
 int mlx5_flow_isolate(struct rte_eth_dev *dev, int enable,
                      struct rte_flow_error *error);
-int mlx5_dev_filter_ctrl(struct rte_eth_dev *dev,
-                        enum rte_filter_type filter_type,
-                        enum rte_filter_op filter_op,
-                        void *arg);
+int mlx5_flow_ops_get(struct rte_eth_dev *dev, const struct rte_flow_ops **ops);
 int mlx5_flow_start_default(struct rte_eth_dev *dev);
 void mlx5_flow_stop_default(struct rte_eth_dev *dev);
 int mlx5_flow_verify(struct rte_eth_dev *dev);
@@ -1224,8 +1254,8 @@ uint32_t mlx5_counter_alloc(struct rte_eth_dev *dev);
 void mlx5_counter_free(struct rte_eth_dev *dev, uint32_t cnt);
 int mlx5_counter_query(struct rte_eth_dev *dev, uint32_t cnt,
                       bool clear, uint64_t *pkts, uint64_t *bytes);
-int mlx5_flow_dev_dump(struct rte_eth_dev *dev, FILE *file,
-                      struct rte_flow_error *error);
+int mlx5_flow_dev_dump(struct rte_eth_dev *dev, struct rte_flow *flow,
+                       FILE *file, struct rte_flow_error *error);
 void mlx5_flow_rxq_dynf_metadata_set(struct rte_eth_dev *dev);
 int mlx5_flow_get_aged_flows(struct rte_eth_dev *dev, void **contexts,
                        uint32_t nb_contexts, struct rte_flow_error *error);