net/ice: refine debug build option
[dpdk.git] / drivers / net / enic / enic.h
index 9193fb0..cd66348 100644 (file)
@@ -6,8 +6,11 @@
 #ifndef _ENIC_H_
 #define _ENIC_H_
 
+#include <rte_vxlan.h>
+#include <rte_ether.h>
 #include "vnic_enet.h"
 #include "vnic_dev.h"
+#include "vnic_flowman.h"
 #include "vnic_wq.h"
 #include "vnic_rq.h"
 #include "vnic_cq.h"
 #define PAGE_ROUND_UP(x) \
        ((((unsigned long)(x)) + ENIC_PAGE_SIZE-1) & (~(ENIC_PAGE_SIZE-1)))
 
-/* must be >= VNIC_COUNTER_DMA_MIN_PERIOD */
-#define VNIC_FLOW_COUNTER_UPDATE_MSECS 500
-
 #define ENICPMD_VFIO_PATH          "/dev/vfio/vfio"
 /*#define ENIC_DESC_COUNT_MAKE_ODD (x) do{if ((~(x)) & 1) { (x)--; } }while(0)*/
 
 #define PCI_DEVICE_ID_CISCO_VIC_ENET         0x0043  /* ethernet vnic */
 #define PCI_DEVICE_ID_CISCO_VIC_ENET_VF      0x0071  /* enet SRIOV VF */
+/* enet SRIOV Standalone vNic VF */
+#define PCI_DEVICE_ID_CISCO_VIC_ENET_SN      0x02B7
 
 /* Special Filter id for non-specific packet flagging. Don't change value */
 #define ENIC_MAGIC_FILTER_ID 0xffff
 
-#define ENICPMD_FDIR_MAX           64
-
-/* HW default VXLAN port */
-#define ENIC_DEFAULT_VXLAN_PORT           4789
-
 /*
  * Interrupt 0: LSC and errors
  * Interrupt 1: rx queue 0
 #define ENICPMD_LSC_INTR_OFFSET 0
 #define ENICPMD_RXQ_INTR_OFFSET 1
 
-struct enic_fdir_node {
-       struct rte_eth_fdir_filter filter;
-       u16 fltr_id;
-       u16 rq_index;
-};
-
-struct enic_fdir {
-       struct rte_eth_fdir_stats stats;
-       struct rte_hash *hash;
-       struct enic_fdir_node *nodes[ENICPMD_FDIR_MAX];
-       u32 modes;
-       u32 types_mask;
-       void (*copy_fltr_fn)(struct filter_v2 *filt,
-                            const struct rte_eth_fdir_input *input,
-                            const struct rte_eth_fdir_masks *masks);
-};
-
 struct enic_soft_stats {
        rte_atomic64_t rx_nombuf;
        rte_atomic64_t rx_packet_errors;
@@ -91,16 +71,22 @@ struct enic_memzone_entry {
        LIST_ENTRY(enic_memzone_entry) entries;
 };
 
+/* Defined in enic_fm_flow.c */
+struct enic_flowman;
+struct enic_fm_flow;
+
 struct rte_flow {
        LIST_ENTRY(rte_flow) next;
-       u16 enic_filter_id;
+       /* Data for filter API based flow (enic_flow.c) */
+       uint16_t enic_filter_id;
        struct filter_v2 enic_filter;
-       int counter_idx; /* NIC allocated counter index (-1 = invalid) */
+       /* Data for flow manager based flow (enic_fm_flow.c) */
+       struct enic_fm_flow *fm;
+       int internal;
 };
 
 /* Per-instance private data structure */
 struct enic {
-       struct enic *next;
        struct rte_pci_device *pdev;
        struct vnic_enet_config config;
        struct vnic_dev_bar bar0;
@@ -114,30 +100,38 @@ struct enic {
        unsigned int port_id;
        bool overlay_offload;
        struct rte_eth_dev *rte_dev;
-       struct enic_fdir fdir;
+       struct rte_eth_dev_data *dev_data;
        char bdf_name[ENICPMD_BDF_LENGTH];
        int dev_fd;
        int iommu_group_fd;
        int iommu_groupid;
        int eventfd;
-       uint8_t mac_addr[ETH_ALEN];
+       uint8_t mac_addr[RTE_ETHER_ADDR_LEN];
        pthread_t err_intr_thread;
        int promisc;
        int allmulti;
-       u8 ig_vlan_strip_en;
+       uint8_t ig_vlan_strip_en;
        int link_status;
-       u8 hw_ip_checksum;
-       u16 max_mtu;
-       u8 adv_filters;
-       u32 flow_filter_mode;
-       u8 filter_actions; /* HW supported actions */
+       uint8_t hw_ip_checksum;
+       uint16_t max_mtu;
+       uint8_t adv_filters;
+       uint32_t flow_filter_mode;
+       uint8_t filter_actions; /* HW supported actions */
+       uint64_t cq_entry_sizes; /* supported CQ entry sizes */
        bool vxlan;
+       bool cq64;            /* actually using 64B CQ entry */
+       bool cq64_request;    /* devargs cq64=1 */
        bool disable_overlay; /* devargs disable_overlay=1 */
        uint8_t enable_avx2_rx;  /* devargs enable-avx2-rx=1 */
+       uint8_t geneve_opt_avail;    /* Geneve with options offload available */
+       uint8_t geneve_opt_enabled;  /* Geneve with options offload enabled */
+       uint8_t geneve_opt_request;  /* devargs geneve-opt=1 */
        bool nic_cfg_chk;     /* NIC_CFG_CHK available */
        bool udp_rss_weak;    /* Bodega style UDP RSS */
        uint8_t ig_vlan_rewrite_mode; /* devargs ig-vlan-rewrite */
        uint16_t vxlan_port;  /* current vxlan port pushed to NIC */
+       int use_simple_tx_handler;
+       int use_noscatter_vec_rx_handler;
 
        unsigned int flags;
        unsigned int priv_flags;
@@ -173,8 +167,6 @@ struct enic {
        rte_spinlock_t mtu_lock;
 
        LIST_HEAD(enic_flows, rte_flow) flows;
-       int max_flow_counter;
-       rte_spinlock_t flows_lock;
 
        /* RSS */
        uint16_t reta_size;
@@ -197,38 +189,86 @@ struct enic {
 
        /* Multicast MAC addresses added to the NIC */
        uint32_t mc_count;
-       struct ether_addr mc_addrs[ENIC_MULTICAST_PERFECT_FILTERS];
+       struct rte_ether_addr mc_addrs[ENIC_MULTICAST_PERFECT_FILTERS];
+
+       /* Flow manager API */
+       struct enic_flowman *fm;
+       uint64_t fm_vnic_handle;
+       uint32_t fm_vnic_uif;
+       /* switchdev */
+       uint8_t switchdev_mode;
+       uint16_t switch_domain_id;
+       uint16_t max_vf_id;
+       /* Number of queues needed for VF representor paths */
+       uint32_t vf_required_wq;
+       uint32_t vf_required_cq;
+       uint32_t vf_required_rq;
+       /*
+        * Lock to serialize devcmds from PF, VF representors as they all share
+        * the same PF devcmd instance in firmware.
+        */
+       rte_spinlock_t devcmd_lock;
 };
 
+struct enic_vf_representor {
+       struct enic enic;
+       struct vnic_enet_config config;
+       struct rte_eth_dev *eth_dev;
+       struct rte_ether_addr mac_addr;
+       struct rte_pci_addr bdf;
+       struct enic *pf;
+       uint16_t switch_domain_id;
+       uint16_t vf_id;
+       int allmulti;
+       int promisc;
+       /* Representor path uses PF queues. These are reserved during init */
+       uint16_t pf_wq_idx;      /* WQ dedicated to VF rep */
+       uint16_t pf_wq_cq_idx;   /* CQ for WQ */
+       uint16_t pf_rq_sop_idx;  /* SOP RQ dedicated to VF rep */
+       uint16_t pf_rq_data_idx; /* Data RQ */
+       /* Representor flows managed by flowman */
+       struct rte_flow *vf2rep_flow[2];
+       struct rte_flow *rep2vf_flow[2];
+};
+
+#define VF_ENIC_TO_VF_REP(vf_enic) \
+       container_of(vf_enic, struct enic_vf_representor, enic)
+
+static inline int enic_is_vf_rep(struct enic *enic)
+{
+       return !!(enic->rte_dev->data->dev_flags & RTE_ETH_DEV_REPRESENTOR);
+}
+
 /* Compute ethdev's max packet size from MTU */
 static inline uint32_t enic_mtu_to_max_rx_pktlen(uint32_t mtu)
 {
        /* ethdev max size includes eth whereas NIC MTU does not */
-       return mtu + ETHER_HDR_LEN;
+       return mtu + RTE_ETHER_HDR_LEN;
 }
 
 /* Get the CQ index from a Start of Packet(SOP) RQ index */
 static inline unsigned int enic_sop_rq_idx_to_cq_idx(unsigned int sop_idx)
 {
-       return sop_idx / 2;
+       return sop_idx;
 }
 
 /* Get the RTE RQ index from a Start of Packet(SOP) RQ index */
 static inline unsigned int enic_sop_rq_idx_to_rte_idx(unsigned int sop_idx)
 {
-       return sop_idx / 2;
+       return sop_idx;
 }
 
 /* Get the Start of Packet(SOP) RQ index from a RTE RQ index */
 static inline unsigned int enic_rte_rq_idx_to_sop_idx(unsigned int rte_idx)
 {
-       return rte_idx * 2;
+       return rte_idx;
 }
 
 /* Get the Data RQ index from a RTE RQ index */
-static inline unsigned int enic_rte_rq_idx_to_data_idx(unsigned int rte_idx)
+static inline unsigned int enic_rte_rq_idx_to_data_idx(unsigned int rte_idx,
+                                                      struct enic *enic)
 {
-       return rte_idx * 2 + 1;
+       return enic->rq_count + rte_idx;
 }
 
 static inline unsigned int enic_vnic_rq_count(struct enic *enic)
@@ -238,11 +278,7 @@ static inline unsigned int enic_vnic_rq_count(struct enic *enic)
 
 static inline unsigned int enic_cq_rq(__rte_unused struct enic *enic, unsigned int rq)
 {
-       /* Scatter rx uses two receive queues together with one
-        * completion queue, so the completion queue number is no
-        * longer the same as the rq number.
-        */
-       return rq / 2;
+       return rq;
 }
 
 static inline unsigned int enic_cq_wq(struct enic *enic, unsigned int wq)
@@ -250,9 +286,70 @@ static inline unsigned int enic_cq_wq(struct enic *enic, unsigned int wq)
        return enic->rq_count + wq;
 }
 
+/*
+ * WQ, RQ, CQ allocation scheme. Firmware gives the driver an array of
+ * WQs, an array of RQs, and an array of CQs. Fow now, these are
+ * statically allocated between PF app send/receive queues and VF
+ * representor app send/receive queues. VF representor supports only 1
+ * send and 1 receive queue. The number of PF app queue is not known
+ * until the queue setup time.
+ *
+ * R = number of receive queues for PF app
+ * S = number of send queues for PF app
+ * V = number of VF representors
+ *
+ * wI = WQ for PF app send queue I
+ * rI = SOP RQ for PF app receive queue I
+ * dI = Data RQ for rI
+ * cwI = CQ for wI
+ * crI = CQ for rI
+ * vwI = WQ for VF representor send queue I
+ * vrI = SOP RQ for VF representor receive queue I
+ * vdI = Data RQ for vrI
+ * vcwI = CQ for vwI
+ * vcrI = CQ for vrI
+ *
+ * WQ array: | w0 |..| wS-1 |..| vwV-1 |..| vw0 |
+ *             ^         ^         ^         ^
+ *    index    0        S-1       W-V       W-1    W=len(WQ array)
+ *
+ * RQ array: | r0  |..| rR-1  |d0 |..|dR-1|  ..|vdV-1 |..| vd0 |vrV-1 |..|vr0 |
+ *             ^         ^     ^       ^         ^          ^     ^        ^
+ *    index    0        R-1    R      2R-1      X-2V    X-(V+1)  X-V      X-1
+ * X=len(RQ array)
+ *
+ * CQ array: | cr0 |..| crR-1 |cw0|..|cwS-1|..|vcwV-1|..| vcw0|vcrV-1|..|vcr0|..
+ *              ^         ^     ^       ^        ^         ^      ^        ^
+ *    index     0        R-1    R     R+S-1     X-2V    X-(V+1)  X-V      X-1
+ * X is not a typo. It really is len(RQ array) to accommodate enic_cq_rq() used
+ * throughout RX handlers. The current scheme requires
+ * len(CQ array) >= len(RQ array).
+ */
+
+static inline unsigned int vf_wq_cq_idx(struct enic_vf_representor *vf)
+{
+       /* rq is not a typo. index(vcwI) coincides with index(vdI) */
+       return vf->pf->conf_rq_count - (vf->pf->max_vf_id + vf->vf_id + 2);
+}
+
+static inline unsigned int vf_wq_idx(struct enic_vf_representor *vf)
+{
+       return vf->pf->conf_wq_count - vf->vf_id - 1;
+}
+
+static inline unsigned int vf_rq_sop_idx(struct enic_vf_representor *vf)
+{
+       return vf->pf->conf_rq_count - vf->vf_id - 1;
+}
+
+static inline unsigned int vf_rq_data_idx(struct enic_vf_representor *vf)
+{
+       return vf->pf->conf_rq_count - (vf->pf->max_vf_id + vf->vf_id + 2);
+}
+
 static inline struct enic *pmd_priv(struct rte_eth_dev *eth_dev)
 {
-       return (struct enic *)eth_dev->data->dev_private;
+       return eth_dev->data->dev_private;
 }
 
 static inline uint32_t
@@ -279,12 +376,7 @@ enic_ring_incr(uint32_t n_descriptors, uint32_t idx)
        return idx;
 }
 
-void enic_fdir_stats_get(struct enic *enic,
-                        struct rte_eth_fdir_stats *stats);
-int enic_fdir_add_fltr(struct enic *enic,
-                      struct rte_eth_fdir_filter *params);
-int enic_fdir_del_fltr(struct enic *enic,
-                      struct rte_eth_fdir_filter *params);
+int dev_is_enic(struct rte_eth_dev *dev);
 void enic_free_wq(void *txq);
 int enic_alloc_intr_resources(struct enic *enic);
 int enic_setup_finish(struct enic *enic);
@@ -310,8 +402,8 @@ void enic_remove(struct enic *enic);
 int enic_get_link_status(struct enic *enic);
 int enic_dev_stats_get(struct enic *enic,
                       struct rte_eth_stats *r_stats);
-void enic_dev_stats_clear(struct enic *enic);
-void enic_add_packet_filter(struct enic *enic);
+int enic_dev_stats_clear(struct enic *enic);
+int enic_add_packet_filter(struct enic *enic);
 int enic_set_mac_address(struct enic *enic, uint8_t *mac_addr);
 int enic_del_mac_address(struct enic *enic, int mac_index);
 unsigned int enic_cleanup_wq(struct enic *enic, struct vnic_wq *wq);
@@ -322,10 +414,16 @@ void enic_send_pkt(struct enic *enic, struct vnic_wq *wq,
 
 void enic_post_wq_index(struct vnic_wq *wq);
 int enic_probe(struct enic *enic);
-int enic_clsf_init(struct enic *enic);
-void enic_clsf_destroy(struct enic *enic);
+int enic_fm_init(struct enic *enic);
+void enic_fm_destroy(struct enic *enic);
+void *enic_alloc_consistent(void *priv, size_t size, dma_addr_t *dma_handle,
+                           uint8_t *name);
+void enic_free_consistent(void *priv, size_t size, void *vaddr,
+                         dma_addr_t dma_handle);
 uint16_t enic_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
                        uint16_t nb_pkts);
+uint16_t enic_recv_pkts_64(void *rx_queue, struct rte_mbuf **rx_pkts,
+                          uint16_t nb_pkts);
 uint16_t enic_noscatter_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
                                  uint16_t nb_pkts);
 uint16_t enic_dummy_recv_pkts(void *rx_queue,
@@ -338,9 +436,20 @@ uint16_t enic_simple_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
 uint16_t enic_prep_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
                        uint16_t nb_pkts);
 int enic_set_mtu(struct enic *enic, uint16_t new_mtu);
-int enic_link_update(struct enic *enic);
-bool enic_use_vector_rx_handler(struct enic *enic);
-void enic_fdir_info(struct enic *enic);
-void enic_fdir_info_get(struct enic *enic, struct rte_eth_fdir_info *stats);
+int enic_link_update(struct rte_eth_dev *eth_dev);
+bool enic_use_vector_rx_handler(struct rte_eth_dev *eth_dev);
+void enic_pick_rx_handler(struct rte_eth_dev *eth_dev);
+void enic_pick_tx_handler(struct rte_eth_dev *eth_dev);
+int enic_vf_representor_init(struct rte_eth_dev *eth_dev, void *init_params);
+int enic_vf_representor_uninit(struct rte_eth_dev *ethdev);
+int enic_fm_allocate_switch_domain(struct enic *pf);
+int enic_fm_add_rep2vf_flow(struct enic_vf_representor *vf);
+int enic_fm_add_vf2rep_flow(struct enic_vf_representor *vf);
+int enic_alloc_rx_queue_mbufs(struct enic *enic, struct vnic_rq *rq);
+void enic_rxmbuf_queue_release(struct enic *enic, struct vnic_rq *rq);
+void enic_free_wq_buf(struct rte_mbuf **buf);
+void enic_free_rq_buf(struct rte_mbuf **mbuf);
 extern const struct rte_flow_ops enic_flow_ops;
+extern const struct rte_flow_ops enic_fm_flow_ops;
+
 #endif /* _ENIC_H_ */