ethdev: change input parameters for Rx queue count
[dpdk.git] / drivers / net / txgbe / txgbe_ethdev.h
index 7751c9d..528f114 100644 (file)
@@ -1,5 +1,6 @@
 /* SPDX-License-Identifier: BSD-3-Clause
- * Copyright(c) 2015-2020
+ * Copyright(c) 2015-2020 Beijing WangXun Technology Co., Ltd.
+ * Copyright(c) 2010-2017 Intel Corporation
  */
 
 #ifndef _TXGBE_ETHDEV_H_
@@ -9,6 +10,9 @@
 
 #include "base/txgbe.h"
 #include "txgbe_ptypes.h"
+#ifdef RTE_LIB_SECURITY
+#include "txgbe_ipsec.h"
+#endif
 #include <rte_flow.h>
 #include <rte_flow_driver.h>
 #include <rte_time.h>
@@ -16,6 +20,7 @@
 #include <rte_ethdev_core.h>
 #include <rte_hash.h>
 #include <rte_hash_crc.h>
+#include <rte_bus_pci.h>
 #include <rte_tm_driver.h>
 
 /* need update link, bit flag */
@@ -24,6 +29,7 @@
 #define TXGBE_FLAG_PHY_INTERRUPT    (uint32_t)(1 << 2)
 #define TXGBE_FLAG_MACSEC           (uint32_t)(1 << 3)
 #define TXGBE_FLAG_NEED_LINK_CONFIG (uint32_t)(1 << 4)
+#define TXGBE_FLAG_NEED_AN_CONFIG   (uint32_t)(1 << 5)
 
 /*
  * Defines that were not part of txgbe_type.h as they are not used by the
@@ -134,9 +140,9 @@ struct txgbe_rte_flow_rss_conf {
 struct txgbe_interrupt {
        uint32_t flags;
        uint32_t mask_misc;
-       /* to save original mask during delayed handler */
-       uint32_t mask_misc_orig;
-       uint32_t mask[2];
+       uint32_t mask_misc_orig; /* save mask during delayed handler */
+       uint64_t mask;
+       uint64_t mask_orig; /* save mask during delayed handler */
 };
 
 #define TXGBE_NB_STAT_MAPPING  32
@@ -167,13 +173,6 @@ struct txgbe_uta_info {
        uint32_t uta_shadow[TXGBE_MAX_UTA];
 };
 
-#define TXGBE_MAX_MIRROR_RULES 4  /* Maximum nb. of mirror rules. */
-
-struct txgbe_mirror_info {
-       struct rte_eth_mirror_conf mr_conf[TXGBE_MAX_MIRROR_RULES];
-       /* store PF mirror rules configuration */
-};
-
 struct txgbe_vf_info {
        uint8_t vf_mac_addresses[RTE_ETHER_ADDR_LEN];
        uint16_t vf_mc_hashes[TXGBE_MAX_VF_MC_ENTRIES];
@@ -286,6 +285,14 @@ struct txgbe_tm_shaper_profile {
 
 TAILQ_HEAD(txgbe_shaper_profile_list, txgbe_tm_shaper_profile);
 
+/* node type of Traffic Manager */
+enum txgbe_tm_node_type {
+       TXGBE_TM_NODE_TYPE_PORT,
+       TXGBE_TM_NODE_TYPE_TC,
+       TXGBE_TM_NODE_TYPE_QUEUE,
+       TXGBE_TM_NODE_TYPE_MAX,
+};
+
 /* Struct to store Traffic Manager node configuration. */
 struct txgbe_tm_node {
        TAILQ_ENTRY(txgbe_tm_node) node;
@@ -342,12 +349,14 @@ struct txgbe_adapter {
        struct txgbe_vfta           shadow_vfta;
        struct txgbe_hwstrip        hwstrip;
        struct txgbe_dcb_config     dcb_config;
-       struct txgbe_mirror_info    mr_data;
        struct txgbe_vf_info        *vfdata;
        struct txgbe_uta_info       uta_info;
        struct txgbe_filter_info    filter;
        struct txgbe_l2_tn_info     l2_tn;
        struct txgbe_bw_conf        bw_conf;
+#ifdef RTE_LIB_SECURITY
+       struct txgbe_ipsec          ipsec;
+#endif
        bool rx_bulk_alloc_allowed;
        struct rte_timecounter      systime_tc;
        struct rte_timecounter      rx_tstamp_tc;
@@ -406,6 +415,9 @@ struct txgbe_adapter {
 #define TXGBE_DEV_TM_CONF(dev) \
        (&((struct txgbe_adapter *)(dev)->data->dev_private)->tm_conf)
 
+#define TXGBE_DEV_IPSEC(dev) \
+       (&((struct txgbe_adapter *)(dev)->data->dev_private)->ipsec)
+
 /*
  * RX/TX function prototypes
  */
@@ -413,9 +425,9 @@ void txgbe_dev_clear_queues(struct rte_eth_dev *dev);
 
 void txgbe_dev_free_queues(struct rte_eth_dev *dev);
 
-void txgbe_dev_rx_queue_release(void *rxq);
+void txgbe_dev_rx_queue_release(struct rte_eth_dev *dev, uint16_t qid);
 
-void txgbe_dev_tx_queue_release(void *txq);
+void txgbe_dev_tx_queue_release(struct rte_eth_dev *dev, uint16_t qid);
 
 int  txgbe_dev_rx_queue_setup(struct rte_eth_dev *dev, uint16_t rx_queue_id,
                uint16_t nb_rx_desc, unsigned int socket_id,
@@ -426,8 +438,7 @@ int  txgbe_dev_tx_queue_setup(struct rte_eth_dev *dev, uint16_t tx_queue_id,
                uint16_t nb_tx_desc, unsigned int socket_id,
                const struct rte_eth_txconf *tx_conf);
 
-uint32_t txgbe_dev_rx_queue_count(struct rte_eth_dev *dev,
-               uint16_t rx_queue_id);
+uint32_t txgbe_dev_rx_queue_count(void *rx_queue);
 
 int txgbe_dev_rx_descriptor_status(void *rx_queue, uint16_t offset);
 int txgbe_dev_tx_descriptor_status(void *tx_queue, uint16_t offset);
@@ -457,6 +468,12 @@ void txgbe_rxq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
 void txgbe_txq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
        struct rte_eth_txq_info *qinfo);
 
+int txgbevf_dev_rx_init(struct rte_eth_dev *dev);
+
+void txgbevf_dev_tx_init(struct rte_eth_dev *dev);
+
+void txgbevf_dev_rxtx_start(struct rte_eth_dev *dev);
+
 uint16_t txgbe_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
                uint16_t nb_pkts);
 
@@ -559,6 +576,7 @@ int txgbe_clear_all_l2_tn_filter(struct rte_eth_dev *dev);
 
 int txgbe_set_vf_rate_limit(struct rte_eth_dev *dev, uint16_t vf,
                            uint16_t tx_rate, uint64_t q_msk);
+int txgbe_tm_ops_get(struct rte_eth_dev *dev, void *ops);
 void txgbe_tm_conf_init(struct rte_eth_dev *dev);
 void txgbe_tm_conf_uninit(struct rte_eth_dev *dev);
 int txgbe_set_queue_rate_limit(struct rte_eth_dev *dev, uint16_t queue_idx,
@@ -622,6 +640,10 @@ txgbe_ethertype_filter_remove(struct txgbe_filter_info *filter_info,
        return idx;
 }
 
+#ifdef RTE_LIB_SECURITY
+int txgbe_ipsec_ctx_create(struct rte_eth_dev *dev);
+#endif
+
 /* High threshold controlling when to start sending XOFF frames. */
 #define TXGBE_FC_XOFF_HITH              128 /*KB*/
 /* Low threshold controlling when to start sending XON frames. */