net/mlx5: move Linux-specific functions
[dpdk.git] / drivers / net / hns3 / hns3_rxtx.h
index 358f129..0cb92ce 100644 (file)
@@ -5,7 +5,7 @@
 #ifndef _HNS3_RXTX_H_
 #define _HNS3_RXTX_H_
 
-#define        HNS3_MIN_RING_DESC      32
+#define        HNS3_MIN_RING_DESC      64
 #define        HNS3_MAX_RING_DESC      32768
 #define HNS3_DEFAULT_RING_DESC  1024
 #define        HNS3_ALIGN_RING_DESC    32
@@ -245,14 +245,12 @@ struct hns3_rx_queue {
        bool rx_deferred_start; /* don't start this queue in dev start */
        bool configured;        /* indicate if rx queue has been configured */
 
-       uint64_t non_vld_descs; /* num of non valid rx descriptors */
        uint64_t l2_errors;
        uint64_t pkt_len_errors;
        uint64_t l3_csum_erros;
        uint64_t l4_csum_erros;
        uint64_t ol3_csum_erros;
        uint64_t ol4_csum_erros;
-       uint64_t errors;        /* num of error rx packets recorded by driver */
 };
 
 struct hns3_tx_queue {
@@ -273,7 +271,61 @@ struct hns3_tx_queue {
        bool tx_deferred_start; /* don't start this queue in dev start */
        bool configured;        /* indicate if tx queue has been configured */
 
-       uint64_t pkt_len_errors;
+       /*
+        * The following items are used for the abnormal errors statistics in
+        * the Tx datapath. When upper level application calls the
+        * rte_eth_tx_burst API function to send multiple packets at a time with
+        * burst mode based on hns3 network engine, there are some abnormal
+        * conditions that cause the driver to fail to operate the hardware to
+        * send packets correctly.
+        * Note: When using burst mode to call the rte_eth_tx_burst API function
+        * to send multiple packets at a time. When the first abnormal error is
+        * detected, add one to the relevant error statistics item, and then
+        * exit the loop of sending multiple packets of the function. That is to
+        * say, even if there are multiple packets in which abnormal errors may
+        * be detected in the burst, the relevant error statistics in the driver
+        * will only be increased by one.
+        * The detail description of the Tx abnormal errors statistic items as
+        * below:
+        *  - over_length_pkt_cnt
+        *     Total number of greater than HNS3_MAX_FRAME_LEN the driver
+        *     supported.
+        *
+        * - exceed_limit_bd_pkt_cnt
+        *     Total number of exceeding the hardware limited bd which process
+        *     a packet needed bd numbers.
+        *
+        * - exceed_limit_bd_reassem_fail
+        *     Total number of exceeding the hardware limited bd fail which
+        *     process a packet needed bd numbers and reassemble fail.
+        *
+        * - unsupported_tunnel_pkt_cnt
+        *     Total number of unsupported tunnel packet. The unsupported tunnel
+        *     type: vxlan_gpe, gtp, ipip and MPLSINUDP, MPLSINUDP is a packet
+        *     with MPLS-in-UDP RFC 7510 header.
+        *
+        * - queue_full_cnt
+        *     Total count which the available bd numbers in current bd queue is
+        *     less than the bd numbers with the pkt process needed.
+        *
+        * - pkt_padding_fail_cnt
+        *     Total count which the packet length is less than minimum packet
+        *     size HNS3_MIN_PKT_SIZE and fail to be appended with 0.
+        */
+       uint64_t over_length_pkt_cnt;
+       uint64_t exceed_limit_bd_pkt_cnt;
+       uint64_t exceed_limit_bd_reassem_fail;
+       uint64_t unsupported_tunnel_pkt_cnt;
+       uint64_t queue_full_cnt;
+       uint64_t pkt_padding_fail_cnt;
+};
+
+struct hns3_queue_info {
+       const char *type;   /* point to queue memory name */
+       const char *ring_name;  /* point to hardware ring name */
+       uint16_t idx;
+       uint16_t nb_desc;
+       unsigned int socket_id;
 };
 
 #define HNS3_TX_CKSUM_OFFLOAD_MASK ( \
@@ -298,6 +350,10 @@ void hns3_dev_rx_queue_release(void *queue);
 void hns3_dev_tx_queue_release(void *queue);
 void hns3_free_all_queues(struct rte_eth_dev *dev);
 int hns3_reset_all_queues(struct hns3_adapter *hns);
+void hns3_dev_all_rx_queue_intr_enable(struct hns3_hw *hw, bool en);
+int hns3_dev_rx_queue_intr_enable(struct rte_eth_dev *dev, uint16_t queue_id);
+int hns3_dev_rx_queue_intr_disable(struct rte_eth_dev *dev, uint16_t queue_id);
+void hns3_enable_all_queues(struct hns3_hw *hw, bool en);
 int hns3_start_queues(struct hns3_adapter *hns, bool reset_queue);
 int hns3_stop_queues(struct hns3_adapter *hns, bool reset_queue);
 void hns3_dev_release_mbufs(struct hns3_adapter *hns);
@@ -314,4 +370,11 @@ uint16_t hns3_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
                        uint16_t nb_pkts);
 const uint32_t *hns3_dev_supported_ptypes_get(struct rte_eth_dev *dev);
 void hns3_set_rxtx_function(struct rte_eth_dev *eth_dev);
+void hns3_set_queue_intr_gl(struct hns3_hw *hw, uint16_t queue_id,
+                           uint8_t gl_idx, uint16_t gl_value);
+void hns3_set_queue_intr_rl(struct hns3_hw *hw, uint16_t queue_id,
+                           uint16_t rl_value);
+int hns3_set_fake_rx_or_tx_queues(struct rte_eth_dev *dev, uint16_t nb_rx_q,
+                                 uint16_t nb_tx_q);
+
 #endif /* _HNS3_RXTX_H_ */