net/hns3: support queue start and stop
[dpdk.git] / drivers / net / hns3 / hns3_ethdev.c
index 04eae87..30151b6 100644 (file)
@@ -2293,20 +2293,25 @@ hns3_dev_configure(struct rte_eth_dev *dev)
        bool gro_en;
        int ret;
 
+       hw->cfg_max_queues = RTE_MAX(nb_rx_q, nb_tx_q);
+
        /*
-        * Hardware does not support individually enable/disable/reset the Tx or
-        * Rx queue in hns3 network engine. Driver must enable/disable/reset Tx
-        * and Rx queues at the same time. When the numbers of Tx queues
-        * allocated by upper applications are not equal to the numbers of Rx
-        * queues, driver needs to setup fake Tx or Rx queues to adjust numbers
-        * of Tx/Rx queues. otherwise, network engine can not work as usual. But
-        * these fake queues are imperceptible, and can not be used by upper
-        * applications.
+        * Some versions of hardware network engine does not support
+        * individually enable/disable/reset the Tx or Rx queue. These devices
+        * must enable/disable/reset Tx and Rx queues at the same time. When the
+        * numbers of Tx queues allocated by upper applications are not equal to
+        * the numbers of Rx queues, driver needs to setup fake Tx or Rx queues
+        * to adjust numbers of Tx/Rx queues. otherwise, network engine can not
+        * work as usual. But these fake queues are imperceptible, and can not
+        * be used by upper applications.
         */
-       ret = hns3_set_fake_rx_or_tx_queues(dev, nb_rx_q, nb_tx_q);
-       if (ret) {
-               hns3_err(hw, "Failed to set rx/tx fake queues: %d", ret);
-               return ret;
+       if (!hns3_dev_indep_txrx_supported(hw)) {
+               ret = hns3_set_fake_rx_or_tx_queues(dev, nb_rx_q, nb_tx_q);
+               if (ret) {
+                       hns3_err(hw, "fail to set Rx/Tx fake queues, ret = %d.",
+                                ret);
+                       return ret;
+               }
        }
 
        hw->adapter_state = HNS3_NIC_CONFIGURING;
@@ -2504,6 +2509,10 @@ hns3_dev_infos_get(struct rte_eth_dev *eth_dev, struct rte_eth_dev_info *info)
                                 DEV_TX_OFFLOAD_MBUF_FAST_FREE |
                                 hns3_txvlan_cap_get(hw));
 
+       if (hns3_dev_indep_txrx_supported(hw))
+               info->dev_capa = RTE_ETH_DEV_CAPA_RUNTIME_RX_QUEUE_SETUP |
+                                RTE_ETH_DEV_CAPA_RUNTIME_TX_QUEUE_SETUP;
+
        info->rx_desc_lim = (struct rte_eth_desc_lim) {
                .nb_max = HNS3_MAX_RING_DESC,
                .nb_min = HNS3_MIN_RING_DESC,
@@ -4684,23 +4693,22 @@ hns3_do_start(struct hns3_adapter *hns, bool reset_queue)
        if (ret)
                return ret;
 
-       /* Enable queues */
-       ret = hns3_start_queues(hns, reset_queue);
+       ret = hns3_init_queues(hns, reset_queue);
        if (ret) {
-               PMD_INIT_LOG(ERR, "Failed to start queues: %d", ret);
+               PMD_INIT_LOG(ERR, "failed to init queues, ret = %d.", ret);
                return ret;
        }
 
-       /* Enable MAC */
        ret = hns3_cfg_mac_mode(hw, true);
        if (ret) {
-               PMD_INIT_LOG(ERR, "Failed to enable MAC: %d", ret);
+               PMD_INIT_LOG(ERR, "failed to enable MAC, ret = %d", ret);
                goto err_config_mac_mode;
        }
        return 0;
 
 err_config_mac_mode:
-       hns3_stop_queues(hns, true);
+       hns3_dev_release_mbufs(hns);
+       hns3_reset_all_tqps(hns);
        return ret;
 }
 
@@ -4831,6 +4839,32 @@ hns3_dev_start(struct rte_eth_dev *dev)
                return ret;
        }
 
+       /*
+        * There are three register used to control the status of a TQP
+        * (contains a pair of Tx queue and Rx queue) in the new version network
+        * engine. One is used to control the enabling of Tx queue, the other is
+        * used to control the enabling of Rx queue, and the last is the master
+        * switch used to control the enabling of the tqp. The Tx register and
+        * TQP register must be enabled at the same time to enable a Tx queue.
+        * The same applies to the Rx queue. For the older network engine, this
+        * function only refresh the enabled flag, and it is used to update the
+        * status of queue in the dpdk framework.
+        */
+       ret = hns3_start_all_txqs(dev);
+       if (ret) {
+               hw->adapter_state = HNS3_NIC_CONFIGURED;
+               rte_spinlock_unlock(&hw->lock);
+               return ret;
+       }
+
+       ret = hns3_start_all_rxqs(dev);
+       if (ret) {
+               hns3_stop_all_txqs(dev);
+               hw->adapter_state = HNS3_NIC_CONFIGURED;
+               rte_spinlock_unlock(&hw->lock);
+               return ret;
+       }
+
        hw->adapter_state = HNS3_NIC_STARTED;
        rte_spinlock_unlock(&hw->lock);
 
@@ -4843,11 +4877,12 @@ hns3_dev_start(struct rte_eth_dev *dev)
 
        /* Enable interrupt of all rx queues before enabling queues */
        hns3_dev_all_rx_queue_intr_enable(hw, true);
+
        /*
-        * When finished the initialization, enable queues to receive/transmit
-        * packets.
+        * After finished the initialization, enable tqps to receive/transmit
+        * packets and refresh all queue status.
         */
-       hns3_enable_all_queues(hw, true);
+       hns3_start_tqps(hw);
 
        hns3_info(hw, "hns3 dev start successful!");
        return 0;
@@ -4857,7 +4892,6 @@ static int
 hns3_do_stop(struct hns3_adapter *hns)
 {
        struct hns3_hw *hw = &hns->hw;
-       bool reset_queue;
        int ret;
 
        ret = hns3_cfg_mac_mode(hw, false);
@@ -4867,11 +4901,15 @@ hns3_do_stop(struct hns3_adapter *hns)
 
        if (rte_atomic16_read(&hw->reset.disable_cmd) == 0) {
                hns3_configure_all_mac_addr(hns, true);
-               reset_queue = true;
-       } else
-               reset_queue = false;
+               ret = hns3_reset_all_tqps(hns);
+               if (ret) {
+                       hns3_err(hw, "failed to reset all queues ret = %d.",
+                                ret);
+                       return ret;
+               }
+       }
        hw->mac.default_addr_setted = false;
-       return hns3_stop_queues(hns, reset_queue);
+       return 0;
 }
 
 static void
@@ -4928,6 +4966,7 @@ hns3_dev_stop(struct rte_eth_dev *dev)
 
        rte_spinlock_lock(&hw->lock);
        if (rte_atomic16_read(&hw->reset.resetting) == 0) {
+               hns3_stop_tqps(hw);
                hns3_do_stop(hns);
                hns3_unmap_rx_interrupt(dev);
                hns3_dev_release_mbufs(hns);
@@ -5167,7 +5206,7 @@ hns3_reinit_dev(struct hns3_adapter *hns)
                return ret;
        }
 
-       ret = hns3_reset_all_queues(hns);
+       ret = hns3_reset_all_tqps(hns);
        if (ret) {
                hns3_err(hw, "Failed to reset all queues: %d", ret);
                return ret;
@@ -5445,6 +5484,7 @@ hns3_stop_service(struct hns3_adapter *hns)
        rte_spinlock_lock(&hw->lock);
        if (hns->hw.adapter_state == HNS3_NIC_STARTED ||
            hw->adapter_state == HNS3_NIC_STOPPING) {
+               hns3_enable_all_queues(hw, false);
                hns3_do_stop(hns);
                hw->reset.mbuf_deferred_free = true;
        } else
@@ -5628,6 +5668,10 @@ static const struct eth_dev_ops hns3_eth_dev_ops = {
        .tx_queue_setup         = hns3_tx_queue_setup,
        .rx_queue_release       = hns3_dev_rx_queue_release,
        .tx_queue_release       = hns3_dev_tx_queue_release,
+       .rx_queue_start         = hns3_dev_rx_queue_start,
+       .rx_queue_stop          = hns3_dev_rx_queue_stop,
+       .tx_queue_start         = hns3_dev_tx_queue_start,
+       .tx_queue_stop          = hns3_dev_tx_queue_stop,
        .rx_queue_intr_enable   = hns3_dev_rx_queue_intr_enable,
        .rx_queue_intr_disable  = hns3_dev_rx_queue_intr_disable,
        .rxq_info_get           = hns3_rxq_info_get,