ethdev: add device flag to bypass auto-filled queue xstats
[dpdk.git] / drivers / net / hns3 / hns3_ethdev_vf.c
index c39edf5..d1c3fb8 100644 (file)
@@ -64,12 +64,18 @@ static int hns3vf_add_mc_mac_addr(struct hns3_hw *hw,
 static int hns3vf_remove_mc_mac_addr(struct hns3_hw *hw,
                                     struct rte_ether_addr *mac_addr);
 /* set PCI bus mastering */
-static void
+static int
 hns3vf_set_bus_master(const struct rte_pci_device *device, bool op)
 {
        uint16_t reg;
+       int ret;
 
-       rte_pci_read_config(device, &reg, sizeof(reg), PCI_COMMAND);
+       ret = rte_pci_read_config(device, &reg, sizeof(reg), PCI_COMMAND);
+       if (ret < 0) {
+               PMD_INIT_LOG(ERR, "Failed to read PCI offset 0x%x",
+                            PCI_COMMAND);
+               return ret;
+       }
 
        if (op)
                /* set the master bit */
@@ -77,7 +83,7 @@ hns3vf_set_bus_master(const struct rte_pci_device *device, bool op)
        else
                reg &= ~(PCI_COMMAND_MASTER);
 
-       rte_pci_write_config(device, &reg, sizeof(reg), PCI_COMMAND);
+       return rte_pci_write_config(device, &reg, sizeof(reg), PCI_COMMAND);
 }
 
 /**
@@ -94,16 +100,34 @@ hns3vf_find_pci_capability(const struct rte_pci_device *device, int cap)
        uint8_t pos;
        uint8_t id;
        int ttl;
+       int ret;
+
+       ret = rte_pci_read_config(device, &status, sizeof(status), PCI_STATUS);
+       if (ret < 0) {
+               PMD_INIT_LOG(ERR, "Failed to read PCI offset 0x%x", PCI_STATUS);
+               return 0;
+       }
 
-       rte_pci_read_config(device, &status, sizeof(status), PCI_STATUS);
        if (!(status & PCI_STATUS_CAP_LIST))
                return 0;
 
        ttl = MAX_PCIE_CAPABILITY;
-       rte_pci_read_config(device, &pos, sizeof(pos), PCI_CAPABILITY_LIST);
+       ret = rte_pci_read_config(device, &pos, sizeof(pos),
+                                 PCI_CAPABILITY_LIST);
+       if (ret < 0) {
+               PMD_INIT_LOG(ERR, "Failed to read PCI offset 0x%x",
+                            PCI_CAPABILITY_LIST);
+               return 0;
+       }
+
        while (ttl-- && pos >= PCI_STD_HEADER_SIZEOF) {
-               rte_pci_read_config(device, &id, sizeof(id),
-                                   (pos + PCI_CAP_LIST_ID));
+               ret = rte_pci_read_config(device, &id, sizeof(id),
+                                         (pos + PCI_CAP_LIST_ID));
+               if (ret < 0) {
+                       PMD_INIT_LOG(ERR, "Failed to read PCI offset 0x%x",
+                                    (pos + PCI_CAP_LIST_ID));
+                       break;
+               }
 
                if (id == 0xFF)
                        break;
@@ -111,8 +135,13 @@ hns3vf_find_pci_capability(const struct rte_pci_device *device, int cap)
                if (id == cap)
                        return (int)pos;
 
-               rte_pci_read_config(device, &pos, sizeof(pos),
-                                   (pos + PCI_CAP_LIST_NEXT));
+               ret = rte_pci_read_config(device, &pos, sizeof(pos),
+                                         (pos + PCI_CAP_LIST_NEXT));
+               if (ret < 0) {
+                       PMD_INIT_LOG(ERR, "Failed to read PCI offset 0x%x",
+                                    (pos + PCI_CAP_LIST_NEXT));
+                       break;
+               }
        }
        return 0;
 }
@@ -122,11 +151,18 @@ hns3vf_enable_msix(const struct rte_pci_device *device, bool op)
 {
        uint16_t control;
        int pos;
+       int ret;
 
        pos = hns3vf_find_pci_capability(device, PCI_CAP_ID_MSIX);
        if (pos) {
-               rte_pci_read_config(device, &control, sizeof(control),
+               ret = rte_pci_read_config(device, &control, sizeof(control),
                                    (pos + PCI_MSIX_FLAGS));
+               if (ret < 0) {
+                       PMD_INIT_LOG(ERR, "Failed to read PCI offset 0x%x",
+                                    (pos + PCI_MSIX_FLAGS));
+                       return -ENXIO;
+               }
+
                if (op)
                        control |= PCI_MSIX_FLAGS_ENABLE;
                else
@@ -757,20 +793,25 @@ hns3vf_dev_configure(struct rte_eth_dev *dev)
        bool gro_en;
        int ret;
 
+       hw->cfg_max_queues = RTE_MAX(nb_rx_q, nb_tx_q);
+
        /*
-        * Hardware does not support individually enable/disable/reset the Tx or
-        * Rx queue in hns3 network engine. Driver must enable/disable/reset Tx
-        * and Rx queues at the same time. When the numbers of Tx queues
-        * allocated by upper applications are not equal to the numbers of Rx
-        * queues, driver needs to setup fake Tx or Rx queues to adjust numbers
-        * of Tx/Rx queues. otherwise, network engine can not work as usual. But
-        * these fake queues are imperceptible, and can not be used by upper
-        * applications.
+        * Some versions of hardware network engine does not support
+        * individually enable/disable/reset the Tx or Rx queue. These devices
+        * must enable/disable/reset Tx and Rx queues at the same time. When the
+        * numbers of Tx queues allocated by upper applications are not equal to
+        * the numbers of Rx queues, driver needs to setup fake Tx or Rx queues
+        * to adjust numbers of Tx/Rx queues. otherwise, network engine can not
+        * work as usual. But these fake queues are imperceptible, and can not
+        * be used by upper applications.
         */
-       ret = hns3_set_fake_rx_or_tx_queues(dev, nb_rx_q, nb_tx_q);
-       if (ret) {
-               hns3_err(hw, "Failed to set rx/tx fake queues: %d", ret);
-               return ret;
+       if (!hns3_dev_indep_txrx_supported(hw)) {
+               ret = hns3_set_fake_rx_or_tx_queues(dev, nb_rx_q, nb_tx_q);
+               if (ret) {
+                       hns3_err(hw, "fail to set Rx/Tx fake queues, ret = %d.",
+                                ret);
+                       return ret;
+               }
        }
 
        hw->adapter_state = HNS3_NIC_CONFIGURING;
@@ -783,6 +824,7 @@ hns3vf_dev_configure(struct rte_eth_dev *dev)
        /* When RSS is not configured, redirect the packet queue 0 */
        if ((uint32_t)mq_mode & ETH_MQ_RX_RSS_FLAG) {
                conf->rxmode.offloads |= DEV_RX_OFFLOAD_RSS_HASH;
+               hw->rss_dis_flag = false;
                rss_conf = conf->rx_adv_conf.rss_conf;
                if (rss_conf.rss_key == NULL) {
                        rss_conf.rss_key = rss_cfg->key;
@@ -955,6 +997,10 @@ hns3vf_dev_infos_get(struct rte_eth_dev *eth_dev, struct rte_eth_dev_info *info)
                                 DEV_TX_OFFLOAD_MBUF_FAST_FREE |
                                 hns3_txvlan_cap_get(hw));
 
+       if (hns3_dev_indep_txrx_supported(hw))
+               info->dev_capa = RTE_ETH_DEV_CAPA_RUNTIME_RX_QUEUE_SETUP |
+                                RTE_ETH_DEV_CAPA_RUNTIME_TX_QUEUE_SETUP;
+
        info->rx_desc_lim = (struct rte_eth_desc_lim) {
                .nb_max = HNS3_MAX_RING_DESC,
                .nb_min = HNS3_MIN_RING_DESC,
@@ -1165,6 +1211,7 @@ hns3vf_get_capability(struct hns3_hw *hw)
                hw->intr.mapping_mode = HNS3_INTR_MAPPING_VEC_RSV_ONE;
                hw->intr.coalesce_mode = HNS3_INTR_COALESCE_NON_QL;
                hw->intr.gl_unit = HNS3_INTR_COALESCE_GL_UINT_2US;
+               hw->tso_mode = HNS3_TSO_SW_CAL_PSEUDO_H_CSUM;
                hw->min_tx_pkt_len = HNS3_HIP08_MIN_TX_PKT_LEN;
                return 0;
        }
@@ -1180,6 +1227,7 @@ hns3vf_get_capability(struct hns3_hw *hw)
        hw->intr.mapping_mode = HNS3_INTR_MAPPING_VEC_ALL;
        hw->intr.coalesce_mode = HNS3_INTR_COALESCE_QL;
        hw->intr.gl_unit = HNS3_INTR_COALESCE_GL_UINT_1US;
+       hw->tso_mode = HNS3_TSO_HW_CAL_PSEUDO_H_CSUM;
        hw->min_tx_pkt_len = HNS3_HIP09_MIN_TX_PKT_LEN;
 
        return 0;
@@ -1188,20 +1236,21 @@ hns3vf_get_capability(struct hns3_hw *hw)
 static int
 hns3vf_check_tqp_info(struct hns3_hw *hw)
 {
-       uint16_t tqps_num;
+       if (hw->tqps_num == 0) {
+               PMD_INIT_LOG(ERR, "Get invalid tqps_num(0) from PF.");
+               return -EINVAL;
+       }
 
-       tqps_num = hw->tqps_num;
-       if (tqps_num > HNS3_MAX_TQP_NUM_PER_FUNC || tqps_num == 0) {
-               PMD_INIT_LOG(ERR, "Get invalid tqps_num(%u) from PF. valid "
-                                 "range: 1~%d",
-                            tqps_num, HNS3_MAX_TQP_NUM_PER_FUNC);
+       if (hw->rss_size_max == 0) {
+               PMD_INIT_LOG(ERR, "Get invalid rss_size_max(0) from PF.");
                return -EINVAL;
        }
 
-       hw->alloc_rss_size = RTE_MIN(hw->rss_size_max, hw->tqps_num);
+       hw->tqps_num = RTE_MIN(hw->rss_size_max, hw->tqps_num);
 
        return 0;
 }
+
 static int
 hns3vf_get_port_base_vlan_filter_state(struct hns3_hw *hw)
 {
@@ -1292,6 +1341,7 @@ hns3vf_get_tc_info(struct hns3_hw *hw)
 {
        uint8_t resp_msg;
        int ret;
+       int i;
 
        ret = hns3_send_mbx_msg(hw, HNS3_MBX_GET_TCINFO, 0, NULL, 0,
                                true, &resp_msg, sizeof(resp_msg));
@@ -1303,6 +1353,11 @@ hns3vf_get_tc_info(struct hns3_hw *hw)
 
        hw->hw_tc_map = resp_msg;
 
+       for (i = 0; i < HNS3_MAX_TC_NUM; i++) {
+               if (hw->hw_tc_map & BIT(i))
+                       hw->num_tc++;
+       }
+
        return 0;
 }
 
@@ -1363,17 +1418,10 @@ hns3vf_get_configuration(struct hns3_hw *hw)
 }
 
 static int
-hns3vf_set_tc_info(struct hns3_adapter *hns)
+hns3vf_set_tc_queue_mapping(struct hns3_adapter *hns, uint16_t nb_rx_q,
+                           uint16_t nb_tx_q)
 {
        struct hns3_hw *hw = &hns->hw;
-       uint16_t nb_rx_q = hw->data->nb_rx_queues;
-       uint16_t nb_tx_q = hw->data->nb_tx_queues;
-       uint8_t i;
-
-       hw->num_tc = 0;
-       for (i = 0; i < HNS3_MAX_TC_NUM; i++)
-               if (hw->hw_tc_map & BIT(i))
-                       hw->num_tc++;
 
        if (nb_rx_q < hw->num_tc) {
                hns3_err(hw, "number of Rx queues(%d) is less than tcs(%d).",
@@ -1387,10 +1435,7 @@ hns3vf_set_tc_info(struct hns3_adapter *hns)
                return -EINVAL;
        }
 
-       hns3_set_rss_size(hw, nb_rx_q);
-       hns3_tc_queue_mapping_cfg(hw, nb_tx_q);
-
-       return 0;
+       return hns3_queue_to_tc_mapping(hw, nb_rx_q, nb_tx_q);
 }
 
 static void
@@ -1780,20 +1825,33 @@ hns3vf_init_vf(struct rte_eth_dev *eth_dev)
                goto err_get_config;
        }
 
+       ret = hns3_tqp_stats_init(hw);
+       if (ret)
+               goto err_get_config;
+
+       ret = hns3vf_set_tc_queue_mapping(hns, hw->tqps_num, hw->tqps_num);
+       if (ret) {
+               PMD_INIT_LOG(ERR, "failed to set tc info, ret = %d.", ret);
+               goto err_set_tc_queue;
+       }
+
        ret = hns3vf_clear_vport_list(hw);
        if (ret) {
                PMD_INIT_LOG(ERR, "Failed to clear tbl list: %d", ret);
-               goto err_get_config;
+               goto err_set_tc_queue;
        }
 
        ret = hns3vf_init_hardware(hns);
        if (ret)
-               goto err_get_config;
+               goto err_set_tc_queue;
 
        hns3_set_default_rss_args(hw);
 
        return 0;
 
+err_set_tc_queue:
+       hns3_tqp_stats_uninit(hw);
+
 err_get_config:
        hns3vf_disable_irq0(hw);
        rte_intr_disable(&pci_dev->intr_handle);
@@ -1822,6 +1880,7 @@ hns3vf_uninit_vf(struct rte_eth_dev *eth_dev)
        (void)hns3_config_gro(hw, false);
        (void)hns3vf_set_alive(hw, false);
        (void)hns3vf_set_promisc_mode(hw, false, false, false);
+       hns3_tqp_stats_uninit(hw);
        hns3vf_disable_irq0(hw);
        rte_intr_disable(&pci_dev->intr_handle);
        hns3_intr_unregister(&pci_dev->intr_handle, hns3vf_interrupt_handler,
@@ -1835,16 +1894,20 @@ static int
 hns3vf_do_stop(struct hns3_adapter *hns)
 {
        struct hns3_hw *hw = &hns->hw;
-       bool reset_queue;
+       int ret;
 
        hw->mac.link_status = ETH_LINK_DOWN;
 
        if (rte_atomic16_read(&hw->reset.disable_cmd) == 0) {
                hns3vf_configure_mac_addr(hns, true);
-               reset_queue = true;
-       } else
-               reset_queue = false;
-       return hns3_stop_queues(hns, reset_queue);
+               ret = hns3_reset_all_tqps(hns);
+               if (ret) {
+                       hns3_err(hw, "failed to reset all queues ret = %d",
+                                ret);
+                       return ret;
+               }
+       }
+       return 0;
 }
 
 static void
@@ -1882,13 +1945,14 @@ hns3vf_unmap_rx_interrupt(struct rte_eth_dev *dev)
        }
 }
 
-static void
+static int
 hns3vf_dev_stop(struct rte_eth_dev *dev)
 {
        struct hns3_adapter *hns = dev->data->dev_private;
        struct hns3_hw *hw = &hns->hw;
 
        PMD_INIT_FUNC_TRACE();
+       dev->data->dev_started = 0;
 
        hw->adapter_state = HNS3_NIC_STOPPING;
        hns3_set_rxtx_function(dev);
@@ -1900,6 +1964,7 @@ hns3vf_dev_stop(struct rte_eth_dev *dev)
 
        rte_spinlock_lock(&hw->lock);
        if (rte_atomic16_read(&hw->reset.resetting) == 0) {
+               hns3_stop_tqps(hw);
                hns3vf_do_stop(hns);
                hns3vf_unmap_rx_interrupt(dev);
                hns3_dev_release_mbufs(hns);
@@ -1908,19 +1973,22 @@ hns3vf_dev_stop(struct rte_eth_dev *dev)
        hns3_rx_scattered_reset(dev);
        rte_eal_alarm_cancel(hns3vf_service_handler, dev);
        rte_spinlock_unlock(&hw->lock);
+
+       return 0;
 }
 
-static void
+static int
 hns3vf_dev_close(struct rte_eth_dev *eth_dev)
 {
        struct hns3_adapter *hns = eth_dev->data->dev_private;
        struct hns3_hw *hw = &hns->hw;
+       int ret = 0;
 
        if (rte_eal_process_type() != RTE_PROC_PRIMARY)
-               return;
+               return 0;
 
        if (hw->adapter_state == HNS3_NIC_STARTED)
-               hns3vf_dev_stop(eth_dev);
+               ret = hns3vf_dev_stop(eth_dev);
 
        hw->adapter_state = HNS3_NIC_CLOSING;
        hns3_reset_abort(hns);
@@ -1935,6 +2003,8 @@ hns3vf_dev_close(struct rte_eth_dev *eth_dev)
        eth_dev->process_private = NULL;
        hns3_mp_uninit_primary();
        hns3_warn(hw, "Close port %d finished", hw->data->port_id);
+
+       return ret;
 }
 
 static int
@@ -2001,15 +2071,17 @@ static int
 hns3vf_do_start(struct hns3_adapter *hns, bool reset_queue)
 {
        struct hns3_hw *hw = &hns->hw;
+       uint16_t nb_rx_q = hw->data->nb_rx_queues;
+       uint16_t nb_tx_q = hw->data->nb_tx_queues;
        int ret;
 
-       ret = hns3vf_set_tc_info(hns);
+       ret = hns3vf_set_tc_queue_mapping(hns, nb_rx_q, nb_tx_q);
        if (ret)
                return ret;
 
-       ret = hns3_start_queues(hns, reset_queue);
+       ret = hns3_init_queues(hns, reset_queue);
        if (ret)
-               hns3_err(hw, "Failed to start queues: %d", ret);
+               hns3_err(hw, "failed to init queues, ret = %d.", ret);
 
        return ret;
 }
@@ -2139,6 +2211,33 @@ hns3vf_dev_start(struct rte_eth_dev *dev)
                rte_spinlock_unlock(&hw->lock);
                return ret;
        }
+
+       /*
+        * There are three register used to control the status of a TQP
+        * (contains a pair of Tx queue and Rx queue) in the new version network
+        * engine. One is used to control the enabling of Tx queue, the other is
+        * used to control the enabling of Rx queue, and the last is the master
+        * switch used to control the enabling of the tqp. The Tx register and
+        * TQP register must be enabled at the same time to enable a Tx queue.
+        * The same applies to the Rx queue. For the older network enginem, this
+        * function only refresh the enabled flag, and it is used to update the
+        * status of queue in the dpdk framework.
+        */
+       ret = hns3_start_all_txqs(dev);
+       if (ret) {
+               hw->adapter_state = HNS3_NIC_CONFIGURED;
+               rte_spinlock_unlock(&hw->lock);
+               return ret;
+       }
+
+       ret = hns3_start_all_rxqs(dev);
+       if (ret) {
+               hns3_stop_all_txqs(dev);
+               hw->adapter_state = HNS3_NIC_CONFIGURED;
+               rte_spinlock_unlock(&hw->lock);
+               return ret;
+       }
+
        hw->adapter_state = HNS3_NIC_STARTED;
        rte_spinlock_unlock(&hw->lock);
 
@@ -2151,11 +2250,12 @@ hns3vf_dev_start(struct rte_eth_dev *dev)
 
        /* Enable interrupt of all rx queues before enabling queues */
        hns3_dev_all_rx_queue_intr_enable(hw, true);
+
        /*
-        * When finished the initialization, enable queues to receive/transmit
-        * packets.
+        * After finished the initialization, start all tqps to receive/transmit
+        * packets and refresh all queue status.
         */
-       hns3_enable_all_queues(hw, true);
+       hns3_start_tqps(hw);
 
        return ret;
 }
@@ -2189,6 +2289,21 @@ hns3vf_is_reset_pending(struct hns3_adapter *hns)
        struct hns3_hw *hw = &hns->hw;
        enum hns3_reset_level reset;
 
+       /*
+        * According to the protocol of PCIe, FLR to a PF device resets the PF
+        * state as well as the SR-IOV extended capability including VF Enable
+        * which means that VFs no longer exist.
+        *
+        * HNS3_VF_FULL_RESET means PF device is in FLR reset. when PF device
+        * is in FLR stage, the register state of VF device is not reliable,
+        * so register states detection can not be carried out. In this case,
+        * we just ignore the register states and return false to indicate that
+        * there are no other reset states that need to be processed by driver.
+        */
+       if (hw->reset.level == HNS3_VF_FULL_RESET)
+               return false;
+
+       /* Check the registers to confirm whether there is reset pending */
        hns3vf_check_event_cause(hns, NULL);
        reset = hns3vf_get_reset_level(hw, &hw->reset.pending);
        if (hw->reset.level != HNS3_NONE_RESET && hw->reset.level < reset) {
@@ -2282,6 +2397,7 @@ hns3vf_stop_service(struct hns3_adapter *hns)
        rte_spinlock_lock(&hw->lock);
        if (hw->adapter_state == HNS3_NIC_STARTED ||
            hw->adapter_state == HNS3_NIC_STOPPING) {
+               hns3_enable_all_queues(hw, false);
                hns3vf_do_stop(hns);
                hw->reset.mbuf_deferred_free = true;
        } else
@@ -2500,7 +2616,11 @@ hns3vf_reinit_dev(struct hns3_adapter *hns)
 
        if (hw->reset.level == HNS3_VF_FULL_RESET) {
                rte_intr_disable(&pci_dev->intr_handle);
-               hns3vf_set_bus_master(pci_dev, true);
+               ret = hns3vf_set_bus_master(pci_dev, true);
+               if (ret) {
+                       hns3_err(hw, "failed to set pci bus, ret = %d", ret);
+                       return ret;
+               }
        }
 
        /* Firmware command initialize */
@@ -2524,7 +2644,7 @@ hns3vf_reinit_dev(struct hns3_adapter *hns)
                rte_intr_enable(&pci_dev->intr_handle);
        }
 
-       ret = hns3_reset_all_queues(hns);
+       ret = hns3_reset_all_tqps(hns);
        if (ret) {
                hns3_err(hw, "Failed to reset all queues: %d", ret);
                return ret;
@@ -2562,6 +2682,10 @@ static const struct eth_dev_ops hns3vf_eth_dev_ops = {
        .tx_queue_setup     = hns3_tx_queue_setup,
        .rx_queue_release   = hns3_dev_rx_queue_release,
        .tx_queue_release   = hns3_dev_tx_queue_release,
+       .rx_queue_start     = hns3_dev_rx_queue_start,
+       .rx_queue_stop      = hns3_dev_rx_queue_stop,
+       .tx_queue_start     = hns3_dev_tx_queue_start,
+       .tx_queue_stop      = hns3_dev_tx_queue_stop,
        .rx_queue_intr_enable   = hns3_dev_rx_queue_intr_enable,
        .rx_queue_intr_disable  = hns3_dev_rx_queue_intr_disable,
        .rxq_info_get       = hns3_rxq_info_get,
@@ -2629,6 +2753,8 @@ hns3vf_dev_init(struct rte_eth_dev *eth_dev)
                return 0;
        }
 
+       eth_dev->data->dev_flags |= RTE_ETH_DEV_AUTOFILL_QUEUE_XSTATS;
+
        ret = hns3_mp_init_primary();
        if (ret) {
                PMD_INIT_LOG(ERR,
@@ -2682,11 +2808,6 @@ hns3vf_dev_init(struct rte_eth_dev *eth_dev)
                            &eth_dev->data->mac_addrs[0]);
 
        hw->adapter_state = HNS3_NIC_INITIALIZED;
-       /*
-        * Pass the information to the rte_eth_dev_close() that it should also
-        * release the private port resources.
-        */
-       eth_dev->data->dev_flags |= RTE_ETH_DEV_CLOSE_REMOVE;
 
        if (rte_atomic16_read(&hns->hw.reset.schedule) == SCHEDULE_PENDING) {
                hns3_err(hw, "Reschedule reset service after dev_init");
@@ -2731,11 +2852,6 @@ hns3vf_dev_uninit(struct rte_eth_dev *eth_dev)
        if (rte_eal_process_type() != RTE_PROC_PRIMARY)
                return -EPERM;
 
-       eth_dev->dev_ops = NULL;
-       eth_dev->rx_pkt_burst = NULL;
-       eth_dev->tx_pkt_burst = NULL;
-       eth_dev->tx_pkt_prepare = NULL;
-
        if (hw->adapter_state < HNS3_NIC_CLOSING)
                hns3vf_dev_close(eth_dev);