net/memif: enable loopback
[dpdk.git] / drivers / net / thunderx / nicvf_ethdev.c
index 56769ef..6f43541 100644 (file)
@@ -362,7 +362,7 @@ nicvf_dev_supported_ptypes_get(struct rte_eth_dev *dev)
        return ptypes;
 }
 
-static void
+static int
 nicvf_dev_stats_reset(struct rte_eth_dev *dev)
 {
        int i;
@@ -370,6 +370,7 @@ nicvf_dev_stats_reset(struct rte_eth_dev *dev)
        struct nicvf *nic = nicvf_pmd_priv(dev);
        uint16_t rx_start, rx_end;
        uint16_t tx_start, tx_end;
+       int ret;
 
        /* Reset all primary nic counters */
        nicvf_rx_range(dev, nic, &rx_start, &rx_end);
@@ -380,7 +381,9 @@ nicvf_dev_stats_reset(struct rte_eth_dev *dev)
        for (i = tx_start; i <= tx_end; i++)
                txqs |= (0x3 << (i * 2));
 
-       nicvf_mbox_reset_stat_counters(nic, 0x3FFF, 0x1F, rxqs, txqs);
+       ret = nicvf_mbox_reset_stat_counters(nic, 0x3FFF, 0x1F, rxqs, txqs);
+       if (ret != 0)
+               return ret;
 
        /* Reset secondary nic queue counters */
        for (i = 0; i < nic->sqs_count; i++) {
@@ -396,14 +399,19 @@ nicvf_dev_stats_reset(struct rte_eth_dev *dev)
                for (i = tx_start; i <= tx_end; i++)
                        txqs |= (0x3 << ((i % MAX_SND_QUEUES_PER_QS) * 2));
 
-               nicvf_mbox_reset_stat_counters(snic, 0, 0, rxqs, txqs);
+               ret = nicvf_mbox_reset_stat_counters(snic, 0, 0, rxqs, txqs);
+               if (ret != 0)
+                       return ret;
        }
+
+       return 0;
 }
 
 /* Promiscuous mode enabled by default in LMAC to VF 1:1 map configuration */
-static void
+static int
 nicvf_dev_promisc_enable(struct rte_eth_dev *dev __rte_unused)
 {
+       return 0;
 }
 
 static inline uint64_t
@@ -1393,7 +1401,7 @@ nicvf_dev_rx_queue_setup(struct rte_eth_dev *dev, uint16_t qidx,
        return 0;
 }
 
-static void
+static int
 nicvf_dev_info_get(struct rte_eth_dev *dev, struct rte_eth_dev_info *dev_info)
 {
        struct nicvf *nic = nicvf_pmd_priv(dev);
@@ -1440,6 +1448,8 @@ nicvf_dev_info_get(struct rte_eth_dev *dev, struct rte_eth_dev_info *dev_info)
                        DEV_TX_OFFLOAD_UDP_CKSUM          |
                        DEV_TX_OFFLOAD_TCP_CKSUM,
        };
+
+       return 0;
 }
 
 static nicvf_iova_addr_t
@@ -1910,6 +1920,9 @@ nicvf_dev_configure(struct rte_eth_dev *dev)
 
        PMD_INIT_FUNC_TRACE();
 
+       if (rxmode->mq_mode & ETH_MQ_RX_RSS_FLAG)
+               rxmode->offloads |= DEV_RX_OFFLOAD_RSS_HASH;
+
        if (!rte_eal_has_hugepages()) {
                PMD_INIT_LOG(INFO, "Huge page is not configured");
                return -EINVAL;
@@ -1975,6 +1988,37 @@ nicvf_dev_configure(struct rte_eth_dev *dev)
        return 0;
 }
 
+static int
+nicvf_dev_set_link_up(struct rte_eth_dev *dev)
+{
+       struct nicvf *nic = nicvf_pmd_priv(dev);
+       int rc, i;
+
+       rc = nicvf_mbox_set_link_up_down(nic, true);
+       if (rc)
+               goto done;
+
+       /* Start tx queues  */
+       for (i = 0; i < dev->data->nb_tx_queues; i++)
+               nicvf_dev_tx_queue_start(dev, i);
+
+done:
+       return rc;
+}
+
+static int
+nicvf_dev_set_link_down(struct rte_eth_dev *dev)
+{
+       struct nicvf *nic = nicvf_pmd_priv(dev);
+       int i;
+
+       /* Stop tx queues  */
+       for (i = 0; i < dev->data->nb_tx_queues; i++)
+               nicvf_dev_tx_queue_stop(dev, i);
+
+       return nicvf_mbox_set_link_up_down(nic, false);
+}
+
 /* Initialize and register driver with DPDK Application */
 static const struct eth_dev_ops nicvf_eth_dev_ops = {
        .dev_configure            = nicvf_dev_configure,
@@ -2002,6 +2046,8 @@ static const struct eth_dev_ops nicvf_eth_dev_ops = {
        .rx_queue_count           = nicvf_dev_rx_queue_count,
        .tx_queue_setup           = nicvf_dev_tx_queue_setup,
        .tx_queue_release         = nicvf_dev_tx_queue_release,
+       .dev_set_link_up          = nicvf_dev_set_link_up,
+       .dev_set_link_down        = nicvf_dev_set_link_down,
        .get_reg                  = nicvf_dev_get_regs,
 };