net/virtio: allocate queue at init stage
authorYuanhan Liu <yuanhan.liu@linux.intel.com>
Sat, 5 Nov 2016 09:40:59 +0000 (17:40 +0800)
committerThomas Monjalon <thomas.monjalon@6wind.com>
Mon, 7 Nov 2016 14:40:03 +0000 (15:40 +0100)
Queue allocation should be done once, since the queue related info (such
as vring addreess) will only be informed to the vhost-user backend once
without virtio device reset.

That means, if you allocate queues again after the vhost-user negotiation,
the vhost-user backend will not be informed any more. Leading to a state
that the vring info mismatches between virtio PMD driver and vhost-backend:
the driver switches to the new address has just been allocated, while the
vhost-backend still sticks to the old address has been assigned in the init
stage.

Unfortunately, that is exactly how the virtio driver is coded so far: queue
allocation is done at queue_setup stage (when rte_eth_tx/rx_queue_setup is
invoked). This is wrong, because queue_setup can be invoked several times.
For example,

    $ start_testpmd.sh ... --txq=1 --rxq=1 ...
    > port stop 0
    > port config all txq 1 # just trigger the queue_setup callback again
    > port config all rxq 1
    > port start 0

The right way to do is allocate the queues in the init stage, so that the
vring info could be persistent with the vhost-user backend.

Besides that, we should allocate max_queue pairs the device supports, but
not nr queue pairs firstly configured, to make following case work.

    $ start_testpmd.sh ... --txq=1 --rxq=1 ...
    > port stop 0
    > port config all txq 2
    > port config all rxq 2
    > port start 0

Since the allocation is switched to init stage, the free should also
moved from the rx/tx_queue_release to dev close stage. That leading we
could do nothing an empty rx/tx_queue_release() implementation.

Signed-off-by: Yuanhan Liu <yuanhan.liu@linux.intel.com>
drivers/net/virtio/virtio_ethdev.c
drivers/net/virtio/virtio_ethdev.h
drivers/net/virtio/virtio_pci.h
drivers/net/virtio/virtio_rxtx.c
drivers/net/virtio/virtqueue.h

index 5a2c14b..245965c 100644 (file)
@@ -280,28 +280,36 @@ virtio_set_multiple_queues(struct rte_eth_dev *dev, uint16_t nb_queues)
        return 0;
 }
 
-void
-virtio_dev_queue_release(struct virtqueue *vq)
+static void
+virtio_dev_queue_release(void *queue __rte_unused)
 {
-       struct virtio_hw *hw;
+       /* do nothing */
+}
 
-       if (vq) {
-               hw = vq->hw;
-               if (vq->configured)
-                       hw->vtpci_ops->del_queue(hw, vq);
+static int
+virtio_get_queue_type(struct virtio_hw *hw, uint16_t vtpci_queue_idx)
+{
+       if (vtpci_queue_idx == hw->max_queue_pairs * 2)
+               return VTNET_CQ;
+       else if (vtpci_queue_idx % 2 == 0)
+               return VTNET_RQ;
+       else
+               return VTNET_TQ;
+}
 
-               rte_free(vq->sw_ring);
-               rte_free(vq);
-       }
+static uint16_t
+virtio_get_nr_vq(struct virtio_hw *hw)
+{
+       uint16_t nr_vq = hw->max_queue_pairs * 2;
+
+       if (vtpci_with_feature(hw, VIRTIO_NET_F_CTRL_VQ))
+               nr_vq += 1;
+
+       return nr_vq;
 }
 
-int virtio_dev_queue_setup(struct rte_eth_dev *dev,
-                       int queue_type,
-                       uint16_t queue_idx,
-                       uint16_t vtpci_queue_idx,
-                       uint16_t nb_desc,
-                       unsigned int socket_id,
-                       void **pvq)
+static int
+virtio_init_queue(struct rte_eth_dev *dev, uint16_t vtpci_queue_idx)
 {
        char vq_name[VIRTQUEUE_MAX_NAME_SZ];
        char vq_hdr_name[VIRTQUEUE_MAX_NAME_SZ];
@@ -314,6 +322,7 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
        struct virtqueue *vq;
        size_t sz_hdr_mz = 0;
        void *sw_ring = NULL;
+       int queue_type = virtio_get_queue_type(hw, vtpci_queue_idx);
        int ret;
 
        PMD_INIT_LOG(DEBUG, "setting up queue: %u", vtpci_queue_idx);
@@ -323,7 +332,7 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
         * Always power of 2 and if 0 virtqueue does not exist
         */
        vq_size = hw->vtpci_ops->get_queue_num(hw, vtpci_queue_idx);
-       PMD_INIT_LOG(DEBUG, "vq_size: %u nb_desc:%u", vq_size, nb_desc);
+       PMD_INIT_LOG(DEBUG, "vq_size: %u", vq_size);
        if (vq_size == 0) {
                PMD_INIT_LOG(ERR, "virtqueue does not exist");
                return -EINVAL;
@@ -351,18 +360,18 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
                sz_hdr_mz = PAGE_SIZE;
        }
 
-       vq = rte_zmalloc_socket(vq_name, size, RTE_CACHE_LINE_SIZE, socket_id);
+       vq = rte_zmalloc_socket(vq_name, size, RTE_CACHE_LINE_SIZE,
+                               SOCKET_ID_ANY);
        if (vq == NULL) {
                PMD_INIT_LOG(ERR, "can not allocate vq");
                return -ENOMEM;
        }
+       hw->vqs[vtpci_queue_idx] = vq;
+
        vq->hw = hw;
        vq->vq_queue_index = vtpci_queue_idx;
        vq->vq_nentries = vq_size;
-
-       if (nb_desc == 0 || nb_desc > vq_size)
-               nb_desc = vq_size;
-       vq->vq_free_cnt = nb_desc;
+       vq->vq_free_cnt = vq_size;
 
        /*
         * Reserve a memzone for vring elements
@@ -372,7 +381,8 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
        PMD_INIT_LOG(DEBUG, "vring_size: %d, rounded_vring_size: %d",
                     size, vq->vq_ring_size);
 
-       mz = rte_memzone_reserve_aligned(vq_name, vq->vq_ring_size, socket_id,
+       mz = rte_memzone_reserve_aligned(vq_name, vq->vq_ring_size,
+                                        SOCKET_ID_ANY,
                                         0, VIRTIO_PCI_VRING_ALIGN);
        if (mz == NULL) {
                if (rte_errno == EEXIST)
@@ -396,7 +406,7 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
                snprintf(vq_hdr_name, sizeof(vq_hdr_name), "port%d_vq%d_hdr",
                         dev->data->port_id, vtpci_queue_idx);
                hdr_mz = rte_memzone_reserve_aligned(vq_hdr_name, sz_hdr_mz,
-                                                    socket_id, 0,
+                                                    SOCKET_ID_ANY, 0,
                                                     RTE_CACHE_LINE_SIZE);
                if (hdr_mz == NULL) {
                        if (rte_errno == EEXIST)
@@ -413,7 +423,7 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
                               sizeof(vq->sw_ring[0]);
 
                sw_ring = rte_zmalloc_socket("sw_ring", sz_sw,
-                                            RTE_CACHE_LINE_SIZE, socket_id);
+                               RTE_CACHE_LINE_SIZE, SOCKET_ID_ANY);
                if (!sw_ring) {
                        PMD_INIT_LOG(ERR, "can not allocate RX soft ring");
                        ret = -ENOMEM;
@@ -424,19 +434,14 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
                rxvq = &vq->rxq;
                rxvq->vq = vq;
                rxvq->port_id = dev->data->port_id;
-               rxvq->queue_id = queue_idx;
                rxvq->mz = mz;
-               *pvq = rxvq;
        } else if (queue_type == VTNET_TQ) {
                txvq = &vq->txq;
                txvq->vq = vq;
                txvq->port_id = dev->data->port_id;
-               txvq->queue_id = queue_idx;
                txvq->mz = mz;
                txvq->virtio_net_hdr_mz = hdr_mz;
                txvq->virtio_net_hdr_mem = hdr_mz->phys_addr;
-
-               *pvq = txvq;
        } else if (queue_type == VTNET_CQ) {
                cvq = &vq->cq;
                cvq->vq = vq;
@@ -444,7 +449,8 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
                cvq->virtio_net_hdr_mz = hdr_mz;
                cvq->virtio_net_hdr_mem = hdr_mz->phys_addr;
                memset(cvq->virtio_net_hdr_mz->addr, 0, PAGE_SIZE);
-               *pvq = cvq;
+
+               hw->cvq = cvq;
        }
 
        /* For virtio_user case (that is when dev->pci_dev is NULL), we use
@@ -485,11 +491,9 @@ int virtio_dev_queue_setup(struct rte_eth_dev *dev,
 
        if (hw->vtpci_ops->setup_queue(hw, vq) < 0) {
                PMD_INIT_LOG(ERR, "setup_queue failed");
-               virtio_dev_queue_release(vq);
                return -EINVAL;
        }
 
-       vq->configured = 1;
        return 0;
 
 fail_q_alloc:
@@ -501,40 +505,60 @@ fail_q_alloc:
        return ret;
 }
 
-static int
-virtio_dev_cq_queue_setup(struct rte_eth_dev *dev, uint16_t vtpci_queue_idx,
-               uint32_t socket_id)
+static void
+virtio_free_queues(struct virtio_hw *hw)
 {
-       struct virtnet_ctl *cvq;
-       int ret;
-       struct virtio_hw *hw = dev->data->dev_private;
+       uint16_t nr_vq = virtio_get_nr_vq(hw);
+       struct virtqueue *vq;
+       int queue_type;
+       uint16_t i;
 
-       PMD_INIT_FUNC_TRACE();
-       ret = virtio_dev_queue_setup(dev, VTNET_CQ, VTNET_SQ_CQ_QUEUE_IDX,
-                       vtpci_queue_idx, 0, socket_id, (void **)&cvq);
-       if (ret < 0) {
-               PMD_INIT_LOG(ERR, "control vq initialization failed");
-               return ret;
+       for (i = 0; i < nr_vq; i++) {
+               vq = hw->vqs[i];
+               if (!vq)
+                       continue;
+
+               queue_type = virtio_get_queue_type(hw, i);
+               if (queue_type == VTNET_RQ) {
+                       rte_free(vq->sw_ring);
+                       rte_memzone_free(vq->rxq.mz);
+               } else if (queue_type == VTNET_TQ) {
+                       rte_memzone_free(vq->txq.mz);
+                       rte_memzone_free(vq->txq.virtio_net_hdr_mz);
+               } else {
+                       rte_memzone_free(vq->cq.mz);
+                       rte_memzone_free(vq->cq.virtio_net_hdr_mz);
+               }
+
+               rte_free(vq);
        }
 
-       hw->cvq = cvq;
-       return 0;
+       rte_free(hw->vqs);
 }
 
-static void
-virtio_free_queues(struct rte_eth_dev *dev)
+static int
+virtio_alloc_queues(struct rte_eth_dev *dev)
 {
-       unsigned int i;
-
-       for (i = 0; i < dev->data->nb_rx_queues; i++)
-               virtio_dev_rx_queue_release(dev->data->rx_queues[i]);
+       struct virtio_hw *hw = dev->data->dev_private;
+       uint16_t nr_vq = virtio_get_nr_vq(hw);
+       uint16_t i;
+       int ret;
 
-       dev->data->nb_rx_queues = 0;
+       hw->vqs = rte_zmalloc(NULL, sizeof(struct virtqueue *) * nr_vq, 0);
+       if (!hw->vqs) {
+               PMD_INIT_LOG(ERR, "failed to allocate vqs");
+               return -ENOMEM;
+       }
 
-       for (i = 0; i < dev->data->nb_tx_queues; i++)
-               virtio_dev_tx_queue_release(dev->data->tx_queues[i]);
+       for (i = 0; i < nr_vq; i++) {
+               ret = virtio_init_queue(dev, i);
+               if (ret < 0) {
+                       virtio_free_queues(hw);
+                       return ret;
+               }
+       }
 
-       dev->data->nb_tx_queues = 0;
+       return 0;
 }
 
 static void
@@ -544,16 +568,13 @@ virtio_dev_close(struct rte_eth_dev *dev)
 
        PMD_INIT_LOG(DEBUG, "virtio_dev_close");
 
-       if (hw->cvq)
-               virtio_dev_queue_release(hw->cvq->vq);
-
        /* reset the NIC */
        if (dev->data->dev_flags & RTE_ETH_DEV_INTR_LSC)
                vtpci_irq_config(hw, VIRTIO_MSI_NO_VECTOR);
        vtpci_reset(hw);
        hw->started = 0;
        virtio_dev_free_mbufs(dev);
-       virtio_free_queues(dev);
+       virtio_free_queues(hw);
 }
 
 static void
@@ -686,9 +707,9 @@ static const struct eth_dev_ops virtio_eth_dev_ops = {
        .xstats_reset            = virtio_dev_stats_reset,
        .link_update             = virtio_dev_link_update,
        .rx_queue_setup          = virtio_dev_rx_queue_setup,
-       .rx_queue_release        = virtio_dev_rx_queue_release,
+       .rx_queue_release        = virtio_dev_queue_release,
        .tx_queue_setup          = virtio_dev_tx_queue_setup,
-       .tx_queue_release        = virtio_dev_tx_queue_release,
+       .tx_queue_release        = virtio_dev_queue_release,
        /* collect stats per queue */
        .queue_stats_mapping_set = virtio_dev_queue_stats_mapping_set,
        .vlan_filter_set         = virtio_vlan_filter_set,
@@ -1141,6 +1162,7 @@ virtio_init_device(struct rte_eth_dev *eth_dev, uint64_t req_features)
        struct virtio_net_config *config;
        struct virtio_net_config local_config;
        struct rte_pci_device *pci_dev = eth_dev->pci_dev;
+       int ret;
 
        /* Reset the device although not necessary at startup */
        vtpci_reset(hw);
@@ -1222,6 +1244,10 @@ virtio_init_device(struct rte_eth_dev *eth_dev, uint64_t req_features)
                hw->max_queue_pairs = 1;
        }
 
+       ret = virtio_alloc_queues(eth_dev);
+       if (ret < 0)
+               return ret;
+
        if (pci_dev)
                PMD_INIT_LOG(DEBUG, "port %d vendorID=0x%x deviceID=0x%x",
                        eth_dev->data->port_id, pci_dev->id.vendor_id,
@@ -1390,15 +1416,9 @@ virtio_dev_configure(struct rte_eth_dev *dev)
                return -ENOTSUP;
        }
 
-       /* Setup and start control queue */
-       if (vtpci_with_feature(hw, VIRTIO_NET_F_CTRL_VQ)) {
-               ret = virtio_dev_cq_queue_setup(dev,
-                       hw->max_queue_pairs * 2,
-                       SOCKET_ID_ANY);
-               if (ret < 0)
-                       return ret;
+       /* start control queue */
+       if (vtpci_with_feature(hw, VIRTIO_NET_F_CTRL_VQ))
                virtio_dev_cq_start(dev);
-       }
 
        hw->vlan_strip = rxmode->hw_vlan_strip;
 
index de33b32..8a3fa6d 100644 (file)
@@ -80,29 +80,15 @@ void virtio_dev_cq_start(struct rte_eth_dev *dev);
  */
 void virtio_dev_rxtx_start(struct rte_eth_dev *dev);
 
-int virtio_dev_queue_setup(struct rte_eth_dev *dev,
-                       int queue_type,
-                       uint16_t queue_idx,
-                       uint16_t vtpci_queue_idx,
-                       uint16_t nb_desc,
-                       unsigned int socket_id,
-                       void **pvq);
-
-void virtio_dev_queue_release(struct virtqueue *vq);
-
 int  virtio_dev_rx_queue_setup(struct rte_eth_dev *dev, uint16_t rx_queue_id,
                uint16_t nb_rx_desc, unsigned int socket_id,
                const struct rte_eth_rxconf *rx_conf,
                struct rte_mempool *mb_pool);
 
-void virtio_dev_rx_queue_release(void *rxq);
-
 int  virtio_dev_tx_queue_setup(struct rte_eth_dev *dev, uint16_t tx_queue_id,
                uint16_t nb_tx_desc, unsigned int socket_id,
                const struct rte_eth_txconf *tx_conf);
 
-void virtio_dev_tx_queue_release(void *txq);
-
 uint16_t virtio_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
                uint16_t nb_pkts);
 
index 0c5ed31..f63f76c 100644 (file)
@@ -264,6 +264,8 @@ struct virtio_hw {
        struct virtio_net_config *dev_cfg;
        const struct virtio_pci_ops *vtpci_ops;
        void        *virtio_user_dev;
+
+       struct virtqueue **vqs;
 };
 
 /*
index b4c4aa4..6e7ff27 100644 (file)
@@ -530,24 +530,24 @@ int
 virtio_dev_rx_queue_setup(struct rte_eth_dev *dev,
                        uint16_t queue_idx,
                        uint16_t nb_desc,
-                       unsigned int socket_id,
+                       unsigned int socket_id __rte_unused,
                        __rte_unused const struct rte_eth_rxconf *rx_conf,
                        struct rte_mempool *mp)
 {
        uint16_t vtpci_queue_idx = 2 * queue_idx + VTNET_SQ_RQ_QUEUE_IDX;
+       struct virtio_hw *hw = dev->data->dev_private;
+       struct virtqueue *vq = hw->vqs[vtpci_queue_idx];
        struct virtnet_rx *rxvq;
-       int ret;
 
        PMD_INIT_FUNC_TRACE();
-       ret = virtio_dev_queue_setup(dev, VTNET_RQ, queue_idx, vtpci_queue_idx,
-                       nb_desc, socket_id, (void **)&rxvq);
-       if (ret < 0) {
-               PMD_INIT_LOG(ERR, "rvq initialization failed");
-               return ret;
-       }
 
-       /* Create mempool for rx mbuf allocation */
+       if (nb_desc == 0 || nb_desc > vq->vq_nentries)
+               nb_desc = vq->vq_nentries;
+       vq->vq_free_cnt = RTE_MIN(vq->vq_free_cnt, nb_desc);
+
+       rxvq = &vq->rxq;
        rxvq->mpool = mp;
+       rxvq->queue_id = queue_idx;
 
        dev->data->rx_queues[queue_idx] = rxvq;
 
@@ -556,27 +556,6 @@ virtio_dev_rx_queue_setup(struct rte_eth_dev *dev,
        return 0;
 }
 
-void
-virtio_dev_rx_queue_release(void *rxq)
-{
-       struct virtnet_rx *rxvq = rxq;
-       struct virtqueue *vq;
-       const struct rte_memzone *mz;
-
-       if (rxvq == NULL)
-               return;
-
-       /*
-        * rxvq is freed when vq is freed, and as mz should be freed after the
-        * del_queue, so we reserve the mz pointer first.
-        */
-       vq = rxvq->vq;
-       mz = rxvq->mz;
-
-       virtio_dev_queue_release(vq);
-       rte_memzone_free(mz);
-}
-
 static void
 virtio_update_rxtx_handler(struct rte_eth_dev *dev,
                           const struct rte_eth_txconf *tx_conf)
@@ -613,27 +592,25 @@ int
 virtio_dev_tx_queue_setup(struct rte_eth_dev *dev,
                        uint16_t queue_idx,
                        uint16_t nb_desc,
-                       unsigned int socket_id,
+                       unsigned int socket_id __rte_unused,
                        const struct rte_eth_txconf *tx_conf)
 {
        uint8_t vtpci_queue_idx = 2 * queue_idx + VTNET_SQ_TQ_QUEUE_IDX;
+       struct virtio_hw *hw = dev->data->dev_private;
+       struct virtqueue *vq = hw->vqs[vtpci_queue_idx];
        struct virtnet_tx *txvq;
-       struct virtqueue *vq;
        uint16_t tx_free_thresh;
-       int ret;
 
        PMD_INIT_FUNC_TRACE();
 
-
        virtio_update_rxtx_handler(dev, tx_conf);
 
-       ret = virtio_dev_queue_setup(dev, VTNET_TQ, queue_idx, vtpci_queue_idx,
-                       nb_desc, socket_id, (void **)&txvq);
-       if (ret < 0) {
-               PMD_INIT_LOG(ERR, "tvq initialization failed");
-               return ret;
-       }
-       vq = txvq->vq;
+       if (nb_desc == 0 || nb_desc > vq->vq_nentries)
+               nb_desc = vq->vq_nentries;
+       vq->vq_free_cnt = RTE_MIN(vq->vq_free_cnt, nb_desc);
+
+       txvq = &vq->txq;
+       txvq->queue_id = queue_idx;
 
        tx_free_thresh = tx_conf->tx_free_thresh;
        if (tx_free_thresh == 0)
@@ -655,30 +632,6 @@ virtio_dev_tx_queue_setup(struct rte_eth_dev *dev,
        return 0;
 }
 
-void
-virtio_dev_tx_queue_release(void *txq)
-{
-       struct virtnet_tx *txvq = txq;
-       struct virtqueue *vq;
-       const struct rte_memzone *mz;
-       const struct rte_memzone *hdr_mz;
-
-       if (txvq == NULL)
-               return;
-
-       /*
-        * txvq is freed when vq is freed, and as mz should be freed after the
-        * del_queue, so we reserve the mz pointer first.
-        */
-       vq = txvq->vq;
-       mz = txvq->mz;
-       hdr_mz = txvq->virtio_net_hdr_mz;
-
-       virtio_dev_queue_release(vq);
-       rte_memzone_free(mz);
-       rte_memzone_free(hdr_mz);
-}
-
 static void
 virtio_discard_rxbuf(struct virtqueue *vq, struct rte_mbuf *m)
 {
index bbeb2f2..f0bb089 100644 (file)
@@ -211,7 +211,6 @@ struct virtqueue {
        uint16_t  vq_queue_index;   /**< PCI queue index */
        uint16_t offset; /**< relative offset to obtain addr in mbuf */
        uint16_t  *notify_addr;
-       int configured;
        struct rte_mbuf **sw_ring;  /**< RX software ring. */
        struct vq_desc_extra vq_descx[0];
 };