ixgbe: get queue info and descriptor limits
[dpdk.git] / lib / librte_vhost / virtio-net.c
index b670992..3e82605 100644 (file)
@@ -36,6 +36,7 @@
 #include <stddef.h>
 #include <stdint.h>
 #include <stdlib.h>
+#include <assert.h>
 #include <sys/mman.h>
 #include <unistd.h>
 #ifdef RTE_LIBRTE_VHOST_NUMA
@@ -67,11 +68,15 @@ struct virtio_net_device_ops const *notify_ops;
 /* root address of the linked list of managed virtio devices */
 static struct virtio_net_config_ll *ll_root;
 
+#define VHOST_USER_F_PROTOCOL_FEATURES 30
+
 /* Features supported by this lib. */
 #define VHOST_SUPPORTED_FEATURES ((1ULL << VIRTIO_NET_F_MRG_RXBUF) | \
                                (1ULL << VIRTIO_NET_F_CTRL_VQ) | \
                                (1ULL << VIRTIO_NET_F_CTRL_RX) | \
-                               (1ULL << VHOST_F_LOG_ALL))
+                               (VHOST_SUPPORTS_MQ)            | \
+                               (1ULL << VHOST_F_LOG_ALL)      | \
+                               (1ULL << VHOST_USER_F_PROTOCOL_FEATURES))
 static uint64_t VHOST_FEATURES = VHOST_SUPPORTED_FEATURES;
 
 
@@ -175,6 +180,15 @@ add_config_ll_entry(struct virtio_net_config_ll *new_ll_dev)
 
 }
 
+static void
+cleanup_vq(struct vhost_virtqueue *vq)
+{
+       if (vq->callfd >= 0)
+               close(vq->callfd);
+       if (vq->kickfd >= 0)
+               close(vq->kickfd);
+}
+
 /*
  * Unmap any memory, close any file descriptors and
  * free any memory owned by a device.
@@ -182,6 +196,8 @@ add_config_ll_entry(struct virtio_net_config_ll *new_ll_dev)
 static void
 cleanup_device(struct virtio_net *dev)
 {
+       uint32_t i;
+
        /* Unmap QEMU memory file if mapped. */
        if (dev->mem) {
                munmap((void *)(uintptr_t)dev->mem->mapped_address,
@@ -189,15 +205,10 @@ cleanup_device(struct virtio_net *dev)
                free(dev->mem);
        }
 
-       /* Close any event notifiers opened by device. */
-       if ((int)dev->virtqueue[VIRTIO_RXQ]->callfd >= 0)
-               close((int)dev->virtqueue[VIRTIO_RXQ]->callfd);
-       if ((int)dev->virtqueue[VIRTIO_RXQ]->kickfd >= 0)
-               close((int)dev->virtqueue[VIRTIO_RXQ]->kickfd);
-       if ((int)dev->virtqueue[VIRTIO_TXQ]->callfd >= 0)
-               close((int)dev->virtqueue[VIRTIO_TXQ]->callfd);
-       if ((int)dev->virtqueue[VIRTIO_TXQ]->kickfd >= 0)
-               close((int)dev->virtqueue[VIRTIO_TXQ]->kickfd);
+       for (i = 0; i < dev->virt_qp_nb; i++) {
+               cleanup_vq(dev->virtqueue[i * VIRTIO_QNUM + VIRTIO_RXQ]);
+               cleanup_vq(dev->virtqueue[i * VIRTIO_QNUM + VIRTIO_TXQ]);
+       }
 }
 
 /*
@@ -206,9 +217,11 @@ cleanup_device(struct virtio_net *dev)
 static void
 free_device(struct virtio_net_config_ll *ll_dev)
 {
-       /* Free any malloc'd memory */
-       rte_free(ll_dev->dev.virtqueue[VIRTIO_RXQ]);
-       rte_free(ll_dev->dev.virtqueue[VIRTIO_TXQ]);
+       uint32_t i;
+
+       for (i = 0; i < ll_dev->dev.virt_qp_nb; i++)
+               rte_free(ll_dev->dev.virtqueue[i * VIRTIO_QNUM]);
+
        rte_free(ll_dev);
 }
 
@@ -241,34 +254,74 @@ rm_config_ll_entry(struct virtio_net_config_ll *ll_dev,
        }
 }
 
+static void
+init_vring_queue(struct vhost_virtqueue *vq, int qp_idx)
+{
+       memset(vq, 0, sizeof(struct vhost_virtqueue));
+
+       vq->kickfd = -1;
+       vq->callfd = -1;
+
+       /* Backends are set to -1 indicating an inactive device. */
+       vq->backend = -1;
+
+       /* always set the default vq pair to enabled */
+       if (qp_idx == 0)
+               vq->enabled = 1;
+}
+
+static void
+init_vring_queue_pair(struct virtio_net *dev, uint32_t qp_idx)
+{
+       uint32_t base_idx = qp_idx * VIRTIO_QNUM;
+
+       init_vring_queue(dev->virtqueue[base_idx + VIRTIO_RXQ], qp_idx);
+       init_vring_queue(dev->virtqueue[base_idx + VIRTIO_TXQ], qp_idx);
+}
+
+static int
+alloc_vring_queue_pair(struct virtio_net *dev, uint32_t qp_idx)
+{
+       struct vhost_virtqueue *virtqueue = NULL;
+       uint32_t virt_rx_q_idx = qp_idx * VIRTIO_QNUM + VIRTIO_RXQ;
+       uint32_t virt_tx_q_idx = qp_idx * VIRTIO_QNUM + VIRTIO_TXQ;
+
+       virtqueue = rte_malloc(NULL,
+                              sizeof(struct vhost_virtqueue) * VIRTIO_QNUM, 0);
+       if (virtqueue == NULL) {
+               RTE_LOG(ERR, VHOST_CONFIG,
+                       "Failed to allocate memory for virt qp:%d.\n", qp_idx);
+               return -1;
+       }
+
+       dev->virtqueue[virt_rx_q_idx] = virtqueue;
+       dev->virtqueue[virt_tx_q_idx] = virtqueue + VIRTIO_TXQ;
+
+       init_vring_queue_pair(dev, qp_idx);
+
+       dev->virt_qp_nb += 1;
+
+       return 0;
+}
+
 /*
  *  Initialise all variables in device structure.
  */
 static void
 init_device(struct virtio_net *dev)
 {
-       uint64_t vq_offset;
+       int vq_offset;
+       uint32_t i;
 
        /*
         * Virtqueues have already been malloced so
         * we don't want to set them to NULL.
         */
-       vq_offset = offsetof(struct virtio_net, mem);
-
-       /* Set everything to 0. */
-       memset((void *)(uintptr_t)((uint64_t)(uintptr_t)dev + vq_offset), 0,
-               (sizeof(struct virtio_net) - (size_t)vq_offset));
-       memset(dev->virtqueue[VIRTIO_RXQ], 0, sizeof(struct vhost_virtqueue));
-       memset(dev->virtqueue[VIRTIO_TXQ], 0, sizeof(struct vhost_virtqueue));
-
-       dev->virtqueue[VIRTIO_RXQ]->kickfd = (eventfd_t)-1;
-       dev->virtqueue[VIRTIO_RXQ]->callfd = (eventfd_t)-1;
-       dev->virtqueue[VIRTIO_TXQ]->kickfd = (eventfd_t)-1;
-       dev->virtqueue[VIRTIO_TXQ]->callfd = (eventfd_t)-1;
+       vq_offset = offsetof(struct virtio_net, virtqueue);
+       memset(dev, 0, vq_offset);
 
-       /* Backends are set to -1 indicating an inactive device. */
-       dev->virtqueue[VIRTIO_RXQ]->backend = VIRTIO_DEV_STOPPED;
-       dev->virtqueue[VIRTIO_TXQ]->backend = VIRTIO_DEV_STOPPED;
+       for (i = 0; i < dev->virt_qp_nb; i++)
+               init_vring_queue_pair(dev, i);
 }
 
 /*
@@ -280,7 +333,6 @@ static int
 new_device(struct vhost_device_ctx ctx)
 {
        struct virtio_net_config_ll *new_ll_dev;
-       struct vhost_virtqueue *virtqueue_rx, *virtqueue_tx;
 
        /* Setup device and virtqueues. */
        new_ll_dev = rte_malloc(NULL, sizeof(struct virtio_net_config_ll), 0);
@@ -291,28 +343,6 @@ new_device(struct vhost_device_ctx ctx)
                return -1;
        }
 
-       virtqueue_rx = rte_malloc(NULL, sizeof(struct vhost_virtqueue), 0);
-       if (virtqueue_rx == NULL) {
-               rte_free(new_ll_dev);
-               RTE_LOG(ERR, VHOST_CONFIG,
-                       "(%"PRIu64") Failed to allocate memory for rxq.\n",
-                       ctx.fh);
-               return -1;
-       }
-
-       virtqueue_tx = rte_malloc(NULL, sizeof(struct vhost_virtqueue), 0);
-       if (virtqueue_tx == NULL) {
-               rte_free(virtqueue_rx);
-               rte_free(new_ll_dev);
-               RTE_LOG(ERR, VHOST_CONFIG,
-                       "(%"PRIu64") Failed to allocate memory for txq.\n",
-                       ctx.fh);
-               return -1;
-       }
-
-       new_ll_dev->dev.virtqueue[VIRTIO_RXQ] = virtqueue_rx;
-       new_ll_dev->dev.virtqueue[VIRTIO_TXQ] = virtqueue_tx;
-
        /* Initialise device and virtqueues. */
        init_device(&new_ll_dev->dev);
 
@@ -398,13 +428,17 @@ set_owner(struct vhost_device_ctx ctx)
 static int
 reset_owner(struct vhost_device_ctx ctx)
 {
-       struct virtio_net_config_ll *ll_dev;
-
-       ll_dev = get_config_ll_entry(ctx);
+       struct virtio_net *dev;
+       uint64_t device_fh;
 
-       cleanup_device(&ll_dev->dev);
-       init_device(&ll_dev->dev);
+       dev = get_device(ctx);
+       if (dev == NULL)
+               return -1;
 
+       device_fh = dev->device_fh;
+       cleanup_device(dev);
+       init_device(dev);
+       dev->device_fh = device_fh;
        return 0;
 }
 
@@ -434,6 +468,8 @@ static int
 set_features(struct vhost_device_ctx ctx, uint64_t *pu)
 {
        struct virtio_net *dev;
+       uint16_t vhost_hlen;
+       uint16_t i;
 
        dev = get_device(ctx);
        if (dev == NULL)
@@ -441,27 +477,26 @@ set_features(struct vhost_device_ctx ctx, uint64_t *pu)
        if (*pu & ~VHOST_FEATURES)
                return -1;
 
-       /* Store the negotiated feature list for the device. */
        dev->features = *pu;
-
-       /* Set the vhost_hlen depending on if VIRTIO_NET_F_MRG_RXBUF is set. */
        if (dev->features & (1 << VIRTIO_NET_F_MRG_RXBUF)) {
                LOG_DEBUG(VHOST_CONFIG,
                        "(%"PRIu64") Mergeable RX buffers enabled\n",
                        dev->device_fh);
-               dev->virtqueue[VIRTIO_RXQ]->vhost_hlen =
-                       sizeof(struct virtio_net_hdr_mrg_rxbuf);
-               dev->virtqueue[VIRTIO_TXQ]->vhost_hlen =
-                       sizeof(struct virtio_net_hdr_mrg_rxbuf);
+               vhost_hlen = sizeof(struct virtio_net_hdr_mrg_rxbuf);
        } else {
                LOG_DEBUG(VHOST_CONFIG,
                        "(%"PRIu64") Mergeable RX buffers disabled\n",
                        dev->device_fh);
-               dev->virtqueue[VIRTIO_RXQ]->vhost_hlen =
-                       sizeof(struct virtio_net_hdr);
-               dev->virtqueue[VIRTIO_TXQ]->vhost_hlen =
-                       sizeof(struct virtio_net_hdr);
+               vhost_hlen = sizeof(struct virtio_net_hdr);
        }
+
+       for (i = 0; i < dev->virt_qp_nb; i++) {
+               uint16_t base_idx = i * VIRTIO_QNUM;
+
+               dev->virtqueue[base_idx + VIRTIO_RXQ]->vhost_hlen = vhost_hlen;
+               dev->virtqueue[base_idx + VIRTIO_TXQ]->vhost_hlen = vhost_hlen;
+       }
+
        return 0;
 }
 
@@ -677,16 +712,27 @@ set_vring_call(struct vhost_device_ctx ctx, struct vhost_vring_file *file)
 {
        struct virtio_net *dev;
        struct vhost_virtqueue *vq;
+       uint32_t cur_qp_idx = file->index / VIRTIO_QNUM;
 
        dev = get_device(ctx);
        if (dev == NULL)
                return -1;
 
+       /*
+        * FIXME: VHOST_SET_VRING_CALL is the first per-vring message
+        * we get, so we do vring queue pair allocation here.
+        */
+       if (cur_qp_idx + 1 > dev->virt_qp_nb) {
+               if (alloc_vring_queue_pair(dev, cur_qp_idx) < 0)
+                       return -1;
+       }
+
        /* file->index refers to the queue index. The txq is 1, rxq is 0. */
        vq = dev->virtqueue[file->index];
+       assert(vq != NULL);
 
-       if ((int)vq->callfd >= 0)
-               close((int)vq->callfd);
+       if (vq->callfd >= 0)
+               close(vq->callfd);
 
        vq->callfd = file->fd;
 
@@ -711,8 +757,8 @@ set_vring_kick(struct vhost_device_ctx ctx, struct vhost_vring_file *file)
        /* file->index refers to the queue index. The txq is 1, rxq is 0. */
        vq = dev->virtqueue[file->index];
 
-       if ((int)vq->kickfd >= 0)
-               close((int)vq->kickfd);
+       if (vq->kickfd >= 0)
+               close(vq->kickfd);
 
        vq->kickfd = file->fd;