vhost: support postcopy listen message
[dpdk.git] / lib / librte_vhost / vhost.h
index d362823..b4abad3 100644 (file)
@@ -56,6 +56,7 @@ struct buf_vector {
 struct zcopy_mbuf {
        struct rte_mbuf *mbuf;
        uint32_t desc_idx;
+       uint16_t desc_count;
        uint16_t in_use;
 
        TAILQ_ENTRY(zcopy_mbuf) next;
@@ -80,19 +81,35 @@ struct log_cache_entry {
        unsigned long val;
 };
 
+struct vring_used_elem_packed {
+       uint16_t id;
+       uint32_t len;
+       uint32_t count;
+};
+
 /**
  * Structure contains variables relevant to RX/TX virtqueues.
  */
 struct vhost_virtqueue {
-       struct vring_desc       *desc;
-       struct vring_avail      *avail;
-       struct vring_used       *used;
+       union {
+               struct vring_desc       *desc;
+               struct vring_packed_desc   *desc_packed;
+       };
+       union {
+               struct vring_avail      *avail;
+               struct vring_packed_desc_event *driver_event;
+       };
+       union {
+               struct vring_used       *used;
+               struct vring_packed_desc_event *device_event;
+       };
        uint32_t                size;
 
        uint16_t                last_avail_idx;
        uint16_t                last_used_idx;
        /* Last used index we notify to front end. */
        uint16_t                signalled_used;
+       bool                    signalled_used_valid;
 #define VIRTIO_INVALID_EVENTFD         (-1)
 #define VIRTIO_UNINITIALIZED_EVENTFD   (-2)
 
@@ -116,12 +133,17 @@ struct vhost_virtqueue {
        struct zcopy_mbuf       *zmbufs;
        struct zcopy_mbuf_list  zmbuf_list;
 
-       struct vring_used_elem  *shadow_used_ring;
+       union {
+               struct vring_used_elem  *shadow_used_split;
+               struct vring_used_elem_packed *shadow_used_packed;
+       };
        uint16_t                shadow_used_idx;
        struct vhost_vring_addr ring_addrs;
 
        struct batch_copy_elem  *batch_copy_elems;
        uint16_t                batch_copy_nb_elems;
+       bool                    used_wrap_counter;
+       bool                    avail_wrap_counter;
 
        struct log_cache_entry log_cache[VHOST_LOG_CACHE_NR];
        uint16_t log_cache_nb_elem;
@@ -210,6 +232,15 @@ struct vring_packed_desc {
        uint16_t id;
        uint16_t flags;
 };
+
+#define VRING_EVENT_F_ENABLE 0x0
+#define VRING_EVENT_F_DISABLE 0x1
+#define VRING_EVENT_F_DESC 0x2
+
+struct vring_packed_desc_event {
+       uint16_t off_wrap;
+       uint16_t flags;
+};
 #endif
 
 /*
@@ -253,6 +284,16 @@ struct guest_page {
        uint64_t size;
 };
 
+/* The possible results of a message handling function */
+enum vh_result {
+       /* Message handling failed */
+       VH_RESULT_ERR   = -1,
+       /* Message handling successful */
+       VH_RESULT_OK    =  0,
+       /* Message handling successful and reply prepared */
+       VH_RESULT_REPLY =  1,
+};
+
 /**
  * function prototype for the vhost backend to handler specific vhost user
  * messages prior to the master message handling
@@ -261,17 +302,15 @@ struct guest_page {
  *  vhost device id
  * @param msg
  *  Message pointer.
- * @param require_reply
- *  If the handler requires sending a reply, this varaible shall be written 1,
- *  otherwise 0.
  * @param skip_master
  *  If the handler requires skipping the master message handling, this variable
  *  shall be written 1, otherwise 0.
  * @return
- *  0 on success, -1 on failure
+ *  VH_RESULT_OK on success, VH_RESULT_REPLY on success with reply,
+ *  VH_RESULT_ERR on failure
  */
-typedef int (*vhost_msg_pre_handle)(int vid, void *msg,
-               uint32_t *require_reply, uint32_t *skip_master);
+typedef enum vh_result (*vhost_msg_pre_handle)(int vid, void *msg,
+               uint32_t *skip_master);
 
 /**
  * function prototype for the vhost backend to handler specific vhost user
@@ -281,14 +320,11 @@ typedef int (*vhost_msg_pre_handle)(int vid, void *msg,
  *  vhost device id
  * @param msg
  *  Message pointer.
- * @param require_reply
- *  If the handler requires sending a reply, this varaible shall be written 1,
- *  otherwise 0.
  * @return
- *  0 on success, -1 on failure
+ *  VH_RESULT_OK on success, VH_RESULT_REPLY on success with reply,
+ *  VH_RESULT_ERR on failure
  */
-typedef int (*vhost_msg_post_handle)(int vid, void *msg,
-               uint32_t *require_reply);
+typedef enum vh_result (*vhost_msg_post_handle)(int vid, void *msg);
 
 /**
  * pre and post vhost user message handlers
@@ -332,6 +368,9 @@ struct virtio_net {
        int                     slave_req_fd;
        rte_spinlock_t          slave_req_lock;
 
+       int                     postcopy_ufd;
+       int                     postcopy_listening;
+
        /*
         * Device id to identify a specific backend device.
         * It's set to -1 for the default software implementation.
@@ -582,7 +621,7 @@ void vhost_destroy_device(int);
 void vhost_destroy_device_notify(struct virtio_net *dev);
 
 void cleanup_vq(struct vhost_virtqueue *vq, int destroy);
-void free_vq(struct vhost_virtqueue *vq);
+void free_vq(struct virtio_net *dev, struct vhost_virtqueue *vq);
 
 int alloc_vring_queue(struct virtio_net *dev, uint32_t vring_idx);
 
@@ -617,6 +656,8 @@ vhost_iova_to_vva(struct virtio_net *dev, struct vhost_virtqueue *vq,
        return __vhost_iova_to_vva(dev, vq, iova, len, perm);
 }
 
+#define vhost_avail_event(vr) \
+       (*(volatile uint16_t*)&(vr)->used->ring[(vr)->size])
 #define vhost_used_event(vr) \
        (*(volatile uint16_t*)&(vr)->avail->ring[(vr)->size])
 
@@ -633,7 +674,7 @@ vhost_need_event(uint16_t event_idx, uint16_t new_idx, uint16_t old)
 }
 
 static __rte_always_inline void
-vhost_vring_call(struct virtio_net *dev, struct vhost_virtqueue *vq)
+vhost_vring_call_split(struct virtio_net *dev, struct vhost_virtqueue *vq)
 {
        /* Flush used->idx update before we read avail->flags. */
        rte_smp_mb();
@@ -660,4 +701,55 @@ vhost_vring_call(struct virtio_net *dev, struct vhost_virtqueue *vq)
        }
 }
 
+static __rte_always_inline void
+vhost_vring_call_packed(struct virtio_net *dev, struct vhost_virtqueue *vq)
+{
+       uint16_t old, new, off, off_wrap;
+       bool signalled_used_valid, kick = false;
+
+       /* Flush used desc update. */
+       rte_smp_mb();
+
+       if (!(dev->features & (1ULL << VIRTIO_RING_F_EVENT_IDX))) {
+               if (vq->driver_event->flags !=
+                               VRING_EVENT_F_DISABLE)
+                       kick = true;
+               goto kick;
+       }
+
+       old = vq->signalled_used;
+       new = vq->last_used_idx;
+       vq->signalled_used = new;
+       signalled_used_valid = vq->signalled_used_valid;
+       vq->signalled_used_valid = true;
+
+       if (vq->driver_event->flags != VRING_EVENT_F_DESC) {
+               if (vq->driver_event->flags != VRING_EVENT_F_DISABLE)
+                       kick = true;
+               goto kick;
+       }
+
+       if (unlikely(!signalled_used_valid)) {
+               kick = true;
+               goto kick;
+       }
+
+       rte_smp_rmb();
+
+       off_wrap = vq->driver_event->off_wrap;
+       off = off_wrap & ~(1 << 15);
+
+       if (new <= old)
+               old -= vq->size;
+
+       if (vq->used_wrap_counter != off_wrap >> 15)
+               off -= vq->size;
+
+       if (vhost_need_event(off, new, old))
+               kick = true;
+kick:
+       if (kick)
+               eventfd_write(vq->callfd, (eventfd_t)1);
+}
+
 #endif /* _VHOST_NET_CDEV_H_ */