net/virtio: invoke method directly for setting IRQ config
[dpdk.git] / drivers / net / virtio / virtio_pci.c
index 941081d..040f1b5 100644 (file)
  */
 #define VIRTIO_PCI_CONFIG(hw) (((hw)->use_msix) ? 24 : 20)
 
+static inline int
+check_vq_phys_addr_ok(struct virtqueue *vq)
+{
+       /* Virtio PCI device VIRTIO_PCI_QUEUE_PF register is 32bit,
+        * and only accepts 32 bit page frame number.
+        * Check if the allocated physical memory exceeds 16TB.
+        */
+       if ((vq->vq_ring_mem + vq->vq_ring_size - 1) >>
+                       (VIRTIO_PCI_QUEUE_ADDR_SHIFT + 32)) {
+               PMD_INIT_LOG(ERR, "vring address shouldn't be above 16TB!");
+               return 0;
+       }
+
+       return 1;
+}
+
 /*
  * Since we are in legacy mode:
  * http://ozlabs.org/~rusty/virtio-spec/virtio-0.9.5.pdf
@@ -66,7 +82,6 @@
  * For powerpc which supports both, qemu supposes that cpu is big endian and
  * enforces this for the virtio-net stuff.
  */
-
 static void
 legacy_read_dev_config(struct virtio_hw *hw, size_t offset,
                       void *dst, int length)
@@ -77,17 +92,17 @@ legacy_read_dev_config(struct virtio_hw *hw, size_t offset,
        while (length > 0) {
                if (length >= 4) {
                        size = 4;
-                       rte_eal_pci_ioport_read(&hw->io, dst, size,
+                       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, size,
                                VIRTIO_PCI_CONFIG(hw) + offset);
                        *(uint32_t *)dst = rte_be_to_cpu_32(*(uint32_t *)dst);
                } else if (length >= 2) {
                        size = 2;
-                       rte_eal_pci_ioport_read(&hw->io, dst, size,
+                       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, size,
                                VIRTIO_PCI_CONFIG(hw) + offset);
                        *(uint16_t *)dst = rte_be_to_cpu_16(*(uint16_t *)dst);
                } else {
                        size = 1;
-                       rte_eal_pci_ioport_read(&hw->io, dst, size,
+                       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, size,
                                VIRTIO_PCI_CONFIG(hw) + offset);
                }
 
@@ -96,7 +111,7 @@ legacy_read_dev_config(struct virtio_hw *hw, size_t offset,
                length -= size;
        }
 #else
-       rte_eal_pci_ioport_read(&hw->io, dst, length,
+       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, length,
                                VIRTIO_PCI_CONFIG(hw) + offset);
 #endif
 }
@@ -116,16 +131,16 @@ legacy_write_dev_config(struct virtio_hw *hw, size_t offset,
                if (length >= 4) {
                        size = 4;
                        tmp.u32 = rte_cpu_to_be_32(*(const uint32_t *)src);
-                       rte_eal_pci_ioport_write(&hw->io, &tmp.u32, size,
+                       rte_eal_pci_ioport_write(VTPCI_IO(hw), &tmp.u32, size,
                                VIRTIO_PCI_CONFIG(hw) + offset);
                } else if (length >= 2) {
                        size = 2;
                        tmp.u16 = rte_cpu_to_be_16(*(const uint16_t *)src);
-                       rte_eal_pci_ioport_write(&hw->io, &tmp.u16, size,
+                       rte_eal_pci_ioport_write(VTPCI_IO(hw), &tmp.u16, size,
                                VIRTIO_PCI_CONFIG(hw) + offset);
                } else {
                        size = 1;
-                       rte_eal_pci_ioport_write(&hw->io, src, size,
+                       rte_eal_pci_ioport_write(VTPCI_IO(hw), src, size,
                                VIRTIO_PCI_CONFIG(hw) + offset);
                }
 
@@ -134,7 +149,7 @@ legacy_write_dev_config(struct virtio_hw *hw, size_t offset,
                length -= size;
        }
 #else
-       rte_eal_pci_ioport_write(&hw->io, src, length,
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), src, length,
                                 VIRTIO_PCI_CONFIG(hw) + offset);
 #endif
 }
@@ -144,7 +159,8 @@ legacy_get_features(struct virtio_hw *hw)
 {
        uint32_t dst;
 
-       rte_eal_pci_ioport_read(&hw->io, &dst, 4, VIRTIO_PCI_HOST_FEATURES);
+       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 4,
+                               VIRTIO_PCI_HOST_FEATURES);
        return dst;
 }
 
@@ -156,7 +172,7 @@ legacy_set_features(struct virtio_hw *hw, uint64_t features)
                        "only 32 bit features are allowed for legacy virtio!");
                return;
        }
-       rte_eal_pci_ioport_write(&hw->io, &features, 4,
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &features, 4,
                                 VIRTIO_PCI_GUEST_FEATURES);
 }
 
@@ -165,14 +181,14 @@ legacy_get_status(struct virtio_hw *hw)
 {
        uint8_t dst;
 
-       rte_eal_pci_ioport_read(&hw->io, &dst, 1, VIRTIO_PCI_STATUS);
+       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 1, VIRTIO_PCI_STATUS);
        return dst;
 }
 
 static void
 legacy_set_status(struct virtio_hw *hw, uint8_t status)
 {
-       rte_eal_pci_ioport_write(&hw->io, &status, 1, VIRTIO_PCI_STATUS);
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &status, 1, VIRTIO_PCI_STATUS);
 }
 
 static void
@@ -186,7 +202,7 @@ legacy_get_isr(struct virtio_hw *hw)
 {
        uint8_t dst;
 
-       rte_eal_pci_ioport_read(&hw->io, &dst, 1, VIRTIO_PCI_ISR);
+       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 1, VIRTIO_PCI_ISR);
        return dst;
 }
 
@@ -196,8 +212,10 @@ legacy_set_config_irq(struct virtio_hw *hw, uint16_t vec)
 {
        uint16_t dst;
 
-       rte_eal_pci_ioport_write(&hw->io, &vec, 2, VIRTIO_MSI_CONFIG_VECTOR);
-       rte_eal_pci_ioport_read(&hw->io, &dst, 2, VIRTIO_MSI_CONFIG_VECTOR);
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vec, 2,
+                                VIRTIO_MSI_CONFIG_VECTOR);
+       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 2,
+                               VIRTIO_MSI_CONFIG_VECTOR);
        return dst;
 }
 
@@ -206,20 +224,26 @@ legacy_get_queue_num(struct virtio_hw *hw, uint16_t queue_id)
 {
        uint16_t dst;
 
-       rte_eal_pci_ioport_write(&hw->io, &queue_id, 2, VIRTIO_PCI_QUEUE_SEL);
-       rte_eal_pci_ioport_read(&hw->io, &dst, 2, VIRTIO_PCI_QUEUE_NUM);
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &queue_id, 2,
+                                VIRTIO_PCI_QUEUE_SEL);
+       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 2, VIRTIO_PCI_QUEUE_NUM);
        return dst;
 }
 
-static void
+static int
 legacy_setup_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
        uint32_t src;
 
-       rte_eal_pci_ioport_write(&hw->io, &vq->vq_queue_index, 2,
+       if (!check_vq_phys_addr_ok(vq))
+               return -1;
+
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
                         VIRTIO_PCI_QUEUE_SEL);
        src = vq->vq_ring_mem >> VIRTIO_PCI_QUEUE_ADDR_SHIFT;
-       rte_eal_pci_ioport_write(&hw->io, &src, 4, VIRTIO_PCI_QUEUE_PFN);
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &src, 4, VIRTIO_PCI_QUEUE_PFN);
+
+       return 0;
 }
 
 static void
@@ -227,15 +251,15 @@ legacy_del_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
        uint32_t src = 0;
 
-       rte_eal_pci_ioport_write(&hw->io, &vq->vq_queue_index, 2,
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
                         VIRTIO_PCI_QUEUE_SEL);
-       rte_eal_pci_ioport_write(&hw->io, &src, 4, VIRTIO_PCI_QUEUE_PFN);
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &src, 4, VIRTIO_PCI_QUEUE_PFN);
 }
 
 static void
 legacy_notify_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
-       rte_eal_pci_ioport_write(&hw->io, &vq->vq_queue_index, 2,
+       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
                         VIRTIO_PCI_QUEUE_NOTIFY);
 }
 
@@ -269,7 +293,7 @@ static int
 legacy_virtio_resource_init(struct rte_pci_device *pci_dev,
                            struct virtio_hw *hw, uint32_t *dev_flags)
 {
-       if (rte_eal_pci_ioport_map(pci_dev, 0, &hw->io) < 0)
+       if (rte_eal_pci_ioport_map(pci_dev, 0, VTPCI_IO(hw)) < 0)
                return -1;
 
        if (pci_dev->intr_handle.type != RTE_INTR_HANDLE_UNKNOWN)
@@ -280,7 +304,7 @@ legacy_virtio_resource_init(struct rte_pci_device *pci_dev,
        return 0;
 }
 
-static const struct virtio_pci_ops legacy_ops = {
+const struct virtio_pci_ops legacy_ops = {
        .read_dev_cfg   = legacy_read_dev_config,
        .write_dev_cfg  = legacy_write_dev_config,
        .reset          = legacy_reset,
@@ -435,12 +459,15 @@ modern_get_queue_num(struct virtio_hw *hw, uint16_t queue_id)
        return io_read16(&hw->common_cfg->queue_size);
 }
 
-static void
+static int
 modern_setup_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
        uint64_t desc_addr, avail_addr, used_addr;
        uint16_t notify_off;
 
+       if (!check_vq_phys_addr_ok(vq))
+               return -1;
+
        desc_addr = vq->vq_ring_mem;
        avail_addr = desc_addr + vq->vq_nentries * sizeof(struct vring_desc);
        used_addr = RTE_ALIGN_CEIL(avail_addr + offsetof(struct vring_avail,
@@ -468,6 +495,8 @@ modern_setup_queue(struct virtio_hw *hw, struct virtqueue *vq)
        PMD_INIT_LOG(DEBUG, "\t used_addr: %" PRIx64, used_addr);
        PMD_INIT_LOG(DEBUG, "\t notify addr: %p (notify offset: %u)",
                vq->notify_addr, notify_off);
+
+       return 0;
 }
 
 static void
@@ -491,7 +520,7 @@ modern_notify_queue(struct virtio_hw *hw __rte_unused, struct virtqueue *vq)
        io_write16(1, vq->notify_addr);
 }
 
-static const struct virtio_pci_ops modern_ops = {
+const struct virtio_pci_ops modern_ops = {
        .read_dev_cfg   = modern_read_dev_config,
        .write_dev_cfg  = modern_write_dev_config,
        .reset          = modern_reset,
@@ -512,14 +541,14 @@ void
 vtpci_read_dev_config(struct virtio_hw *hw, size_t offset,
                      void *dst, int length)
 {
-       hw->vtpci_ops->read_dev_cfg(hw, offset, dst, length);
+       VTPCI_OPS(hw)->read_dev_cfg(hw, offset, dst, length);
 }
 
 void
 vtpci_write_dev_config(struct virtio_hw *hw, size_t offset,
                       const void *src, int length)
 {
-       hw->vtpci_ops->write_dev_cfg(hw, offset, src, length);
+       VTPCI_OPS(hw)->write_dev_cfg(hw, offset, src, length);
 }
 
 uint64_t
@@ -532,7 +561,7 @@ vtpci_negotiate_features(struct virtio_hw *hw, uint64_t host_features)
         * host all support.
         */
        features = host_features & hw->guest_features;
-       hw->vtpci_ops->set_features(hw, features);
+       VTPCI_OPS(hw)->set_features(hw, features);
 
        return features;
 }
@@ -540,9 +569,9 @@ vtpci_negotiate_features(struct virtio_hw *hw, uint64_t host_features)
 void
 vtpci_reset(struct virtio_hw *hw)
 {
-       hw->vtpci_ops->set_status(hw, VIRTIO_CONFIG_STATUS_RESET);
+       VTPCI_OPS(hw)->set_status(hw, VIRTIO_CONFIG_STATUS_RESET);
        /* flush status write */
-       hw->vtpci_ops->get_status(hw);
+       VTPCI_OPS(hw)->get_status(hw);
 }
 
 void
@@ -555,29 +584,21 @@ void
 vtpci_set_status(struct virtio_hw *hw, uint8_t status)
 {
        if (status != VIRTIO_CONFIG_STATUS_RESET)
-               status |= hw->vtpci_ops->get_status(hw);
+               status |= VTPCI_OPS(hw)->get_status(hw);
 
-       hw->vtpci_ops->set_status(hw, status);
+       VTPCI_OPS(hw)->set_status(hw, status);
 }
 
 uint8_t
 vtpci_get_status(struct virtio_hw *hw)
 {
-       return hw->vtpci_ops->get_status(hw);
+       return VTPCI_OPS(hw)->get_status(hw);
 }
 
 uint8_t
 vtpci_isr(struct virtio_hw *hw)
 {
-       return hw->vtpci_ops->get_isr(hw);
-}
-
-
-/* Enable one vector (0) for Link State Intrerrupt */
-uint16_t
-vtpci_irq_config(struct virtio_hw *hw, uint16_t vec)
-{
-       return hw->vtpci_ops->set_config_irq(hw, vec);
+       return VTPCI_OPS(hw)->get_isr(hw);
 }
 
 static void *
@@ -694,6 +715,7 @@ next:
  * Return -1:
  *   if there is error mapping with VFIO/UIO.
  *   if port map error when driver type is KDRV_NONE.
+ *   if whitelisted but driver type is KDRV_UNKNOWN.
  * Return 1 if kernel driver is managing the device.
  * Return 0 on success.
  */
@@ -701,8 +723,6 @@ int
 vtpci_init(struct rte_pci_device *dev, struct virtio_hw *hw,
           uint32_t *dev_flags)
 {
-       hw->dev = dev;
-
        /*
         * Try if we can succeed reading virtio pci caps, which exists
         * only on modern pci device. If failed, we fallback to legacy
@@ -710,8 +730,8 @@ vtpci_init(struct rte_pci_device *dev, struct virtio_hw *hw,
         */
        if (virtio_read_caps(dev, hw) == 0) {
                PMD_INIT_LOG(INFO, "modern virtio pci detected.");
-               hw->vtpci_ops = &modern_ops;
-               hw->modern    = 1;
+               virtio_hw_internal[hw->port_id].vtpci_ops = &modern_ops;
+               hw->modern = 1;
                *dev_flags |= RTE_ETH_DEV_INTR_LSC;
                return 0;
        }
@@ -719,7 +739,9 @@ vtpci_init(struct rte_pci_device *dev, struct virtio_hw *hw,
        PMD_INIT_LOG(INFO, "trying with legacy virtio pci.");
        if (legacy_virtio_resource_init(dev, hw, dev_flags) < 0) {
                if (dev->kdrv == RTE_KDRV_UNKNOWN &&
-                   dev->devargs->type != RTE_DEVTYPE_WHITELISTED_PCI) {
+                   (!dev->device.devargs ||
+                    dev->device.devargs->type !=
+                       RTE_DEVTYPE_WHITELISTED_PCI)) {
                        PMD_INIT_LOG(INFO,
                                "skip kernel managed virtio device.");
                        return 1;
@@ -727,7 +749,7 @@ vtpci_init(struct rte_pci_device *dev, struct virtio_hw *hw,
                return -1;
        }
 
-       hw->vtpci_ops = &legacy_ops;
+       virtio_hw_internal[hw->port_id].vtpci_ops = &legacy_ops;
        hw->use_msix = legacy_virtio_has_msix(&dev->addr);
        hw->modern   = 0;