net/virtio: unmap PCI device in secondary process
[dpdk.git] / drivers / net / virtio / virtio_pci.c
index 8daeb95..632451d 100644 (file)
@@ -1,42 +1,16 @@
-/*-
- *   BSD LICENSE
- *
- *   Copyright(c) 2010-2014 Intel Corporation. All rights reserved.
- *   All rights reserved.
- *
- *   Redistribution and use in source and binary forms, with or without
- *   modification, are permitted provided that the following conditions
- *   are met:
- *
- *     * Redistributions of source code must retain the above copyright
- *       notice, this list of conditions and the following disclaimer.
- *     * Redistributions in binary form must reproduce the above copyright
- *       notice, this list of conditions and the following disclaimer in
- *       the documentation and/or other materials provided with the
- *       distribution.
- *     * Neither the name of Intel Corporation nor the names of its
- *       contributors may be used to endorse or promote products derived
- *       from this software without specific prior written permission.
- *
- *   THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
- *   "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
- *   LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
- *   A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
- *   OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
- *   SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
- *   LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
- *   DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
- *   THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
- *   (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
- *   OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
+/* SPDX-License-Identifier: BSD-3-Clause
+ * Copyright(c) 2010-2014 Intel Corporation
  */
 #include <stdint.h>
 
-#ifdef RTE_EXEC_ENV_LINUXAPP
+#ifdef RTE_EXEC_ENV_LINUX
  #include <dirent.h>
  #include <fcntl.h>
 #endif
 
+#include <rte_io.h>
+#include <rte_bus.h>
+
 #include "virtio_pci.h"
 #include "virtio_logs.h"
 #include "virtqueue.h"
  */
 #define PCI_CAPABILITY_LIST    0x34
 #define PCI_CAP_ID_VNDR                0x09
+#define PCI_CAP_ID_MSIX                0x11
 
 /*
  * The remaining space is defined by each driver as the per-driver
  * configuration space.
  */
-#define VIRTIO_PCI_CONFIG(hw) (((hw)->use_msix) ? 24 : 20)
+#define VIRTIO_PCI_CONFIG(dev) \
+               (((dev)->msix_status == VIRTIO_MSIX_ENABLED) ? 24 : 20)
+
+struct virtio_pci_internal virtio_pci_internal[RTE_MAX_ETHPORTS];
 
 static inline int
 check_vq_phys_addr_ok(struct virtqueue *vq)
@@ -71,6 +49,56 @@ check_vq_phys_addr_ok(struct virtqueue *vq)
        return 1;
 }
 
+#define PCI_MSIX_ENABLE 0x8000
+
+static enum virtio_msix_status
+vtpci_msix_detect(struct rte_pci_device *dev)
+{
+       uint8_t pos;
+       int ret;
+
+       ret = rte_pci_read_config(dev, &pos, 1, PCI_CAPABILITY_LIST);
+       if (ret != 1) {
+               PMD_INIT_LOG(DEBUG,
+                            "failed to read pci capability list, ret %d", ret);
+               return VIRTIO_MSIX_NONE;
+       }
+
+       while (pos) {
+               uint8_t cap[2];
+
+               ret = rte_pci_read_config(dev, cap, sizeof(cap), pos);
+               if (ret != sizeof(cap)) {
+                       PMD_INIT_LOG(DEBUG,
+                                    "failed to read pci cap at pos: %x ret %d",
+                                    pos, ret);
+                       break;
+               }
+
+               if (cap[0] == PCI_CAP_ID_MSIX) {
+                       uint16_t flags;
+
+                       ret = rte_pci_read_config(dev, &flags, sizeof(flags),
+                                       pos + sizeof(cap));
+                       if (ret != sizeof(flags)) {
+                               PMD_INIT_LOG(DEBUG,
+                                            "failed to read pci cap at pos:"
+                                            " %x ret %d", pos + 2, ret);
+                               break;
+                       }
+
+                       if (flags & PCI_MSIX_ENABLE)
+                               return VIRTIO_MSIX_ENABLED;
+                       else
+                               return VIRTIO_MSIX_DISABLED;
+               }
+
+               pos = cap[1];
+       }
+
+       return VIRTIO_MSIX_NONE;
+}
+
 /*
  * Since we are in legacy mode:
  * http://ozlabs.org/~rusty/virtio-spec/virtio-0.9.5.pdf
@@ -86,24 +114,25 @@ static void
 legacy_read_dev_config(struct virtio_hw *hw, size_t offset,
                       void *dst, int length)
 {
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
 #ifdef RTE_ARCH_PPC_64
        int size;
 
        while (length > 0) {
                if (length >= 4) {
                        size = 4;
-                       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, size,
-                               VIRTIO_PCI_CONFIG(hw) + offset);
+                       rte_pci_ioport_read(VTPCI_IO(hw), dst, size,
+                               VIRTIO_PCI_CONFIG(dev) + offset);
                        *(uint32_t *)dst = rte_be_to_cpu_32(*(uint32_t *)dst);
                } else if (length >= 2) {
                        size = 2;
-                       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, size,
-                               VIRTIO_PCI_CONFIG(hw) + offset);
+                       rte_pci_ioport_read(VTPCI_IO(hw), dst, size,
+                               VIRTIO_PCI_CONFIG(dev) + offset);
                        *(uint16_t *)dst = rte_be_to_cpu_16(*(uint16_t *)dst);
                } else {
                        size = 1;
-                       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, size,
-                               VIRTIO_PCI_CONFIG(hw) + offset);
+                       rte_pci_ioport_read(VTPCI_IO(hw), dst, size,
+                               VIRTIO_PCI_CONFIG(dev) + offset);
                }
 
                dst = (char *)dst + size;
@@ -111,8 +140,8 @@ legacy_read_dev_config(struct virtio_hw *hw, size_t offset,
                length -= size;
        }
 #else
-       rte_eal_pci_ioport_read(VTPCI_IO(hw), dst, length,
-                               VIRTIO_PCI_CONFIG(hw) + offset);
+       rte_pci_ioport_read(VTPCI_IO(hw), dst, length,
+               VIRTIO_PCI_CONFIG(dev) + offset);
 #endif
 }
 
@@ -120,6 +149,7 @@ static void
 legacy_write_dev_config(struct virtio_hw *hw, size_t offset,
                        const void *src, int length)
 {
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
 #ifdef RTE_ARCH_PPC_64
        union {
                uint32_t u32;
@@ -131,17 +161,17 @@ legacy_write_dev_config(struct virtio_hw *hw, size_t offset,
                if (length >= 4) {
                        size = 4;
                        tmp.u32 = rte_cpu_to_be_32(*(const uint32_t *)src);
-                       rte_eal_pci_ioport_write(VTPCI_IO(hw), &tmp.u32, size,
-                               VIRTIO_PCI_CONFIG(hw) + offset);
+                       rte_pci_ioport_write(VTPCI_IO(hw), &tmp.u32, size,
+                               VIRTIO_PCI_CONFIG(dev) + offset);
                } else if (length >= 2) {
                        size = 2;
                        tmp.u16 = rte_cpu_to_be_16(*(const uint16_t *)src);
-                       rte_eal_pci_ioport_write(VTPCI_IO(hw), &tmp.u16, size,
-                               VIRTIO_PCI_CONFIG(hw) + offset);
+                       rte_pci_ioport_write(VTPCI_IO(hw), &tmp.u16, size,
+                               VIRTIO_PCI_CONFIG(dev) + offset);
                } else {
                        size = 1;
-                       rte_eal_pci_ioport_write(VTPCI_IO(hw), src, size,
-                               VIRTIO_PCI_CONFIG(hw) + offset);
+                       rte_pci_ioport_write(VTPCI_IO(hw), src, size,
+                               VIRTIO_PCI_CONFIG(dev) + offset);
                }
 
                src = (const char *)src + size;
@@ -149,8 +179,8 @@ legacy_write_dev_config(struct virtio_hw *hw, size_t offset,
                length -= size;
        }
 #else
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), src, length,
-                                VIRTIO_PCI_CONFIG(hw) + offset);
+       rte_pci_ioport_write(VTPCI_IO(hw), src, length,
+               VIRTIO_PCI_CONFIG(dev) + offset);
 #endif
 }
 
@@ -159,8 +189,7 @@ legacy_get_features(struct virtio_hw *hw)
 {
        uint32_t dst;
 
-       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 4,
-                               VIRTIO_PCI_HOST_FEATURES);
+       rte_pci_ioport_read(VTPCI_IO(hw), &dst, 4, VIRTIO_PCI_HOST_FEATURES);
        return dst;
 }
 
@@ -172,8 +201,14 @@ legacy_set_features(struct virtio_hw *hw, uint64_t features)
                        "only 32 bit features are allowed for legacy virtio!");
                return;
        }
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &features, 4,
-                                VIRTIO_PCI_GUEST_FEATURES);
+       rte_pci_ioport_write(VTPCI_IO(hw), &features, 4,
+               VIRTIO_PCI_GUEST_FEATURES);
+}
+
+static int
+legacy_features_ok(struct virtio_hw *hw __rte_unused)
+{
+       return 0;
 }
 
 static uint8_t
@@ -181,20 +216,14 @@ legacy_get_status(struct virtio_hw *hw)
 {
        uint8_t dst;
 
-       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 1, VIRTIO_PCI_STATUS);
+       rte_pci_ioport_read(VTPCI_IO(hw), &dst, 1, VIRTIO_PCI_STATUS);
        return dst;
 }
 
 static void
 legacy_set_status(struct virtio_hw *hw, uint8_t status)
 {
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &status, 1, VIRTIO_PCI_STATUS);
-}
-
-static void
-legacy_reset(struct virtio_hw *hw)
-{
-       legacy_set_status(hw, VIRTIO_CONFIG_STATUS_RESET);
+       rte_pci_ioport_write(VTPCI_IO(hw), &status, 1, VIRTIO_PCI_STATUS);
 }
 
 static uint8_t
@@ -202,20 +231,18 @@ legacy_get_isr(struct virtio_hw *hw)
 {
        uint8_t dst;
 
-       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 1, VIRTIO_PCI_ISR);
+       rte_pci_ioport_read(VTPCI_IO(hw), &dst, 1, VIRTIO_PCI_ISR);
        return dst;
 }
 
-/* Enable one vector (0) for Link State Intrerrupt */
+/* Enable one vector (0) for Link State Interrupt */
 static uint16_t
 legacy_set_config_irq(struct virtio_hw *hw, uint16_t vec)
 {
        uint16_t dst;
 
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vec, 2,
-                                VIRTIO_MSI_CONFIG_VECTOR);
-       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 2,
-                               VIRTIO_MSI_CONFIG_VECTOR);
+       rte_pci_ioport_write(VTPCI_IO(hw), &vec, 2, VIRTIO_MSI_CONFIG_VECTOR);
+       rte_pci_ioport_read(VTPCI_IO(hw), &dst, 2, VIRTIO_MSI_CONFIG_VECTOR);
        return dst;
 }
 
@@ -224,11 +251,10 @@ legacy_set_queue_irq(struct virtio_hw *hw, struct virtqueue *vq, uint16_t vec)
 {
        uint16_t dst;
 
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
-                                VIRTIO_PCI_QUEUE_SEL);
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vec, 2,
-                                VIRTIO_MSI_QUEUE_VECTOR);
-       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 2, VIRTIO_MSI_QUEUE_VECTOR);
+       rte_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
+               VIRTIO_PCI_QUEUE_SEL);
+       rte_pci_ioport_write(VTPCI_IO(hw), &vec, 2, VIRTIO_MSI_QUEUE_VECTOR);
+       rte_pci_ioport_read(VTPCI_IO(hw), &dst, 2, VIRTIO_MSI_QUEUE_VECTOR);
        return dst;
 }
 
@@ -237,9 +263,8 @@ legacy_get_queue_num(struct virtio_hw *hw, uint16_t queue_id)
 {
        uint16_t dst;
 
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &queue_id, 2,
-                                VIRTIO_PCI_QUEUE_SEL);
-       rte_eal_pci_ioport_read(VTPCI_IO(hw), &dst, 2, VIRTIO_PCI_QUEUE_NUM);
+       rte_pci_ioport_write(VTPCI_IO(hw), &queue_id, 2, VIRTIO_PCI_QUEUE_SEL);
+       rte_pci_ioport_read(VTPCI_IO(hw), &dst, 2, VIRTIO_PCI_QUEUE_NUM);
        return dst;
 }
 
@@ -251,10 +276,10 @@ legacy_setup_queue(struct virtio_hw *hw, struct virtqueue *vq)
        if (!check_vq_phys_addr_ok(vq))
                return -1;
 
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
-                        VIRTIO_PCI_QUEUE_SEL);
+       rte_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
+               VIRTIO_PCI_QUEUE_SEL);
        src = vq->vq_ring_mem >> VIRTIO_PCI_QUEUE_ADDR_SHIFT;
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &src, 4, VIRTIO_PCI_QUEUE_PFN);
+       rte_pci_ioport_write(VTPCI_IO(hw), &src, 4, VIRTIO_PCI_QUEUE_PFN);
 
        return 0;
 }
@@ -264,67 +289,44 @@ legacy_del_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
        uint32_t src = 0;
 
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
-                        VIRTIO_PCI_QUEUE_SEL);
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &src, 4, VIRTIO_PCI_QUEUE_PFN);
+       rte_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
+               VIRTIO_PCI_QUEUE_SEL);
+       rte_pci_ioport_write(VTPCI_IO(hw), &src, 4, VIRTIO_PCI_QUEUE_PFN);
 }
 
 static void
 legacy_notify_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
-       rte_eal_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
-                        VIRTIO_PCI_QUEUE_NOTIFY);
+       rte_pci_ioport_write(VTPCI_IO(hw), &vq->vq_queue_index, 2,
+               VIRTIO_PCI_QUEUE_NOTIFY);
 }
 
-#ifdef RTE_EXEC_ENV_LINUXAPP
-static int
-legacy_virtio_has_msix(const struct rte_pci_addr *loc)
+static void
+legacy_intr_detect(struct virtio_hw *hw)
 {
-       DIR *d;
-       char dirname[PATH_MAX];
-
-       snprintf(dirname, sizeof(dirname),
-                    "%s/" PCI_PRI_FMT "/msi_irqs", pci_get_sysfs_path(),
-                    loc->domain, loc->bus, loc->devid, loc->function);
-
-       d = opendir(dirname);
-       if (d)
-               closedir(d);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
 
-       return d != NULL;
+       dev->msix_status = vtpci_msix_detect(VTPCI_DEV(hw));
+       hw->intr_lsc = !!dev->msix_status;
 }
-#else
-static int
-legacy_virtio_has_msix(const struct rte_pci_addr *loc __rte_unused)
-{
-       /* nic_uio does not enable interrupts, return 0 (false). */
-       return 0;
-}
-#endif
 
 static int
-legacy_virtio_resource_init(struct rte_pci_device *pci_dev,
-                           struct virtio_hw *hw, uint32_t *dev_flags)
+legacy_dev_close(struct virtio_hw *hw)
 {
-       if (rte_eal_pci_ioport_map(pci_dev, 0, VTPCI_IO(hw)) < 0)
-               return -1;
-
-       if (pci_dev->intr_handle.type != RTE_INTR_HANDLE_UNKNOWN)
-               *dev_flags |= RTE_ETH_DEV_INTR_LSC;
-       else
-               *dev_flags &= ~RTE_ETH_DEV_INTR_LSC;
+       rte_pci_unmap_device(VTPCI_DEV(hw));
+       rte_pci_ioport_unmap(VTPCI_IO(hw));
 
        return 0;
 }
 
-const struct virtio_pci_ops legacy_ops = {
+const struct virtio_ops legacy_ops = {
        .read_dev_cfg   = legacy_read_dev_config,
        .write_dev_cfg  = legacy_write_dev_config,
-       .reset          = legacy_reset,
        .get_status     = legacy_get_status,
        .set_status     = legacy_set_status,
        .get_features   = legacy_get_features,
        .set_features   = legacy_set_features,
+       .features_ok    = legacy_features_ok,
        .get_isr        = legacy_get_isr,
        .set_config_irq = legacy_set_config_irq,
        .set_queue_irq  = legacy_set_queue_irq,
@@ -332,68 +334,34 @@ const struct virtio_pci_ops legacy_ops = {
        .setup_queue    = legacy_setup_queue,
        .del_queue      = legacy_del_queue,
        .notify_queue   = legacy_notify_queue,
+       .intr_detect    = legacy_intr_detect,
+       .dev_close      = legacy_dev_close,
 };
 
-
-static inline uint8_t
-io_read8(uint8_t *addr)
-{
-       return *(volatile uint8_t *)addr;
-}
-
-static inline void
-io_write8(uint8_t val, uint8_t *addr)
-{
-       *(volatile uint8_t *)addr = val;
-}
-
-static inline uint16_t
-io_read16(uint16_t *addr)
-{
-       return *(volatile uint16_t *)addr;
-}
-
-static inline void
-io_write16(uint16_t val, uint16_t *addr)
-{
-       *(volatile uint16_t *)addr = val;
-}
-
-static inline uint32_t
-io_read32(uint32_t *addr)
-{
-       return *(volatile uint32_t *)addr;
-}
-
-static inline void
-io_write32(uint32_t val, uint32_t *addr)
-{
-       *(volatile uint32_t *)addr = val;
-}
-
 static inline void
 io_write64_twopart(uint64_t val, uint32_t *lo, uint32_t *hi)
 {
-       io_write32(val & ((1ULL << 32) - 1), lo);
-       io_write32(val >> 32,                hi);
+       rte_write32(val & ((1ULL << 32) - 1), lo);
+       rte_write32(val >> 32,               hi);
 }
 
 static void
 modern_read_dev_config(struct virtio_hw *hw, size_t offset,
                       void *dst, int length)
 {
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
        int i;
        uint8_t *p;
        uint8_t old_gen, new_gen;
 
        do {
-               old_gen = io_read8(&hw->common_cfg->config_generation);
+               old_gen = rte_read8(&dev->common_cfg->config_generation);
 
                p = dst;
                for (i = 0;  i < length; i++)
-                       *p++ = io_read8((uint8_t *)hw->dev_cfg + offset + i);
+                       *p++ = rte_read8((uint8_t *)dev->dev_cfg + offset + i);
 
-               new_gen = io_read8(&hw->common_cfg->config_generation);
+               new_gen = rte_read8(&dev->common_cfg->config_generation);
        } while (old_gen != new_gen);
 }
 
@@ -401,23 +369,25 @@ static void
 modern_write_dev_config(struct virtio_hw *hw, size_t offset,
                        const void *src, int length)
 {
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
        int i;
        const uint8_t *p = src;
 
        for (i = 0;  i < length; i++)
-               io_write8(*p++, (uint8_t *)hw->dev_cfg + offset + i);
+               rte_write8((*p++), (((uint8_t *)dev->dev_cfg) + offset + i));
 }
 
 static uint64_t
 modern_get_features(struct virtio_hw *hw)
 {
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
        uint32_t features_lo, features_hi;
 
-       io_write32(0, &hw->common_cfg->device_feature_select);
-       features_lo = io_read32(&hw->common_cfg->device_feature);
+       rte_write32(0, &dev->common_cfg->device_feature_select);
+       features_lo = rte_read32(&dev->common_cfg->device_feature);
 
-       io_write32(1, &hw->common_cfg->device_feature_select);
-       features_hi = io_read32(&hw->common_cfg->device_feature);
+       rte_write32(1, &dev->common_cfg->device_feature_select);
+       features_hi = rte_read32(&dev->common_cfg->device_feature);
 
        return ((uint64_t)features_hi << 32) | features_lo;
 }
@@ -425,65 +395,84 @@ modern_get_features(struct virtio_hw *hw)
 static void
 modern_set_features(struct virtio_hw *hw, uint64_t features)
 {
-       io_write32(0, &hw->common_cfg->guest_feature_select);
-       io_write32(features & ((1ULL << 32) - 1),
-               &hw->common_cfg->guest_feature);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       rte_write32(0, &dev->common_cfg->guest_feature_select);
+       rte_write32(features & ((1ULL << 32) - 1),
+                   &dev->common_cfg->guest_feature);
 
-       io_write32(1, &hw->common_cfg->guest_feature_select);
-       io_write32(features >> 32,
-               &hw->common_cfg->guest_feature);
+       rte_write32(1, &dev->common_cfg->guest_feature_select);
+       rte_write32(features >> 32,
+                   &dev->common_cfg->guest_feature);
+}
+
+static int
+modern_features_ok(struct virtio_hw *hw)
+{
+       if (!virtio_with_feature(hw, VIRTIO_F_VERSION_1)) {
+               PMD_INIT_LOG(ERR, "Version 1+ required with modern devices");
+               return -1;
+       }
+
+       return 0;
 }
 
 static uint8_t
 modern_get_status(struct virtio_hw *hw)
 {
-       return io_read8(&hw->common_cfg->device_status);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       return rte_read8(&dev->common_cfg->device_status);
 }
 
 static void
 modern_set_status(struct virtio_hw *hw, uint8_t status)
 {
-       io_write8(status, &hw->common_cfg->device_status);
-}
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
 
-static void
-modern_reset(struct virtio_hw *hw)
-{
-       modern_set_status(hw, VIRTIO_CONFIG_STATUS_RESET);
-       modern_get_status(hw);
+       rte_write8(status, &dev->common_cfg->device_status);
 }
 
 static uint8_t
 modern_get_isr(struct virtio_hw *hw)
 {
-       return io_read8(hw->isr);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       return rte_read8(dev->isr);
 }
 
 static uint16_t
 modern_set_config_irq(struct virtio_hw *hw, uint16_t vec)
 {
-       io_write16(vec, &hw->common_cfg->msix_config);
-       return io_read16(&hw->common_cfg->msix_config);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       rte_write16(vec, &dev->common_cfg->msix_config);
+       return rte_read16(&dev->common_cfg->msix_config);
 }
 
 static uint16_t
 modern_set_queue_irq(struct virtio_hw *hw, struct virtqueue *vq, uint16_t vec)
 {
-       io_write16(vq->vq_queue_index, &hw->common_cfg->queue_select);
-       io_write16(vec, &hw->common_cfg->queue_msix_vector);
-       return io_read16(&hw->common_cfg->queue_msix_vector);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       rte_write16(vq->vq_queue_index, &dev->common_cfg->queue_select);
+       rte_write16(vec, &dev->common_cfg->queue_msix_vector);
+       return rte_read16(&dev->common_cfg->queue_msix_vector);
 }
 
 static uint16_t
 modern_get_queue_num(struct virtio_hw *hw, uint16_t queue_id)
 {
-       io_write16(queue_id, &hw->common_cfg->queue_select);
-       return io_read16(&hw->common_cfg->queue_size);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       rte_write16(queue_id, &dev->common_cfg->queue_select);
+       return rte_read16(&dev->common_cfg->queue_size);
 }
 
 static int
 modern_setup_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
        uint64_t desc_addr, avail_addr, used_addr;
        uint16_t notify_off;
 
@@ -494,22 +483,22 @@ modern_setup_queue(struct virtio_hw *hw, struct virtqueue *vq)
        avail_addr = desc_addr + vq->vq_nentries * sizeof(struct vring_desc);
        used_addr = RTE_ALIGN_CEIL(avail_addr + offsetof(struct vring_avail,
                                                         ring[vq->vq_nentries]),
-                                  VIRTIO_PCI_VRING_ALIGN);
+                                  VIRTIO_VRING_ALIGN);
 
-       io_write16(vq->vq_queue_index, &hw->common_cfg->queue_select);
+       rte_write16(vq->vq_queue_index, &dev->common_cfg->queue_select);
 
-       io_write64_twopart(desc_addr, &hw->common_cfg->queue_desc_lo,
-                                     &hw->common_cfg->queue_desc_hi);
-       io_write64_twopart(avail_addr, &hw->common_cfg->queue_avail_lo,
-                                      &hw->common_cfg->queue_avail_hi);
-       io_write64_twopart(used_addr, &hw->common_cfg->queue_used_lo,
-                                     &hw->common_cfg->queue_used_hi);
+       io_write64_twopart(desc_addr, &dev->common_cfg->queue_desc_lo,
+                                     &dev->common_cfg->queue_desc_hi);
+       io_write64_twopart(avail_addr, &dev->common_cfg->queue_avail_lo,
+                                      &dev->common_cfg->queue_avail_hi);
+       io_write64_twopart(used_addr, &dev->common_cfg->queue_used_lo,
+                                     &dev->common_cfg->queue_used_hi);
 
-       notify_off = io_read16(&hw->common_cfg->queue_notify_off);
-       vq->notify_addr = (void *)((uint8_t *)hw->notify_base +
-                               notify_off * hw->notify_off_multiplier);
+       notify_off = rte_read16(&dev->common_cfg->queue_notify_off);
+       vq->notify_addr = (void *)((uint8_t *)dev->notify_base +
+                               notify_off * dev->notify_off_multiplier);
 
-       io_write16(1, &hw->common_cfg->queue_enable);
+       rte_write16(1, &dev->common_cfg->queue_enable);
 
        PMD_INIT_LOG(DEBUG, "queue %u addresses:", vq->vq_queue_index);
        PMD_INIT_LOG(DEBUG, "\t desc_addr: %" PRIx64, desc_addr);
@@ -524,32 +513,78 @@ modern_setup_queue(struct virtio_hw *hw, struct virtqueue *vq)
 static void
 modern_del_queue(struct virtio_hw *hw, struct virtqueue *vq)
 {
-       io_write16(vq->vq_queue_index, &hw->common_cfg->queue_select);
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       rte_write16(vq->vq_queue_index, &dev->common_cfg->queue_select);
 
-       io_write64_twopart(0, &hw->common_cfg->queue_desc_lo,
-                                 &hw->common_cfg->queue_desc_hi);
-       io_write64_twopart(0, &hw->common_cfg->queue_avail_lo,
-                                 &hw->common_cfg->queue_avail_hi);
-       io_write64_twopart(0, &hw->common_cfg->queue_used_lo,
-                                 &hw->common_cfg->queue_used_hi);
+       io_write64_twopart(0, &dev->common_cfg->queue_desc_lo,
+                                 &dev->common_cfg->queue_desc_hi);
+       io_write64_twopart(0, &dev->common_cfg->queue_avail_lo,
+                                 &dev->common_cfg->queue_avail_hi);
+       io_write64_twopart(0, &dev->common_cfg->queue_used_lo,
+                                 &dev->common_cfg->queue_used_hi);
 
-       io_write16(0, &hw->common_cfg->queue_enable);
+       rte_write16(0, &dev->common_cfg->queue_enable);
+}
+
+static void
+modern_notify_queue(struct virtio_hw *hw, struct virtqueue *vq)
+{
+       uint32_t notify_data;
+
+       if (!virtio_with_feature(hw, VIRTIO_F_NOTIFICATION_DATA)) {
+               rte_write16(vq->vq_queue_index, vq->notify_addr);
+               return;
+       }
+
+       if (virtio_with_packed_queue(hw)) {
+               /*
+                * Bit[0:15]: vq queue index
+                * Bit[16:30]: avail index
+                * Bit[31]: avail wrap counter
+                */
+               notify_data = ((uint32_t)(!!(vq->vq_packed.cached_flags &
+                               VRING_PACKED_DESC_F_AVAIL)) << 31) |
+                               ((uint32_t)vq->vq_avail_idx << 16) |
+                               vq->vq_queue_index;
+       } else {
+               /*
+                * Bit[0:15]: vq queue index
+                * Bit[16:31]: avail index
+                */
+               notify_data = ((uint32_t)vq->vq_avail_idx << 16) |
+                               vq->vq_queue_index;
+       }
+       rte_write32(notify_data, vq->notify_addr);
 }
 
+
+
 static void
-modern_notify_queue(struct virtio_hw *hw __rte_unused, struct virtqueue *vq)
+modern_intr_detect(struct virtio_hw *hw)
+{
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
+
+       dev->msix_status = vtpci_msix_detect(VTPCI_DEV(hw));
+       hw->intr_lsc = !!dev->msix_status;
+}
+
+static int
+modern_dev_close(struct virtio_hw *hw)
 {
-       io_write16(1, vq->notify_addr);
+       rte_pci_unmap_device(VTPCI_DEV(hw));
+
+       return 0;
 }
 
-const struct virtio_pci_ops modern_ops = {
+const struct virtio_ops modern_ops = {
        .read_dev_cfg   = modern_read_dev_config,
        .write_dev_cfg  = modern_write_dev_config,
-       .reset          = modern_reset,
        .get_status     = modern_get_status,
        .set_status     = modern_set_status,
        .get_features   = modern_get_features,
        .set_features   = modern_set_features,
+       .features_ok    = modern_features_ok,
        .get_isr        = modern_get_isr,
        .set_config_irq = modern_set_config_irq,
        .set_queue_irq  = modern_set_queue_irq,
@@ -557,73 +592,10 @@ const struct virtio_pci_ops modern_ops = {
        .setup_queue    = modern_setup_queue,
        .del_queue      = modern_del_queue,
        .notify_queue   = modern_notify_queue,
+       .intr_detect    = modern_intr_detect,
+       .dev_close      = modern_dev_close,
 };
 
-
-void
-vtpci_read_dev_config(struct virtio_hw *hw, size_t offset,
-                     void *dst, int length)
-{
-       VTPCI_OPS(hw)->read_dev_cfg(hw, offset, dst, length);
-}
-
-void
-vtpci_write_dev_config(struct virtio_hw *hw, size_t offset,
-                      const void *src, int length)
-{
-       VTPCI_OPS(hw)->write_dev_cfg(hw, offset, src, length);
-}
-
-uint64_t
-vtpci_negotiate_features(struct virtio_hw *hw, uint64_t host_features)
-{
-       uint64_t features;
-
-       /*
-        * Limit negotiated features to what the driver, virtqueue, and
-        * host all support.
-        */
-       features = host_features & hw->guest_features;
-       VTPCI_OPS(hw)->set_features(hw, features);
-
-       return features;
-}
-
-void
-vtpci_reset(struct virtio_hw *hw)
-{
-       VTPCI_OPS(hw)->set_status(hw, VIRTIO_CONFIG_STATUS_RESET);
-       /* flush status write */
-       VTPCI_OPS(hw)->get_status(hw);
-}
-
-void
-vtpci_reinit_complete(struct virtio_hw *hw)
-{
-       vtpci_set_status(hw, VIRTIO_CONFIG_STATUS_DRIVER_OK);
-}
-
-void
-vtpci_set_status(struct virtio_hw *hw, uint8_t status)
-{
-       if (status != VIRTIO_CONFIG_STATUS_RESET)
-               status |= VTPCI_OPS(hw)->get_status(hw);
-
-       VTPCI_OPS(hw)->set_status(hw, status);
-}
-
-uint8_t
-vtpci_get_status(struct virtio_hw *hw)
-{
-       return VTPCI_OPS(hw)->get_status(hw);
-}
-
-uint8_t
-vtpci_isr(struct virtio_hw *hw)
-{
-       return VTPCI_OPS(hw)->get_isr(hw);
-}
-
 static void *
 get_cfg_addr(struct rte_pci_device *dev, struct virtio_pci_cap *cap)
 {
@@ -632,7 +604,7 @@ get_cfg_addr(struct rte_pci_device *dev, struct virtio_pci_cap *cap)
        uint32_t offset = cap->offset;
        uint8_t *base;
 
-       if (bar > 5) {
+       if (bar >= PCI_MAX_RESOURCE) {
                PMD_INIT_LOG(ERR, "invalid bar: %u", bar);
                return NULL;
        }
@@ -660,31 +632,57 @@ get_cfg_addr(struct rte_pci_device *dev, struct virtio_pci_cap *cap)
 }
 
 static int
-virtio_read_caps(struct rte_pci_device *dev, struct virtio_hw *hw)
+virtio_read_caps(struct rte_pci_device *pci_dev, struct virtio_hw *hw)
 {
+       struct virtio_pci_dev *dev = virtio_pci_get_dev(hw);
        uint8_t pos;
        struct virtio_pci_cap cap;
        int ret;
 
-       if (rte_eal_pci_map_device(dev)) {
+       if (rte_pci_map_device(pci_dev)) {
                PMD_INIT_LOG(DEBUG, "failed to map pci device!");
                return -1;
        }
 
-       ret = rte_eal_pci_read_config(dev, &pos, 1, PCI_CAPABILITY_LIST);
-       if (ret < 0) {
-               PMD_INIT_LOG(DEBUG, "failed to read pci capability list");
+       ret = rte_pci_read_config(pci_dev, &pos, 1, PCI_CAPABILITY_LIST);
+       if (ret != 1) {
+               PMD_INIT_LOG(DEBUG,
+                            "failed to read pci capability list, ret %d", ret);
                return -1;
        }
 
        while (pos) {
-               ret = rte_eal_pci_read_config(dev, &cap, sizeof(cap), pos);
-               if (ret < 0) {
-                       PMD_INIT_LOG(ERR,
-                               "failed to read pci cap at pos: %x", pos);
+               ret = rte_pci_read_config(pci_dev, &cap, 2, pos);
+               if (ret != 2) {
+                       PMD_INIT_LOG(DEBUG,
+                                    "failed to read pci cap at pos: %x ret %d",
+                                    pos, ret);
                        break;
                }
 
+               if (cap.cap_vndr == PCI_CAP_ID_MSIX) {
+                       /* Transitional devices would also have this capability,
+                        * that's why we also check if msix is enabled.
+                        * 1st byte is cap ID; 2nd byte is the position of next
+                        * cap; next two bytes are the flags.
+                        */
+                       uint16_t flags;
+
+                       ret = rte_pci_read_config(pci_dev, &flags, sizeof(flags),
+                                       pos + 2);
+                       if (ret != sizeof(flags)) {
+                               PMD_INIT_LOG(DEBUG,
+                                            "failed to read pci cap at pos:"
+                                            " %x ret %d", pos + 2, ret);
+                               break;
+                       }
+
+                       if (flags & PCI_MSIX_ENABLE)
+                               dev->msix_status = VIRTIO_MSIX_ENABLED;
+                       else
+                               dev->msix_status = VIRTIO_MSIX_DISABLED;
+               }
+
                if (cap.cap_vndr != PCI_CAP_ID_VNDR) {
                        PMD_INIT_LOG(DEBUG,
                                "[%2x] skipping non VNDR cap id: %02x",
@@ -692,24 +690,38 @@ virtio_read_caps(struct rte_pci_device *dev, struct virtio_hw *hw)
                        goto next;
                }
 
+               ret = rte_pci_read_config(pci_dev, &cap, sizeof(cap), pos);
+               if (ret != sizeof(cap)) {
+                       PMD_INIT_LOG(DEBUG,
+                                    "failed to read pci cap at pos: %x ret %d",
+                                    pos, ret);
+                       break;
+               }
+
                PMD_INIT_LOG(DEBUG,
                        "[%2x] cfg type: %u, bar: %u, offset: %04x, len: %u",
                        pos, cap.cfg_type, cap.bar, cap.offset, cap.length);
 
                switch (cap.cfg_type) {
                case VIRTIO_PCI_CAP_COMMON_CFG:
-                       hw->common_cfg = get_cfg_addr(dev, &cap);
+                       dev->common_cfg = get_cfg_addr(pci_dev, &cap);
                        break;
                case VIRTIO_PCI_CAP_NOTIFY_CFG:
-                       rte_eal_pci_read_config(dev, &hw->notify_off_multiplier,
-                                               4, pos + sizeof(cap));
-                       hw->notify_base = get_cfg_addr(dev, &cap);
+                       ret = rte_pci_read_config(pci_dev,
+                                       &dev->notify_off_multiplier,
+                                       4, pos + sizeof(cap));
+                       if (ret != 4)
+                               PMD_INIT_LOG(DEBUG,
+                                       "failed to read notify_off_multiplier, ret %d",
+                                       ret);
+                       else
+                               dev->notify_base = get_cfg_addr(pci_dev, &cap);
                        break;
                case VIRTIO_PCI_CAP_DEVICE_CFG:
-                       hw->dev_cfg = get_cfg_addr(dev, &cap);
+                       dev->dev_cfg = get_cfg_addr(pci_dev, &cap);
                        break;
                case VIRTIO_PCI_CAP_ISR_CFG:
-                       hw->isr = get_cfg_addr(dev, &cap);
+                       dev->isr = get_cfg_addr(pci_dev, &cap);
                        break;
                }
 
@@ -717,19 +729,19 @@ next:
                pos = cap.cap_next;
        }
 
-       if (hw->common_cfg == NULL || hw->notify_base == NULL ||
-           hw->dev_cfg == NULL    || hw->isr == NULL) {
+       if (dev->common_cfg == NULL || dev->notify_base == NULL ||
+           dev->dev_cfg == NULL    || dev->isr == NULL) {
                PMD_INIT_LOG(INFO, "no modern virtio pci device found.");
                return -1;
        }
 
        PMD_INIT_LOG(INFO, "found modern virtio pci device.");
 
-       PMD_INIT_LOG(DEBUG, "common cfg mapped at: %p", hw->common_cfg);
-       PMD_INIT_LOG(DEBUG, "device cfg mapped at: %p", hw->dev_cfg);
-       PMD_INIT_LOG(DEBUG, "isr cfg mapped at: %p", hw->isr);
+       PMD_INIT_LOG(DEBUG, "common cfg mapped at: %p", dev->common_cfg);
+       PMD_INIT_LOG(DEBUG, "device cfg mapped at: %p", dev->dev_cfg);
+       PMD_INIT_LOG(DEBUG, "isr cfg mapped at: %p", dev->isr);
        PMD_INIT_LOG(DEBUG, "notify base: %p, notify off multiplier: %u",
-               hw->notify_base, hw->notify_off_multiplier);
+               dev->notify_base, dev->notify_off_multiplier);
 
        return 0;
 }
@@ -738,33 +750,36 @@ next:
  * Return -1:
  *   if there is error mapping with VFIO/UIO.
  *   if port map error when driver type is KDRV_NONE.
- *   if whitelisted but driver type is KDRV_UNKNOWN.
+ *   if marked as allowed but driver type is KDRV_UNKNOWN.
  * Return 1 if kernel driver is managing the device.
  * Return 0 on success.
  */
 int
-vtpci_init(struct rte_pci_device *dev, struct virtio_hw *hw,
-          uint32_t *dev_flags)
+vtpci_init(struct rte_pci_device *pci_dev, struct virtio_pci_dev *dev)
 {
+       struct virtio_hw *hw = &dev->hw;
+
+       RTE_BUILD_BUG_ON(offsetof(struct virtio_pci_dev, hw) != 0);
+
        /*
         * Try if we can succeed reading virtio pci caps, which exists
         * only on modern pci device. If failed, we fallback to legacy
         * virtio handling.
         */
-       if (virtio_read_caps(dev, hw) == 0) {
+       if (virtio_read_caps(pci_dev, hw) == 0) {
                PMD_INIT_LOG(INFO, "modern virtio pci detected.");
-               virtio_hw_internal[hw->port_id].vtpci_ops = &modern_ops;
-               hw->modern = 1;
-               *dev_flags |= RTE_ETH_DEV_INTR_LSC;
-               return 0;
+               VIRTIO_OPS(hw) = &modern_ops;
+               dev->modern = true;
+               goto msix_detect;
        }
 
        PMD_INIT_LOG(INFO, "trying with legacy virtio pci.");
-       if (legacy_virtio_resource_init(dev, hw, dev_flags) < 0) {
-               if (dev->kdrv == RTE_KDRV_UNKNOWN &&
-                   (!dev->device.devargs ||
-                    dev->device.devargs->type !=
-                       RTE_DEVTYPE_WHITELISTED_PCI)) {
+       if (rte_pci_ioport_map(pci_dev, 0, VTPCI_IO(hw)) < 0) {
+               rte_pci_unmap_device(pci_dev);
+               if (pci_dev->kdrv == RTE_PCI_KDRV_UNKNOWN &&
+                   (!pci_dev->device.devargs ||
+                    pci_dev->device.devargs->bus !=
+                    rte_bus_find_by_name("pci"))) {
                        PMD_INIT_LOG(INFO,
                                "skip kernel managed virtio device.");
                        return 1;
@@ -772,9 +787,21 @@ vtpci_init(struct rte_pci_device *dev, struct virtio_hw *hw,
                return -1;
        }
 
-       virtio_hw_internal[hw->port_id].vtpci_ops = &legacy_ops;
-       hw->use_msix = legacy_virtio_has_msix(&dev->addr);
-       hw->modern   = 0;
+       VIRTIO_OPS(hw) = &legacy_ops;
+       dev->modern = false;
+
+msix_detect:
+       VIRTIO_OPS(hw)->intr_detect(hw);
 
        return 0;
 }
+
+void vtpci_legacy_ioport_unmap(struct virtio_hw *hw)
+{
+       rte_pci_ioport_unmap(VTPCI_IO(hw));
+}
+
+int vtpci_legacy_ioport_map(struct virtio_hw *hw)
+{
+       return rte_pci_ioport_map(VTPCI_DEV(hw), 0, VTPCI_IO(hw));
+}