net/sfc: implement port representor link update
[dpdk.git] / drivers / net / virtio / virtio_rxtx_packed.h
index b0b1d63..77e5cb3 100644 (file)
 
 #include "virtio_logs.h"
 #include "virtio_ethdev.h"
-#include "virtio_pci.h"
+#include "virtio.h"
 #include "virtqueue.h"
 
 #define BYTE_SIZE 8
+
+#ifdef CC_AVX512_SUPPORT
 /* flag bits offset in packed ring desc higher 64bits */
 #define FLAGS_BITS_OFFSET ((offsetof(struct vring_packed_desc, flags) - \
        offsetof(struct vring_packed_desc, len)) * BYTE_SIZE)
+#elif defined(RTE_ARCH_ARM)
+/* flag bits offset in packed ring desc from ID */
+#define FLAGS_BITS_OFFSET ((offsetof(struct vring_packed_desc, flags) - \
+       offsetof(struct vring_packed_desc, id)) * BYTE_SIZE)
+#define FLAGS_LEN_BITS_OFFSET ((offsetof(struct vring_packed_desc, flags) - \
+       offsetof(struct vring_packed_desc, len)) * BYTE_SIZE)
+#endif
 
 #define PACKED_FLAGS_MASK ((0ULL | VRING_PACKED_DESC_F_AVAIL_USED) << \
        FLAGS_BITS_OFFSET)
 /* reference count offset in mbuf rearm data */
 #define REFCNT_BITS_OFFSET ((offsetof(struct rte_mbuf, refcnt) - \
        offsetof(struct rte_mbuf, rearm_data)) * BYTE_SIZE)
+
+#ifdef CC_AVX512_SUPPORT
 /* segment number offset in mbuf rearm data */
 #define SEG_NUM_BITS_OFFSET ((offsetof(struct rte_mbuf, nb_segs) - \
        offsetof(struct rte_mbuf, rearm_data)) * BYTE_SIZE)
-
 /* default rearm data */
 #define DEFAULT_REARM_DATA (1ULL << SEG_NUM_BITS_OFFSET | \
        1ULL << REFCNT_BITS_OFFSET)
+#endif
 
 /* id bits offset in packed ring desc higher 64bits */
 #define ID_BITS_OFFSET ((offsetof(struct vring_packed_desc, id) - \
 /* net hdr short size mask */
 #define NET_HDR_MASK 0x3F
 
+#ifdef RTE_ARCH_ARM
+/* The cache line size on different Arm platforms are different, so
+ * put a four batch size here to match with the minimum cache line
+ * size and accommodate NEON register size.
+ */
+#define PACKED_BATCH_SIZE 4
+#else
 #define PACKED_BATCH_SIZE (RTE_CACHE_LINE_SIZE / \
        sizeof(struct vring_packed_desc))
+#endif
 #define PACKED_BATCH_MASK (PACKED_BATCH_SIZE - 1)
 
 #ifdef VIRTIO_GCC_UNROLL_PRAGMA
@@ -85,19 +104,19 @@ static inline int
 virtqueue_enqueue_single_packed_vec(struct virtnet_tx *txvq,
                                    struct rte_mbuf *txm)
 {
-       struct virtqueue *vq = txvq->vq;
+       struct virtqueue *vq = virtnet_txq_to_vq(txvq);
        struct virtio_hw *hw = vq->hw;
        uint16_t hdr_size = hw->vtnet_hdr_size;
        uint16_t slots, can_push = 0, use_indirect = 0;
        int16_t need;
 
        /* optimize ring usage */
-       if ((vtpci_with_feature(hw, VIRTIO_F_ANY_LAYOUT) ||
-            vtpci_with_feature(hw, VIRTIO_F_VERSION_1)) &&
+       if ((virtio_with_feature(hw, VIRTIO_F_ANY_LAYOUT) ||
+            virtio_with_feature(hw, VIRTIO_F_VERSION_1)) &&
             rte_mbuf_refcnt_read(txm) == 1 && RTE_MBUF_DIRECT(txm) &&
             txm->nb_segs == 1 && rte_pktmbuf_headroom(txm) >= hdr_size)
                can_push = 1;
-       else if (vtpci_with_feature(hw, VIRTIO_RING_F_INDIRECT_DESC) &&
+       else if (virtio_with_feature(hw, VIRTIO_RING_F_INDIRECT_DESC) &&
                 txm->nb_segs < VIRTIO_MAX_TX_INDIRECT)
                use_indirect = 1;
 
@@ -193,7 +212,7 @@ virtqueue_dequeue_single_packed_vec(struct virtnet_rx *rxvq,
 {
        uint16_t used_idx, id;
        uint32_t len;
-       struct virtqueue *vq = rxvq->vq;
+       struct virtqueue *vq = virtnet_rxq_to_vq(rxvq);
        struct virtio_hw *hw = vq->hw;
        uint32_t hdr_size = hw->vtnet_hdr_size;
        struct virtio_net_hdr *hdr;
@@ -245,7 +264,7 @@ virtio_recv_refill_packed_vec(struct virtnet_rx *rxvq,
                              struct rte_mbuf **cookie,
                              uint16_t num)
 {
-       struct virtqueue *vq = rxvq->vq;
+       struct virtqueue *vq = virtnet_rxq_to_vq(rxvq);
        struct vring_packed_desc *start_dp = vq->vq_packed.ring.desc;
        uint16_t flags = vq->vq_packed.cached_flags;
        struct virtio_hw *hw = vq->hw;