mbuf: add new Rx flags for stripped VLAN
[dpdk.git] / drivers / net / ixgbe / ixgbe_rxtx_vec.c
index 6979b1e..12190d2 100644 (file)
@@ -140,10 +140,9 @@ ixgbe_rxq_rearm(struct ixgbe_rx_queue *rxq)
  */
 #ifdef RTE_IXGBE_RX_OLFLAGS_ENABLE
 
-#define VTAG_SHIFT     (3)
-
 static inline void
-desc_to_olflags_v(__m128i descs[4], struct rte_mbuf **rx_pkts)
+desc_to_olflags_v(__m128i descs[4], uint8_t vlan_flags,
+       struct rte_mbuf **rx_pkts)
 {
        __m128i ptype0, ptype1, vtag0, vtag1;
        union {
@@ -151,11 +150,6 @@ desc_to_olflags_v(__m128i descs[4], struct rte_mbuf **rx_pkts)
                uint64_t dword;
        } vol;
 
-       /* pkt type + vlan olflags mask */
-       const __m128i pkttype_msk = _mm_set_epi16(
-                       0x0000, 0x0000, 0x0000, 0x0000,
-                       PKT_RX_VLAN_PKT, PKT_RX_VLAN_PKT, PKT_RX_VLAN_PKT, PKT_RX_VLAN_PKT);
-
        /* mask everything except rss type */
        const __m128i rsstype_msk = _mm_set_epi16(
                        0x0000, 0x0000, 0x0000, 0x0000,
@@ -167,6 +161,19 @@ desc_to_olflags_v(__m128i descs[4], struct rte_mbuf **rx_pkts)
                        PKT_RX_RSS_HASH, 0, PKT_RX_RSS_HASH, 0,
                        PKT_RX_RSS_HASH, PKT_RX_RSS_HASH, PKT_RX_RSS_HASH, 0);
 
+       /* mask everything except vlan present bit */
+       const __m128i vlan_msk = _mm_set_epi16(
+                       0x0000, 0x0000,
+                       0x0000, 0x0000,
+                       IXGBE_RXD_STAT_VP, IXGBE_RXD_STAT_VP,
+                       IXGBE_RXD_STAT_VP, IXGBE_RXD_STAT_VP);
+       /* map vlan present (0x8) to ol_flags */
+       const __m128i vlan_map = _mm_set_epi8(
+               0, 0, 0, 0,
+               0, 0, 0, vlan_flags,
+               0, 0, 0, 0,
+               0, 0, 0, 0);
+
        ptype0 = _mm_unpacklo_epi16(descs[0], descs[1]);
        ptype1 = _mm_unpacklo_epi16(descs[2], descs[3]);
        vtag0 = _mm_unpackhi_epi16(descs[0], descs[1]);
@@ -177,8 +184,8 @@ desc_to_olflags_v(__m128i descs[4], struct rte_mbuf **rx_pkts)
        ptype0 = _mm_shuffle_epi8(rss_flags, ptype0);
 
        vtag1 = _mm_unpacklo_epi32(vtag0, vtag1);
-       vtag1 = _mm_srli_epi16(vtag1, VTAG_SHIFT);
-       vtag1 = _mm_and_si128(vtag1, pkttype_msk);
+       vtag1 = _mm_and_si128(vtag1, vlan_msk);
+       vtag1 = _mm_shuffle_epi8(vlan_map, vtag1);
 
        vtag1 = _mm_or_si128(ptype0, vtag1);
        vol.dword = _mm_cvtsi128_si64(vtag1);
@@ -193,13 +200,13 @@ desc_to_olflags_v(__m128i descs[4], struct rte_mbuf **rx_pkts)
 #endif
 
 /*
- * vPMD receive routine, now only accept (nb_pkts == RTE_IXGBE_VPMD_RX_BURST)
- * in one loop
+ * vPMD raw receive routine, only accept(nb_pkts >= RTE_IXGBE_DESCS_PER_LOOP)
  *
  * Notice:
- * - nb_pkts < RTE_IXGBE_VPMD_RX_BURST, just return no packet
- * - nb_pkts > RTE_IXGBE_VPMD_RX_BURST, only scan RTE_IXGBE_VPMD_RX_BURST
+ * - nb_pkts < RTE_IXGBE_DESCS_PER_LOOP, just return no packet
+ * - nb_pkts > RTE_IXGBE_MAX_RX_BURST, only scan RTE_IXGBE_MAX_RX_BURST
  *   numbers of DD bit
+ * - floor align nb_pkts to a RTE_IXGBE_DESC_PER_LOOP power-of-two
  * - don't support ol_flags for rss and csum err
  */
 static inline uint16_t
@@ -220,25 +227,30 @@ _recv_raw_pkts_vec(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_pkts,
                                0, 0            /* ignore pkt_type field */
                        );
        __m128i dd_check, eop_check;
-       __m128i desc_mask = _mm_set_epi32(0xFFFFFFFF, 0xFFFFFFFF,
-                                         0xFFFFFFFF, 0xFFFF07F0);
+       uint8_t vlan_flags;
 
-       if (unlikely(nb_pkts < RTE_IXGBE_VPMD_RX_BURST))
-               return 0;
+       /* nb_pkts shall be less equal than RTE_IXGBE_MAX_RX_BURST */
+       nb_pkts = RTE_MIN(nb_pkts, RTE_IXGBE_MAX_RX_BURST);
+
+       /* nb_pkts has to be floor-aligned to RTE_IXGBE_DESCS_PER_LOOP */
+       nb_pkts = RTE_ALIGN_FLOOR(nb_pkts, RTE_IXGBE_DESCS_PER_LOOP);
 
        /* Just the act of getting into the function from the application is
-        * going to cost about 7 cycles */
+        * going to cost about 7 cycles
+        */
        rxdp = rxq->rx_ring + rxq->rx_tail;
 
        _mm_prefetch((const void *)rxdp, _MM_HINT_T0);
 
        /* See if we need to rearm the RX queue - gives the prefetch a bit
-        * of time to act */
+        * of time to act
+        */
        if (rxq->rxrearm_nb > RTE_IXGBE_RXQ_REARM_THRESH)
                ixgbe_rxq_rearm(rxq);
 
        /* Before we start moving massive data around, check to see if
-        * there is actually a packet available */
+        * there is actually a packet available
+        */
        if (!(rxdp->wb.upper.status_error &
                                rte_cpu_to_le_32(IXGBE_RXDADV_STAT_DD)))
                return 0;
@@ -256,15 +268,19 @@ _recv_raw_pkts_vec(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_pkts,
                13, 12,      /* octet 12~13, 16 bits data_len */
                0xFF, 0xFF,  /* skip high 16 bits pkt_len, zero out */
                13, 12,      /* octet 12~13, low 16 bits pkt_len */
-               0xFF, 0xFF,  /* skip high 16 bits pkt_type */
-               1,           /* octet 1, 8 bits pkt_type field */
-               0            /* octet 0, 4 bits offset 4 pkt_type field */
+               0xFF, 0xFF,  /* skip 32 bit pkt_type */
+               0xFF, 0xFF
                );
 
        /* Cache is empty -> need to scan the buffer rings, but first move
-        * the next 'n' mbufs into the cache */
+        * the next 'n' mbufs into the cache
+        */
        sw_ring = &rxq->sw_ring[rxq->rx_tail];
 
+       /* ensure these 2 flags are in the lower 8 bits */
+       RTE_BUILD_BUG_ON((PKT_RX_VLAN_PKT | PKT_RX_VLAN_STRIPPED) > UINT8_MAX);
+       vlan_flags = rxq->vlan_flags & UINT8_MAX;
+
        /* A. load 4 packet in one loop
         * [A*. mask out 4 unused dirty field in desc]
         * B. copy 4 mbuf point from swring to rx_pkts
@@ -272,28 +288,20 @@ _recv_raw_pkts_vec(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_pkts,
         * [C*. extract the end-of-packet bit, if requested]
         * D. fill info. from desc to mbuf
         */
-       for (pos = 0, nb_pkts_recd = 0; pos < RTE_IXGBE_VPMD_RX_BURST;
+       for (pos = 0, nb_pkts_recd = 0; pos < nb_pkts;
                        pos += RTE_IXGBE_DESCS_PER_LOOP,
                        rxdp += RTE_IXGBE_DESCS_PER_LOOP) {
-               __m128i descs0[RTE_IXGBE_DESCS_PER_LOOP];
                __m128i descs[RTE_IXGBE_DESCS_PER_LOOP];
                __m128i pkt_mb1, pkt_mb2, pkt_mb3, pkt_mb4;
                __m128i zero, staterr, sterr_tmp1, sterr_tmp2;
                __m128i mbp1, mbp2; /* two mbuf pointer in one XMM reg. */
 
-               if (split_packet) {
-                       rte_prefetch0(&rx_pkts[pos]->cacheline1);
-                       rte_prefetch0(&rx_pkts[pos + 1]->cacheline1);
-                       rte_prefetch0(&rx_pkts[pos + 2]->cacheline1);
-                       rte_prefetch0(&rx_pkts[pos + 3]->cacheline1);
-               }
-
                /* B.1 load 1 mbuf point */
                mbp1 = _mm_loadu_si128((__m128i *)&sw_ring[pos]);
 
                /* Read desc statuses backwards to avoid race condition */
                /* A.1 load 4 pkts desc */
-               descs0[3] = _mm_loadu_si128((__m128i *)(rxdp + 3));
+               descs[3] = _mm_loadu_si128((__m128i *)(rxdp + 3));
 
                /* B.2 copy 2 mbuf point into rx_pkts  */
                _mm_storeu_si128((__m128i *)&rx_pkts[pos], mbp1);
@@ -301,21 +309,20 @@ _recv_raw_pkts_vec(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_pkts,
                /* B.1 load 1 mbuf point */
                mbp2 = _mm_loadu_si128((__m128i *)&sw_ring[pos+2]);
 
-               descs0[2] = _mm_loadu_si128((__m128i *)(rxdp + 2));
+               descs[2] = _mm_loadu_si128((__m128i *)(rxdp + 2));
                /* B.1 load 2 mbuf point */
-               descs0[1] = _mm_loadu_si128((__m128i *)(rxdp + 1));
-               descs0[0] = _mm_loadu_si128((__m128i *)(rxdp));
+               descs[1] = _mm_loadu_si128((__m128i *)(rxdp + 1));
+               descs[0] = _mm_loadu_si128((__m128i *)(rxdp));
 
                /* B.2 copy 2 mbuf point into rx_pkts  */
                _mm_storeu_si128((__m128i *)&rx_pkts[pos+2], mbp2);
 
-               /* A* mask out 0~3 bits RSS type */
-               descs[3] = _mm_and_si128(descs0[3], desc_mask);
-               descs[2] = _mm_and_si128(descs0[2], desc_mask);
-
-               /* A* mask out 0~3 bits RSS type */
-               descs[1] = _mm_and_si128(descs0[1], desc_mask);
-               descs[0] = _mm_and_si128(descs0[0], desc_mask);
+               if (split_packet) {
+                       rte_mbuf_prefetch_part2(rx_pkts[pos]);
+                       rte_mbuf_prefetch_part2(rx_pkts[pos + 1]);
+                       rte_mbuf_prefetch_part2(rx_pkts[pos + 2]);
+                       rte_mbuf_prefetch_part2(rx_pkts[pos + 3]);
+               }
 
                /* avoid compiler reorder optimization */
                rte_compiler_barrier();
@@ -324,22 +331,22 @@ _recv_raw_pkts_vec(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_pkts,
                pkt_mb4 = _mm_shuffle_epi8(descs[3], shuf_msk);
                pkt_mb3 = _mm_shuffle_epi8(descs[2], shuf_msk);
 
+               /* D.1 pkt 1,2 convert format from desc to pktmbuf */
+               pkt_mb2 = _mm_shuffle_epi8(descs[1], shuf_msk);
+               pkt_mb1 = _mm_shuffle_epi8(descs[0], shuf_msk);
+
                /* C.1 4=>2 filter staterr info only */
                sterr_tmp2 = _mm_unpackhi_epi32(descs[3], descs[2]);
                /* C.1 4=>2 filter staterr info only */
                sterr_tmp1 = _mm_unpackhi_epi32(descs[1], descs[0]);
 
                /* set ol_flags with vlan packet type */
-               desc_to_olflags_v(descs0, &rx_pkts[pos]);
+               desc_to_olflags_v(descs, vlan_flags, &rx_pkts[pos]);
 
                /* D.2 pkt 3,4 set in_port/nb_seg and remove crc */
                pkt_mb4 = _mm_add_epi16(pkt_mb4, crc_adjust);
                pkt_mb3 = _mm_add_epi16(pkt_mb3, crc_adjust);
 
-               /* D.1 pkt 1,2 convert format from desc to pktmbuf */
-               pkt_mb2 = _mm_shuffle_epi8(descs[1], shuf_msk);
-               pkt_mb1 = _mm_shuffle_epi8(descs[0], shuf_msk);
-
                /* C.2 get 4 pkts staterr value  */
                zero = _mm_xor_si128(dd_check, dd_check);
                staterr = _mm_unpacklo_epi32(sterr_tmp1, sterr_tmp2);
@@ -368,7 +375,8 @@ _recv_raw_pkts_vec(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_pkts,
                        /* the staterr values are not in order, as the count
                         * count of dd bits doesn't care. However, for end of
                         * packet tracking, we do care, so shuffle. This also
-                        * compresses the 32-bit values to 8-bit */
+                        * compresses the 32-bit values to 8-bit
+                        */
                        eop_bits = _mm_shuffle_epi8(eop_bits, eop_shuf_mask);
                        /* store the resulting 32-bit value */
                        *(int *)split_packet = _mm_cvtsi128_si32(eop_bits);
@@ -407,13 +415,13 @@ _recv_raw_pkts_vec(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_pkts,
 }
 
 /*
- * vPMD receive routine, now only accept (nb_pkts == RTE_IXGBE_VPMD_RX_BURST)
- * in one loop
+ * vPMD receive routine, only accept(nb_pkts >= RTE_IXGBE_DESCS_PER_LOOP)
  *
  * Notice:
- * - nb_pkts < RTE_IXGBE_VPMD_RX_BURST, just return no packet
- * - nb_pkts > RTE_IXGBE_VPMD_RX_BURST, only scan RTE_IXGBE_VPMD_RX_BURST
+ * - nb_pkts < RTE_IXGBE_DESCS_PER_LOOP, just return no packet
+ * - nb_pkts > RTE_IXGBE_MAX_RX_BURST, only scan RTE_IXGBE_MAX_RX_BURST
  *   numbers of DD bit
+ * - floor align nb_pkts to a RTE_IXGBE_DESC_PER_LOOP power-of-two
  * - don't support ol_flags for rss and csum err
  */
 uint16_t
@@ -425,13 +433,12 @@ ixgbe_recv_pkts_vec(void *rx_queue, struct rte_mbuf **rx_pkts,
 
 static inline uint16_t
 reassemble_packets(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_bufs,
-               uint16_t nb_bufs, uint8_t *split_flags)
+                  uint16_t nb_bufs, uint8_t *split_flags)
 {
-       struct rte_mbuf *pkts[RTE_IXGBE_VPMD_RX_BURST]; /*finished pkts*/
+       struct rte_mbuf *pkts[nb_bufs]; /*finished pkts*/
        struct rte_mbuf *start = rxq->pkt_first_seg;
        struct rte_mbuf *end =  rxq->pkt_last_seg;
-       unsigned pkt_idx, buf_idx;
-
+       unsigned int pkt_idx, buf_idx;
 
        for (buf_idx = 0, pkt_idx = 0; buf_idx < nb_bufs; buf_idx++) {
                if (end != NULL) {
@@ -492,14 +499,17 @@ reassemble_packets(struct ixgbe_rx_queue *rxq, struct rte_mbuf **rx_bufs,
  *
  * Notice:
  * - don't support ol_flags for rss and csum err
- * - now only accept (nb_pkts == RTE_IXGBE_VPMD_RX_BURST)
+ * - nb_pkts < RTE_IXGBE_DESCS_PER_LOOP, just return no packet
+ * - nb_pkts > RTE_IXGBE_MAX_RX_BURST, only scan RTE_IXGBE_MAX_RX_BURST
+ *   numbers of DD bit
+ * - floor align nb_pkts to a RTE_IXGBE_DESC_PER_LOOP power-of-two
  */
 uint16_t
 ixgbe_recv_scattered_pkts_vec(void *rx_queue, struct rte_mbuf **rx_pkts,
                uint16_t nb_pkts)
 {
        struct ixgbe_rx_queue *rxq = rx_queue;
-       uint8_t split_flags[RTE_IXGBE_VPMD_RX_BURST] = {0};
+       uint8_t split_flags[RTE_IXGBE_MAX_RX_BURST] = {0};
 
        /* get some new buffers */
        uint16_t nb_bufs = _recv_raw_pkts_vec(rxq, rx_pkts, nb_pkts,
@@ -542,6 +552,7 @@ vtx(volatile union ixgbe_adv_tx_desc *txdp,
                struct rte_mbuf **pkt, uint16_t nb_pkts,  uint64_t flags)
 {
        int i;
+
        for (i = 0; i < nb_pkts; ++i, ++txdp, ++pkt)
                vtx1(txdp, *pkt, flags);
 }
@@ -608,6 +619,7 @@ tx_backlog_entry(struct ixgbe_tx_entry_v *txep,
                 struct rte_mbuf **tx_pkts, uint16_t nb_pkts)
 {
        int i;
+
        for (i = 0; i < (int)nb_pkts; ++i)
                txep[i].mbuf = tx_pkts[i];
 }
@@ -624,8 +636,8 @@ ixgbe_xmit_pkts_vec(void *tx_queue, struct rte_mbuf **tx_pkts,
        uint64_t rs = IXGBE_ADVTXD_DCMD_RS|DCMD_DTYP_FLAGS;
        int i;
 
-       if (unlikely(nb_pkts > RTE_IXGBE_VPMD_TX_BURST))
-               nb_pkts = RTE_IXGBE_VPMD_TX_BURST;
+       /* cross rx_thresh boundary is not allowed */
+       nb_pkts = RTE_MIN(nb_pkts, txq->tx_rs_thresh);
 
        if (txq->nb_tx_free < txq->tx_free_thresh)
                ixgbe_tx_free_bufs(txq);
@@ -682,7 +694,7 @@ ixgbe_xmit_pkts_vec(void *tx_queue, struct rte_mbuf **tx_pkts,
 static void __attribute__((cold))
 ixgbe_tx_queue_release_mbufs_vec(struct ixgbe_tx_queue *txq)
 {
-       unsigned i;
+       unsigned int i;
        struct ixgbe_tx_entry_v *txe;
        const uint16_t max_desc = (uint16_t)(txq->nb_tx_desc - 1);
 
@@ -708,8 +720,8 @@ ixgbe_tx_queue_release_mbufs_vec(struct ixgbe_tx_queue *txq)
 void __attribute__((cold))
 ixgbe_rx_queue_release_mbufs_vec(struct ixgbe_rx_queue *rxq)
 {
-       const unsigned mask = rxq->nb_rx_desc - 1;
-       unsigned i;
+       const unsigned int mask = rxq->nb_rx_desc - 1;
+       unsigned int i;
 
        if (rxq->sw_ring == NULL || rxq->rxrearm_nb >= rxq->nb_rx_desc)
                return;
@@ -738,7 +750,7 @@ ixgbe_tx_free_swring(struct ixgbe_tx_queue *txq)
 static void __attribute__((cold))
 ixgbe_reset_tx_queue(struct ixgbe_tx_queue *txq)
 {
-       static const union ixgbe_adv_tx_desc zeroed_desc = {{0}};
+       static const union ixgbe_adv_tx_desc zeroed_desc = { { 0 } };
        struct ixgbe_tx_entry_v *txe = txq->sw_ring_v;
        uint16_t i;
 
@@ -749,6 +761,7 @@ ixgbe_reset_tx_queue(struct ixgbe_tx_queue *txq)
        /* Initialize SW ring entries */
        for (i = 0; i < txq->nb_tx_desc; i++) {
                volatile union ixgbe_adv_tx_desc *txd = &txq->tx_ring[i];
+
                txd->wb.status = IXGBE_TXD_STAT_DD;
                txe[i].mbuf = NULL;
        }