eal: introduce macro for always inline
[dpdk.git] / lib / librte_ring / rte_ring.h
index fa66638..e4e910b 100644 (file)
@@ -147,7 +147,7 @@ struct rte_ring {
         * compatibility requirements, it could be changed to RTE_RING_NAMESIZE
         * next time the ABI changes
         */
-       char name[RTE_MEMZONE_NAMESIZE];    /**< Name of the ring. */
+       char name[RTE_MEMZONE_NAMESIZE] __rte_cache_aligned; /**< Name of the ring. */
        int flags;               /**< Flags supplied at creation. */
        const struct rte_memzone *memzone;
                        /**< Memzone, if any, containing the rte_ring */
@@ -159,10 +159,6 @@ struct rte_ring {
 
        /** Ring consumer status. */
        struct rte_ring_headtail cons __rte_aligned(CONS_ALIGN);
-
-       void *ring[] __rte_cache_aligned;   /**< Memory space of ring starts here.
-                                            * not volatile so need to be careful
-                                            * about compiler re-ordering */
 };
 
 #define RING_F_SP_ENQ 0x0001 /**< The default enqueue is "single-producer". */
@@ -290,57 +286,80 @@ void rte_ring_dump(FILE *f, const struct rte_ring *r);
 /* the actual enqueue of pointers on the ring.
  * Placed here since identical code needed in both
  * single and multi producer enqueue functions */
-#define ENQUEUE_PTRS() do { \
+#define ENQUEUE_PTRS(r, ring_start, prod_head, obj_table, n, obj_type) do { \
        unsigned int i; \
-       const uint32_t size = r->size; \
-       uint32_t idx = prod_head & r->mask; \
+       const uint32_t size = (r)->size; \
+       uint32_t idx = prod_head & (r)->mask; \
+       obj_type *ring = (obj_type *)ring_start; \
        if (likely(idx + n < size)) { \
                for (i = 0; i < (n & ((~(unsigned)0x3))); i+=4, idx+=4) { \
-                       r->ring[idx] = obj_table[i]; \
-                       r->ring[idx+1] = obj_table[i+1]; \
-                       r->ring[idx+2] = obj_table[i+2]; \
-                       r->ring[idx+3] = obj_table[i+3]; \
+                       ring[idx] = obj_table[i]; \
+                       ring[idx+1] = obj_table[i+1]; \
+                       ring[idx+2] = obj_table[i+2]; \
+                       ring[idx+3] = obj_table[i+3]; \
                } \
                switch (n & 0x3) { \
-                       case 3: r->ring[idx++] = obj_table[i++]; \
-                       case 2: r->ring[idx++] = obj_table[i++]; \
-                       case 1: r->ring[idx++] = obj_table[i++]; \
+               case 3: \
+                       ring[idx++] = obj_table[i++]; /* fallthrough */ \
+               case 2: \
+                       ring[idx++] = obj_table[i++]; /* fallthrough */ \
+               case 1: \
+                       ring[idx++] = obj_table[i++]; \
                } \
        } else { \
                for (i = 0; idx < size; i++, idx++)\
-                       r->ring[idx] = obj_table[i]; \
+                       ring[idx] = obj_table[i]; \
                for (idx = 0; i < n; i++, idx++) \
-                       r->ring[idx] = obj_table[i]; \
+                       ring[idx] = obj_table[i]; \
        } \
-} while(0)
+} while (0)
 
 /* the actual copy of pointers on the ring to obj_table.
  * Placed here since identical code needed in both
  * single and multi consumer dequeue functions */
-#define DEQUEUE_PTRS() do { \
+#define DEQUEUE_PTRS(r, ring_start, cons_head, obj_table, n, obj_type) do { \
        unsigned int i; \
-       uint32_t idx = cons_head & r->mask; \
-       const uint32_t size = r->size; \
+       uint32_t idx = cons_head & (r)->mask; \
+       const uint32_t size = (r)->size; \
+       obj_type *ring = (obj_type *)ring_start; \
        if (likely(idx + n < size)) { \
                for (i = 0; i < (n & (~(unsigned)0x3)); i+=4, idx+=4) {\
-                       obj_table[i] = r->ring[idx]; \
-                       obj_table[i+1] = r->ring[idx+1]; \
-                       obj_table[i+2] = r->ring[idx+2]; \
-                       obj_table[i+3] = r->ring[idx+3]; \
+                       obj_table[i] = ring[idx]; \
+                       obj_table[i+1] = ring[idx+1]; \
+                       obj_table[i+2] = ring[idx+2]; \
+                       obj_table[i+3] = ring[idx+3]; \
                } \
                switch (n & 0x3) { \
-                       case 3: obj_table[i++] = r->ring[idx++]; \
-                       case 2: obj_table[i++] = r->ring[idx++]; \
-                       case 1: obj_table[i++] = r->ring[idx++]; \
+               case 3: \
+                       obj_table[i++] = ring[idx++]; /* fallthrough */ \
+               case 2: \
+                       obj_table[i++] = ring[idx++]; /* fallthrough */ \
+               case 1: \
+                       obj_table[i++] = ring[idx++]; \
                } \
        } else { \
                for (i = 0; idx < size; i++, idx++) \
-                       obj_table[i] = r->ring[idx]; \
+                       obj_table[i] = ring[idx]; \
                for (idx = 0; i < n; i++, idx++) \
-                       obj_table[i] = r->ring[idx]; \
+                       obj_table[i] = ring[idx]; \
        } \
 } while (0)
 
+static __rte_always_inline void
+update_tail(struct rte_ring_headtail *ht, uint32_t old_val, uint32_t new_val,
+               uint32_t single)
+{
+       /*
+        * If there are other enqueues/dequeues in progress that preceded us,
+        * we need to wait for them to complete
+        */
+       if (!single)
+               while (unlikely(ht->tail != old_val))
+                       rte_pause();
+
+       ht->tail = new_val;
+}
+
 /**
  * @internal This function updates the producer head for enqueue
  *
@@ -364,7 +383,7 @@ void rte_ring_dump(FILE *f, const struct rte_ring *r);
  *   Actual number of objects enqueued.
  *   If behavior == RTE_RING_QUEUE_FIXED, this will be 0 or n only.
  */
-static inline __attribute__((always_inline)) unsigned int
+static __rte_always_inline unsigned int
 __rte_ring_move_prod_head(struct rte_ring *r, int is_sp,
                unsigned int n, enum rte_ring_queue_behavior behavior,
                uint32_t *old_head, uint32_t *new_head,
@@ -424,7 +443,7 @@ __rte_ring_move_prod_head(struct rte_ring *r, int is_sp,
  *   Actual number of objects enqueued.
  *   If behavior == RTE_RING_QUEUE_FIXED, this will be 0 or n only.
  */
-static inline __attribute__((always_inline)) unsigned int
+static __rte_always_inline unsigned int
 __rte_ring_do_enqueue(struct rte_ring *r, void * const *obj_table,
                 unsigned int n, enum rte_ring_queue_behavior behavior,
                 int is_sp, unsigned int *free_space)
@@ -437,18 +456,10 @@ __rte_ring_do_enqueue(struct rte_ring *r, void * const *obj_table,
        if (n == 0)
                goto end;
 
-       ENQUEUE_PTRS();
+       ENQUEUE_PTRS(r, &r[1], prod_head, obj_table, n, void *);
        rte_smp_wmb();
 
-       /*
-        * If there are other enqueues in progress that preceded us,
-        * we need to wait for them to complete
-        */
-       while (unlikely(r->prod.tail != prod_head))
-               rte_pause();
-
-       r->prod.tail = prod_next;
-
+       update_tail(&r->prod, prod_head, prod_next, is_sp);
 end:
        if (free_space != NULL)
                *free_space = free_entries - n;
@@ -478,7 +489,7 @@ end:
  *   - Actual number of objects dequeued.
  *     If behavior == RTE_RING_QUEUE_FIXED, this will be 0 or n only.
  */
-static inline __attribute__((always_inline)) unsigned int
+static __rte_always_inline unsigned int
 __rte_ring_move_cons_head(struct rte_ring *r, int is_sc,
                unsigned int n, enum rte_ring_queue_behavior behavior,
                uint32_t *old_head, uint32_t *new_head,
@@ -537,7 +548,7 @@ __rte_ring_move_cons_head(struct rte_ring *r, int is_sc,
  *   - Actual number of objects dequeued.
  *     If behavior == RTE_RING_QUEUE_FIXED, this will be 0 or n only.
  */
-static inline __attribute__((always_inline)) unsigned int
+static __rte_always_inline unsigned int
 __rte_ring_do_dequeue(struct rte_ring *r, void **obj_table,
                 unsigned int n, enum rte_ring_queue_behavior behavior,
                 int is_sc, unsigned int *available)
@@ -550,17 +561,10 @@ __rte_ring_do_dequeue(struct rte_ring *r, void **obj_table,
        if (n == 0)
                goto end;
 
-       DEQUEUE_PTRS();
+       DEQUEUE_PTRS(r, &r[1], cons_head, obj_table, n, void *);
        rte_smp_rmb();
 
-       /*
-        * If there are other enqueues in progress that preceded us,
-        * we need to wait for them to complete
-        */
-       while (unlikely(r->cons.tail != cons_head))
-               rte_pause();
-
-       r->cons.tail = cons_next;
+       update_tail(&r->cons, cons_head, cons_next, is_sc);
 
 end:
        if (available != NULL)
@@ -586,7 +590,7 @@ end:
  * @return
  *   The number of objects enqueued, either 0 or n
  */
-static inline unsigned int __attribute__((always_inline))
+static __rte_always_inline unsigned int
 rte_ring_mp_enqueue_bulk(struct rte_ring *r, void * const *obj_table,
                         unsigned int n, unsigned int *free_space)
 {
@@ -609,7 +613,7 @@ rte_ring_mp_enqueue_bulk(struct rte_ring *r, void * const *obj_table,
  * @return
  *   The number of objects enqueued, either 0 or n
  */
-static inline unsigned int __attribute__((always_inline))
+static __rte_always_inline unsigned int
 rte_ring_sp_enqueue_bulk(struct rte_ring *r, void * const *obj_table,
                         unsigned int n, unsigned int *free_space)
 {
@@ -636,7 +640,7 @@ rte_ring_sp_enqueue_bulk(struct rte_ring *r, void * const *obj_table,
  * @return
  *   The number of objects enqueued, either 0 or n
  */
-static inline unsigned int __attribute__((always_inline))
+static __rte_always_inline unsigned int
 rte_ring_enqueue_bulk(struct rte_ring *r, void * const *obj_table,
                      unsigned int n, unsigned int *free_space)
 {
@@ -658,7 +662,7 @@ rte_ring_enqueue_bulk(struct rte_ring *r, void * const *obj_table,
  *   - 0: Success; objects enqueued.
  *   - -ENOBUFS: Not enough room in the ring to enqueue; no object is enqueued.
  */
-static inline int __attribute__((always_inline))
+static __rte_always_inline int
 rte_ring_mp_enqueue(struct rte_ring *r, void *obj)
 {
        return rte_ring_mp_enqueue_bulk(r, &obj, 1, NULL) ? 0 : -ENOBUFS;
@@ -675,7 +679,7 @@ rte_ring_mp_enqueue(struct rte_ring *r, void *obj)
  *   - 0: Success; objects enqueued.
  *   - -ENOBUFS: Not enough room in the ring to enqueue; no object is enqueued.
  */
-static inline int __attribute__((always_inline))
+static __rte_always_inline int
 rte_ring_sp_enqueue(struct rte_ring *r, void *obj)
 {
        return rte_ring_sp_enqueue_bulk(r, &obj, 1, NULL) ? 0 : -ENOBUFS;
@@ -696,7 +700,7 @@ rte_ring_sp_enqueue(struct rte_ring *r, void *obj)
  *   - 0: Success; objects enqueued.
  *   - -ENOBUFS: Not enough room in the ring to enqueue; no object is enqueued.
  */
-static inline int __attribute__((always_inline))
+static __rte_always_inline int
 rte_ring_enqueue(struct rte_ring *r, void *obj)
 {
        return rte_ring_enqueue_bulk(r, &obj, 1, NULL) ? 0 : -ENOBUFS;
@@ -720,7 +724,7 @@ rte_ring_enqueue(struct rte_ring *r, void *obj)
  * @return
  *   The number of objects dequeued, either 0 or n
  */
-static inline unsigned int __attribute__((always_inline))
+static __rte_always_inline unsigned int
 rte_ring_mc_dequeue_bulk(struct rte_ring *r, void **obj_table,
                unsigned int n, unsigned int *available)
 {
@@ -744,7 +748,7 @@ rte_ring_mc_dequeue_bulk(struct rte_ring *r, void **obj_table,
  * @return
  *   The number of objects dequeued, either 0 or n
  */
-static inline unsigned int __attribute__((always_inline))
+static __rte_always_inline unsigned int
 rte_ring_sc_dequeue_bulk(struct rte_ring *r, void **obj_table,
                unsigned int n, unsigned int *available)
 {
@@ -771,7 +775,7 @@ rte_ring_sc_dequeue_bulk(struct rte_ring *r, void **obj_table,
  * @return
  *   The number of objects dequeued, either 0 or n
  */
-static inline unsigned int __attribute__((always_inline))
+static __rte_always_inline unsigned int
 rte_ring_dequeue_bulk(struct rte_ring *r, void **obj_table, unsigned int n,
                unsigned int *available)
 {
@@ -794,7 +798,7 @@ rte_ring_dequeue_bulk(struct rte_ring *r, void **obj_table, unsigned int n,
  *   - -ENOENT: Not enough entries in the ring to dequeue; no object is
  *     dequeued.
  */
-static inline int __attribute__((always_inline))
+static __rte_always_inline int
 rte_ring_mc_dequeue(struct rte_ring *r, void **obj_p)
 {
        return rte_ring_mc_dequeue_bulk(r, obj_p, 1, NULL)  ? 0 : -ENOBUFS;
@@ -812,7 +816,7 @@ rte_ring_mc_dequeue(struct rte_ring *r, void **obj_p)
  *   - -ENOENT: Not enough entries in the ring to dequeue, no object is
  *     dequeued.
  */
-static inline int __attribute__((always_inline))
+static __rte_always_inline int
 rte_ring_sc_dequeue(struct rte_ring *r, void **obj_p)
 {
        return rte_ring_sc_dequeue_bulk(r, obj_p, 1, NULL) ? 0 : -ENOBUFS;
@@ -834,10 +838,10 @@ rte_ring_sc_dequeue(struct rte_ring *r, void **obj_p)
  *   - -ENOENT: Not enough entries in the ring to dequeue, no object is
  *     dequeued.
  */
-static inline int __attribute__((always_inline))
+static __rte_always_inline int
 rte_ring_dequeue(struct rte_ring *r, void **obj_p)
 {
-       return rte_ring_dequeue_bulk(r, obj_p, 1, NULL) ? 0 : -ENOBUFS;
+       return rte_ring_dequeue_bulk(r, obj_p, 1, NULL) ? 0 : -ENOENT;
 }
 
 /**
@@ -958,7 +962,7 @@ struct rte_ring *rte_ring_lookup(const char *name);
  * @return
  *   - n: Actual number of objects enqueued.
  */
-static inline unsigned __attribute__((always_inline))
+static __rte_always_inline unsigned
 rte_ring_mp_enqueue_burst(struct rte_ring *r, void * const *obj_table,
                         unsigned int n, unsigned int *free_space)
 {
@@ -981,7 +985,7 @@ rte_ring_mp_enqueue_burst(struct rte_ring *r, void * const *obj_table,
  * @return
  *   - n: Actual number of objects enqueued.
  */
-static inline unsigned __attribute__((always_inline))
+static __rte_always_inline unsigned
 rte_ring_sp_enqueue_burst(struct rte_ring *r, void * const *obj_table,
                         unsigned int n, unsigned int *free_space)
 {
@@ -1008,7 +1012,7 @@ rte_ring_sp_enqueue_burst(struct rte_ring *r, void * const *obj_table,
  * @return
  *   - n: Actual number of objects enqueued.
  */
-static inline unsigned __attribute__((always_inline))
+static __rte_always_inline unsigned
 rte_ring_enqueue_burst(struct rte_ring *r, void * const *obj_table,
                      unsigned int n, unsigned int *free_space)
 {
@@ -1036,7 +1040,7 @@ rte_ring_enqueue_burst(struct rte_ring *r, void * const *obj_table,
  * @return
  *   - n: Actual number of objects dequeued, 0 if ring is empty
  */
-static inline unsigned __attribute__((always_inline))
+static __rte_always_inline unsigned
 rte_ring_mc_dequeue_burst(struct rte_ring *r, void **obj_table,
                unsigned int n, unsigned int *available)
 {
@@ -1061,7 +1065,7 @@ rte_ring_mc_dequeue_burst(struct rte_ring *r, void **obj_table,
  * @return
  *   - n: Actual number of objects dequeued, 0 if ring is empty
  */
-static inline unsigned __attribute__((always_inline))
+static __rte_always_inline unsigned
 rte_ring_sc_dequeue_burst(struct rte_ring *r, void **obj_table,
                unsigned int n, unsigned int *available)
 {
@@ -1088,7 +1092,7 @@ rte_ring_sc_dequeue_burst(struct rte_ring *r, void **obj_table,
  * @return
  *   - Number of objects dequeued
  */
-static inline unsigned __attribute__((always_inline))
+static __rte_always_inline unsigned
 rte_ring_dequeue_burst(struct rte_ring *r, void **obj_table,
                unsigned int n, unsigned int *available)
 {