mempool: support non-EAL thread
authorCunming Liang <cunming.liang@intel.com>
Tue, 17 Feb 2015 02:08:13 +0000 (10:08 +0800)
committerThomas Monjalon <thomas.monjalon@6wind.com>
Tue, 24 Feb 2015 19:22:57 +0000 (20:22 +0100)
For non-EAL thread, bypass per lcore cache, directly use ring pool.
It allows using rte_mempool in either EAL thread or any user pthread.
As in non-EAL thread, it directly rely on rte_ring and it's none preemptive.
It doesn't suggest to run multi-pthread/cpu which compete the rte_mempool.
It will get bad performance and has critical risk if scheduling policy is RT.
Haven't found significant performance decrease by mempool_perf_test.

Signed-off-by: Cunming Liang <cunming.liang@intel.com>
Acked-by: Olivier Matz <olivier.matz@6wind.com>
Acked-by: Konstantin Ananyev <konstantin.ananyev@intel.com>
lib/librte_mempool/rte_mempool.h

index 48e9972..974e8d7 100644 (file)
@@ -198,10 +198,12 @@ struct rte_mempool {
  *   Number to add to the object-oriented statistics.
  */
 #ifdef RTE_LIBRTE_MEMPOOL_DEBUG
-#define __MEMPOOL_STAT_ADD(mp, name, n) do {                   \
-               unsigned __lcore_id = rte_lcore_id();           \
-               mp->stats[__lcore_id].name##_objs += n;         \
-               mp->stats[__lcore_id].name##_bulk += 1;         \
+#define __MEMPOOL_STAT_ADD(mp, name, n) do {                    \
+               unsigned __lcore_id = rte_lcore_id();           \
+               if (__lcore_id < RTE_MAX_LCORE) {               \
+                       mp->stats[__lcore_id].name##_objs += n; \
+                       mp->stats[__lcore_id].name##_bulk += 1; \
+               }                                               \
        } while(0)
 #else
 #define __MEMPOOL_STAT_ADD(mp, name, n) do {} while(0)
@@ -767,8 +769,9 @@ __mempool_put_bulk(struct rte_mempool *mp, void * const *obj_table,
        __MEMPOOL_STAT_ADD(mp, put, n);
 
 #if RTE_MEMPOOL_CACHE_MAX_SIZE > 0
-       /* cache is not enabled or single producer */
-       if (unlikely(cache_size == 0 || is_mp == 0))
+       /* cache is not enabled or single producer or non-EAL thread */
+       if (unlikely(cache_size == 0 || is_mp == 0 ||
+                    lcore_id >= RTE_MAX_LCORE))
                goto ring_enqueue;
 
        /* Go straight to ring if put would overflow mem allocated for cache */
@@ -952,7 +955,8 @@ __mempool_get_bulk(struct rte_mempool *mp, void **obj_table,
        uint32_t cache_size = mp->cache_size;
 
        /* cache is not enabled or single consumer */
-       if (unlikely(cache_size == 0 || is_mc == 0 || n >= cache_size))
+       if (unlikely(cache_size == 0 || is_mc == 0 ||
+                    n >= cache_size || lcore_id >= RTE_MAX_LCORE))
                goto ring_dequeue;
 
        cache = &mp->local_cache[lcore_id];