mempool: fix comments for no contiguous flag
[dpdk.git] / lib / librte_mempool / rte_mempool.c
index d78d02b..71017e1 100644 (file)
@@ -55,7 +55,6 @@
 #include <rte_per_lcore.h>
 #include <rte_lcore.h>
 #include <rte_branch_prediction.h>
-#include <rte_ring.h>
 #include <rte_errno.h>
 #include <rte_string_fns.h>
 #include <rte_spinlock.h>
@@ -199,7 +198,11 @@ rte_mempool_calc_obj_size(uint32_t elt_size, uint32_t flags,
                sz->header_size = RTE_ALIGN_CEIL(sz->header_size,
                        RTE_MEMPOOL_ALIGN);
 
+#ifdef RTE_LIBRTE_MEMPOOL_DEBUG
        sz->trailer_size = sizeof(struct rte_mempool_objtlr);
+#else
+       sz->trailer_size = 0;
+#endif
 
        /* element size is 8 bytes-aligned at least */
        sz->elt_size = RTE_ALIGN_CEIL(elt_size, sizeof(uint64_t));
@@ -524,7 +527,11 @@ rte_mempool_populate_default(struct rte_mempool *mp)
        if (mp->nb_mem_chunks != 0)
                return -EEXIST;
 
-       if (rte_eal_has_hugepages()) {
+       if (rte_xen_dom0_supported()) {
+               pg_sz = RTE_PGSIZE_2M;
+               pg_shift = rte_bsf32(pg_sz);
+               align = pg_sz;
+       } else if (rte_eal_has_hugepages()) {
                pg_shift = 0; /* not needed, zone is physically contiguous */
                pg_sz = 0;
                align = RTE_CACHE_LINE_SIZE;
@@ -871,7 +878,7 @@ rte_mempool_create(const char *name, unsigned n, unsigned elt_size,
         * Since we have 4 combinations of the SP/SC/MP/MC examine the flags to
         * set the correct index into the table of ops structs.
         */
-       if (flags & (MEMPOOL_F_SP_PUT | MEMPOOL_F_SC_GET))
+       if ((flags & MEMPOOL_F_SP_PUT) && (flags & MEMPOOL_F_SC_GET))
                rte_mempool_set_ops_byname(mp, "ring_sp_sc", NULL);
        else if (flags & MEMPOOL_F_SP_PUT)
                rte_mempool_set_ops_byname(mp, "ring_sp_mc", NULL);
@@ -901,9 +908,8 @@ rte_mempool_create(const char *name, unsigned n, unsigned elt_size,
 /*
  * Create the mempool over already allocated chunk of memory.
  * That external memory buffer can consists of physically disjoint pages.
- * Setting vaddr to NULL, makes mempool to fallback to original behaviour
- * and allocate space for mempool and it's elements as one big chunk of
- * physically continuos memory.
+ * Setting vaddr to NULL, makes mempool to fallback to rte_mempool_create()
+ * behavior.
  */
 struct rte_mempool *
 rte_mempool_xmem_create(const char *name, unsigned n, unsigned elt_size,
@@ -1275,12 +1281,13 @@ void rte_mempool_walk(void (*func)(struct rte_mempool *, void *),
 {
        struct rte_tailq_entry *te = NULL;
        struct rte_mempool_list *mempool_list;
+       void *tmp_te;
 
        mempool_list = RTE_TAILQ_CAST(rte_mempool_tailq.head, rte_mempool_list);
 
        rte_rwlock_read_lock(RTE_EAL_MEMPOOL_RWLOCK);
 
-       TAILQ_FOREACH(te, mempool_list, next) {
+       TAILQ_FOREACH_SAFE(te, mempool_list, next, tmp_te) {
                (*func)((struct rte_mempool *) te->data, arg);
        }