mempool: get memory size with unspecified page size
[dpdk.git] / lib / librte_mempool / rte_mempool.h
index c7a2fd6..53275e4 100644 (file)
@@ -2,6 +2,7 @@
  *   BSD LICENSE
  *
  *   Copyright(c) 2010-2014 Intel Corporation. All rights reserved.
+ *   Copyright(c) 2016 6WIND S.A.
  *   All rights reserved.
  *
  *   Redistribution and use in source and binary forms, with or without
@@ -158,6 +159,7 @@ struct rte_mempool_objsz {
 struct rte_mempool_objhdr {
        STAILQ_ENTRY(rte_mempool_objhdr) next; /**< Next in list. */
        struct rte_mempool *mp;          /**< The mempool owning the object. */
+       phys_addr_t physaddr;            /**< Physical address of the object. */
 #ifdef RTE_LIBRTE_MEMPOOL_DEBUG
        uint64_t cookie;                 /**< Debug cookie. */
 #endif
@@ -180,6 +182,33 @@ struct rte_mempool_objtlr {
 #endif
 };
 
+/**
+ * A list of memory where objects are stored
+ */
+STAILQ_HEAD(rte_mempool_memhdr_list, rte_mempool_memhdr);
+
+/**
+ * Callback used to free a memory chunk
+ */
+typedef void (rte_mempool_memchunk_free_cb_t)(struct rte_mempool_memhdr *memhdr,
+       void *opaque);
+
+/**
+ * Mempool objects memory header structure
+ *
+ * The memory chunks where objects are stored. Each chunk is virtually
+ * and physically contiguous.
+ */
+struct rte_mempool_memhdr {
+       STAILQ_ENTRY(rte_mempool_memhdr) next; /**< Next in list. */
+       struct rte_mempool *mp;  /**< The mempool owning the chunk */
+       void *addr;              /**< Virtual address of the chunk */
+       phys_addr_t phys_addr;   /**< Physical address of the chunk */
+       size_t len;              /**< length of the chunk */
+       rte_mempool_memchunk_free_cb_t *free_cb; /**< Free callback */
+       void *opaque;            /**< Argument passed to the free callback */
+};
+
 /**
  * The RTE mempool structure.
  */
@@ -188,7 +217,8 @@ struct rte_mempool {
        struct rte_ring *ring;           /**< Ring to store objects. */
        phys_addr_t phys_addr;           /**< Phys. addr. of mempool struct. */
        int flags;                       /**< Flags of the mempool. */
-       uint32_t size;                   /**< Size of the mempool. */
+       int socket_id;                   /**< Socket id passed at mempool creation. */
+       uint32_t size;                   /**< Max size of the mempool. */
        uint32_t cache_size;             /**< Size of per-lcore local cache. */
        uint32_t cache_flushthresh;
        /**< Threshold before we flush excess elements. */
@@ -201,26 +231,15 @@ struct rte_mempool {
 
        struct rte_mempool_cache *local_cache; /**< Per-lcore local cache */
 
+       uint32_t populated_size;         /**< Number of populated objects. */
        struct rte_mempool_objhdr_list elt_list; /**< List of objects in pool */
+       uint32_t nb_mem_chunks;          /**< Number of memory chunks */
+       struct rte_mempool_memhdr_list mem_list; /**< List of memory chunks */
 
 #ifdef RTE_LIBRTE_MEMPOOL_DEBUG
        /** Per-lcore statistics. */
        struct rte_mempool_debug_stats stats[RTE_MAX_LCORE];
 #endif
-
-       /* Address translation support, starts from next cache line. */
-
-       /** Number of elements in the elt_pa array. */
-       uint32_t    pg_num __rte_cache_aligned;
-       uint32_t    pg_shift;     /**< LOG2 of the physical pages. */
-       uintptr_t   pg_mask;      /**< physical page mask value. */
-       uintptr_t   elt_va_start;
-       /**< Virtual address of the first mempool object. */
-       uintptr_t   elt_va_end;
-       /**< Virtual address of the <size + 1> mempool object. */
-       phys_addr_t elt_pa[MEMPOOL_PG_NUM_DEFAULT];
-       /**< Array of physical page addresses for the mempool objects buffer. */
-
 }  __rte_cache_aligned;
 
 #define MEMPOOL_F_NO_SPREAD      0x0001 /**< Do not spread among memory channels. */
@@ -250,34 +269,18 @@ struct rte_mempool {
 #define __MEMPOOL_STAT_ADD(mp, name, n) do {} while(0)
 #endif
 
-/**
- * Size of elt_pa array size based on number of pages. (Internal use)
- */
-#define __PA_SIZE(mp, pgn) \
-       RTE_ALIGN_CEIL((((pgn) - RTE_DIM((mp)->elt_pa)) * \
-       sizeof((mp)->elt_pa[0])), RTE_CACHE_LINE_SIZE)
-
 /**
  * Calculate the size of the mempool header.
  *
  * @param mp
  *   Pointer to the memory pool.
- * @param pgn
- *   Number of pages used to store mempool objects.
  * @param cs
  *   Size of the per-lcore cache.
  */
-#define MEMPOOL_HEADER_SIZE(mp, pgn, cs) \
-       (sizeof(*(mp)) + __PA_SIZE(mp, pgn) + (((cs) == 0) ? 0 : \
+#define MEMPOOL_HEADER_SIZE(mp, cs) \
+       (sizeof(*(mp)) + (((cs) == 0) ? 0 : \
        (sizeof(struct rte_mempool_cache) * RTE_MAX_LCORE)))
 
-/**
- * Return true if the whole mempool is in contiguous memory.
- */
-#define        MEMPOOL_IS_CONTIG(mp)                      \
-       ((mp)->pg_num == MEMPOOL_PG_NUM_DEFAULT && \
-       (mp)->phys_addr == (mp)->elt_pa[0])
-
 /* return the header of a mempool object (internal) */
 static inline struct rte_mempool_objhdr *__mempool_get_header(void *obj)
 {
@@ -334,61 +337,20 @@ void rte_mempool_check_cookies(const struct rte_mempool *mp,
 /**
  * An object callback function for mempool.
  *
- * Arguments are the mempool, the opaque pointer given by the user in
- * rte_mempool_create(), the pointer to the element and the index of
- * the element in the pool.
+ * Used by rte_mempool_create() and rte_mempool_obj_iter().
  */
 typedef void (rte_mempool_obj_cb_t)(struct rte_mempool *mp,
                void *opaque, void *obj, unsigned obj_idx);
 typedef rte_mempool_obj_cb_t rte_mempool_obj_ctor_t; /* compat */
 
 /**
- * A mempool object iterator callback function.
- */
-typedef void (*rte_mempool_obj_iter_t)(void * /*obj_iter_arg*/,
-       void * /*obj_start*/,
-       void * /*obj_end*/,
-       uint32_t /*obj_index */);
-
-/**
- * Call a function for each mempool object in a memory chunk
- *
- * Iterate across objects of the given size and alignment in the
- * provided chunk of memory. The given memory buffer can consist of
- * disjointed physical pages.
- *
- * For each object, call the provided callback (if any). This function
- * is used to populate a mempool, or walk through all the elements of a
- * mempool, or estimate how many elements of the given size could be
- * created in the given memory buffer.
- *
- * @param vaddr
- *   Virtual address of the memory buffer.
- * @param elt_num
- *   Maximum number of objects to iterate through.
- * @param elt_sz
- *   Size of each object.
- * @param align
- *   Alignment of each object.
- * @param paddr
- *   Array of physical addresses of the pages that comprises given memory
- *   buffer.
- * @param pg_num
- *   Number of elements in the paddr array.
- * @param pg_shift
- *   LOG2 of the physical pages size.
- * @param obj_iter
- *   Object iterator callback function (could be NULL).
- * @param obj_iter_arg
- *   User defined parameter for the object iterator callback function.
+ * A memory callback function for mempool.
  *
- * @return
- *   Number of objects iterated through.
+ * Used by rte_mempool_mem_iter().
  */
-uint32_t rte_mempool_obj_iter(void *vaddr,
-       uint32_t elt_num, size_t elt_sz, size_t align,
-       const phys_addr_t paddr[], uint32_t pg_num, uint32_t pg_shift,
-       rte_mempool_obj_iter_t obj_iter, void *obj_iter_arg);
+typedef void (rte_mempool_mem_cb_t)(struct rte_mempool *mp,
+               void *opaque, struct rte_mempool_memhdr *memhdr,
+               unsigned mem_idx);
 
 /**
  * A mempool constructor callback function.
@@ -642,6 +604,42 @@ rte_dom0_mempool_create(const char *name, unsigned n, unsigned elt_size,
                int socket_id, unsigned flags);
 
 
+/**
+ * Call a function for each mempool element
+ *
+ * Iterate across all objects attached to a rte_mempool and call the
+ * callback function on it.
+ *
+ * @param mp
+ *   A pointer to an initialized mempool.
+ * @param obj_cb
+ *   A function pointer that is called for each object.
+ * @param obj_cb_arg
+ *   An opaque pointer passed to the callback function.
+ * @return
+ *   Number of objects iterated.
+ */
+uint32_t rte_mempool_obj_iter(struct rte_mempool *mp,
+       rte_mempool_obj_cb_t *obj_cb, void *obj_cb_arg);
+
+/**
+ * Call a function for each mempool memory chunk
+ *
+ * Iterate across all memory chunks attached to a rte_mempool and call
+ * the callback function on it.
+ *
+ * @param mp
+ *   A pointer to an initialized mempool.
+ * @param mem_cb
+ *   A function pointer that is called for each memory chunk.
+ * @param mem_cb_arg
+ *   An opaque pointer passed to the callback function.
+ * @return
+ *   Number of memory chunks iterated.
+ */
+uint32_t rte_mempool_mem_iter(struct rte_mempool *mp,
+       rte_mempool_mem_cb_t *mem_cb, void *mem_cb_arg);
+
 /**
  * Dump the status of the mempool to the console.
  *
@@ -1161,13 +1159,13 @@ rte_mempool_empty(const struct rte_mempool *mp)
  *   The physical address of the elt element.
  */
 static inline phys_addr_t
-rte_mempool_virt2phy(const struct rte_mempool *mp, const void *elt)
+rte_mempool_virt2phy(__rte_unused const struct rte_mempool *mp, const void *elt)
 {
        if (rte_eal_has_hugepages()) {
-               uintptr_t off;
-
-               off = (const char *)elt - (const char *)mp->elt_va_start;
-               return mp->elt_pa[off >> mp->pg_shift] + (off & mp->pg_mask);
+               const struct rte_mempool_objhdr *hdr;
+               hdr = (const struct rte_mempool_objhdr *)RTE_PTR_SUB(elt,
+                       sizeof(*hdr));
+               return hdr->physaddr;
        } else {
                /*
                 * If huge pages are disabled, we cannot assume the
@@ -1201,7 +1199,7 @@ void rte_mempool_audit(struct rte_mempool *mp);
 static inline void *rte_mempool_get_priv(struct rte_mempool *mp)
 {
        return (char *)mp +
-               MEMPOOL_HEADER_SIZE(mp, mp->pg_num, mp->cache_size);
+               MEMPOOL_HEADER_SIZE(mp, mp->cache_size);
 }
 
 /**
@@ -1263,7 +1261,7 @@ uint32_t rte_mempool_calc_obj_size(uint32_t elt_size, uint32_t flags,
  *   The size of each element, including header and trailer, as returned
  *   by rte_mempool_calc_obj_size().
  * @param pg_shift
- *   LOG2 of the physical pages size.
+ *   LOG2 of the physical pages size. If set to 0, ignore page boundaries.
  * @return
  *   Required memory size aligned at page boundary.
  */