]> git.droids-corp.org - dpdk.git/commitdiff
mempool: remove callback to get capabilities
authorAndrew Rybchenko <arybchenko@solarflare.com>
Mon, 16 Apr 2018 13:24:35 +0000 (14:24 +0100)
committerThomas Monjalon <thomas@monjalon.net>
Tue, 24 Apr 2018 00:16:12 +0000 (02:16 +0200)
The callback was introduced to let generic code to know octeontx
mempool driver requirements to use single physically contiguous
memory chunk to store all objects and align object address to
total object size. Now these requirements are met using a new
callbacks to calculate required memory chunk size and to populate
objects using provided memory chunk.

These capability flags are not used anywhere else.

Restricting capabilities to flags is not generic and likely to
be insufficient to describe mempool driver features. If required
in the future, API which returns structured information may be
added.

Signed-off-by: Andrew Rybchenko <arybchenko@solarflare.com>
Acked-by: Santosh Shukla <santosh.shukla@caviumnetworks.com>
Acked-by: Olivier Matz <olivier.matz@6wind.com>
doc/guides/rel_notes/deprecation.rst
doc/guides/rel_notes/release_18_05.rst
drivers/mempool/octeontx/rte_mempool_octeontx.c
lib/librte_mempool/rte_mempool.c
lib/librte_mempool/rte_mempool.h
lib/librte_mempool/rte_mempool_ops.c
lib/librte_mempool/rte_mempool_ops_default.c
lib/librte_mempool/rte_mempool_version.map

index f4e6fe6c5bfe2eede3c73e90481740a000fc87a4..8eaf172e93f23be6a40214ed60c2809f66805a58 100644 (file)
@@ -58,7 +58,6 @@ Deprecation Notices
 
   The following changes are planned:
 
-  - removal of ``get_capabilities`` mempool ops and related flags.
   - substitute ``register_memory_area`` with ``populate`` ops.
   - addition of new op to allocate contiguous
     block of objects if underlying driver supports it.
index 8686fc26762efdf1ab5fb0838b9963cfed69359a..b344b5ca49dcd7c02412d2c68d2b170a3209457d 100644 (file)
@@ -148,6 +148,14 @@ API Changes
    Also, make sure to start the actual text at the margin.
    =========================================================
 
+* mempool: capability flags and related functions have been removed.
+
+  Flags ``MEMPOOL_F_CAPA_PHYS_CONTIG`` and
+  ``MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS`` were used by octeontx mempool
+  driver to customize generic mempool library behaviour.
+  Now the new driver callbacks ``calc_mem_size`` and ``populate`` may be
+  used to achieve it without specific knowledge in the generic code.
+
 * mbuf: The control mbuf API has been removed in v18.05. The impacted
   functions and macros are:
 
@@ -232,6 +240,9 @@ ABI Changes
   to allow to customize required memory size calculation.
   A new callback ``populate`` has been added to ``rte_mempool_ops``
   to allow to customize objects population.
+  Callback ``get_capabilities`` has been removed from ``rte_mempool_ops``
+  since its features are covered by ``calc_mem_size`` and ``populate``
+  callbacks.
 
 * **Additional fields in rte_eth_dev_info.**
 
index d143d05cb02481729ba7a23d1313a1eef4813427..64ed5286d3127d4d12e3a04febd4a0383e8730b7 100644 (file)
@@ -126,14 +126,29 @@ octeontx_fpavf_get_count(const struct rte_mempool *mp)
        return octeontx_fpa_bufpool_free_count(pool);
 }
 
-static int
-octeontx_fpavf_get_capabilities(const struct rte_mempool *mp,
-                               unsigned int *flags)
+static ssize_t
+octeontx_fpavf_calc_mem_size(const struct rte_mempool *mp,
+                            uint32_t obj_num, uint32_t pg_shift,
+                            size_t *min_chunk_size, size_t *align)
 {
-       RTE_SET_USED(mp);
-       *flags |= (MEMPOOL_F_CAPA_PHYS_CONTIG |
-                       MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS);
-       return 0;
+       ssize_t mem_size;
+
+       /*
+        * Simply need space for one more object to be able to
+        * fulfil alignment requirements.
+        */
+       mem_size = rte_mempool_op_calc_mem_size_default(mp, obj_num + 1,
+                                                       pg_shift,
+                                                       min_chunk_size, align);
+       if (mem_size >= 0) {
+               /*
+                * Memory area which contains objects must be physically
+                * contiguous.
+                */
+               *min_chunk_size = mem_size;
+       }
+
+       return mem_size;
 }
 
 static int
@@ -150,6 +165,33 @@ octeontx_fpavf_register_memory_area(const struct rte_mempool *mp,
        return octeontx_fpavf_pool_set_range(pool_bar, len, vaddr, gpool);
 }
 
+static int
+octeontx_fpavf_populate(struct rte_mempool *mp, unsigned int max_objs,
+                       void *vaddr, rte_iova_t iova, size_t len,
+                       rte_mempool_populate_obj_cb_t *obj_cb, void *obj_cb_arg)
+{
+       size_t total_elt_sz;
+       size_t off;
+
+       if (iova == RTE_BAD_IOVA)
+               return -EINVAL;
+
+       total_elt_sz = mp->header_size + mp->elt_size + mp->trailer_size;
+
+       /* align object start address to a multiple of total_elt_sz */
+       off = total_elt_sz - ((uintptr_t)vaddr % total_elt_sz);
+
+       if (len < off)
+               return -EINVAL;
+
+       vaddr = (char *)vaddr + off;
+       iova += off;
+       len -= off;
+
+       return rte_mempool_op_populate_default(mp, max_objs, vaddr, iova, len,
+                                              obj_cb, obj_cb_arg);
+}
+
 static struct rte_mempool_ops octeontx_fpavf_ops = {
        .name = "octeontx_fpavf",
        .alloc = octeontx_fpavf_alloc,
@@ -157,8 +199,9 @@ static struct rte_mempool_ops octeontx_fpavf_ops = {
        .enqueue = octeontx_fpavf_enqueue,
        .dequeue = octeontx_fpavf_dequeue,
        .get_count = octeontx_fpavf_get_count,
-       .get_capabilities = octeontx_fpavf_get_capabilities,
        .register_memory_area = octeontx_fpavf_register_memory_area,
+       .calc_mem_size = octeontx_fpavf_calc_mem_size,
+       .populate = octeontx_fpavf_populate,
 };
 
 MEMPOOL_REGISTER_OPS(octeontx_fpavf_ops);
index 68ae12f7d3ac1bb8288352be38a34bcaa25202f4..5c75c16948bbabc4e362055f21911168e6906cea 100644 (file)
@@ -231,15 +231,9 @@ rte_mempool_calc_obj_size(uint32_t elt_size, uint32_t flags,
  */
 size_t
 rte_mempool_xmem_size(uint32_t elt_num, size_t total_elt_sz, uint32_t pg_shift,
-                     unsigned int flags)
+                     __rte_unused unsigned int flags)
 {
        size_t obj_per_page, pg_num, pg_sz;
-       unsigned int mask;
-
-       mask = MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS | MEMPOOL_F_CAPA_PHYS_CONTIG;
-       if ((flags & mask) == mask)
-               /* alignment need one additional object */
-               elt_num += 1;
 
        if (total_elt_sz == 0)
                return 0;
@@ -263,18 +257,12 @@ rte_mempool_xmem_size(uint32_t elt_num, size_t total_elt_sz, uint32_t pg_shift,
 ssize_t
 rte_mempool_xmem_usage(__rte_unused void *vaddr, uint32_t elt_num,
        size_t total_elt_sz, const rte_iova_t iova[], uint32_t pg_num,
-       uint32_t pg_shift, unsigned int flags)
+       uint32_t pg_shift, __rte_unused unsigned int flags)
 {
        uint32_t elt_cnt = 0;
        rte_iova_t start, end;
        uint32_t iova_idx;
        size_t pg_sz = (size_t)1 << pg_shift;
-       unsigned int mask;
-
-       mask = MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS | MEMPOOL_F_CAPA_PHYS_CONTIG;
-       if ((flags & mask) == mask)
-               /* alignment need one additional object */
-               elt_num += 1;
 
        /* if iova is NULL, assume contiguous memory */
        if (iova == NULL) {
@@ -368,8 +356,6 @@ rte_mempool_populate_iova(struct rte_mempool *mp, char *vaddr,
        rte_iova_t iova, size_t len, rte_mempool_memchunk_free_cb_t *free_cb,
        void *opaque)
 {
-       unsigned total_elt_sz;
-       unsigned int mp_capa_flags;
        unsigned i = 0;
        size_t off;
        struct rte_mempool_memhdr *memhdr;
@@ -388,17 +374,6 @@ rte_mempool_populate_iova(struct rte_mempool *mp, char *vaddr,
        if (mp->populated_size >= mp->size)
                return -ENOSPC;
 
-       total_elt_sz = mp->header_size + mp->elt_size + mp->trailer_size;
-
-       /* Get mempool capabilities */
-       mp_capa_flags = 0;
-       ret = rte_mempool_ops_get_capabilities(mp, &mp_capa_flags);
-       if ((ret < 0) && (ret != -ENOTSUP))
-               return ret;
-
-       /* update mempool capabilities */
-       mp->flags |= mp_capa_flags;
-
        memhdr = rte_zmalloc("MEMPOOL_MEMHDR", sizeof(*memhdr), 0);
        if (memhdr == NULL)
                return -ENOMEM;
@@ -410,10 +385,7 @@ rte_mempool_populate_iova(struct rte_mempool *mp, char *vaddr,
        memhdr->free_cb = free_cb;
        memhdr->opaque = opaque;
 
-       if (mp_capa_flags & MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS)
-               /* align object start address to a multiple of total_elt_sz */
-               off = total_elt_sz - ((uintptr_t)vaddr % total_elt_sz);
-       else if (mp->flags & MEMPOOL_F_NO_CACHE_ALIGN)
+       if (mp->flags & MEMPOOL_F_NO_CACHE_ALIGN)
                off = RTE_PTR_ALIGN_CEIL(vaddr, 8) - vaddr;
        else
                off = RTE_PTR_ALIGN_CEIL(vaddr, RTE_CACHE_LINE_SIZE) - vaddr;
index 754261e9f439eb2bf572375e756af485cfdaf8a7..0b83d5ec29ccaca64ae0fedf9086cafcc2194f56 100644 (file)
@@ -246,24 +246,6 @@ struct rte_mempool {
 #define MEMPOOL_F_POOL_CREATED   0x0010 /**< Internal: pool is created. */
 #define MEMPOOL_F_NO_IOVA_CONTIG 0x0020 /**< Don't need IOVA contiguous objs. */
 #define MEMPOOL_F_NO_PHYS_CONTIG MEMPOOL_F_NO_IOVA_CONTIG /* deprecated */
-/**
- * This capability flag is advertised by a mempool handler, if the whole
- * memory area containing the objects must be physically contiguous.
- * Note: This flag should not be passed by application.
- */
-#define MEMPOOL_F_CAPA_PHYS_CONTIG 0x0040
-/**
- * This capability flag is advertised by a mempool handler. Used for a case
- * where mempool driver wants object start address(vaddr) aligned to block
- * size(/ total element size).
- *
- * Note:
- * - This flag should not be passed by application.
- *   Flag used for mempool driver only.
- * - Mempool driver must also set MEMPOOL_F_CAPA_PHYS_CONTIG flag along with
- *   MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS.
- */
-#define MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS 0x0080
 
 /**
  * @internal When debug is enabled, store some statistics.
@@ -388,12 +370,6 @@ typedef int (*rte_mempool_dequeue_t)(struct rte_mempool *mp,
  */
 typedef unsigned (*rte_mempool_get_count)(const struct rte_mempool *mp);
 
-/**
- * Get the mempool capabilities.
- */
-typedef int (*rte_mempool_get_capabilities_t)(const struct rte_mempool *mp,
-               unsigned int *flags);
-
 /**
  * Notify new memory area to mempool.
  */
@@ -440,13 +416,7 @@ typedef ssize_t (*rte_mempool_calc_mem_size_t)(const struct rte_mempool *mp,
  * that pages are grouped in subsets of physically continuous pages big
  * enough to store at least one object.
  *
- * If mempool driver requires object addresses to be block size aligned
- * (MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS), space for one extra element is
- * reserved to be able to meet the requirement.
- *
- * Minimum size of memory chunk is either all required space, if
- * capabilities say that whole memory area must be physically contiguous
- * (MEMPOOL_F_CAPA_PHYS_CONTIG), or a maximum of the page size and total
+ * Minimum size of memory chunk is a maximum of the page size and total
  * element size.
  *
  * Required memory chunk alignment is a maximum of page size and cache
@@ -521,10 +491,6 @@ struct rte_mempool_ops {
        rte_mempool_enqueue_t enqueue;   /**< Enqueue an object. */
        rte_mempool_dequeue_t dequeue;   /**< Dequeue an object. */
        rte_mempool_get_count get_count; /**< Get qty of available objs. */
-       /**
-        * Get the mempool capabilities
-        */
-       rte_mempool_get_capabilities_t get_capabilities;
        /**
         * Notify new memory area to mempool
         */
@@ -650,22 +616,6 @@ rte_mempool_ops_enqueue_bulk(struct rte_mempool *mp, void * const *obj_table,
 unsigned
 rte_mempool_ops_get_count(const struct rte_mempool *mp);
 
-/**
- * @internal wrapper for mempool_ops get_capabilities callback.
- *
- * @param mp [in]
- *   Pointer to the memory pool.
- * @param flags [out]
- *   Pointer to the mempool flags.
- * @return
- *   - 0: Success; The mempool driver has advertised his pool capabilities in
- *   flags param.
- *   - -ENOTSUP - doesn't support get_capabilities ops (valid case).
- *   - Otherwise, pool create fails.
- */
-int
-rte_mempool_ops_get_capabilities(const struct rte_mempool *mp,
-                                       unsigned int *flags);
 /**
  * @internal wrapper for mempool_ops register_memory_area callback.
  * API to notify the mempool handler when a new memory area is added to pool.
index 1a7f39f37bfea263ec61eaa02580baf0d31828c7..6ac669a4256fc7e7ff6267f53c4cc51c8cb4303a 100644 (file)
@@ -57,7 +57,6 @@ rte_mempool_register_ops(const struct rte_mempool_ops *h)
        ops->enqueue = h->enqueue;
        ops->dequeue = h->dequeue;
        ops->get_count = h->get_count;
-       ops->get_capabilities = h->get_capabilities;
        ops->register_memory_area = h->register_memory_area;
        ops->calc_mem_size = h->calc_mem_size;
        ops->populate = h->populate;
@@ -99,19 +98,6 @@ rte_mempool_ops_get_count(const struct rte_mempool *mp)
        return ops->get_count(mp);
 }
 
-/* wrapper to get external mempool capabilities. */
-int
-rte_mempool_ops_get_capabilities(const struct rte_mempool *mp,
-                                       unsigned int *flags)
-{
-       struct rte_mempool_ops *ops;
-
-       ops = rte_mempool_get_ops(mp->ops_index);
-
-       RTE_FUNC_PTR_OR_ERR_RET(ops->get_capabilities, -ENOTSUP);
-       return ops->get_capabilities(mp, flags);
-}
-
 /* wrapper to notify new memory area to external mempool */
 int
 rte_mempool_ops_register_memory_area(const struct rte_mempool *mp, char *vaddr,
index 57295f79ac6fd0fc2be29cffebf3ffd0fa434336..3defc1593f26fc515c4c75b89252346ea37e2aa1 100644 (file)
@@ -11,26 +11,15 @@ rte_mempool_op_calc_mem_size_default(const struct rte_mempool *mp,
                                     uint32_t obj_num, uint32_t pg_shift,
                                     size_t *min_chunk_size, size_t *align)
 {
-       unsigned int mp_flags;
-       int ret;
        size_t total_elt_sz;
        size_t mem_size;
 
-       /* Get mempool capabilities */
-       mp_flags = 0;
-       ret = rte_mempool_ops_get_capabilities(mp, &mp_flags);
-       if ((ret < 0) && (ret != -ENOTSUP))
-               return ret;
-
        total_elt_sz = mp->header_size + mp->elt_size + mp->trailer_size;
 
        mem_size = rte_mempool_xmem_size(obj_num, total_elt_sz, pg_shift,
-                                        mp->flags | mp_flags);
+                                        mp->flags);
 
-       if (mp_flags & MEMPOOL_F_CAPA_PHYS_CONTIG)
-               *min_chunk_size = mem_size;
-       else
-               *min_chunk_size = RTE_MAX((size_t)1 << pg_shift, total_elt_sz);
+       *min_chunk_size = RTE_MAX((size_t)1 << pg_shift, total_elt_sz);
 
        *align = RTE_MAX((size_t)RTE_CACHE_LINE_SIZE, (size_t)1 << pg_shift);
 
index 41a0b09dd3f543bb5af9abd2488e0f2b209e0f83..637f73f3bd1ceec024a870e4437d85edbce2c2ae 100644 (file)
@@ -45,7 +45,6 @@ DPDK_16.07 {
 DPDK_17.11 {
        global:
 
-       rte_mempool_ops_get_capabilities;
        rte_mempool_ops_register_memory_area;
        rte_mempool_populate_iova;
        rte_mempool_populate_iova_tab;