memzone: rename address from physical to IOVA
[dpdk.git] / lib / librte_mempool / rte_mempool.c
index 146e386..aad3294 100644 (file)
@@ -239,9 +239,15 @@ rte_mempool_calc_obj_size(uint32_t elt_size, uint32_t flags,
  */
 size_t
 rte_mempool_xmem_size(uint32_t elt_num, size_t total_elt_sz, uint32_t pg_shift,
-                     __rte_unused unsigned int flags)
+                     unsigned int flags)
 {
        size_t obj_per_page, pg_num, pg_sz;
+       unsigned int mask;
+
+       mask = MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS | MEMPOOL_F_CAPA_PHYS_CONTIG;
+       if ((flags & mask) == mask)
+               /* alignment need one additional object */
+               elt_num += 1;
 
        if (total_elt_sz == 0)
                return 0;
@@ -265,12 +271,18 @@ rte_mempool_xmem_size(uint32_t elt_num, size_t total_elt_sz, uint32_t pg_shift,
 ssize_t
 rte_mempool_xmem_usage(__rte_unused void *vaddr, uint32_t elt_num,
        size_t total_elt_sz, const phys_addr_t paddr[], uint32_t pg_num,
-       uint32_t pg_shift, __rte_unused unsigned int flags)
+       uint32_t pg_shift, unsigned int flags)
 {
        uint32_t elt_cnt = 0;
        phys_addr_t start, end;
        uint32_t paddr_idx;
        size_t pg_sz = (size_t)1 << pg_shift;
+       unsigned int mask;
+
+       mask = MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS | MEMPOOL_F_CAPA_PHYS_CONTIG;
+       if ((flags & mask) == mask)
+               /* alignment need one additional object */
+               elt_num += 1;
 
        /* if paddr is NULL, assume contiguous memory */
        if (paddr == NULL) {
@@ -355,6 +367,11 @@ rte_mempool_populate_phys(struct rte_mempool *mp, char *vaddr,
        struct rte_mempool_memhdr *memhdr;
        int ret;
 
+       /* Notify memory area to mempool */
+       ret = rte_mempool_ops_register_memory_area(mp, vaddr, paddr, len);
+       if (ret != -ENOTSUP && ret < 0)
+               return ret;
+
        /* create the internal ring if not already done */
        if ((mp->flags & MEMPOOL_F_POOL_CREATED) == 0) {
                ret = rte_mempool_ops_alloc(mp);
@@ -390,7 +407,10 @@ rte_mempool_populate_phys(struct rte_mempool *mp, char *vaddr,
        memhdr->free_cb = free_cb;
        memhdr->opaque = opaque;
 
-       if (mp->flags & MEMPOOL_F_NO_CACHE_ALIGN)
+       if (mp->flags & MEMPOOL_F_CAPA_BLK_ALIGNED_OBJECTS)
+               /* align object start address to a multiple of total_elt_sz */
+               off = total_elt_sz - ((uintptr_t)vaddr % total_elt_sz);
+       else if (mp->flags & MEMPOOL_F_NO_CACHE_ALIGN)
                off = RTE_PTR_ALIGN_CEIL(vaddr, 8) - vaddr;
        else
                off = RTE_PTR_ALIGN_CEIL(vaddr, RTE_CACHE_LINE_SIZE) - vaddr;
@@ -483,9 +503,7 @@ rte_mempool_populate_virt(struct rte_mempool *mp, char *addr,
        for (off = 0; off + pg_sz <= len &&
                     mp->populated_size < mp->size; off += phys_len) {
 
-               paddr = rte_mem_virt2phy(addr + off);
-               /* required for xen_dom0 to get the machine address */
-               paddr = rte_mem_phy2mch(-1, paddr);
+               paddr = rte_mem_virt2iova(addr + off);
 
                if (paddr == RTE_BAD_PHYS_ADDR && rte_eal_has_hugepages()) {
                        ret = -EINVAL;
@@ -496,8 +514,7 @@ rte_mempool_populate_virt(struct rte_mempool *mp, char *addr,
                for (phys_len = pg_sz; off + phys_len < len; phys_len += pg_sz) {
                        phys_addr_t paddr_tmp;
 
-                       paddr_tmp = rte_mem_virt2phy(addr + off + phys_len);
-                       paddr_tmp = rte_mem_phy2mch(-1, paddr_tmp);
+                       paddr_tmp = rte_mem_virt2iova(addr + off + phys_len);
 
                        if (paddr_tmp != paddr + phys_len)
                                break;
@@ -542,20 +559,13 @@ rte_mempool_populate_default(struct rte_mempool *mp)
        /* Get mempool capabilities */
        mp_flags = 0;
        ret = rte_mempool_ops_get_capabilities(mp, &mp_flags);
-       if (ret == -ENOTSUP)
-               RTE_LOG(DEBUG, MEMPOOL, "get_capability not supported for %s\n",
-                                       mp->name);
-       else if (ret < 0)
+       if ((ret < 0) && (ret != -ENOTSUP))
                return ret;
 
        /* update mempool capabilities */
        mp->flags |= mp_flags;
 
-       if (rte_xen_dom0_supported()) {
-               pg_sz = RTE_PGSIZE_2M;
-               pg_shift = rte_bsf32(pg_sz);
-               align = pg_sz;
-       } else if (rte_eal_has_hugepages()) {
+       if (rte_eal_has_hugepages()) {
                pg_shift = 0; /* not needed, zone is physically contiguous */
                pg_sz = 0;
                align = RTE_CACHE_LINE_SIZE;
@@ -591,9 +601,9 @@ rte_mempool_populate_default(struct rte_mempool *mp)
                if (mp->flags & MEMPOOL_F_NO_PHYS_CONTIG)
                        paddr = RTE_BAD_PHYS_ADDR;
                else
-                       paddr = mz->phys_addr;
+                       paddr = mz->iova;
 
-               if (rte_eal_has_hugepages() && !rte_xen_dom0_supported())
+               if (rte_eal_has_hugepages())
                        ret = rte_mempool_populate_phys(mp, mz->addr,
                                paddr, mz->len,
                                rte_mempool_memchunk_mz_free,
@@ -1203,7 +1213,7 @@ rte_mempool_dump(FILE *f, struct rte_mempool *mp)
        fprintf(f, "mempool <%s>@%p\n", mp->name, mp);
        fprintf(f, "  flags=%x\n", mp->flags);
        fprintf(f, "  pool=%p\n", mp->pool_data);
-       fprintf(f, "  phys_addr=0x%" PRIx64 "\n", mp->mz->phys_addr);
+       fprintf(f, "  iova=0x%" PRIx64 "\n", mp->mz->iova);
        fprintf(f, "  nb_mem_chunks=%u\n", mp->nb_mem_chunks);
        fprintf(f, "  size=%"PRIu32"\n", mp->size);
        fprintf(f, "  populated_size=%"PRIu32"\n", mp->populated_size);