cryptodev: reorganize asymmetric structs
[dpdk.git] / lib / eal / common / malloc_heap.c
index ee400f3..97191bc 100644 (file)
@@ -93,11 +93,11 @@ malloc_socket_to_heap_id(unsigned int socket_id)
  */
 static struct malloc_elem *
 malloc_heap_add_memory(struct malloc_heap *heap, struct rte_memseg_list *msl,
-               void *start, size_t len)
+               void *start, size_t len, bool dirty)
 {
        struct malloc_elem *elem = start;
 
-       malloc_elem_init(elem, heap, msl, len, elem, len);
+       malloc_elem_init(elem, heap, msl, len, elem, len, dirty);
 
        malloc_elem_insert(elem);
 
@@ -135,7 +135,8 @@ malloc_add_seg(const struct rte_memseg_list *msl,
 
        found_msl = &mcfg->memsegs[msl_idx];
 
-       malloc_heap_add_memory(heap, found_msl, ms->addr, len);
+       malloc_heap_add_memory(heap, found_msl, ms->addr, len,
+                       ms->flags & RTE_MEMSEG_FLAG_DIRTY);
 
        heap->total_size += len;
 
@@ -237,6 +238,7 @@ heap_alloc(struct malloc_heap *heap, const char *type __rte_unused, size_t size,
                unsigned int flags, size_t align, size_t bound, bool contig)
 {
        struct malloc_elem *elem;
+       size_t user_size = size;
 
        size = RTE_CACHE_LINE_ROUNDUP(size);
        align = RTE_CACHE_LINE_ROUNDUP(align);
@@ -250,6 +252,8 @@ heap_alloc(struct malloc_heap *heap, const char *type __rte_unused, size_t size,
 
                /* increase heap's count of allocated elements */
                heap->alloc_count++;
+
+               asan_set_redzone(elem, user_size);
        }
 
        return elem == NULL ? NULL : (void *)(&elem[1]);
@@ -270,6 +274,8 @@ heap_alloc_biggest(struct malloc_heap *heap, const char *type __rte_unused,
 
                /* increase heap's count of allocated elements */
                heap->alloc_count++;
+
+               asan_set_redzone(elem, size);
        }
 
        return elem == NULL ? NULL : (void *)(&elem[1]);
@@ -298,7 +304,8 @@ alloc_pages_on_heap(struct malloc_heap *heap, uint64_t pg_sz, size_t elt_size,
        struct rte_memseg_list *msl;
        struct malloc_elem *elem = NULL;
        size_t alloc_sz;
-       int allocd_pages;
+       int allocd_pages, i;
+       bool dirty = false;
        void *ret, *map_addr;
 
        alloc_sz = (size_t)pg_sz * n_segs;
@@ -367,8 +374,12 @@ alloc_pages_on_heap(struct malloc_heap *heap, uint64_t pg_sz, size_t elt_size,
                goto fail;
        }
 
+       /* Element is dirty if it contains at least one dirty page. */
+       for (i = 0; i < allocd_pages; i++)
+               dirty |= ms[i]->flags & RTE_MEMSEG_FLAG_DIRTY;
+
        /* add newly minted memsegs to malloc heap */
-       elem = malloc_heap_add_memory(heap, msl, map_addr, alloc_sz);
+       elem = malloc_heap_add_memory(heap, msl, map_addr, alloc_sz, dirty);
 
        /* try once more, as now we have allocated new memory */
        ret = find_suitable_element(heap, elt_size, flags, align, bound,
@@ -694,6 +705,26 @@ alloc_unlock:
        return ret;
 }
 
+static unsigned int
+malloc_get_numa_socket(void)
+{
+       const struct internal_config *conf = eal_get_internal_configuration();
+       unsigned int socket_id = rte_socket_id();
+       unsigned int idx;
+
+       if (socket_id != (unsigned int)SOCKET_ID_ANY)
+               return socket_id;
+
+       /* for control threads, return first socket where memory is available */
+       for (idx = 0; idx < rte_socket_count(); idx++) {
+               socket_id = rte_socket_id_by_idx(idx);
+               if (conf->socket_mem[socket_id] != 0)
+                       return socket_id;
+       }
+
+       return rte_socket_id_by_idx(0);
+}
+
 void *
 malloc_heap_alloc(const char *type, size_t size, int socket_arg,
                unsigned int flags, size_t align, size_t bound, bool contig)
@@ -841,6 +872,8 @@ malloc_heap_free(struct malloc_elem *elem)
        if (!malloc_elem_cookies_ok(elem) || elem->state != ELEM_BUSY)
                return -1;
 
+       asan_clear_redzone(elem);
+
        /* elem may be merged with previous element, so keep heap address */
        heap = elem->heap;
        msl = elem->msl;
@@ -848,6 +881,9 @@ malloc_heap_free(struct malloc_elem *elem)
 
        rte_spinlock_lock(&(heap->lock));
 
+       void *asan_ptr = RTE_PTR_ADD(elem, MALLOC_ELEM_HEADER_LEN + elem->pad);
+       size_t asan_data_len = elem->size - MALLOC_ELEM_OVERHEAD - elem->pad;
+
        /* mark element as free */
        elem->state = ELEM_FREE;
 
@@ -1001,6 +1037,8 @@ malloc_heap_free(struct malloc_elem *elem)
 
        rte_mcfg_mem_write_unlock();
 free_unlock:
+       asan_set_freezone(asan_ptr, asan_data_len);
+
        rte_spinlock_unlock(&(heap->lock));
        return ret;
 }
@@ -1228,7 +1266,7 @@ malloc_heap_add_external_memory(struct malloc_heap *heap,
        memset(msl->base_va, 0, msl->len);
 
        /* now, add newly minted memory to the malloc heap */
-       malloc_heap_add_memory(heap, msl, msl->base_va, msl->len);
+       malloc_heap_add_memory(heap, msl, msl->base_va, msl->len, false);
 
        heap->total_size += msl->len;
 
@@ -1371,3 +1409,9 @@ rte_eal_malloc_heap_init(void)
        /* add all IOVA-contiguous areas to the heap */
        return rte_memseg_contig_walk(malloc_add_seg, NULL);
 }
+
+void
+rte_eal_malloc_heap_cleanup(void)
+{
+       unregister_mp_requests();
+}