mem: fix use after free in legacy mem init
authorAnatoly Burakov <anatoly.burakov@intel.com>
Tue, 6 Nov 2018 14:13:29 +0000 (14:13 +0000)
committerThomas Monjalon <thomas@monjalon.net>
Tue, 6 Nov 2018 23:06:38 +0000 (00:06 +0100)
Adding an additional failure path in DMA mask check has exposed an
issue where `hugepage` pointer may point to memory that has already
been unmapped, but pointer value is still not NULL, so failure
handler will attempt to unmap it second time if DMA mask check
fails. Fix it by setting `hugepage` pointer to NULL once it is no
longer needed.

Coverity issue: 325730
Fixes: 165c89b84538 ("mem: use DMA mask check for legacy memory")

Signed-off-by: Anatoly Burakov <anatoly.burakov@intel.com>
lib/librte_eal/linuxapp/eal/eal_memory.c

index c1b5e07..48b23ce 100644 (file)
@@ -1617,6 +1617,7 @@ eal_legacy_hugepage_init(void)
        tmp_hp = NULL;
 
        munmap(hugepage, nr_hugefiles * sizeof(struct hugepage_file));
+       hugepage = NULL;
 
        /* we're not going to allocate more pages, so release VA space for
         * unused memseg lists