]> git.droids-corp.org - dpdk.git/commitdiff
mem: rename DMA mask check with proper prefix
authorAlejandro Lucero <alejandro.lucero@netronome.com>
Thu, 1 Nov 2018 19:53:25 +0000 (19:53 +0000)
committerThomas Monjalon <thomas@monjalon.net>
Mon, 5 Nov 2018 00:01:54 +0000 (01:01 +0100)
Current name rte_eal_check_dma_mask does not follow the naming
used in the rest of the file.

Signed-off-by: Alejandro Lucero <alejandro.lucero@netronome.com>
Tested-by: Ferruh Yigit <ferruh.yigit@intel.com>
doc/guides/rel_notes/release_18_11.rst
drivers/bus/pci/linux/pci.c
drivers/net/nfp/nfp_net.c
lib/librte_eal/common/eal_common_memory.c
lib/librte_eal/common/include/rte_memory.h
lib/librte_eal/common/malloc_heap.c
lib/librte_eal/rte_eal_version.map

index 376128f684415f7734da0cda276d522216c15dc6..11a27405cc1652280b8387d155763d0926ebeec6 100644 (file)
@@ -63,7 +63,7 @@ New Features
 * **Added check for ensuring allocated memory addressable by devices.**
 
   Some devices can have addressing limitations so a new function,
 * **Added check for ensuring allocated memory addressable by devices.**
 
   Some devices can have addressing limitations so a new function,
-  ``rte_eal_check_dma_mask``, has been added for checking allocated memory is
+  ``rte_mem_check_dma_mask``, has been added for checking allocated memory is
   not out of the device range. Because now memory can be dynamically allocated
   after initialization, a dma mask is kept and any new allocated memory will be
   checked out against that dma mask and rejected if out of range. If more than
   not out of the device range. Because now memory can be dynamically allocated
   after initialization, a dma mask is kept and any new allocated memory will be
   checked out against that dma mask and rejected if out of range. If more than
index 1783ec7f53d20fe329a2c82ed2870865eb6981c6..7576b0e73992b7507ac73f7255e299a133c1d8c3 100644 (file)
@@ -615,7 +615,7 @@ pci_one_device_iommu_support_va(struct rte_pci_device *dev)
 
        mgaw = ((vtd_cap_reg & VTD_CAP_MGAW_MASK) >> VTD_CAP_MGAW_SHIFT) + 1;
 
 
        mgaw = ((vtd_cap_reg & VTD_CAP_MGAW_MASK) >> VTD_CAP_MGAW_SHIFT) + 1;
 
-       return rte_eal_check_dma_mask(mgaw) == 0 ? true : false;
+       return rte_mem_check_dma_mask(mgaw) == 0 ? true : false;
 }
 #elif defined(RTE_ARCH_PPC_64)
 static bool
 }
 #elif defined(RTE_ARCH_PPC_64)
 static bool
index bab1f68ebaf3240facb4e1b7a7b01a0229aede84..54c6da9243f74156511c6e909530c8710725b660 100644 (file)
@@ -2703,7 +2703,7 @@ nfp_net_init(struct rte_eth_dev *eth_dev)
        pci_dev = RTE_ETH_DEV_TO_PCI(eth_dev);
 
        /* NFP can not handle DMA addresses requiring more than 40 bits */
        pci_dev = RTE_ETH_DEV_TO_PCI(eth_dev);
 
        /* NFP can not handle DMA addresses requiring more than 40 bits */
-       if (rte_eal_check_dma_mask(40)) {
+       if (rte_mem_check_dma_mask(40)) {
                RTE_LOG(ERR, PMD, "device %s can not be used:",
                                   pci_dev->device.name);
                RTE_LOG(ERR, PMD, "\trestricted dma mask to 40 bits!\n");
                RTE_LOG(ERR, PMD, "device %s can not be used:",
                                   pci_dev->device.name);
                RTE_LOG(ERR, PMD, "\trestricted dma mask to 40 bits!\n");
index 12dcedf5c415bc0b2dc875b51a82e35d02506e5c..e0f08f39a6f86469e6d06fc6bde6bddea39ed1eb 100644 (file)
@@ -49,7 +49,7 @@ static uint64_t system_page_sz;
  * Current known limitations are 39 or 40 bits. Setting the starting address
  * at 4GB implies there are 508GB or 1020GB for mapping the available
  * hugepages. This is likely enough for most systems, although a device with
  * Current known limitations are 39 or 40 bits. Setting the starting address
  * at 4GB implies there are 508GB or 1020GB for mapping the available
  * hugepages. This is likely enough for most systems, although a device with
- * addressing limitations should call rte_eal_check_dma_mask for ensuring all
+ * addressing limitations should call rte_mem_check_dma_mask for ensuring all
  * memory is within supported range.
  */
 static uint64_t baseaddr = 0x100000000;
  * memory is within supported range.
  */
 static uint64_t baseaddr = 0x100000000;
@@ -447,7 +447,7 @@ check_iova(const struct rte_memseg_list *msl __rte_unused,
 
 /* check memseg iovas are within the required range based on dma mask */
 int __rte_experimental
 
 /* check memseg iovas are within the required range based on dma mask */
 int __rte_experimental
-rte_eal_check_dma_mask(uint8_t maskbits)
+rte_mem_check_dma_mask(uint8_t maskbits)
 {
        struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
        uint64_t mask;
 {
        struct rte_mem_config *mcfg = rte_eal_get_configuration()->mem_config;
        uint64_t mask;
index ce9370582c1c83ebb4e724c2cd9bb357509211f6..ad3f3cfb01a908a100547446c419e9cc167826ff 100644 (file)
@@ -464,7 +464,7 @@ unsigned rte_memory_get_nchannel(void);
 unsigned rte_memory_get_nrank(void);
 
 /* check memsegs iovas are within a range based on dma mask */
 unsigned rte_memory_get_nrank(void);
 
 /* check memsegs iovas are within a range based on dma mask */
-int __rte_experimental rte_eal_check_dma_mask(uint8_t maskbits);
+int __rte_experimental rte_mem_check_dma_mask(uint8_t maskbits);
 
 /**
  * Drivers based on uio will not load unless physical
 
 /**
  * Drivers based on uio will not load unless physical
index d1019e3cd556056d0de68f49f62124c2c09e41de..4997c5ef5dbf1758321cb8383284a444f49b3c02 100644 (file)
@@ -322,7 +322,7 @@ alloc_pages_on_heap(struct malloc_heap *heap, uint64_t pg_sz, size_t elt_size,
        }
 
        if (mcfg->dma_maskbits) {
        }
 
        if (mcfg->dma_maskbits) {
-               if (rte_eal_check_dma_mask(mcfg->dma_maskbits)) {
+               if (rte_mem_check_dma_mask(mcfg->dma_maskbits)) {
                        RTE_LOG(ERR, EAL,
                                "%s(): couldn't allocate memory due to DMA mask\n",
                                __func__);
                        RTE_LOG(ERR, EAL,
                                "%s(): couldn't allocate memory due to DMA mask\n",
                                __func__);
index 04f6242460b78cec5cea74396976f3af2e4ba323..4eb16ee3beaacb20541608f96d98e1adec6d5c7d 100644 (file)
@@ -295,7 +295,6 @@ EXPERIMENTAL {
        rte_devargs_parsef;
        rte_devargs_remove;
        rte_devargs_type_count;
        rte_devargs_parsef;
        rte_devargs_remove;
        rte_devargs_type_count;
-       rte_eal_check_dma_mask;
        rte_eal_cleanup;
        rte_fbarray_attach;
        rte_fbarray_destroy;
        rte_eal_cleanup;
        rte_fbarray_attach;
        rte_fbarray_destroy;
@@ -331,6 +330,7 @@ EXPERIMENTAL {
        rte_malloc_heap_socket_is_external;
        rte_mem_alloc_validator_register;
        rte_mem_alloc_validator_unregister;
        rte_malloc_heap_socket_is_external;
        rte_mem_alloc_validator_register;
        rte_mem_alloc_validator_unregister;
+       rte_mem_check_dma_mask;
        rte_mem_event_callback_register;
        rte_mem_event_callback_unregister;
        rte_mem_iova2virt;
        rte_mem_event_callback_register;
        rte_mem_event_callback_unregister;
        rte_mem_iova2virt;