net/mlx5: fix alignment of memory region
[dpdk.git] / drivers / net / mlx5 / mlx5_mr.c
index 28769d3..1b4c7ec 100644 (file)
@@ -1,38 +1,8 @@
-/*-
- *   BSD LICENSE
- *
- *   Copyright 2016 6WIND S.A.
- *   Copyright 2016 Mellanox.
- *
- *   Redistribution and use in source and binary forms, with or without
- *   modification, are permitted provided that the following conditions
- *   are met:
- *
- *     * Redistributions of source code must retain the above copyright
- *       notice, this list of conditions and the following disclaimer.
- *     * Redistributions in binary form must reproduce the above copyright
- *       notice, this list of conditions and the following disclaimer in
- *       the documentation and/or other materials provided with the
- *       distribution.
- *     * Neither the name of 6WIND S.A. nor the names of its
- *       contributors may be used to endorse or promote products derived
- *       from this software without specific prior written permission.
- *
- *   THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
- *   "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
- *   LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
- *   A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
- *   OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
- *   SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
- *   LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
- *   DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
- *   THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
- *   (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
- *   OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
+/* SPDX-License-Identifier: BSD-3-Clause
+ * Copyright 2016 6WIND S.A.
+ * Copyright 2016 Mellanox Technologies, Ltd
  */
 
-/* Verbs header. */
-/* ISO C doesn't support unnamed structs/unions, disabling -pedantic. */
 #ifdef PEDANTIC
 #pragma GCC diagnostic ignored "-Wpedantic"
 #endif
@@ -56,15 +26,12 @@ struct mlx5_check_mempool_data {
 
 /* Called by mlx5_check_mempool() when iterating the memory chunks. */
 static void
-mlx5_check_mempool_cb(struct rte_mempool *mp,
+mlx5_check_mempool_cb(struct rte_mempool *mp __rte_unused,
                      void *opaque, struct rte_mempool_memhdr *memhdr,
-                     unsigned int mem_idx)
+                     unsigned int mem_idx __rte_unused)
 {
        struct mlx5_check_mempool_data *data = opaque;
 
-       (void)mp;
-       (void)mem_idx;
-
        /* It already failed, skip the next chunks. */
        if (data->ret != 0)
                return;
@@ -99,8 +66,9 @@ mlx5_check_mempool_cb(struct rte_mempool *mp,
  * @return
  *   0 on success (mempool is virtually contiguous), -1 on error.
  */
-static int mlx5_check_mempool(struct rte_mempool *mp, uintptr_t *start,
-       uintptr_t *end)
+static int
+mlx5_check_mempool(struct rte_mempool *mp, uintptr_t *start,
+                  uintptr_t *end)
 {
        struct mlx5_check_mempool_data data;
 
@@ -108,7 +76,6 @@ static int mlx5_check_mempool(struct rte_mempool *mp, uintptr_t *start,
        rte_mempool_mem_iter(mp, mlx5_check_mempool_cb, &data);
        *start = (uintptr_t)data.start;
        *end = (uintptr_t)data.end;
-
        return data.ret;
 }
 
@@ -116,10 +83,6 @@ static int mlx5_check_mempool(struct rte_mempool *mp, uintptr_t *start,
  * Register a Memory Region (MR) <-> Memory Pool (MP) association in
  * txq->mp2mr[]. If mp2mr[] is full, remove an entry first.
  *
- * This function should only be called by txq_mp2mr().
- *
- * @param priv
- *   Pointer to private structure.
  * @param txq
  *   Pointer to TX queue structure.
  * @param[in] mp
@@ -128,78 +91,64 @@ static int mlx5_check_mempool(struct rte_mempool *mp, uintptr_t *start,
  *   Index of the next available entry.
  *
  * @return
- *   mr on success, NULL on failure.
+ *   mr on success, NULL on failure and rte_errno is set.
  */
-struct mlx5_mr*
-priv_txq_mp2mr_reg(struct priv *priv, struct mlx5_txq_data *txq,
-                  struct rte_mempool *mp, unsigned int idx)
+struct mlx5_mr *
+mlx5_txq_mp2mr_reg(struct mlx5_txq_data *txq, struct rte_mempool *mp,
+                  unsigned int idx)
 {
        struct mlx5_txq_ctrl *txq_ctrl =
                container_of(txq, struct mlx5_txq_ctrl, txq);
+       struct rte_eth_dev *dev;
        struct mlx5_mr *mr;
 
+       rte_spinlock_lock(&txq_ctrl->priv->mr_lock);
        /* Add a new entry, register MR first. */
-       DEBUG("%p: discovered new memory pool \"%s\" (%p)",
-             (void *)txq_ctrl, mp->name, (void *)mp);
-       mr = priv_mr_get(priv, mp);
+       DRV_LOG(DEBUG, "port %u discovered new memory pool \"%s\" (%p)",
+               txq_ctrl->priv->dev->data->port_id, mp->name, (void *)mp);
+       dev = txq_ctrl->priv->dev;
+       mr = mlx5_mr_get(dev, mp);
        if (mr == NULL) {
                if (rte_eal_process_type() != RTE_PROC_PRIMARY) {
-                       DEBUG("Using unregistered mempool 0x%p(%s) in secondary process,"
-                            " please create mempool before rte_eth_dev_start()",
-                            (void *)mp, mp->name);
+                       DRV_LOG(DEBUG,
+                               "port %u using unregistered mempool 0x%p(%s)"
+                               " in secondary process, please create mempool"
+                               " before rte_eth_dev_start()",
+                               txq_ctrl->priv->dev->data->port_id,
+                               (void *)mp, mp->name);
+                       rte_spinlock_unlock(&txq_ctrl->priv->mr_lock);
+                       rte_errno = ENOTSUP;
                        return NULL;
                }
-               mr = priv_mr_new(priv, mp);
+               mr = mlx5_mr_new(dev, mp);
        }
        if (unlikely(mr == NULL)) {
-               DEBUG("%p: unable to configure MR, ibv_reg_mr() failed.",
-                     (void *)txq_ctrl);
+               DRV_LOG(DEBUG,
+                       "port %u unable to configure memory region,"
+                       " ibv_reg_mr() failed.",
+                       txq_ctrl->priv->dev->data->port_id);
+               rte_spinlock_unlock(&txq_ctrl->priv->mr_lock);
                return NULL;
        }
        if (unlikely(idx == RTE_DIM(txq->mp2mr))) {
                /* Table is full, remove oldest entry. */
-               DEBUG("%p: MR <-> MP table full, dropping oldest entry.",
-                     (void *)txq_ctrl);
+               DRV_LOG(DEBUG,
+                       "port %u memory region <-> memory pool table full, "
+                       " dropping oldest entry",
+                       txq_ctrl->priv->dev->data->port_id);
                --idx;
-               priv_mr_release(priv, txq->mp2mr[0]);
+               mlx5_mr_release(txq->mp2mr[0]);
                memmove(&txq->mp2mr[0], &txq->mp2mr[1],
                        (sizeof(txq->mp2mr) - sizeof(txq->mp2mr[0])));
        }
        /* Store the new entry. */
        txq_ctrl->txq.mp2mr[idx] = mr;
-       DEBUG("%p: new MR lkey for MP \"%s\" (%p): 0x%08" PRIu32,
-             (void *)txq_ctrl, mp->name, (void *)mp,
-             txq_ctrl->txq.mp2mr[idx]->lkey);
-       return mr;
-}
-
-/**
- * Register a Memory Region (MR) <-> Memory Pool (MP) association in
- * txq->mp2mr[]. If mp2mr[] is full, remove an entry first.
- *
- * This function should only be called by txq_mp2mr().
- *
- * @param txq
- *   Pointer to TX queue structure.
- * @param[in] mp
- *   Memory Pool for which a Memory Region lkey must be returned.
- * @param idx
- *   Index of the next available entry.
- *
- * @return
- *   mr on success, NULL on failure.
- */
-struct mlx5_mr*
-mlx5_txq_mp2mr_reg(struct mlx5_txq_data *txq, struct rte_mempool *mp,
-                  unsigned int idx)
-{
-       struct mlx5_txq_ctrl *txq_ctrl =
-               container_of(txq, struct mlx5_txq_ctrl, txq);
-       struct mlx5_mr *mr;
-
-       priv_lock(txq_ctrl->priv);
-       mr = priv_txq_mp2mr_reg(txq_ctrl->priv, txq, mp, idx);
-       priv_unlock(txq_ctrl->priv);
+       DRV_LOG(DEBUG,
+               "port %u new memory region lkey for MP \"%s\" (%p): 0x%08"
+               PRIu32,
+               txq_ctrl->priv->dev->data->port_id, mp->name, (void *)mp,
+               txq_ctrl->txq.mp2mr[idx]->lkey);
+       rte_spinlock_unlock(&txq_ctrl->priv->mr_lock);
        return mr;
 }
 
@@ -258,71 +207,81 @@ mlx5_mp2mr_iter(struct rte_mempool *mp, void *arg)
        if (rte_mempool_obj_iter(mp, txq_mp2mr_mbuf_check, &data) == 0 ||
                        data.ret == -1)
                return;
-       mr = priv_mr_get(priv, mp);
+       mr = mlx5_mr_get(priv->dev, mp);
        if (mr) {
-               priv_mr_release(priv, mr);
+               mlx5_mr_release(mr);
                return;
        }
-       priv_mr_new(priv, mp);
+       mr = mlx5_mr_new(priv->dev, mp);
+       if (!mr)
+               DRV_LOG(ERR, "port %u cannot create memory region: %s",
+                       priv->dev->data->port_id, strerror(rte_errno));
 }
 
 /**
  * Register a new memory region from the mempool and store it in the memory
  * region list.
  *
- * @param  priv
- *   Pointer to private structure.
+ * @param dev
+ *   Pointer to Ethernet device.
  * @param mp
  *   Pointer to the memory pool to register.
+ *
  * @return
- *   The memory region on success.
+ *   The memory region on success, NULL on failure and rte_errno is set.
  */
-struct mlx5_mr*
-priv_mr_new(struct priv *priv, struct rte_mempool *mp)
+struct mlx5_mr *
+mlx5_mr_new(struct rte_eth_dev *dev, struct rte_mempool *mp)
 {
-       const struct rte_memseg *ms = rte_eal_get_physmem_layout();
+       struct priv *priv = dev->data->dev_private;
+       const struct rte_memseg *ms;
        uintptr_t start;
        uintptr_t end;
-       unsigned int i;
        struct mlx5_mr *mr;
 
        mr = rte_zmalloc_socket(__func__, sizeof(*mr), 0, mp->socket_id);
        if (!mr) {
-               DEBUG("unable to configure MR, ibv_reg_mr() failed.");
+               DRV_LOG(DEBUG,
+                       "port %u unable to configure memory region,"
+                       " ibv_reg_mr() failed.",
+                       dev->data->port_id);
+               rte_errno = ENOMEM;
                return NULL;
        }
        if (mlx5_check_mempool(mp, &start, &end) != 0) {
-               ERROR("mempool %p: not virtually contiguous",
-                     (void *)mp);
+               DRV_LOG(ERR, "port %u mempool %p: not virtually contiguous",
+                       dev->data->port_id, (void *)mp);
+               rte_errno = ENOMEM;
                return NULL;
        }
-       DEBUG("mempool %p area start=%p end=%p size=%zu",
-             (void *)mp, (void *)start, (void *)end,
-             (size_t)(end - start));
+       DRV_LOG(DEBUG, "port %u mempool %p area start=%p end=%p size=%zu",
+               dev->data->port_id, (void *)mp, (void *)start, (void *)end,
+               (size_t)(end - start));
        /* Save original addresses for exact MR lookup. */
        mr->start = start;
        mr->end = end;
-       /* Round start and end to page boundary if found in memory segments. */
-       for (i = 0; (i < RTE_MAX_MEMSEG) && (ms[i].addr != NULL); ++i) {
-               uintptr_t addr = (uintptr_t)ms[i].addr;
-               size_t len = ms[i].len;
-               unsigned int align = ms[i].hugepage_sz;
 
-               if ((start > addr) && (start < addr + len))
-                       start = RTE_ALIGN_FLOOR(start, align);
-               if ((end > addr) && (end < addr + len))
-                       end = RTE_ALIGN_CEIL(end, align);
-       }
-       DEBUG("mempool %p using start=%p end=%p size=%zu for MR",
-             (void *)mp, (void *)start, (void *)end,
-             (size_t)(end - start));
+       /* Round start and end to page boundary if found in memory segments. */
+       ms = rte_mem_virt2memseg((void *)start, NULL);
+       if (ms != NULL)
+               start = RTE_ALIGN_FLOOR(start, ms->hugepage_sz);
+       end = RTE_ALIGN_CEIL(end, ms->hugepage_sz);
+       DRV_LOG(DEBUG,
+               "port %u mempool %p using start=%p end=%p size=%zu for memory"
+               " region",
+               dev->data->port_id, (void *)mp, (void *)start, (void *)end,
+               (size_t)(end - start));
        mr->mr = mlx5_glue->reg_mr(priv->pd, (void *)start, end - start,
                                   IBV_ACCESS_LOCAL_WRITE);
+       if (!mr->mr) {
+               rte_errno = ENOMEM;
+               return NULL;
+       }
        mr->mp = mp;
        mr->lkey = rte_cpu_to_be_32(mr->mr->lkey);
        rte_atomic32_inc(&mr->refcnt);
-       DEBUG("%p: new Memory Region %p refcnt: %d", (void *)priv,
-             (void *)mr, rte_atomic32_read(&mr->refcnt));
+       DRV_LOG(DEBUG, "port %u new memory Region %p refcnt: %d",
+               dev->data->port_id, (void *)mr, rte_atomic32_read(&mr->refcnt));
        LIST_INSERT_HEAD(&priv->mr, mr, next);
        return mr;
 }
@@ -330,16 +289,18 @@ priv_mr_new(struct priv *priv, struct rte_mempool *mp)
 /**
  * Search the memory region object in the memory region list.
  *
- * @param  priv
- *   Pointer to private structure.
+ * @param dev
+ *   Pointer to Ethernet device.
  * @param mp
  *   Pointer to the memory pool to register.
+ *
  * @return
  *   The memory region on success.
  */
-struct mlx5_mr*
-priv_mr_get(struct priv *priv, struct rte_mempool *mp)
+struct mlx5_mr *
+mlx5_mr_get(struct rte_eth_dev *dev, struct rte_mempool *mp)
 {
+       struct priv *priv = dev->data->dev_private;
        struct mlx5_mr *mr;
 
        assert(mp);
@@ -348,8 +309,9 @@ priv_mr_get(struct priv *priv, struct rte_mempool *mp)
        LIST_FOREACH(mr, &priv->mr, next) {
                if (mr->mp == mp) {
                        rte_atomic32_inc(&mr->refcnt);
-                       DEBUG("Memory Region %p refcnt: %d",
-                             (void *)mr, rte_atomic32_read(&mr->refcnt));
+                       DRV_LOG(DEBUG, "port %u memory region %p refcnt: %d",
+                               dev->data->port_id, (void *)mr,
+                               rte_atomic32_read(&mr->refcnt));
                        return mr;
                }
        }
@@ -363,41 +325,42 @@ priv_mr_get(struct priv *priv, struct rte_mempool *mp)
  *   Pointer to memory region to release.
  *
  * @return
- *   0 on success, errno on failure.
+ *   1 while a reference on it exists, 0 when freed.
  */
 int
-priv_mr_release(struct priv *priv, struct mlx5_mr *mr)
+mlx5_mr_release(struct mlx5_mr *mr)
 {
-       (void)priv;
        assert(mr);
-       DEBUG("Memory Region %p refcnt: %d",
-             (void *)mr, rte_atomic32_read(&mr->refcnt));
+       DRV_LOG(DEBUG, "memory region %p refcnt: %d", (void *)mr,
+               rte_atomic32_read(&mr->refcnt));
        if (rte_atomic32_dec_and_test(&mr->refcnt)) {
                claim_zero(mlx5_glue->dereg_mr(mr->mr));
                LIST_REMOVE(mr, next);
                rte_free(mr);
                return 0;
        }
-       return EBUSY;
+       return 1;
 }
 
 /**
  * Verify the flow list is empty
  *
- * @param priv
- *  Pointer to private structure.
+ * @param dev
+ *   Pointer to Ethernet device.
  *
- * @return the number of object not released.
+ * @return
+ *   The number of object not released.
  */
 int
-priv_mr_verify(struct priv *priv)
+mlx5_mr_verify(struct rte_eth_dev *dev)
 {
+       struct priv *priv = dev->data->dev_private;
        int ret = 0;
        struct mlx5_mr *mr;
 
        LIST_FOREACH(mr, &priv->mr, next) {
-               DEBUG("%p: mr %p still referenced", (void *)priv,
-                     (void *)mr);
+               DRV_LOG(DEBUG, "port %u memory region %p still referenced",
+                       dev->data->port_id, (void *)mr);
                ++ret;
        }
        return ret;