]> git.droids-corp.org - dpdk.git/commitdiff
net/mlx5: fix UAR lock sharing for multiport devices
authorViacheslav Ovsiienko <viacheslavo@mellanox.com>
Thu, 16 Jul 2020 08:23:06 +0000 (08:23 +0000)
committerFerruh Yigit <ferruh.yigit@intel.com>
Tue, 21 Jul 2020 13:44:36 +0000 (15:44 +0200)
The master and representors might be created over the multiport
Infiniband devices and the UAR resource allocated for sibling
ports might belong to the same underlying Infiniband device.
Hardware requires the write access to the UAR must be performed
as atomic 64-bit write, on 32-bit systems this is two sequential
writes, protected by lock. Due to possibility to share the same
UAR between sibling devices the locks must be moved to shared
context.

Fixes: f048f3d479a6 ("net/mlx5: switch to the shared IB device context")
Cc: stable@dpdk.org
Signed-off-by: Viacheslav Ovsiienko <viacheslavo@mellanox.com>
Acked-by: Matan Azrad <matan@mellanox.com>
drivers/net/mlx5/linux/mlx5_os.c
drivers/net/mlx5/mlx5.c
drivers/net/mlx5/mlx5.h
drivers/net/mlx5/mlx5_rxq.c
drivers/net/mlx5/mlx5_txq.c

index 14af468d6f00ce85462863f30fddead7a865c5e4..63e9350a099a4566dcef472f8a184f19cb4b172a 100644 (file)
@@ -630,12 +630,6 @@ err_secondary:
        priv->mtu = RTE_ETHER_MTU;
        priv->mp_id.port_id = port_id;
        strlcpy(priv->mp_id.name, MLX5_MP_NAME, RTE_MP_MAX_NAME_LEN);
-#ifndef RTE_ARCH_64
-       /* Initialize UAR access locks for 32bit implementations. */
-       rte_spinlock_init(&priv->uar_lock_cq);
-       for (i = 0; i < MLX5_UAR_PAGE_NUM_MAX; i++)
-               rte_spinlock_init(&priv->uar_lock[i]);
-#endif
        /* Some internal functions rely on Netlink sockets, open them now. */
        priv->nl_socket_rdma = mlx5_nl_init(NETLINK_RDMA);
        priv->nl_socket_route = mlx5_nl_init(NETLINK_ROUTE);
index 72e0870ebfdbc7a1ce22893cd46f816e029c1b8a..0786945ce17a55e46df3538c6392ad823506473d 100644 (file)
@@ -717,6 +717,12 @@ mlx5_alloc_shared_dev_ctx(const struct mlx5_dev_spawn_data *spawn,
                err = ENOMEM;
                goto error;
        }
+#ifndef RTE_ARCH_64
+       /* Initialize UAR access locks for 32bit implementations. */
+       rte_spinlock_init(&sh->uar_lock_cq);
+       for (i = 0; i < MLX5_UAR_PAGE_NUM_MAX; i++)
+               rte_spinlock_init(&sh->uar_lock[i]);
+#endif
        /*
         * Once the device is added to the list of memory event
         * callback, its global MR cache table cannot be expanded
index 84cd3e1252b9bd852efae7aa52c43c861d46a66e..d01d7f3c5fe4751a1d8d77eabd1627fc4c820250 100644 (file)
@@ -559,6 +559,11 @@ struct mlx5_dev_ctx_shared {
        void *fdb_domain; /* FDB Direct Rules name space handle. */
        void *rx_domain; /* RX Direct Rules name space handle. */
        void *tx_domain; /* TX Direct Rules name space handle. */
+#ifndef RTE_ARCH_64
+       rte_spinlock_t uar_lock_cq; /* CQs share a common distinct UAR */
+       rte_spinlock_t uar_lock[MLX5_UAR_PAGE_NUM_MAX];
+       /* UAR same-page access control required in 32bit implementations. */
+#endif
        struct mlx5_hlist *flow_tbls;
        /* Direct Rules tables for FDB, NIC TX+RX */
        void *esw_drop_action; /* Pointer to DR E-Switch drop action. */
@@ -673,11 +678,6 @@ struct mlx5_priv {
        uint8_t mtr_color_reg; /* Meter color match REG_C. */
        struct mlx5_mtr_profiles flow_meter_profiles; /* MTR profile list. */
        struct mlx5_flow_meters flow_meters; /* MTR list. */
-#ifndef RTE_ARCH_64
-       rte_spinlock_t uar_lock_cq; /* CQs share a common distinct UAR */
-       rte_spinlock_t uar_lock[MLX5_UAR_PAGE_NUM_MAX];
-       /* UAR same-page access control required in 32bit implementations. */
-#endif
        uint8_t skip_default_rss_reta; /* Skip configuration of default reta. */
        uint8_t fdb_def_rule; /* Whether fdb jump to table 1 is configured. */
        struct mlx5_mp_id mp_id; /* ID of a multi-process process */
index b436f0610750100a1c697aa67569c5a58ab45ef7..26813225b92ed29c57d1aa08684f7b04faf549f4 100644 (file)
@@ -1997,7 +1997,7 @@ mlx5_rxq_new(struct rte_eth_dev *dev, uint16_t idx, uint16_t desc,
        tmpl->rxq.elts =
                (struct rte_mbuf *(*)[1 << tmpl->rxq.elts_n])(tmpl + 1);
 #ifndef RTE_ARCH_64
-       tmpl->rxq.uar_lock_cq = &priv->uar_lock_cq;
+       tmpl->rxq.uar_lock_cq = &priv->sh->uar_lock_cq;
 #endif
        tmpl->rxq.idx = idx;
        rte_atomic32_inc(&tmpl->refcnt);
index 35b3ade8688c60cfe960e261a822f8068ed81697..e1fa24e40ff0f37f6f514a8085387cfc3921c9c1 100644 (file)
@@ -355,7 +355,7 @@ txq_uar_init(struct mlx5_txq_ctrl *txq_ctrl)
        /* Assign an UAR lock according to UAR page number */
        lock_idx = (txq_ctrl->uar_mmap_offset / page_size) &
                   MLX5_UAR_PAGE_NUM_MASK;
-       txq_ctrl->txq.uar_lock = &priv->uar_lock[lock_idx];
+       txq_ctrl->txq.uar_lock = &priv->sh->uar_lock[lock_idx];
 #endif
 }