net/mlx5: fix Tx queue size created with DevX
authorViacheslav Ovsiienko <viacheslavo@nvidia.com>
Thu, 4 Feb 2021 12:04:09 +0000 (14:04 +0200)
committerFerruh Yigit <ferruh.yigit@intel.com>
Thu, 4 Feb 2021 17:44:26 +0000 (18:44 +0100)
commit00984de53312b8af1bb1b6579d69a3eeda4be381
treeb24f8b06f4abc3d6c13361693a49a48fae9d8f7f
parent207b4d06c33896ac723139b3af62bf710ce082f9
net/mlx5: fix Tx queue size created with DevX

The number of descriptors specified for queue creation
implies the queue should be able to contain the specified
amount of packets being sent. Typically one packet takes
one queue descriptor (WQE) to be handled. If there is inline
data option enabled one packet might require more WQEs to
embrace the inline data and the overall queue size (the
number of queue descriptors) should be adjusted accordingly.

In mlx5 PMD the queues can be created either via Verbs, using
the rdma-core library or via DevX as direct kernel/firmware call.
The rdma-core does queue size adjustment internally, depending on
TSO and inline setting. The DevX approach missed this point.
This caused the queue size discrepancy and performance variations.

The patch adjusts the Tx queue size for the DevX approach
in the same as it is done in rdma-core implementation.

Fixes: 86d259cec852 ("net/mlx5: separate Tx queue object creations")
Cc: stable@dpdk.org
Signed-off-by: Viacheslav Ovsiienko <viacheslavo@nvidia.com>
drivers/net/mlx5/mlx5_devx.c