vdpa/mlx5: prepare virtio queues
[dpdk.git] / drivers / vdpa / mlx5 / mlx5_vdpa.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright 2019 Mellanox Technologies, Ltd
3  */
4
5 #ifndef RTE_PMD_MLX5_VDPA_H_
6 #define RTE_PMD_MLX5_VDPA_H_
7
8 #include <sys/queue.h>
9
10 #ifdef PEDANTIC
11 #pragma GCC diagnostic ignored "-Wpedantic"
12 #endif
13 #include <rte_vdpa.h>
14 #include <rte_vhost.h>
15 #ifdef PEDANTIC
16 #pragma GCC diagnostic error "-Wpedantic"
17 #endif
18 #include <rte_spinlock.h>
19 #include <rte_interrupts.h>
20
21 #include <mlx5_glue.h>
22 #include <mlx5_devx_cmds.h>
23 #include <mlx5_prm.h>
24
25
26 #define MLX5_VDPA_INTR_RETRIES 256
27 #define MLX5_VDPA_INTR_RETRIES_USEC 1000
28
29 struct mlx5_vdpa_cq {
30         uint16_t log_desc_n;
31         uint32_t cq_ci:24;
32         uint32_t arm_sn:2;
33         rte_spinlock_t sl;
34         struct mlx5_devx_obj *cq;
35         struct mlx5dv_devx_umem *umem_obj;
36         union {
37                 volatile void *umem_buf;
38                 volatile struct mlx5_cqe *cqes;
39         };
40         volatile uint32_t *db_rec;
41         uint64_t errors;
42 };
43
44 struct mlx5_vdpa_event_qp {
45         struct mlx5_vdpa_cq cq;
46         struct mlx5_devx_obj *fw_qp;
47         struct mlx5_devx_obj *sw_qp;
48         struct mlx5dv_devx_umem *umem_obj;
49         void *umem_buf;
50         volatile uint32_t *db_rec;
51 };
52
53 struct mlx5_vdpa_query_mr {
54         SLIST_ENTRY(mlx5_vdpa_query_mr) next;
55         void *addr;
56         uint64_t length;
57         struct mlx5dv_devx_umem *umem;
58         struct mlx5_devx_obj *mkey;
59         int is_indirect;
60 };
61
62 struct mlx5_vdpa_virtq {
63         SLIST_ENTRY(mlx5_vdpa_virtq) next;
64         uint16_t index;
65         uint16_t vq_size;
66         struct mlx5_devx_obj *virtq;
67         struct mlx5_vdpa_event_qp eqp;
68         struct {
69                 struct mlx5dv_devx_umem *obj;
70                 void *buf;
71                 uint32_t size;
72         } umems[3];
73 };
74
75 struct mlx5_vdpa_priv {
76         TAILQ_ENTRY(mlx5_vdpa_priv) next;
77         int id; /* vDPA device id. */
78         int vid; /* vhost device id. */
79         struct ibv_context *ctx; /* Device context. */
80         struct rte_vdpa_dev_addr dev_addr;
81         struct mlx5_hca_vdpa_attr caps;
82         uint32_t pdn; /* Protection Domain number. */
83         struct ibv_pd *pd;
84         uint32_t gpa_mkey_index;
85         struct ibv_mr *null_mr;
86         struct rte_vhost_memory *vmem;
87         uint32_t eqn;
88         struct mlx5dv_devx_event_channel *eventc;
89         struct mlx5dv_devx_uar *uar;
90         struct rte_intr_handle intr_handle;
91         struct mlx5_devx_obj *td;
92         struct mlx5_devx_obj *tis;
93         uint16_t nr_virtqs;
94         SLIST_HEAD(virtq_list, mlx5_vdpa_virtq) virtq_list;
95         SLIST_HEAD(mr_list, mlx5_vdpa_query_mr) mr_list;
96 };
97
98 /**
99  * Release all the prepared memory regions and all their related resources.
100  *
101  * @param[in] priv
102  *   The vdpa driver private structure.
103  */
104 void mlx5_vdpa_mem_dereg(struct mlx5_vdpa_priv *priv);
105
106 /**
107  * Register all the memory regions of the virtio device to the HW and allocate
108  * all their related resources.
109  *
110  * @param[in] priv
111  *   The vdpa driver private structure.
112  *
113  * @return
114  *   0 on success, a negative errno value otherwise and rte_errno is set.
115  */
116 int mlx5_vdpa_mem_register(struct mlx5_vdpa_priv *priv);
117
118
119 /**
120  * Create an event QP and all its related resources.
121  *
122  * @param[in] priv
123  *   The vdpa driver private structure.
124  * @param[in] desc_n
125  *   Number of descriptors.
126  * @param[in] callfd
127  *   The guest notification file descriptor.
128  * @param[in/out] eqp
129  *   Pointer to the event QP structure.
130  *
131  * @return
132  *   0 on success, -1 otherwise and rte_errno is set.
133  */
134 int mlx5_vdpa_event_qp_create(struct mlx5_vdpa_priv *priv, uint16_t desc_n,
135                               int callfd, struct mlx5_vdpa_event_qp *eqp);
136
137 /**
138  * Destroy an event QP and all its related resources.
139  *
140  * @param[in/out] eqp
141  *   Pointer to the event QP structure.
142  */
143 void mlx5_vdpa_event_qp_destroy(struct mlx5_vdpa_event_qp *eqp);
144
145 /**
146  * Release all the event global resources.
147  *
148  * @param[in] priv
149  *   The vdpa driver private structure.
150  */
151 void mlx5_vdpa_event_qp_global_release(struct mlx5_vdpa_priv *priv);
152
153 /**
154  * Setup CQE event.
155  *
156  * @param[in] priv
157  *   The vdpa driver private structure.
158  *
159  * @return
160  *   0 on success, a negative errno value otherwise and rte_errno is set.
161  */
162 int mlx5_vdpa_cqe_event_setup(struct mlx5_vdpa_priv *priv);
163
164 /**
165  * Unset CQE event .
166  *
167  * @param[in] priv
168  *   The vdpa driver private structure.
169  */
170 void mlx5_vdpa_cqe_event_unset(struct mlx5_vdpa_priv *priv);
171
172 /**
173  * Release a virtq and all its related resources.
174  *
175  * @param[in] priv
176  *   The vdpa driver private structure.
177  */
178 void mlx5_vdpa_virtqs_release(struct mlx5_vdpa_priv *priv);
179
180 /**
181  * Create all the HW virtqs resources and all their related resources.
182  *
183  * @param[in] priv
184  *   The vdpa driver private structure.
185  *
186  * @return
187  *   0 on success, a negative errno value otherwise and rte_errno is set.
188  */
189 int mlx5_vdpa_virtqs_prepare(struct mlx5_vdpa_priv *priv);
190
191 #endif /* RTE_PMD_MLX5_VDPA_H_ */