net/sfc: implement representor Rx queue start/stop
[dpdk.git] / drivers / net / sfc / sfc_ev.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  *
3  * Copyright(c) 2019-2021 Xilinx, Inc.
4  * Copyright(c) 2016-2019 Solarflare Communications Inc.
5  *
6  * This software was jointly developed between OKTET Labs (under contract
7  * for Solarflare) and Solarflare Communications, Inc.
8  */
9
10 #ifndef _SFC_EV_H_
11 #define _SFC_EV_H_
12
13 #include <ethdev_driver.h>
14
15 #include "efx.h"
16
17 #include "sfc.h"
18
19 #ifdef __cplusplus
20 extern "C" {
21 #endif
22
23 struct sfc_adapter;
24 struct sfc_dp_rxq;
25 struct sfc_dp_txq;
26
27 enum sfc_evq_state {
28         SFC_EVQ_UNINITIALIZED = 0,
29         SFC_EVQ_INITIALIZED,
30         SFC_EVQ_STARTING,
31         SFC_EVQ_STARTED,
32
33         SFC_EVQ_NSTATES
34 };
35
36 enum sfc_evq_type {
37         SFC_EVQ_TYPE_MGMT = 0,
38         SFC_EVQ_TYPE_RX,
39         SFC_EVQ_TYPE_TX,
40
41         SFC_EVQ_NTYPES
42 };
43
44 struct sfc_evq {
45         /* Used on datapath */
46         efx_evq_t                       *common;
47         const efx_ev_callbacks_t        *callbacks;
48         unsigned int                    read_ptr;
49         unsigned int                    read_ptr_primed;
50         boolean_t                       exception;
51         efsys_mem_t                     mem;
52         struct sfc_dp_rxq               *dp_rxq;
53         struct sfc_dp_txq               *dp_txq;
54
55         /* Not used on datapath */
56         struct sfc_adapter              *sa;
57         unsigned int                    evq_index;
58         enum sfc_evq_state              init_state;
59         enum sfc_evq_type               type;
60         unsigned int                    entries;
61 };
62
63 static inline sfc_sw_index_t
64 sfc_mgmt_evq_sw_index(__rte_unused const struct sfc_adapter_shared *sas)
65 {
66         return 0;
67 }
68
69 /* Return the number of Rx queues reserved for driver's internal use */
70 static inline unsigned int
71 sfc_nb_reserved_rxq(const struct sfc_adapter_shared *sas)
72 {
73         return sfc_nb_counter_rxq(sas) + sfc_repr_nb_rxq(sas);
74 }
75
76 /* Return the number of Tx queues reserved for driver's internal use */
77 static inline unsigned int
78 sfc_nb_txq_reserved(const struct sfc_adapter_shared *sas)
79 {
80         return sfc_repr_nb_txq(sas);
81 }
82
83 static inline unsigned int
84 sfc_nb_reserved_evq(const struct sfc_adapter_shared *sas)
85 {
86         /* An EvQ is required for each reserved Rx/Tx queue */
87         return 1 + sfc_nb_reserved_rxq(sas) + sfc_nb_txq_reserved(sas);
88 }
89
90 /*
91  * The mapping functions that return SW index of a specific reserved
92  * queue rely on the relative order of reserved queues. Some reserved
93  * queues are optional, and if they are disabled or not supported, then
94  * the function for that specific reserved queue will return previous
95  * valid index of a reserved queue in the dependency chain or
96  * SFC_SW_INDEX_INVALID if it is the first reserved queue in the chain.
97  * If at least one of the reserved queues in the chain is enabled, then
98  * the corresponding function will give valid SW index, even if previous
99  * functions in the chain returned SFC_SW_INDEX_INVALID, since this value
100  * is one less than the first valid SW index.
101  *
102  * The dependency mechanism is utilized to avoid regid defines for SW indices
103  * for reserved queues and to allow these indices to shrink and make space
104  * for ethdev queue indices when some of the reserved queues are disabled.
105  */
106
107 static inline sfc_sw_index_t
108 sfc_counters_rxq_sw_index(const struct sfc_adapter_shared *sas)
109 {
110         return sas->counters_rxq_allocated ? 0 : SFC_SW_INDEX_INVALID;
111 }
112
113 static inline sfc_sw_index_t
114 sfc_repr_rxq_sw_index(const struct sfc_adapter_shared *sas,
115                       unsigned int repr_queue_id)
116 {
117         return sfc_counters_rxq_sw_index(sas) + sfc_repr_nb_rxq(sas) +
118                 repr_queue_id;
119 }
120
121 /*
122  * Functions below define event queue to transmit/receive queue and vice
123  * versa mapping.
124  * SFC_ETHDEV_QID_INVALID is returned when sw_index is converted to
125  * ethdev_qid, but sw_index represents a reserved queue for driver's
126  * internal use.
127  * Own event queue is allocated for management, each Rx and each Tx queue.
128  * Zero event queue is used for management events.
129  * When counters are supported, one Rx event queue is reserved.
130  * When representors are supported, Rx and Tx event queues are reserved.
131  * Rx event queues follow reserved event queues.
132  * Tx event queues follow Rx event queues.
133  */
134
135 static inline sfc_ethdev_qid_t
136 sfc_ethdev_rx_qid_by_rxq_sw_index(struct sfc_adapter_shared *sas,
137                                   sfc_sw_index_t rxq_sw_index)
138 {
139         if (rxq_sw_index < sfc_nb_reserved_rxq(sas))
140                 return SFC_ETHDEV_QID_INVALID;
141
142         return rxq_sw_index - sfc_nb_reserved_rxq(sas);
143 }
144
145 static inline sfc_sw_index_t
146 sfc_rxq_sw_index_by_ethdev_rx_qid(struct sfc_adapter_shared *sas,
147                                   sfc_ethdev_qid_t ethdev_qid)
148 {
149         return sfc_nb_reserved_rxq(sas) + ethdev_qid;
150 }
151
152 static inline sfc_sw_index_t
153 sfc_evq_sw_index_by_rxq_sw_index(struct sfc_adapter *sa,
154                                  sfc_sw_index_t rxq_sw_index)
155 {
156         struct sfc_adapter_shared *sas = sfc_sa2shared(sa);
157         sfc_ethdev_qid_t ethdev_qid;
158
159         ethdev_qid = sfc_ethdev_rx_qid_by_rxq_sw_index(sas, rxq_sw_index);
160         if (ethdev_qid == SFC_ETHDEV_QID_INVALID) {
161                 /* One EvQ is reserved for management */
162                 return 1 + rxq_sw_index;
163         }
164
165         return sfc_nb_reserved_evq(sas) + ethdev_qid;
166 }
167
168 static inline sfc_ethdev_qid_t
169 sfc_ethdev_tx_qid_by_txq_sw_index(struct sfc_adapter_shared *sas,
170                                   sfc_sw_index_t txq_sw_index)
171 {
172         if (txq_sw_index < sfc_nb_txq_reserved(sas))
173                 return SFC_ETHDEV_QID_INVALID;
174
175         return txq_sw_index - sfc_nb_txq_reserved(sas);
176 }
177
178 static inline sfc_sw_index_t
179 sfc_txq_sw_index_by_ethdev_tx_qid(struct sfc_adapter_shared *sas,
180                                   sfc_ethdev_qid_t ethdev_qid)
181 {
182         return sfc_nb_txq_reserved(sas) + ethdev_qid;
183 }
184
185 static inline sfc_sw_index_t
186 sfc_evq_sw_index_by_txq_sw_index(struct sfc_adapter *sa,
187                                  sfc_sw_index_t txq_sw_index)
188 {
189         struct sfc_adapter_shared *sas = sfc_sa2shared(sa);
190         sfc_ethdev_qid_t ethdev_qid;
191
192         ethdev_qid = sfc_ethdev_tx_qid_by_txq_sw_index(sas, txq_sw_index);
193         if (ethdev_qid == SFC_ETHDEV_QID_INVALID) {
194                 return sfc_nb_reserved_evq(sas) - sfc_nb_txq_reserved(sas) +
195                         txq_sw_index;
196         }
197
198         return sfc_nb_reserved_evq(sas) + sa->eth_dev->data->nb_rx_queues +
199                 ethdev_qid;
200 }
201
202 int sfc_ev_attach(struct sfc_adapter *sa);
203 void sfc_ev_detach(struct sfc_adapter *sa);
204 int sfc_ev_start(struct sfc_adapter *sa);
205 void sfc_ev_stop(struct sfc_adapter *sa);
206
207 int sfc_ev_qinit(struct sfc_adapter *sa,
208                  enum sfc_evq_type type, unsigned int type_index,
209                  unsigned int entries, int socket_id, struct sfc_evq **evqp);
210 void sfc_ev_qfini(struct sfc_evq *evq);
211 int sfc_ev_qstart(struct sfc_evq *evq, unsigned int hw_index);
212 void sfc_ev_qstop(struct sfc_evq *evq);
213
214 int sfc_ev_qprime(struct sfc_evq *evq);
215 void sfc_ev_qpoll(struct sfc_evq *evq);
216
217 void sfc_ev_mgmt_qpoll(struct sfc_adapter *sa);
218
219 #ifdef __cplusplus
220 }
221 #endif
222 #endif /* _SFC_EV_H_ */