6c1a5bfee740a7ba0c2ce71f849511afb9e22efe
[dpdk.git] / drivers / net / sfc / sfc_mae.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  *
3  * Copyright(c) 2019-2021 Xilinx, Inc.
4  * Copyright(c) 2019 Solarflare Communications Inc.
5  *
6  * This software was jointly developed between OKTET Labs (under contract
7  * for Solarflare) and Solarflare Communications, Inc.
8  */
9
10 #ifndef _SFC_MAE_H
11 #define _SFC_MAE_H
12
13 #include <stdbool.h>
14
15 #include <rte_spinlock.h>
16
17 #include "efx.h"
18
19 #include "sfc_stats.h"
20
21 #ifdef __cplusplus
22 extern "C" {
23 #endif
24
25 /** FW-allocatable resource context */
26 struct sfc_mae_fw_rsrc {
27         unsigned int                    refcnt;
28         RTE_STD_C11
29         union {
30                 efx_mae_aset_id_t       aset_id;
31                 efx_mae_rule_id_t       rule_id;
32                 efx_mae_eh_id_t         eh_id;
33         };
34 };
35
36 /** Outer rule registry entry */
37 struct sfc_mae_outer_rule {
38         TAILQ_ENTRY(sfc_mae_outer_rule) entries;
39         unsigned int                    refcnt;
40         efx_mae_match_spec_t            *match_spec;
41         efx_tunnel_protocol_t           encap_type;
42         struct sfc_mae_fw_rsrc          fw_rsrc;
43 };
44
45 TAILQ_HEAD(sfc_mae_outer_rules, sfc_mae_outer_rule);
46
47 /** Encap. header registry entry */
48 struct sfc_mae_encap_header {
49         TAILQ_ENTRY(sfc_mae_encap_header)       entries;
50         unsigned int                            refcnt;
51         uint8_t                                 *buf;
52         size_t                                  size;
53         efx_tunnel_protocol_t                   type;
54         struct sfc_mae_fw_rsrc                  fw_rsrc;
55 };
56
57 TAILQ_HEAD(sfc_mae_encap_headers, sfc_mae_encap_header);
58
59 /* Counter ID */
60 struct sfc_mae_counter_id {
61         /* ID of a counter in MAE */
62         efx_counter_t                   mae_id;
63         /* ID of a counter in RTE */
64         uint32_t                        rte_id;
65         /* RTE counter ID validity status */
66         bool                            rte_id_valid;
67
68         /* Flow Tunnel (FT) GROUP hit counter (or NULL) */
69         uint64_t                        *ft_group_hit_counter;
70         /* Flow Tunnel (FT) context (for JUMP rules; otherwise, NULL) */
71         struct sfc_flow_tunnel          *ft;
72 };
73
74 /** Action set registry entry */
75 struct sfc_mae_action_set {
76         TAILQ_ENTRY(sfc_mae_action_set) entries;
77         unsigned int                    refcnt;
78         struct sfc_mae_counter_id       *counters;
79         uint32_t                        n_counters;
80         efx_mae_actions_t               *spec;
81         struct sfc_mae_encap_header     *encap_header;
82         struct sfc_mae_fw_rsrc          fw_rsrc;
83 };
84
85 TAILQ_HEAD(sfc_mae_action_sets, sfc_mae_action_set);
86
87 /** Options for MAE support status */
88 enum sfc_mae_status {
89         SFC_MAE_STATUS_UNKNOWN = 0,
90         SFC_MAE_STATUS_UNSUPPORTED,
91         SFC_MAE_STATUS_SUPPORTED
92 };
93
94 /*
95  * Encap. header bounce buffer. It is used to store header data
96  * when parsing the header definition in the action VXLAN_ENCAP.
97  */
98 struct sfc_mae_bounce_eh {
99         uint8_t                         *buf;
100         size_t                          buf_size;
101         size_t                          size;
102         efx_tunnel_protocol_t           type;
103 };
104
105 /** Counter collection entry */
106 struct sfc_mae_counter {
107         bool                            inuse;
108         uint32_t                        generation_count;
109         union sfc_pkts_bytes            value;
110         union sfc_pkts_bytes            reset;
111
112         uint64_t                        *ft_group_hit_counter;
113 };
114
115 struct sfc_mae_counters_xstats {
116         uint64_t                        not_inuse_update;
117         uint64_t                        realloc_update;
118 };
119
120 struct sfc_mae_counters {
121         /** An array of all MAE counters */
122         struct sfc_mae_counter          *mae_counters;
123         /** Extra statistics for counters */
124         struct sfc_mae_counters_xstats  xstats;
125         /** Count of all MAE counters */
126         unsigned int                    n_mae_counters;
127 };
128
129 struct sfc_mae_counter_registry {
130         /* Common counter information */
131         /** Counters collection */
132         struct sfc_mae_counters         counters;
133
134         /* Information used by counter update service */
135         /** Callback to get packets from RxQ */
136         eth_rx_burst_t                  rx_pkt_burst;
137         /** Data for the callback to get packets */
138         struct sfc_dp_rxq               *rx_dp;
139         /** Number of buffers pushed to the RxQ */
140         unsigned int                    pushed_n_buffers;
141         /** Are credits used by counter stream */
142         bool                            use_credits;
143
144         /* Information used by configuration routines */
145         /** Counter service core ID */
146         uint32_t                        service_core_id;
147         /** Counter service ID */
148         uint32_t                        service_id;
149 };
150
151 /**
152  * MAE rules used to capture traffic generated by VFs and direct it to
153  * representors (one for each VF).
154  */
155 #define SFC_MAE_NB_REPR_RULES_MAX       (64)
156
157 /** Rules to forward traffic from PHY port to PF and from PF to PHY port */
158 #define SFC_MAE_NB_SWITCHDEV_RULES      (2)
159 /** Maximum required internal MAE rules */
160 #define SFC_MAE_NB_RULES_MAX            (SFC_MAE_NB_SWITCHDEV_RULES + \
161                                          SFC_MAE_NB_REPR_RULES_MAX)
162
163 struct sfc_mae_rule {
164         efx_mae_match_spec_t            *spec;
165         efx_mae_actions_t               *actions;
166         efx_mae_aset_id_t               action_set;
167         efx_mae_rule_id_t               rule_id;
168 };
169
170 struct sfc_mae_internal_rules {
171         /*
172          * Rules required to sustain switchdev mode or to provide
173          * port representor functionality.
174          */
175         struct sfc_mae_rule             rules[SFC_MAE_NB_RULES_MAX];
176 };
177
178 struct sfc_mae {
179         /** Assigned switch domain identifier */
180         uint16_t                        switch_domain_id;
181         /** Assigned switch port identifier */
182         uint16_t                        switch_port_id;
183         /** NIC support for MAE status */
184         enum sfc_mae_status             status;
185         /** Priority level limit for MAE outer rules */
186         unsigned int                    nb_outer_rule_prios_max;
187         /** Priority level limit for MAE action rules */
188         unsigned int                    nb_action_rule_prios_max;
189         /** Encapsulation support status */
190         uint32_t                        encap_types_supported;
191         /** Outer rule registry */
192         struct sfc_mae_outer_rules      outer_rules;
193         /** Encap. header registry */
194         struct sfc_mae_encap_headers    encap_headers;
195         /** Action set registry */
196         struct sfc_mae_action_sets      action_sets;
197         /** Encap. header bounce buffer */
198         struct sfc_mae_bounce_eh        bounce_eh;
199         /** Flag indicating whether counter-only RxQ is running */
200         bool                            counter_rxq_running;
201         /** Counter registry */
202         struct sfc_mae_counter_registry counter_registry;
203         /** Driver-internal flow rules */
204         struct sfc_mae_internal_rules   internal_rules;
205         /**
206          * Switchdev default rules. They forward traffic from PHY port
207          * to PF and vice versa.
208          */
209         struct sfc_mae_rule             *switchdev_rule_pf_to_ext;
210         struct sfc_mae_rule             *switchdev_rule_ext_to_pf;
211 };
212
213 struct sfc_adapter;
214 struct sfc_flow_spec;
215
216 /** This implementation supports double-tagging */
217 #define SFC_MAE_MATCH_VLAN_MAX_NTAGS    (2)
218
219 /** It is possible to keep track of one item ETH and two items VLAN */
220 #define SFC_MAE_L2_MAX_NITEMS           (SFC_MAE_MATCH_VLAN_MAX_NTAGS + 1)
221
222 /** Auxiliary entry format to keep track of L2 "type" ("inner_type") */
223 struct sfc_mae_ethertype {
224         rte_be16_t      value;
225         rte_be16_t      mask;
226 };
227
228 struct sfc_mae_pattern_data {
229         /**
230          * Keeps track of "type" ("inner_type") mask and value for each
231          * parsed L2 item in a pattern. These values/masks get filled
232          * in MAE match specification at the end of parsing. Also, this
233          * information is used to conduct consistency checks:
234          *
235          * - If an item ETH is followed by a single item VLAN,
236          *   the former must have "type" set to one of supported
237          *   TPID values (0x8100, 0x88a8, 0x9100, 0x9200, 0x9300),
238          *   or 0x0000/0x0000.
239          *
240          * - If an item ETH is followed by two items VLAN, the
241          *   item ETH must have "type" set to one of supported TPID
242          *   values (0x88a8, 0x9100, 0x9200, 0x9300), or 0x0000/0x0000,
243          *   and the outermost VLAN item must have "inner_type" set
244          *   to TPID value 0x8100, or 0x0000/0x0000
245          *
246          * - If a L2 item is followed by a L3 one, the former must
247          *   indicate "type" ("inner_type") which corresponds to
248          *   the protocol used in the L3 item, or 0x0000/0x0000.
249          *
250          * In turn, mapping between RTE convention (above requirements) and
251          * MAE fields is non-trivial. The following scheme indicates
252          * which item EtherTypes go to which MAE fields in the case
253          * of single tag:
254          *
255          * ETH  (0x8100)        --> VLAN0_PROTO_BE
256          * VLAN (L3 EtherType)  --> ETHER_TYPE_BE
257          *
258          * Similarly, in the case of double tagging:
259          *
260          * ETH  (0x88a8)        --> VLAN0_PROTO_BE
261          * VLAN (0x8100)        --> VLAN1_PROTO_BE
262          * VLAN (L3 EtherType)  --> ETHER_TYPE_BE
263          */
264         struct sfc_mae_ethertype        ethertypes[SFC_MAE_L2_MAX_NITEMS];
265
266         rte_be16_t                      tci_masks[SFC_MAE_MATCH_VLAN_MAX_NTAGS];
267
268         unsigned int                    nb_vlan_tags;
269
270         /**
271          * L3 requirement for the innermost L2 item's "type" ("inner_type").
272          * This contains one of:
273          * - 0x0800/0xffff: IPV4
274          * - 0x86dd/0xffff: IPV6
275          * - 0x0000/0x0000: no L3 item
276          */
277         struct sfc_mae_ethertype        innermost_ethertype_restriction;
278
279         /**
280          * The following two fields keep track of L3 "proto" mask and value.
281          * The corresponding fields get filled in MAE match specification
282          * at the end of parsing. Also, the information is used by a
283          * post-check to enforce consistency requirements:
284          *
285          * - If a L3 item is followed by an item TCP, the former has
286          *   its "proto" set to either 0x06/0xff or 0x00/0x00.
287          *
288          * - If a L3 item is followed by an item UDP, the former has
289          *   its "proto" set to either 0x11/0xff or 0x00/0x00.
290          */
291         uint8_t                         l3_next_proto_value;
292         uint8_t                         l3_next_proto_mask;
293
294         /*
295          * L4 requirement for L3 item's "proto".
296          * This contains one of:
297          * - 0x06/0xff: TCP
298          * - 0x11/0xff: UDP
299          * - 0x00/0x00: no L4 item
300          */
301         uint8_t                         l3_next_proto_restriction_value;
302         uint8_t                         l3_next_proto_restriction_mask;
303
304         /* Projected state of EFX_MAE_FIELD_HAS_OVLAN match bit */
305         bool                            has_ovlan_value;
306         bool                            has_ovlan_mask;
307
308         /* Projected state of EFX_MAE_FIELD_HAS_IVLAN match bit */
309         bool                            has_ivlan_value;
310         bool                            has_ivlan_mask;
311 };
312
313 struct sfc_mae_parse_ctx {
314         struct sfc_adapter              *sa;
315         efx_mae_match_spec_t            *match_spec_action;
316         efx_mae_match_spec_t            *match_spec_outer;
317         /*
318          * This points to either of the above two specifications depending
319          * on which part of the pattern is being parsed (outer / inner).
320          */
321         efx_mae_match_spec_t            *match_spec;
322         /*
323          * This points to either "field_ids_remap_to_encap"
324          * or "field_ids_no_remap" (see sfc_mae.c) depending on
325          * which part of the pattern is being parsed.
326          */
327         const efx_mae_field_id_t        *field_ids_remap;
328         /* These two fields correspond to the tunnel-specific default mask. */
329         size_t                          tunnel_def_mask_size;
330         const void                      *tunnel_def_mask;
331         bool                            match_mport_set;
332         enum sfc_flow_tunnel_rule_type  ft_rule_type;
333         struct sfc_mae_pattern_data     pattern_data;
334         efx_tunnel_protocol_t           encap_type;
335         const struct rte_flow_item      *pattern;
336         unsigned int                    priority;
337         struct sfc_flow_tunnel          *ft;
338 };
339
340 int sfc_mae_attach(struct sfc_adapter *sa);
341 void sfc_mae_detach(struct sfc_adapter *sa);
342 sfc_flow_cleanup_cb_t sfc_mae_flow_cleanup;
343 int sfc_mae_rule_parse_pattern(struct sfc_adapter *sa,
344                                const struct rte_flow_item pattern[],
345                                struct sfc_flow_spec_mae *spec,
346                                struct rte_flow_error *error);
347 int sfc_mae_rule_parse_actions(struct sfc_adapter *sa,
348                                const struct rte_flow_action actions[],
349                                struct sfc_flow_spec_mae *spec_mae,
350                                struct rte_flow_error *error);
351 sfc_flow_verify_cb_t sfc_mae_flow_verify;
352 sfc_flow_insert_cb_t sfc_mae_flow_insert;
353 sfc_flow_remove_cb_t sfc_mae_flow_remove;
354 sfc_flow_query_cb_t sfc_mae_flow_query;
355
356 /**
357  * The value used to represent the lowest priority.
358  * Used in MAE rule API.
359  */
360 #define SFC_MAE_RULE_PRIO_LOWEST        (-1)
361
362 /**
363  * Insert a driver-internal flow rule that matches traffic originating from
364  * some m-port selector and redirects it to another one
365  * (eg. PF --> PHY, PHY --> PF).
366  *
367  * If requested priority is negative, use the lowest priority.
368  */
369 int sfc_mae_rule_add_mport_match_deliver(struct sfc_adapter *sa,
370                                          const efx_mport_sel_t *mport_match,
371                                          const efx_mport_sel_t *mport_deliver,
372                                          int prio, struct sfc_mae_rule **rulep);
373 void sfc_mae_rule_del(struct sfc_adapter *sa, struct sfc_mae_rule *rule);
374 int sfc_mae_switchdev_init(struct sfc_adapter *sa);
375 void sfc_mae_switchdev_fini(struct sfc_adapter *sa);
376
377 #ifdef __cplusplus
378 }
379 #endif
380 #endif /* _SFC_MAE_H */