efb8d9e119349d2e8f5b69d7ecb7aa6a3dbf5796
[dpdk.git] / drivers / net / e1000 / e1000_ethdev.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2010-2015 Intel Corporation
3  */
4
5 #ifndef _E1000_ETHDEV_H_
6 #define _E1000_ETHDEV_H_
7 #include <rte_time.h>
8 #include <rte_pci.h>
9
10 #define E1000_INTEL_VENDOR_ID 0x8086
11
12 /* need update link, bit flag */
13 #define E1000_FLAG_NEED_LINK_UPDATE (uint32_t)(1 << 0)
14 #define E1000_FLAG_MAILBOX          (uint32_t)(1 << 1)
15
16 /*
17  * Defines that were not part of e1000_hw.h as they are not used by the FreeBSD
18  * driver.
19  */
20 #define E1000_ADVTXD_POPTS_TXSM     0x00000200 /* L4 Checksum offload request */
21 #define E1000_ADVTXD_POPTS_IXSM     0x00000100 /* IP Checksum offload request */
22 #define E1000_ADVTXD_TUCMD_L4T_RSV  0x00001800 /* L4 Packet TYPE of Reserved */
23 #define E1000_RXD_STAT_TMST         0x10000    /* Timestamped Packet indication */
24 #define E1000_RXD_ERR_CKSUM_BIT     29
25 #define E1000_RXD_ERR_CKSUM_MSK     3
26 #define E1000_ADVTXD_MACLEN_SHIFT   9          /* Bit shift for l2_len */
27 #define E1000_CTRL_EXT_EXTEND_VLAN  (1<<26)    /* EXTENDED VLAN */
28 #define IGB_VFTA_SIZE 128
29
30 #define IGB_MAX_RX_QUEUE_NUM           8
31 #define IGB_MAX_RX_QUEUE_NUM_82576     16
32
33 #define E1000_SYN_FILTER_ENABLE        0x00000001 /* syn filter enable field */
34 #define E1000_SYN_FILTER_QUEUE         0x0000000E /* syn filter queue field */
35 #define E1000_SYN_FILTER_QUEUE_SHIFT   1          /* syn filter queue field */
36 #define E1000_RFCTL_SYNQFP             0x00080000 /* SYNQFP in RFCTL register */
37
38 #define E1000_ETQF_ETHERTYPE           0x0000FFFF
39 #define E1000_ETQF_QUEUE               0x00070000
40 #define E1000_ETQF_QUEUE_SHIFT         16
41 #define E1000_MAX_ETQF_FILTERS         8
42
43 #define E1000_IMIR_DSTPORT             0x0000FFFF
44 #define E1000_IMIR_PRIORITY            0xE0000000
45 #define E1000_MAX_TTQF_FILTERS         8
46 #define E1000_2TUPLE_MAX_PRI           7
47
48 #define E1000_MAX_FLEX_FILTERS           8
49 #define E1000_MAX_FHFT                   4
50 #define E1000_MAX_FHFT_EXT               4
51 #define E1000_FHFT_SIZE_IN_DWD           64
52 #define E1000_MAX_FLEX_FILTER_PRI        7
53 #define E1000_MAX_FLEX_FILTER_LEN        128
54 #define E1000_MAX_FLEX_FILTER_DWDS \
55         (E1000_MAX_FLEX_FILTER_LEN / sizeof(uint32_t))
56 #define E1000_FLEX_FILTERS_MASK_SIZE \
57         (E1000_MAX_FLEX_FILTER_DWDS / 2)
58 #define E1000_FHFT_QUEUEING_LEN          0x0000007F
59 #define E1000_FHFT_QUEUEING_QUEUE        0x00000700
60 #define E1000_FHFT_QUEUEING_PRIO         0x00070000
61 #define E1000_FHFT_QUEUEING_OFFSET       0xFC
62 #define E1000_FHFT_QUEUEING_QUEUE_SHIFT  8
63 #define E1000_FHFT_QUEUEING_PRIO_SHIFT   16
64 #define E1000_WUFC_FLEX_HQ               0x00004000
65
66 #define E1000_SPQF_SRCPORT               0x0000FFFF
67
68 #define E1000_MAX_FTQF_FILTERS           8
69 #define E1000_FTQF_PROTOCOL_MASK         0x000000FF
70 #define E1000_FTQF_5TUPLE_MASK_SHIFT     28
71 #define E1000_FTQF_QUEUE_MASK            0x03ff0000
72 #define E1000_FTQF_QUEUE_SHIFT           16
73 #define E1000_FTQF_QUEUE_ENABLE          0x00000100
74
75 #define IGB_RSS_OFFLOAD_ALL ( \
76         ETH_RSS_IPV4 | \
77         ETH_RSS_NONFRAG_IPV4_TCP | \
78         ETH_RSS_NONFRAG_IPV4_UDP | \
79         ETH_RSS_IPV6 | \
80         ETH_RSS_NONFRAG_IPV6_TCP | \
81         ETH_RSS_NONFRAG_IPV6_UDP | \
82         ETH_RSS_IPV6_EX | \
83         ETH_RSS_IPV6_TCP_EX | \
84         ETH_RSS_IPV6_UDP_EX)
85
86 /*
87  * Maximum number of Ring Descriptors.
88  *
89  * Since RDLEN/TDLEN should be multiple of 128 bytes, the number of ring
90  * desscriptors should meet the following condition:
91  * (num_ring_desc * sizeof(struct e1000_rx/tx_desc)) % 128 == 0
92  */
93 #define E1000_MIN_RING_DESC     32
94 #define E1000_MAX_RING_DESC     4096
95
96 /*
97  * TDBA/RDBA should be aligned on 16 byte boundary. But TDLEN/RDLEN should be
98  * multiple of 128 bytes. So we align TDBA/RDBA on 128 byte boundary.
99  * This will also optimize cache line size effect.
100  * H/W supports up to cache line size 128.
101  */
102 #define E1000_ALIGN     128
103
104 #define IGB_RXD_ALIGN   (E1000_ALIGN / sizeof(union e1000_adv_rx_desc))
105 #define IGB_TXD_ALIGN   (E1000_ALIGN / sizeof(union e1000_adv_tx_desc))
106
107 #define EM_RXD_ALIGN    (E1000_ALIGN / sizeof(struct e1000_rx_desc))
108 #define EM_TXD_ALIGN    (E1000_ALIGN / sizeof(struct e1000_data_desc))
109
110 #define E1000_MISC_VEC_ID               RTE_INTR_VEC_ZERO_OFFSET
111 #define E1000_RX_VEC_START              RTE_INTR_VEC_RXTX_OFFSET
112
113 #define IGB_TX_MAX_SEG     UINT8_MAX
114 #define IGB_TX_MAX_MTU_SEG UINT8_MAX
115 #define EM_TX_MAX_SEG      UINT8_MAX
116 #define EM_TX_MAX_MTU_SEG  UINT8_MAX
117
118 #define MAC_TYPE_FILTER_SUP(type)    do {\
119         if ((type) != e1000_82580 && (type) != e1000_i350 &&\
120                 (type) != e1000_82576 && (type) != e1000_i210 &&\
121                 (type) != e1000_i211)\
122                 return -ENOTSUP;\
123 } while (0)
124
125 #define MAC_TYPE_FILTER_SUP_EXT(type)    do {\
126         if ((type) != e1000_82580 && (type) != e1000_i350 &&\
127                 (type) != e1000_i210 && (type) != e1000_i211)\
128                 return -ENOTSUP; \
129 } while (0)
130
131 /* structure for interrupt relative data */
132 struct e1000_interrupt {
133         uint32_t flags;
134         uint32_t mask;
135 };
136
137 /* local vfta copy */
138 struct e1000_vfta {
139         uint32_t vfta[IGB_VFTA_SIZE];
140 };
141
142 /*
143  * VF data which used by PF host only
144  */
145 #define E1000_MAX_VF_MC_ENTRIES         30
146 struct e1000_vf_info {
147         uint8_t vf_mac_addresses[ETHER_ADDR_LEN];
148         uint16_t vf_mc_hashes[E1000_MAX_VF_MC_ENTRIES];
149         uint16_t num_vf_mc_hashes;
150         uint16_t default_vf_vlan_id;
151         uint16_t vlans_enabled;
152         uint16_t pf_qos;
153         uint16_t vlan_count;
154         uint16_t tx_rate;
155 };
156
157 TAILQ_HEAD(e1000_flex_filter_list, e1000_flex_filter);
158
159 struct e1000_flex_filter_info {
160         uint16_t len;
161         uint32_t dwords[E1000_MAX_FLEX_FILTER_DWDS]; /* flex bytes in dword. */
162         /* if mask bit is 1b, do not compare corresponding byte in dwords. */
163         uint8_t mask[E1000_FLEX_FILTERS_MASK_SIZE];
164         uint8_t priority;
165 };
166
167 /* Flex filter structure */
168 struct e1000_flex_filter {
169         TAILQ_ENTRY(e1000_flex_filter) entries;
170         uint16_t index; /* index of flex filter */
171         struct e1000_flex_filter_info filter_info;
172         uint16_t queue; /* rx queue assigned to */
173 };
174
175 TAILQ_HEAD(e1000_5tuple_filter_list, e1000_5tuple_filter);
176 TAILQ_HEAD(e1000_2tuple_filter_list, e1000_2tuple_filter);
177
178 struct e1000_5tuple_filter_info {
179         uint32_t dst_ip;
180         uint32_t src_ip;
181         uint16_t dst_port;
182         uint16_t src_port;
183         uint8_t proto;           /* l4 protocol. */
184         /* the packet matched above 5tuple and contain any set bit will hit this filter. */
185         uint8_t tcp_flags;
186         uint8_t priority;        /* seven levels (001b-111b), 111b is highest,
187                                       used when more than one filter matches. */
188         uint8_t dst_ip_mask:1,   /* if mask is 1b, do not compare dst ip. */
189                 src_ip_mask:1,   /* if mask is 1b, do not compare src ip. */
190                 dst_port_mask:1, /* if mask is 1b, do not compare dst port. */
191                 src_port_mask:1, /* if mask is 1b, do not compare src port. */
192                 proto_mask:1;    /* if mask is 1b, do not compare protocol. */
193 };
194
195 struct e1000_2tuple_filter_info {
196         uint16_t dst_port;
197         uint8_t proto;           /* l4 protocol. */
198         /* the packet matched above 2tuple and contain any set bit will hit this filter. */
199         uint8_t tcp_flags;
200         uint8_t priority;        /* seven levels (001b-111b), 111b is highest,
201                                       used when more than one filter matches. */
202         uint8_t dst_ip_mask:1,   /* if mask is 1b, do not compare dst ip. */
203                 src_ip_mask:1,   /* if mask is 1b, do not compare src ip. */
204                 dst_port_mask:1, /* if mask is 1b, do not compare dst port. */
205                 src_port_mask:1, /* if mask is 1b, do not compare src port. */
206                 proto_mask:1;    /* if mask is 1b, do not compare protocol. */
207 };
208
209 /* 5tuple filter structure */
210 struct e1000_5tuple_filter {
211         TAILQ_ENTRY(e1000_5tuple_filter) entries;
212         uint16_t index;       /* the index of 5tuple filter */
213         struct e1000_5tuple_filter_info filter_info;
214         uint16_t queue;       /* rx queue assigned to */
215 };
216
217 /* 2tuple filter structure */
218 struct e1000_2tuple_filter {
219         TAILQ_ENTRY(e1000_2tuple_filter) entries;
220         uint16_t index;         /* the index of 2tuple filter */
221         struct e1000_2tuple_filter_info filter_info;
222         uint16_t queue;       /* rx queue assigned to */
223 };
224
225 /* ethertype filter structure */
226 struct igb_ethertype_filter {
227         uint16_t ethertype;
228         uint32_t etqf;
229 };
230
231 /*
232  * Structure to store filters'info.
233  */
234 struct e1000_filter_info {
235         uint8_t ethertype_mask; /* Bit mask for every used ethertype filter */
236         /* store used ethertype filters*/
237         struct igb_ethertype_filter ethertype_filters[E1000_MAX_ETQF_FILTERS];
238         uint8_t flex_mask;      /* Bit mask for every used flex filter */
239         struct e1000_flex_filter_list flex_list;
240         /* Bit mask for every used 5tuple filter */
241         uint8_t fivetuple_mask;
242         struct e1000_5tuple_filter_list fivetuple_list;
243         /* Bit mask for every used 2tuple filter */
244         uint8_t twotuple_mask;
245         struct e1000_2tuple_filter_list twotuple_list;
246         /* store the SYN filter info */
247         uint32_t syn_info;
248 };
249
250 /*
251  * Structure to store private data for each driver instance (for each port).
252  */
253 struct e1000_adapter {
254         struct e1000_hw         hw;
255         struct e1000_hw_stats   stats;
256         struct e1000_interrupt  intr;
257         struct e1000_vfta       shadow_vfta;
258         struct e1000_vf_info    *vfdata;
259         struct e1000_filter_info filter;
260         bool stopped;
261         struct rte_timecounter  systime_tc;
262         struct rte_timecounter  rx_tstamp_tc;
263         struct rte_timecounter  tx_tstamp_tc;
264 };
265
266 #define E1000_DEV_PRIVATE(adapter) \
267         ((struct e1000_adapter *)adapter)
268
269 #define E1000_DEV_PRIVATE_TO_HW(adapter) \
270         (&((struct e1000_adapter *)adapter)->hw)
271
272 #define E1000_DEV_PRIVATE_TO_STATS(adapter) \
273         (&((struct e1000_adapter *)adapter)->stats)
274
275 #define E1000_DEV_PRIVATE_TO_INTR(adapter) \
276         (&((struct e1000_adapter *)adapter)->intr)
277
278 #define E1000_DEV_PRIVATE_TO_VFTA(adapter) \
279         (&((struct e1000_adapter *)adapter)->shadow_vfta)
280
281 #define E1000_DEV_PRIVATE_TO_P_VFDATA(adapter) \
282         (&((struct e1000_adapter *)adapter)->vfdata)
283
284 #define E1000_DEV_PRIVATE_TO_FILTER_INFO(adapter) \
285         (&((struct e1000_adapter *)adapter)->filter)
286
287 struct rte_flow {
288         enum rte_filter_type filter_type;
289         void *rule;
290 };
291
292 /* ntuple filter list structure */
293 struct igb_ntuple_filter_ele {
294         TAILQ_ENTRY(igb_ntuple_filter_ele) entries;
295         struct rte_eth_ntuple_filter filter_info;
296 };
297
298 /* ethertype filter list structure */
299 struct igb_ethertype_filter_ele {
300         TAILQ_ENTRY(igb_ethertype_filter_ele) entries;
301         struct rte_eth_ethertype_filter filter_info;
302 };
303
304 /* syn filter list structure */
305 struct igb_eth_syn_filter_ele {
306         TAILQ_ENTRY(igb_eth_syn_filter_ele) entries;
307         struct rte_eth_syn_filter filter_info;
308 };
309
310 /* flex filter list structure */
311 struct igb_flex_filter_ele {
312         TAILQ_ENTRY(igb_flex_filter_ele) entries;
313         struct rte_eth_flex_filter filter_info;
314 };
315
316 /* igb_flow memory list structure */
317 struct igb_flow_mem {
318         TAILQ_ENTRY(igb_flow_mem) entries;
319         struct rte_flow *flow;
320         struct rte_eth_dev *dev;
321 };
322
323 TAILQ_HEAD(igb_ntuple_filter_list, igb_ntuple_filter_ele);
324 struct igb_ntuple_filter_list igb_filter_ntuple_list;
325 TAILQ_HEAD(igb_ethertype_filter_list, igb_ethertype_filter_ele);
326 struct igb_ethertype_filter_list igb_filter_ethertype_list;
327 TAILQ_HEAD(igb_syn_filter_list, igb_eth_syn_filter_ele);
328 struct igb_syn_filter_list igb_filter_syn_list;
329 TAILQ_HEAD(igb_flex_filter_list, igb_flex_filter_ele);
330 struct igb_flex_filter_list igb_filter_flex_list;
331 TAILQ_HEAD(igb_flow_mem_list, igb_flow_mem);
332 struct igb_flow_mem_list igb_flow_list;
333
334 extern const struct rte_flow_ops igb_flow_ops;
335
336 /*
337  * RX/TX IGB function prototypes
338  */
339 void eth_igb_tx_queue_release(void *txq);
340 void eth_igb_rx_queue_release(void *rxq);
341 void igb_dev_clear_queues(struct rte_eth_dev *dev);
342 void igb_dev_free_queues(struct rte_eth_dev *dev);
343
344 int eth_igb_rx_queue_setup(struct rte_eth_dev *dev, uint16_t rx_queue_id,
345                 uint16_t nb_rx_desc, unsigned int socket_id,
346                 const struct rte_eth_rxconf *rx_conf,
347                 struct rte_mempool *mb_pool);
348
349 uint32_t eth_igb_rx_queue_count(struct rte_eth_dev *dev,
350                 uint16_t rx_queue_id);
351
352 int eth_igb_rx_descriptor_done(void *rx_queue, uint16_t offset);
353
354 int eth_igb_rx_descriptor_status(void *rx_queue, uint16_t offset);
355 int eth_igb_tx_descriptor_status(void *tx_queue, uint16_t offset);
356
357 int eth_igb_tx_queue_setup(struct rte_eth_dev *dev, uint16_t tx_queue_id,
358                 uint16_t nb_tx_desc, unsigned int socket_id,
359                 const struct rte_eth_txconf *tx_conf);
360
361 int eth_igb_tx_done_cleanup(void *txq, uint32_t free_cnt);
362
363 int eth_igb_rx_init(struct rte_eth_dev *dev);
364
365 void eth_igb_tx_init(struct rte_eth_dev *dev);
366
367 uint16_t eth_igb_xmit_pkts(void *txq, struct rte_mbuf **tx_pkts,
368                 uint16_t nb_pkts);
369
370 uint16_t eth_igb_prep_pkts(void *txq, struct rte_mbuf **tx_pkts,
371                 uint16_t nb_pkts);
372
373 uint16_t eth_igb_recv_pkts(void *rxq, struct rte_mbuf **rx_pkts,
374                 uint16_t nb_pkts);
375
376 uint16_t eth_igb_recv_scattered_pkts(void *rxq,
377                 struct rte_mbuf **rx_pkts, uint16_t nb_pkts);
378
379 int eth_igb_rss_hash_update(struct rte_eth_dev *dev,
380                             struct rte_eth_rss_conf *rss_conf);
381
382 int eth_igb_rss_hash_conf_get(struct rte_eth_dev *dev,
383                               struct rte_eth_rss_conf *rss_conf);
384
385 int eth_igbvf_rx_init(struct rte_eth_dev *dev);
386
387 void eth_igbvf_tx_init(struct rte_eth_dev *dev);
388
389 /*
390  * misc function prototypes
391  */
392 void igb_pf_host_init(struct rte_eth_dev *eth_dev);
393
394 void igb_pf_mbx_process(struct rte_eth_dev *eth_dev);
395
396 int igb_pf_host_configure(struct rte_eth_dev *eth_dev);
397
398 void igb_rxq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
399         struct rte_eth_rxq_info *qinfo);
400
401 void igb_txq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
402         struct rte_eth_txq_info *qinfo);
403
404 /*
405  * RX/TX EM function prototypes
406  */
407 void eth_em_tx_queue_release(void *txq);
408 void eth_em_rx_queue_release(void *rxq);
409
410 void em_dev_clear_queues(struct rte_eth_dev *dev);
411 void em_dev_free_queues(struct rte_eth_dev *dev);
412
413 int eth_em_rx_queue_setup(struct rte_eth_dev *dev, uint16_t rx_queue_id,
414                 uint16_t nb_rx_desc, unsigned int socket_id,
415                 const struct rte_eth_rxconf *rx_conf,
416                 struct rte_mempool *mb_pool);
417
418 uint32_t eth_em_rx_queue_count(struct rte_eth_dev *dev,
419                 uint16_t rx_queue_id);
420
421 int eth_em_rx_descriptor_done(void *rx_queue, uint16_t offset);
422
423 int eth_em_rx_descriptor_status(void *rx_queue, uint16_t offset);
424 int eth_em_tx_descriptor_status(void *tx_queue, uint16_t offset);
425
426 int eth_em_tx_queue_setup(struct rte_eth_dev *dev, uint16_t tx_queue_id,
427                 uint16_t nb_tx_desc, unsigned int socket_id,
428                 const struct rte_eth_txconf *tx_conf);
429
430 int eth_em_rx_init(struct rte_eth_dev *dev);
431
432 void eth_em_tx_init(struct rte_eth_dev *dev);
433
434 uint16_t eth_em_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
435                 uint16_t nb_pkts);
436
437 uint16_t eth_em_prep_pkts(void *txq, struct rte_mbuf **tx_pkts,
438                 uint16_t nb_pkts);
439
440 uint16_t eth_em_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
441                 uint16_t nb_pkts);
442
443 uint16_t eth_em_recv_scattered_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
444                 uint16_t nb_pkts);
445
446 void em_rxq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
447         struct rte_eth_rxq_info *qinfo);
448
449 void em_txq_info_get(struct rte_eth_dev *dev, uint16_t queue_id,
450         struct rte_eth_txq_info *qinfo);
451
452 void igb_pf_host_uninit(struct rte_eth_dev *dev);
453
454 void igb_filterlist_flush(struct rte_eth_dev *dev);
455 int igb_delete_5tuple_filter_82576(struct rte_eth_dev *dev,
456                 struct e1000_5tuple_filter *filter);
457 int igb_delete_2tuple_filter(struct rte_eth_dev *dev,
458                 struct e1000_2tuple_filter *filter);
459 void igb_remove_flex_filter(struct rte_eth_dev *dev,
460                         struct e1000_flex_filter *filter);
461 int igb_ethertype_filter_remove(struct e1000_filter_info *filter_info,
462         uint8_t idx);
463 int igb_add_del_ntuple_filter(struct rte_eth_dev *dev,
464                 struct rte_eth_ntuple_filter *ntuple_filter, bool add);
465 int igb_add_del_ethertype_filter(struct rte_eth_dev *dev,
466                         struct rte_eth_ethertype_filter *filter,
467                         bool add);
468 int eth_igb_syn_filter_set(struct rte_eth_dev *dev,
469                         struct rte_eth_syn_filter *filter,
470                         bool add);
471 int eth_igb_add_del_flex_filter(struct rte_eth_dev *dev,
472                         struct rte_eth_flex_filter *filter,
473                         bool add);
474 #endif /* _E1000_ETHDEV_H_ */