vhost: mark vDPA driver API as internal
[dpdk.git] / drivers / net / netvsc / hn_var.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright (c) 2009-2018 Microsoft Corp.
3  * Copyright (c) 2016 Brocade Communications Systems, Inc.
4  * Copyright (c) 2012 NetApp Inc.
5  * Copyright (c) 2012 Citrix Inc.
6  * All rights reserved.
7  */
8
9 #include <rte_eal_paging.h>
10 #include <ethdev_driver.h>
11
12 /*
13  * Tunable ethdev params
14  */
15 #define HN_MIN_RX_BUF_SIZE      1024
16 #define HN_MAX_XFER_LEN         2048
17 #define HN_MAX_MAC_ADDRS        1
18 #define HN_MAX_CHANNELS         64
19
20 /* Claimed to be 12232B */
21 #define HN_MTU_MAX              (9 * 1024)
22
23 /* Retry interval */
24 #define HN_CHAN_INTERVAL_US     100
25
26 /* Host monitor interval */
27 #define HN_CHAN_LATENCY_NS      50000
28
29 #define HN_TXCOPY_THRESHOLD     512
30 #define HN_RXCOPY_THRESHOLD     256
31
32 #define HN_RX_EXTMBUF_ENABLE    0
33
34 #ifndef PAGE_MASK
35 #define PAGE_MASK (rte_mem_page_size() - 1)
36 #endif
37
38 struct hn_data;
39 struct hn_txdesc;
40
41 struct hn_stats {
42         uint64_t        packets;
43         uint64_t        bytes;
44         uint64_t        errors;
45         uint64_t        ring_full;
46         uint64_t        channel_full;
47         uint64_t        multicast;
48         uint64_t        broadcast;
49         /* Size bins in array as RFC 2819, undersized [0], 64 [1], etc */
50         uint64_t        size_bins[8];
51 };
52
53 struct hn_tx_queue {
54         struct hn_data  *hv;
55         struct vmbus_channel *chan;
56         uint16_t        port_id;
57         uint16_t        queue_id;
58         uint32_t        free_thresh;
59         struct rte_mempool *txdesc_pool;
60         const struct rte_memzone *tx_rndis_mz;
61         void            *tx_rndis;
62         rte_iova_t      tx_rndis_iova;
63
64         /* Applied packet transmission aggregation limits. */
65         uint32_t        agg_szmax;
66         uint32_t        agg_pktmax;
67         uint32_t        agg_align;
68
69         /* Packet transmission aggregation states */
70         struct hn_txdesc *agg_txd;
71         uint32_t        agg_pktleft;
72         uint32_t        agg_szleft;
73         struct rndis_packet_msg *agg_prevpkt;
74
75         struct hn_stats stats;
76 };
77
78 struct hn_rx_queue {
79         struct hn_data  *hv;
80         struct vmbus_channel *chan;
81         struct rte_mempool *mb_pool;
82         struct rte_ring *rx_ring;
83
84         rte_spinlock_t ring_lock;
85         uint32_t event_sz;
86         uint16_t port_id;
87         uint16_t queue_id;
88         struct hn_stats stats;
89
90         void *event_buf;
91         struct hn_rx_bufinfo *rxbuf_info;
92         rte_atomic32_t  rxbuf_outstanding;
93 };
94
95
96 /* multi-packet data from host */
97 struct hn_rx_bufinfo {
98         struct vmbus_channel *chan;
99         struct hn_rx_queue *rxq;
100         uint64_t        xactid;
101         struct rte_mbuf_ext_shared_info shinfo;
102 } __rte_cache_aligned;
103
104 #define HN_INVALID_PORT UINT16_MAX
105
106 enum vf_device_state {
107         vf_unknown = 0,
108         vf_removed,
109         vf_configured,
110         vf_started,
111         vf_stopped,
112 };
113
114 struct hn_vf_ctx {
115         uint16_t        vf_port;
116
117         /* We have taken ownership of this VF port from DPDK */
118         bool            vf_attached;
119
120         /* VSC has requested to switch data path to VF */
121         bool            vf_vsc_switched;
122
123         /* VSP has reported the VF is present for this NIC */
124         bool            vf_vsp_reported;
125
126         enum vf_device_state    vf_state;
127 };
128
129 struct hn_data {
130         struct rte_vmbus_device *vmbus;
131         struct hn_rx_queue *primary;
132         rte_rwlock_t    vf_lock;
133         uint16_t        port_id;
134
135         struct hn_vf_ctx        vf_ctx;
136
137         uint8_t         closed;
138         uint8_t         vlan_strip;
139
140         uint32_t        link_status;
141         uint32_t        link_speed;
142
143         struct rte_mem_resource *rxbuf_res;     /* UIO resource for Rx */
144         uint32_t        rxbuf_section_cnt;      /* # of Rx sections */
145         uint32_t        rx_copybreak;
146         uint32_t        rx_extmbuf_enable;
147         uint16_t        max_queues;             /* Max available queues */
148         uint16_t        num_queues;
149         uint64_t        rss_offloads;
150
151         rte_spinlock_t  chim_lock;
152         struct rte_mem_resource *chim_res;      /* UIO resource for Tx */
153         struct rte_bitmap *chim_bmap;           /* Send buffer map */
154         void            *chim_bmem;
155         uint32_t        tx_copybreak;
156         uint32_t        chim_szmax;             /* Max size per buffer */
157         uint32_t        chim_cnt;               /* Max packets per buffer */
158
159         uint32_t        latency;
160         uint32_t        nvs_ver;
161         uint32_t        ndis_ver;
162         uint32_t        rndis_agg_size;
163         uint32_t        rndis_agg_pkts;
164         uint32_t        rndis_agg_align;
165
166         volatile uint32_t  rndis_pending;
167         rte_atomic32_t  rndis_req_id;
168         uint8_t         rndis_resp[256];
169
170         uint32_t        rss_hash;
171         uint8_t         rss_key[40];
172         uint16_t        rss_ind[128];
173
174         struct rte_eth_dev_owner owner;
175
176         struct vmbus_channel *channels[HN_MAX_CHANNELS];
177
178         struct rte_devargs devargs;
179         int             eal_hot_plug_retry;
180 };
181
182 static inline struct vmbus_channel *
183 hn_primary_chan(const struct hn_data *hv)
184 {
185         return hv->channels[0];
186 }
187
188 uint32_t hn_process_events(struct hn_data *hv, uint16_t queue_id,
189                        uint32_t tx_limit);
190
191 uint16_t hn_xmit_pkts(void *tx_queue, struct rte_mbuf **tx_pkts,
192                       uint16_t nb_pkts);
193 uint16_t hn_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
194                       uint16_t nb_pkts);
195
196 int     hn_chim_init(struct rte_eth_dev *dev);
197 void    hn_chim_uninit(struct rte_eth_dev *dev);
198 int     hn_dev_link_update(struct rte_eth_dev *dev, int wait);
199 int     hn_dev_tx_queue_setup(struct rte_eth_dev *dev, uint16_t queue_idx,
200                               uint16_t nb_desc, unsigned int socket_id,
201                               const struct rte_eth_txconf *tx_conf);
202 void    hn_dev_tx_queue_release(struct rte_eth_dev *dev, uint16_t qid);
203 void    hn_dev_tx_queue_info(struct rte_eth_dev *dev, uint16_t queue_idx,
204                              struct rte_eth_txq_info *qinfo);
205 int     hn_dev_tx_done_cleanup(void *arg, uint32_t free_cnt);
206 int     hn_dev_tx_descriptor_status(void *arg, uint16_t offset);
207
208 struct hn_rx_queue *hn_rx_queue_alloc(struct hn_data *hv,
209                                       uint16_t queue_id,
210                                       unsigned int socket_id);
211 int     hn_dev_rx_queue_setup(struct rte_eth_dev *dev,
212                               uint16_t queue_idx, uint16_t nb_desc,
213                               unsigned int socket_id,
214                               const struct rte_eth_rxconf *rx_conf,
215                               struct rte_mempool *mp);
216 void    hn_dev_rx_queue_info(struct rte_eth_dev *dev, uint16_t queue_id,
217                              struct rte_eth_rxq_info *qinfo);
218 void    hn_dev_rx_queue_release(struct rte_eth_dev *dev, uint16_t qid);
219 uint32_t hn_dev_rx_queue_count(void *rx_queue);
220 int     hn_dev_rx_queue_status(void *rxq, uint16_t offset);
221 void    hn_dev_free_queues(struct rte_eth_dev *dev);
222
223 /*
224  * Get VF device for existing netvsc device
225  * Assumes vf_lock is held.
226  */
227 static inline struct rte_eth_dev *
228 hn_get_vf_dev(const struct hn_data *hv)
229 {
230         if (hv->vf_ctx.vf_attached)
231                 return &rte_eth_devices[hv->vf_ctx.vf_port];
232         else
233                 return NULL;
234 }
235
236 int     hn_vf_info_get(struct hn_data *hv,
237                        struct rte_eth_dev_info *info);
238 int     hn_vf_add(struct rte_eth_dev *dev, struct hn_data *hv);
239 int     hn_vf_configure_locked(struct rte_eth_dev *dev,
240                                const struct rte_eth_conf *dev_conf);
241 const uint32_t *hn_vf_supported_ptypes(struct rte_eth_dev *dev);
242 int     hn_vf_start(struct rte_eth_dev *dev);
243 void    hn_vf_reset(struct rte_eth_dev *dev);
244 int     hn_vf_close(struct rte_eth_dev *dev);
245 int     hn_vf_stop(struct rte_eth_dev *dev);
246
247 int     hn_vf_allmulticast_enable(struct rte_eth_dev *dev);
248 int     hn_vf_allmulticast_disable(struct rte_eth_dev *dev);
249 int     hn_vf_promiscuous_enable(struct rte_eth_dev *dev);
250 int     hn_vf_promiscuous_disable(struct rte_eth_dev *dev);
251 int     hn_vf_mc_addr_list(struct rte_eth_dev *dev,
252                            struct rte_ether_addr *mc_addr_set,
253                            uint32_t nb_mc_addr);
254
255 int     hn_vf_tx_queue_setup(struct rte_eth_dev *dev,
256                              uint16_t queue_idx, uint16_t nb_desc,
257                              unsigned int socket_id,
258                              const struct rte_eth_txconf *tx_conf);
259 void    hn_vf_tx_queue_release(struct hn_data *hv, uint16_t queue_id);
260 int     hn_vf_tx_queue_status(struct hn_data *hv, uint16_t queue_id, uint16_t offset);
261
262 int     hn_vf_rx_queue_setup(struct rte_eth_dev *dev,
263                              uint16_t queue_idx, uint16_t nb_desc,
264                              unsigned int socket_id,
265                              const struct rte_eth_rxconf *rx_conf,
266                              struct rte_mempool *mp);
267 void    hn_vf_rx_queue_release(struct hn_data *hv, uint16_t queue_id);
268
269 int     hn_vf_stats_get(struct rte_eth_dev *dev, struct rte_eth_stats *stats);
270 int     hn_vf_stats_reset(struct rte_eth_dev *dev);
271 int     hn_vf_xstats_get_names(struct rte_eth_dev *dev,
272                                struct rte_eth_xstat_name *xstats_names,
273                                unsigned int size);
274 int     hn_vf_xstats_get(struct rte_eth_dev *dev,
275                          struct rte_eth_xstat *xstats,
276                          unsigned int offset, unsigned int n);
277 int     hn_vf_xstats_reset(struct rte_eth_dev *dev);
278 int     hn_vf_rss_hash_update(struct rte_eth_dev *dev,
279                               struct rte_eth_rss_conf *rss_conf);
280 int     hn_vf_reta_hash_update(struct rte_eth_dev *dev,
281                                struct rte_eth_rss_reta_entry64 *reta_conf,
282                                uint16_t reta_size);
283 int     hn_eth_rmv_event_callback(uint16_t port_id,
284                                   enum rte_eth_event_type event __rte_unused,
285                                   void *cb_arg, void *out __rte_unused);