7f6b835a4b35c16e83fa5bd7a422fc5d9271ae52
[dpdk.git] / drivers / raw / ntb / ntb.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2019 Intel Corporation.
3  */
4 #include <stdint.h>
5 #include <stdio.h>
6 #include <string.h>
7 #include <errno.h>
8
9 #include <rte_common.h>
10 #include <rte_lcore.h>
11 #include <rte_cycles.h>
12 #include <rte_eal.h>
13 #include <rte_log.h>
14 #include <rte_pci.h>
15 #include <rte_mbuf.h>
16 #include <rte_bus_pci.h>
17 #include <rte_memzone.h>
18 #include <rte_memcpy.h>
19 #include <rte_rawdev.h>
20 #include <rte_rawdev_pmd.h>
21
22 #include "ntb_hw_intel.h"
23 #include "rte_pmd_ntb.h"
24 #include "ntb.h"
25
26 static const struct rte_pci_id pci_id_ntb_map[] = {
27         { RTE_PCI_DEVICE(NTB_INTEL_VENDOR_ID, NTB_INTEL_DEV_ID_B2B_SKX) },
28         { .vendor_id = 0, /* sentinel */ },
29 };
30
31 /* Align with enum ntb_xstats_idx */
32 static struct rte_rawdev_xstats_name ntb_xstats_names[] = {
33         {"Tx-packets"},
34         {"Tx-bytes"},
35         {"Tx-errors"},
36         {"Rx-packets"},
37         {"Rx-bytes"},
38         {"Rx-missed"},
39 };
40 #define NTB_XSTATS_NUM RTE_DIM(ntb_xstats_names)
41
42 static inline void
43 ntb_link_cleanup(struct rte_rawdev *dev)
44 {
45         struct ntb_hw *hw = dev->dev_private;
46         int status, i;
47
48         if (hw->ntb_ops->spad_write == NULL ||
49             hw->ntb_ops->mw_set_trans == NULL) {
50                 NTB_LOG(ERR, "Not supported to clean up link.");
51                 return;
52         }
53
54         /* Clean spad registers. */
55         for (i = 0; i < hw->spad_cnt; i++) {
56                 status = (*hw->ntb_ops->spad_write)(dev, i, 0, 0);
57                 if (status)
58                         NTB_LOG(ERR, "Failed to clean local spad.");
59         }
60
61         /* Clear mw so that peer cannot access local memory.*/
62         for (i = 0; i < hw->used_mw_num; i++) {
63                 status = (*hw->ntb_ops->mw_set_trans)(dev, i, 0, 0);
64                 if (status)
65                         NTB_LOG(ERR, "Failed to clean mw.");
66         }
67 }
68
69 static inline int
70 ntb_handshake_work(const struct rte_rawdev *dev)
71 {
72         struct ntb_hw *hw = dev->dev_private;
73         uint32_t val;
74         int ret, i;
75
76         if (hw->ntb_ops->spad_write == NULL ||
77             hw->ntb_ops->mw_set_trans == NULL) {
78                 NTB_LOG(ERR, "Scratchpad/MW setting is not supported.");
79                 return -ENOTSUP;
80         }
81
82         /* Tell peer the mw info of local side. */
83         ret = (*hw->ntb_ops->spad_write)(dev, SPAD_NUM_MWS, 1, hw->mw_cnt);
84         if (ret < 0)
85                 return ret;
86         for (i = 0; i < hw->mw_cnt; i++) {
87                 NTB_LOG(INFO, "Local %u mw size: 0x%"PRIx64"", i,
88                                 hw->mw_size[i]);
89                 val = hw->mw_size[i] >> 32;
90                 ret = (*hw->ntb_ops->spad_write)(dev, SPAD_MW0_SZ_H + 2 * i,
91                                                  1, val);
92                 if (ret < 0)
93                         return ret;
94                 val = hw->mw_size[i];
95                 ret = (*hw->ntb_ops->spad_write)(dev, SPAD_MW0_SZ_L + 2 * i,
96                                                  1, val);
97                 if (ret < 0)
98                         return ret;
99         }
100
101         /* Tell peer about the queue info and map memory to the peer. */
102         ret = (*hw->ntb_ops->spad_write)(dev, SPAD_Q_SZ, 1, hw->queue_size);
103         if (ret < 0)
104                 return ret;
105         ret = (*hw->ntb_ops->spad_write)(dev, SPAD_NUM_QPS, 1,
106                                          hw->queue_pairs);
107         if (ret < 0)
108                 return ret;
109         ret = (*hw->ntb_ops->spad_write)(dev, SPAD_USED_MWS, 1,
110                                          hw->used_mw_num);
111         if (ret < 0)
112                 return ret;
113         for (i = 0; i < hw->used_mw_num; i++) {
114                 val = (uint64_t)(size_t)(hw->mz[i]->addr) >> 32;
115                 ret = (*hw->ntb_ops->spad_write)(dev, SPAD_MW0_BA_H + 2 * i,
116                                                  1, val);
117                 if (ret < 0)
118                         return ret;
119                 val = (uint64_t)(size_t)(hw->mz[i]->addr);
120                 ret = (*hw->ntb_ops->spad_write)(dev, SPAD_MW0_BA_L + 2 * i,
121                                                  1, val);
122                 if (ret < 0)
123                         return ret;
124         }
125
126         for (i = 0; i < hw->used_mw_num; i++) {
127                 ret = (*hw->ntb_ops->mw_set_trans)(dev, i, hw->mz[i]->iova,
128                                                    hw->mz[i]->len);
129                 if (ret < 0)
130                         return ret;
131         }
132
133         /* Ring doorbell 0 to tell peer the device is ready. */
134         ret = (*hw->ntb_ops->peer_db_set)(dev, 0);
135         if (ret < 0)
136                 return ret;
137
138         return 0;
139 }
140
141 static void
142 ntb_dev_intr_handler(void *param)
143 {
144         struct rte_rawdev *dev = (struct rte_rawdev *)param;
145         struct ntb_hw *hw = dev->dev_private;
146         uint32_t val_h, val_l;
147         uint64_t peer_mw_size;
148         uint64_t db_bits = 0;
149         uint8_t peer_mw_cnt;
150         int i = 0;
151
152         if (hw->ntb_ops->db_read == NULL ||
153             hw->ntb_ops->db_clear == NULL ||
154             hw->ntb_ops->peer_db_set == NULL) {
155                 NTB_LOG(ERR, "Doorbell is not supported.");
156                 return;
157         }
158
159         db_bits = (*hw->ntb_ops->db_read)(dev);
160         if (!db_bits)
161                 NTB_LOG(ERR, "No doorbells");
162
163         /* Doorbell 0 is for peer device ready. */
164         if (db_bits & 1) {
165                 NTB_LOG(INFO, "DB0: Peer device is up.");
166                 /* Clear received doorbell. */
167                 (*hw->ntb_ops->db_clear)(dev, 1);
168
169                 /**
170                  * Peer dev is already up. All mw settings are already done.
171                  * Skip them.
172                  */
173                 if (hw->peer_dev_up)
174                         return;
175
176                 if (hw->ntb_ops->spad_read == NULL) {
177                         NTB_LOG(ERR, "Scratchpad read is not supported.");
178                         return;
179                 }
180
181                 /* Check if mw setting on the peer is the same as local. */
182                 peer_mw_cnt = (*hw->ntb_ops->spad_read)(dev, SPAD_NUM_MWS, 0);
183                 if (peer_mw_cnt != hw->mw_cnt) {
184                         NTB_LOG(ERR, "Both mw cnt must be the same.");
185                         return;
186                 }
187
188                 for (i = 0; i < hw->mw_cnt; i++) {
189                         val_h = (*hw->ntb_ops->spad_read)
190                                 (dev, SPAD_MW0_SZ_H + 2 * i, 0);
191                         val_l = (*hw->ntb_ops->spad_read)
192                                 (dev, SPAD_MW0_SZ_L + 2 * i, 0);
193                         peer_mw_size = ((uint64_t)val_h << 32) | val_l;
194                         NTB_LOG(DEBUG, "Peer %u mw size: 0x%"PRIx64"", i,
195                                         peer_mw_size);
196                         if (peer_mw_size != hw->mw_size[i]) {
197                                 NTB_LOG(ERR, "Mw config must be the same.");
198                                 return;
199                         }
200                 }
201
202                 hw->peer_dev_up = 1;
203
204                 /**
205                  * Handshake with peer. Spad_write & mw_set_trans only works
206                  * when both devices are up. So write spad again when db is
207                  * received. And set db again for the later device who may miss
208                  * the 1st db.
209                  */
210                 if (ntb_handshake_work(dev) < 0) {
211                         NTB_LOG(ERR, "Handshake work failed.");
212                         return;
213                 }
214
215                 /* To get the link info. */
216                 if (hw->ntb_ops->get_link_status == NULL) {
217                         NTB_LOG(ERR, "Not supported to get link status.");
218                         return;
219                 }
220                 (*hw->ntb_ops->get_link_status)(dev);
221                 NTB_LOG(INFO, "Link is up. Link speed: %u. Link width: %u",
222                         hw->link_speed, hw->link_width);
223                 return;
224         }
225
226         if (db_bits & (1 << 1)) {
227                 NTB_LOG(INFO, "DB1: Peer device is down.");
228                 /* Clear received doorbell. */
229                 (*hw->ntb_ops->db_clear)(dev, 2);
230
231                 /* Peer device will be down, So clean local side too. */
232                 ntb_link_cleanup(dev);
233
234                 hw->peer_dev_up = 0;
235                 /* Response peer's dev_stop request. */
236                 (*hw->ntb_ops->peer_db_set)(dev, 2);
237                 return;
238         }
239
240         if (db_bits & (1 << 2)) {
241                 NTB_LOG(INFO, "DB2: Peer device agrees dev to be down.");
242                 /* Clear received doorbell. */
243                 (*hw->ntb_ops->db_clear)(dev, (1 << 2));
244                 hw->peer_dev_up = 0;
245                 return;
246         }
247 }
248
249 static void
250 ntb_queue_conf_get(struct rte_rawdev *dev,
251                    uint16_t queue_id,
252                    rte_rawdev_obj_t queue_conf)
253 {
254         struct ntb_queue_conf *q_conf = queue_conf;
255         struct ntb_hw *hw = dev->dev_private;
256
257         q_conf->tx_free_thresh = hw->tx_queues[queue_id]->tx_free_thresh;
258         q_conf->nb_desc = hw->rx_queues[queue_id]->nb_rx_desc;
259         q_conf->rx_mp = hw->rx_queues[queue_id]->mpool;
260 }
261
262 static void
263 ntb_rxq_release_mbufs(struct ntb_rx_queue *q)
264 {
265         int i;
266
267         if (!q || !q->sw_ring) {
268                 NTB_LOG(ERR, "Pointer to rxq or sw_ring is NULL");
269                 return;
270         }
271
272         for (i = 0; i < q->nb_rx_desc; i++) {
273                 if (q->sw_ring[i].mbuf) {
274                         rte_pktmbuf_free_seg(q->sw_ring[i].mbuf);
275                         q->sw_ring[i].mbuf = NULL;
276                 }
277         }
278 }
279
280 static void
281 ntb_rxq_release(struct ntb_rx_queue *rxq)
282 {
283         if (!rxq) {
284                 NTB_LOG(ERR, "Pointer to rxq is NULL");
285                 return;
286         }
287
288         ntb_rxq_release_mbufs(rxq);
289
290         rte_free(rxq->sw_ring);
291         rte_free(rxq);
292 }
293
294 static int
295 ntb_rxq_setup(struct rte_rawdev *dev,
296               uint16_t qp_id,
297               rte_rawdev_obj_t queue_conf)
298 {
299         struct ntb_queue_conf *rxq_conf = queue_conf;
300         struct ntb_hw *hw = dev->dev_private;
301         struct ntb_rx_queue *rxq;
302
303         /* Allocate the rx queue data structure */
304         rxq = rte_zmalloc_socket("ntb rx queue",
305                                  sizeof(struct ntb_rx_queue),
306                                  RTE_CACHE_LINE_SIZE,
307                                  dev->socket_id);
308         if (!rxq) {
309                 NTB_LOG(ERR, "Failed to allocate memory for "
310                             "rx queue data structure.");
311                 return -ENOMEM;
312         }
313
314         if (rxq_conf->rx_mp == NULL) {
315                 NTB_LOG(ERR, "Invalid null mempool pointer.");
316                 return -EINVAL;
317         }
318         rxq->nb_rx_desc = rxq_conf->nb_desc;
319         rxq->mpool = rxq_conf->rx_mp;
320         rxq->port_id = dev->dev_id;
321         rxq->queue_id = qp_id;
322         rxq->hw = hw;
323
324         /* Allocate the software ring. */
325         rxq->sw_ring =
326                 rte_zmalloc_socket("ntb rx sw ring",
327                                    sizeof(struct ntb_rx_entry) *
328                                    rxq->nb_rx_desc,
329                                    RTE_CACHE_LINE_SIZE,
330                                    dev->socket_id);
331         if (!rxq->sw_ring) {
332                 ntb_rxq_release(rxq);
333                 rxq = NULL;
334                 NTB_LOG(ERR, "Failed to allocate memory for SW ring");
335                 return -ENOMEM;
336         }
337
338         hw->rx_queues[qp_id] = rxq;
339
340         return 0;
341 }
342
343 static void
344 ntb_txq_release_mbufs(struct ntb_tx_queue *q)
345 {
346         int i;
347
348         if (!q || !q->sw_ring) {
349                 NTB_LOG(ERR, "Pointer to txq or sw_ring is NULL");
350                 return;
351         }
352
353         for (i = 0; i < q->nb_tx_desc; i++) {
354                 if (q->sw_ring[i].mbuf) {
355                         rte_pktmbuf_free_seg(q->sw_ring[i].mbuf);
356                         q->sw_ring[i].mbuf = NULL;
357                 }
358         }
359 }
360
361 static void
362 ntb_txq_release(struct ntb_tx_queue *txq)
363 {
364         if (!txq) {
365                 NTB_LOG(ERR, "Pointer to txq is NULL");
366                 return;
367         }
368
369         ntb_txq_release_mbufs(txq);
370
371         rte_free(txq->sw_ring);
372         rte_free(txq);
373 }
374
375 static int
376 ntb_txq_setup(struct rte_rawdev *dev,
377               uint16_t qp_id,
378               rte_rawdev_obj_t queue_conf)
379 {
380         struct ntb_queue_conf *txq_conf = queue_conf;
381         struct ntb_hw *hw = dev->dev_private;
382         struct ntb_tx_queue *txq;
383         uint16_t i, prev;
384
385         /* Allocate the TX queue data structure. */
386         txq = rte_zmalloc_socket("ntb tx queue",
387                                   sizeof(struct ntb_tx_queue),
388                                   RTE_CACHE_LINE_SIZE,
389                                   dev->socket_id);
390         if (!txq) {
391                 NTB_LOG(ERR, "Failed to allocate memory for "
392                             "tx queue structure");
393                 return -ENOMEM;
394         }
395
396         txq->nb_tx_desc = txq_conf->nb_desc;
397         txq->port_id = dev->dev_id;
398         txq->queue_id = qp_id;
399         txq->hw = hw;
400
401         /* Allocate software ring */
402         txq->sw_ring =
403                 rte_zmalloc_socket("ntb tx sw ring",
404                                    sizeof(struct ntb_tx_entry) *
405                                    txq->nb_tx_desc,
406                                    RTE_CACHE_LINE_SIZE,
407                                    dev->socket_id);
408         if (!txq->sw_ring) {
409                 ntb_txq_release(txq);
410                 txq = NULL;
411                 NTB_LOG(ERR, "Failed to allocate memory for SW TX ring");
412                 return -ENOMEM;
413         }
414
415         prev = txq->nb_tx_desc - 1;
416         for (i = 0; i < txq->nb_tx_desc; i++) {
417                 txq->sw_ring[i].mbuf = NULL;
418                 txq->sw_ring[i].last_id = i;
419                 txq->sw_ring[prev].next_id = i;
420                 prev = i;
421         }
422
423         txq->tx_free_thresh = txq_conf->tx_free_thresh ?
424                               txq_conf->tx_free_thresh :
425                               NTB_DFLT_TX_FREE_THRESH;
426         if (txq->tx_free_thresh >= txq->nb_tx_desc - 3) {
427                 NTB_LOG(ERR, "tx_free_thresh must be less than nb_desc - 3. "
428                         "(tx_free_thresh=%u qp_id=%u)", txq->tx_free_thresh,
429                         qp_id);
430                 return -EINVAL;
431         }
432
433         hw->tx_queues[qp_id] = txq;
434
435         return 0;
436 }
437
438
439 static int
440 ntb_queue_setup(struct rte_rawdev *dev,
441                 uint16_t queue_id,
442                 rte_rawdev_obj_t queue_conf)
443 {
444         struct ntb_hw *hw = dev->dev_private;
445         int ret;
446
447         if (queue_id >= hw->queue_pairs)
448                 return -EINVAL;
449
450         ret = ntb_txq_setup(dev, queue_id, queue_conf);
451         if (ret < 0)
452                 return ret;
453
454         ret = ntb_rxq_setup(dev, queue_id, queue_conf);
455
456         return ret;
457 }
458
459 static int
460 ntb_queue_release(struct rte_rawdev *dev, uint16_t queue_id)
461 {
462         struct ntb_hw *hw = dev->dev_private;
463
464         if (queue_id >= hw->queue_pairs)
465                 return -EINVAL;
466
467         ntb_txq_release(hw->tx_queues[queue_id]);
468         hw->tx_queues[queue_id] = NULL;
469         ntb_rxq_release(hw->rx_queues[queue_id]);
470         hw->rx_queues[queue_id] = NULL;
471
472         return 0;
473 }
474
475 static uint16_t
476 ntb_queue_count(struct rte_rawdev *dev)
477 {
478         struct ntb_hw *hw = dev->dev_private;
479         return hw->queue_pairs;
480 }
481
482 static int
483 ntb_queue_init(struct rte_rawdev *dev, uint16_t qp_id)
484 {
485         struct ntb_hw *hw = dev->dev_private;
486         struct ntb_rx_queue *rxq = hw->rx_queues[qp_id];
487         struct ntb_tx_queue *txq = hw->tx_queues[qp_id];
488         volatile struct ntb_header *local_hdr;
489         struct ntb_header *remote_hdr;
490         uint16_t q_size = hw->queue_size;
491         uint32_t hdr_offset;
492         void *bar_addr;
493         uint16_t i;
494
495         if (hw->ntb_ops->get_peer_mw_addr == NULL) {
496                 NTB_LOG(ERR, "Getting peer mw addr is not supported.");
497                 return -EINVAL;
498         }
499
500         /* Put queue info into the start of shared memory. */
501         hdr_offset = hw->hdr_size_per_queue * qp_id;
502         local_hdr = (volatile struct ntb_header *)
503                     ((size_t)hw->mz[0]->addr + hdr_offset);
504         bar_addr = (*hw->ntb_ops->get_peer_mw_addr)(dev, 0);
505         if (bar_addr == NULL)
506                 return -EINVAL;
507         remote_hdr = (struct ntb_header *)
508                      ((size_t)bar_addr + hdr_offset);
509
510         /* rxq init. */
511         rxq->rx_desc_ring = (struct ntb_desc *)
512                             (&remote_hdr->desc_ring);
513         rxq->rx_used_ring = (volatile struct ntb_used *)
514                             (&local_hdr->desc_ring[q_size]);
515         rxq->avail_cnt = &remote_hdr->avail_cnt;
516         rxq->used_cnt = &local_hdr->used_cnt;
517
518         for (i = 0; i < rxq->nb_rx_desc - 1; i++) {
519                 struct rte_mbuf *mbuf = rte_mbuf_raw_alloc(rxq->mpool);
520                 if (unlikely(!mbuf)) {
521                         NTB_LOG(ERR, "Failed to allocate mbuf for RX");
522                         return -ENOMEM;
523                 }
524                 mbuf->port = dev->dev_id;
525
526                 rxq->sw_ring[i].mbuf = mbuf;
527
528                 rxq->rx_desc_ring[i].addr = rte_pktmbuf_mtod(mbuf, size_t);
529                 rxq->rx_desc_ring[i].len = mbuf->buf_len - RTE_PKTMBUF_HEADROOM;
530         }
531         rte_wmb();
532         *rxq->avail_cnt = rxq->nb_rx_desc - 1;
533         rxq->last_avail = rxq->nb_rx_desc - 1;
534         rxq->last_used = 0;
535
536         /* txq init */
537         txq->tx_desc_ring = (volatile struct ntb_desc *)
538                             (&local_hdr->desc_ring);
539         txq->tx_used_ring = (struct ntb_used *)
540                             (&remote_hdr->desc_ring[q_size]);
541         txq->avail_cnt = &local_hdr->avail_cnt;
542         txq->used_cnt = &remote_hdr->used_cnt;
543
544         rte_wmb();
545         *txq->used_cnt = 0;
546         txq->last_used = 0;
547         txq->last_avail = 0;
548         txq->nb_tx_free = txq->nb_tx_desc - 1;
549
550         /* Set per queue stats. */
551         for (i = 0; i < NTB_XSTATS_NUM; i++) {
552                 hw->ntb_xstats[i + NTB_XSTATS_NUM * (qp_id + 1)] = 0;
553                 hw->ntb_xstats_off[i + NTB_XSTATS_NUM * (qp_id + 1)] = 0;
554         }
555
556         return 0;
557 }
558
559 static inline void
560 ntb_enqueue_cleanup(struct ntb_tx_queue *txq)
561 {
562         struct ntb_tx_entry *sw_ring = txq->sw_ring;
563         uint16_t tx_free = txq->last_avail;
564         uint16_t nb_to_clean, i;
565
566         /* avail_cnt + 1 represents where to rx next in the peer. */
567         nb_to_clean = (*txq->avail_cnt - txq->last_avail + 1 +
568                         txq->nb_tx_desc) & (txq->nb_tx_desc - 1);
569         nb_to_clean = RTE_MIN(nb_to_clean, txq->tx_free_thresh);
570         for (i = 0; i < nb_to_clean; i++) {
571                 if (sw_ring[tx_free].mbuf)
572                         rte_pktmbuf_free_seg(sw_ring[tx_free].mbuf);
573                 tx_free = (tx_free + 1) & (txq->nb_tx_desc - 1);
574         }
575
576         txq->nb_tx_free += nb_to_clean;
577         txq->last_avail = tx_free;
578 }
579
580 static int
581 ntb_enqueue_bufs(struct rte_rawdev *dev,
582                  struct rte_rawdev_buf **buffers,
583                  unsigned int count,
584                  rte_rawdev_obj_t context)
585 {
586         struct ntb_hw *hw = dev->dev_private;
587         struct ntb_tx_queue *txq = hw->tx_queues[(size_t)context];
588         struct ntb_tx_entry *sw_ring = txq->sw_ring;
589         struct rte_mbuf *txm;
590         struct ntb_used tx_used[NTB_MAX_DESC_SIZE];
591         volatile struct ntb_desc *tx_item;
592         uint16_t tx_last, nb_segs, off, last_used, avail_cnt;
593         uint16_t nb_mbufs = 0;
594         uint16_t nb_tx = 0;
595         uint64_t bytes = 0;
596         void *buf_addr;
597         int i;
598
599         if (unlikely(hw->ntb_ops->ioremap == NULL)) {
600                 NTB_LOG(ERR, "Ioremap not supported.");
601                 return nb_tx;
602         }
603
604         if (unlikely(dev->started == 0 || hw->peer_dev_up == 0)) {
605                 NTB_LOG(DEBUG, "Link is not up.");
606                 return nb_tx;
607         }
608
609         if (txq->nb_tx_free < txq->tx_free_thresh)
610                 ntb_enqueue_cleanup(txq);
611
612         off = NTB_XSTATS_NUM * ((size_t)context + 1);
613         last_used = txq->last_used;
614         avail_cnt = *txq->avail_cnt;/* Where to alloc next. */
615         for (nb_tx = 0; nb_tx < count; nb_tx++) {
616                 txm = (struct rte_mbuf *)(buffers[nb_tx]->buf_addr);
617                 if (txm == NULL || txq->nb_tx_free < txm->nb_segs)
618                         break;
619
620                 tx_last = (txq->last_used + txm->nb_segs - 1) &
621                           (txq->nb_tx_desc - 1);
622                 nb_segs = txm->nb_segs;
623                 for (i = 0; i < nb_segs; i++) {
624                         /* Not enough ring space for tx. */
625                         if (txq->last_used == avail_cnt)
626                                 goto end_of_tx;
627                         sw_ring[txq->last_used].mbuf = txm;
628                         tx_item = txq->tx_desc_ring + txq->last_used;
629
630                         if (!tx_item->len) {
631                                 (hw->ntb_xstats[NTB_TX_ERRS_ID + off])++;
632                                 goto end_of_tx;
633                         }
634                         if (txm->data_len > tx_item->len) {
635                                 NTB_LOG(ERR, "Data length exceeds buf length."
636                                         " Only %u data would be transmitted.",
637                                         tx_item->len);
638                                 txm->data_len = tx_item->len;
639                         }
640
641                         /* translate remote virtual addr to bar virtual addr */
642                         buf_addr = (*hw->ntb_ops->ioremap)(dev, tx_item->addr);
643                         if (buf_addr == NULL) {
644                                 (hw->ntb_xstats[NTB_TX_ERRS_ID + off])++;
645                                 NTB_LOG(ERR, "Null remap addr.");
646                                 goto end_of_tx;
647                         }
648                         rte_memcpy(buf_addr, rte_pktmbuf_mtod(txm, void *),
649                                    txm->data_len);
650
651                         tx_used[nb_mbufs].len = txm->data_len;
652                         tx_used[nb_mbufs++].flags = (txq->last_used ==
653                                                     tx_last) ?
654                                                     NTB_FLAG_EOP : 0;
655
656                         /* update stats */
657                         bytes += txm->data_len;
658
659                         txm = txm->next;
660
661                         sw_ring[txq->last_used].next_id = (txq->last_used + 1) &
662                                                   (txq->nb_tx_desc - 1);
663                         sw_ring[txq->last_used].last_id = tx_last;
664                         txq->last_used = (txq->last_used + 1) &
665                                          (txq->nb_tx_desc - 1);
666                 }
667                 txq->nb_tx_free -= nb_segs;
668         }
669
670 end_of_tx:
671         if (nb_tx) {
672                 uint16_t nb1, nb2;
673                 if (nb_mbufs > txq->nb_tx_desc - last_used) {
674                         nb1 = txq->nb_tx_desc - last_used;
675                         nb2 = nb_mbufs - txq->nb_tx_desc + last_used;
676                 } else {
677                         nb1 = nb_mbufs;
678                         nb2 = 0;
679                 }
680                 rte_memcpy(txq->tx_used_ring + last_used, tx_used,
681                            sizeof(struct ntb_used) * nb1);
682                 rte_memcpy(txq->tx_used_ring, tx_used + nb1,
683                            sizeof(struct ntb_used) * nb2);
684                 rte_wmb();
685                 *txq->used_cnt = txq->last_used;
686
687                 /* update queue stats */
688                 hw->ntb_xstats[NTB_TX_BYTES_ID + off] += bytes;
689                 hw->ntb_xstats[NTB_TX_PKTS_ID + off] += nb_tx;
690         }
691
692         return nb_tx;
693 }
694
695 static int
696 ntb_dequeue_bufs(struct rte_rawdev *dev,
697                  struct rte_rawdev_buf **buffers,
698                  unsigned int count,
699                  rte_rawdev_obj_t context)
700 {
701         struct ntb_hw *hw = dev->dev_private;
702         struct ntb_rx_queue *rxq = hw->rx_queues[(size_t)context];
703         struct ntb_rx_entry *sw_ring = rxq->sw_ring;
704         struct ntb_desc rx_desc[NTB_MAX_DESC_SIZE];
705         struct rte_mbuf *first, *rxm_t;
706         struct rte_mbuf *prev = NULL;
707         volatile struct ntb_used *rx_item;
708         uint16_t nb_mbufs = 0;
709         uint16_t nb_rx = 0;
710         uint64_t bytes = 0;
711         uint16_t off, last_avail, used_cnt, used_nb;
712         int i;
713
714         if (unlikely(dev->started == 0 || hw->peer_dev_up == 0)) {
715                 NTB_LOG(DEBUG, "Link is not up");
716                 return nb_rx;
717         }
718
719         used_cnt = *rxq->used_cnt;
720
721         if (rxq->last_used == used_cnt)
722                 return nb_rx;
723
724         last_avail = rxq->last_avail;
725         used_nb = (used_cnt - rxq->last_used) & (rxq->nb_rx_desc - 1);
726         count = RTE_MIN(count, used_nb);
727         for (nb_rx = 0; nb_rx < count; nb_rx++) {
728                 i = 0;
729                 while (true) {
730                         rx_item = rxq->rx_used_ring + rxq->last_used;
731                         rxm_t = sw_ring[rxq->last_used].mbuf;
732                         rxm_t->data_len = rx_item->len;
733                         rxm_t->data_off = RTE_PKTMBUF_HEADROOM;
734                         rxm_t->port = rxq->port_id;
735
736                         if (!i) {
737                                 rxm_t->nb_segs = 1;
738                                 first = rxm_t;
739                                 first->pkt_len = 0;
740                                 buffers[nb_rx]->buf_addr = rxm_t;
741                         } else {
742                                 prev->next = rxm_t;
743                                 first->nb_segs++;
744                         }
745
746                         prev = rxm_t;
747                         first->pkt_len += prev->data_len;
748                         rxq->last_used = (rxq->last_used + 1) &
749                                          (rxq->nb_rx_desc - 1);
750
751                         /* alloc new mbuf */
752                         rxm_t = rte_mbuf_raw_alloc(rxq->mpool);
753                         if (unlikely(rxm_t == NULL)) {
754                                 NTB_LOG(ERR, "recv alloc mbuf failed.");
755                                 goto end_of_rx;
756                         }
757                         rxm_t->port = rxq->port_id;
758                         sw_ring[rxq->last_avail].mbuf = rxm_t;
759                         i++;
760
761                         /* fill new desc */
762                         rx_desc[nb_mbufs].addr =
763                                         rte_pktmbuf_mtod(rxm_t, size_t);
764                         rx_desc[nb_mbufs++].len = rxm_t->buf_len -
765                                                   RTE_PKTMBUF_HEADROOM;
766                         rxq->last_avail = (rxq->last_avail + 1) &
767                                           (rxq->nb_rx_desc - 1);
768
769                         if (rx_item->flags & NTB_FLAG_EOP)
770                                 break;
771                 }
772                 /* update stats */
773                 bytes += first->pkt_len;
774         }
775
776 end_of_rx:
777         if (nb_rx) {
778                 uint16_t nb1, nb2;
779                 if (nb_mbufs > rxq->nb_rx_desc - last_avail) {
780                         nb1 = rxq->nb_rx_desc - last_avail;
781                         nb2 = nb_mbufs - rxq->nb_rx_desc + last_avail;
782                 } else {
783                         nb1 = nb_mbufs;
784                         nb2 = 0;
785                 }
786                 rte_memcpy(rxq->rx_desc_ring + last_avail, rx_desc,
787                            sizeof(struct ntb_desc) * nb1);
788                 rte_memcpy(rxq->rx_desc_ring, rx_desc + nb1,
789                            sizeof(struct ntb_desc) * nb2);
790                 rte_wmb();
791                 *rxq->avail_cnt = rxq->last_avail;
792
793                 /* update queue stats */
794                 off = NTB_XSTATS_NUM * ((size_t)context + 1);
795                 hw->ntb_xstats[NTB_RX_BYTES_ID + off] += bytes;
796                 hw->ntb_xstats[NTB_RX_PKTS_ID + off] += nb_rx;
797                 hw->ntb_xstats[NTB_RX_MISS_ID + off] += (count - nb_rx);
798         }
799
800         return nb_rx;
801 }
802
803 static int
804 ntb_dev_info_get(struct rte_rawdev *dev, rte_rawdev_obj_t dev_info,
805                 size_t dev_info_size)
806 {
807         struct ntb_hw *hw = dev->dev_private;
808         struct ntb_dev_info *info = dev_info;
809
810         if (dev_info_size != sizeof(*info)) {
811                 NTB_LOG(ERR, "Invalid size parameter to %s", __func__);
812                 return -EINVAL;
813         }
814
815         info->mw_cnt = hw->mw_cnt;
816         info->mw_size = hw->mw_size;
817
818         /**
819          * Intel hardware requires that mapped memory base address should be
820          * aligned with EMBARSZ and needs continuous memzone.
821          */
822         info->mw_size_align = (uint8_t)(hw->pci_dev->id.vendor_id ==
823                                         NTB_INTEL_VENDOR_ID);
824
825         if (!hw->queue_size || !hw->queue_pairs) {
826                 NTB_LOG(ERR, "No queue size and queue num assigned.");
827                 return -EAGAIN;
828         }
829
830         hw->hdr_size_per_queue = RTE_ALIGN(sizeof(struct ntb_header) +
831                                 hw->queue_size * sizeof(struct ntb_desc) +
832                                 hw->queue_size * sizeof(struct ntb_used),
833                                 RTE_CACHE_LINE_SIZE);
834         info->ntb_hdr_size = hw->hdr_size_per_queue * hw->queue_pairs;
835
836         return 0;
837 }
838
839 static int
840 ntb_dev_configure(const struct rte_rawdev *dev, rte_rawdev_obj_t config,
841                 size_t config_size)
842 {
843         struct ntb_dev_config *conf = config;
844         struct ntb_hw *hw = dev->dev_private;
845         uint32_t xstats_num;
846         int ret;
847
848         if (conf == NULL || config_size != sizeof(*conf))
849                 return -EINVAL;
850
851         hw->queue_pairs = conf->num_queues;
852         hw->queue_size = conf->queue_size;
853         hw->used_mw_num = conf->mz_num;
854         hw->mz = conf->mz_list;
855         hw->rx_queues = rte_zmalloc("ntb_rx_queues",
856                         sizeof(struct ntb_rx_queue *) * hw->queue_pairs, 0);
857         hw->tx_queues = rte_zmalloc("ntb_tx_queues",
858                         sizeof(struct ntb_tx_queue *) * hw->queue_pairs, 0);
859         /* First total stats, then per queue stats. */
860         xstats_num = (hw->queue_pairs + 1) * NTB_XSTATS_NUM;
861         hw->ntb_xstats = rte_zmalloc("ntb_xstats", xstats_num *
862                                      sizeof(uint64_t), 0);
863         hw->ntb_xstats_off = rte_zmalloc("ntb_xstats_off", xstats_num *
864                                          sizeof(uint64_t), 0);
865
866         /* Start handshake with the peer. */
867         ret = ntb_handshake_work(dev);
868         if (ret < 0) {
869                 rte_free(hw->rx_queues);
870                 rte_free(hw->tx_queues);
871                 hw->rx_queues = NULL;
872                 hw->tx_queues = NULL;
873                 return ret;
874         }
875
876         return 0;
877 }
878
879 static int
880 ntb_dev_start(struct rte_rawdev *dev)
881 {
882         struct ntb_hw *hw = dev->dev_private;
883         uint32_t peer_base_l, peer_val;
884         uint64_t peer_base_h;
885         uint32_t i;
886         int ret;
887
888         if (!hw->link_status || !hw->peer_dev_up)
889                 return -EINVAL;
890
891         /* Set total stats. */
892         for (i = 0; i < NTB_XSTATS_NUM; i++) {
893                 hw->ntb_xstats[i] = 0;
894                 hw->ntb_xstats_off[i] = 0;
895         }
896
897         for (i = 0; i < hw->queue_pairs; i++) {
898                 ret = ntb_queue_init(dev, i);
899                 if (ret) {
900                         NTB_LOG(ERR, "Failed to init queue.");
901                         goto err_q_init;
902                 }
903         }
904
905         hw->peer_mw_base = rte_zmalloc("ntb_peer_mw_base", hw->mw_cnt *
906                                         sizeof(uint64_t), 0);
907
908         if (hw->ntb_ops->spad_read == NULL) {
909                 ret = -ENOTSUP;
910                 goto err_up;
911         }
912
913         peer_val = (*hw->ntb_ops->spad_read)(dev, SPAD_Q_SZ, 0);
914         if (peer_val != hw->queue_size) {
915                 NTB_LOG(ERR, "Inconsistent queue size! (local: %u peer: %u)",
916                         hw->queue_size, peer_val);
917                 ret = -EINVAL;
918                 goto err_up;
919         }
920
921         peer_val = (*hw->ntb_ops->spad_read)(dev, SPAD_NUM_QPS, 0);
922         if (peer_val != hw->queue_pairs) {
923                 NTB_LOG(ERR, "Inconsistent number of queues! (local: %u peer:"
924                         " %u)", hw->queue_pairs, peer_val);
925                 ret = -EINVAL;
926                 goto err_up;
927         }
928
929         hw->peer_used_mws = (*hw->ntb_ops->spad_read)(dev, SPAD_USED_MWS, 0);
930
931         for (i = 0; i < hw->peer_used_mws; i++) {
932                 peer_base_h = (*hw->ntb_ops->spad_read)(dev,
933                                 SPAD_MW0_BA_H + 2 * i, 0);
934                 peer_base_l = (*hw->ntb_ops->spad_read)(dev,
935                                 SPAD_MW0_BA_L + 2 * i, 0);
936                 hw->peer_mw_base[i] = (peer_base_h << 32) + peer_base_l;
937         }
938
939         dev->started = 1;
940
941         return 0;
942
943 err_up:
944         rte_free(hw->peer_mw_base);
945 err_q_init:
946         for (i = 0; i < hw->queue_pairs; i++) {
947                 ntb_rxq_release_mbufs(hw->rx_queues[i]);
948                 ntb_txq_release_mbufs(hw->tx_queues[i]);
949         }
950
951         return ret;
952 }
953
954 static void
955 ntb_dev_stop(struct rte_rawdev *dev)
956 {
957         struct ntb_hw *hw = dev->dev_private;
958         uint32_t time_out;
959         int status, i;
960
961         if (!hw->peer_dev_up)
962                 goto clean;
963
964         ntb_link_cleanup(dev);
965
966         /* Notify the peer that device will be down. */
967         if (hw->ntb_ops->peer_db_set == NULL) {
968                 NTB_LOG(ERR, "Peer doorbell setting is not supported.");
969                 return;
970         }
971         status = (*hw->ntb_ops->peer_db_set)(dev, 1);
972         if (status) {
973                 NTB_LOG(ERR, "Failed to tell peer device is down.");
974                 return;
975         }
976
977         /*
978          * Set time out as 1s in case that the peer is stopped accidently
979          * without any notification.
980          */
981         time_out = 1000000;
982
983         /* Wait for cleanup work down before db mask clear. */
984         while (hw->peer_dev_up && time_out) {
985                 time_out -= 10;
986                 rte_delay_us(10);
987         }
988
989 clean:
990         /* Clear doorbells mask. */
991         if (hw->ntb_ops->db_set_mask == NULL) {
992                 NTB_LOG(ERR, "Doorbell mask setting is not supported.");
993                 return;
994         }
995         status = (*hw->ntb_ops->db_set_mask)(dev,
996                                 (((uint64_t)1 << hw->db_cnt) - 1));
997         if (status)
998                 NTB_LOG(ERR, "Failed to clear doorbells.");
999
1000         for (i = 0; i < hw->queue_pairs; i++) {
1001                 ntb_rxq_release_mbufs(hw->rx_queues[i]);
1002                 ntb_txq_release_mbufs(hw->tx_queues[i]);
1003         }
1004
1005         dev->started = 0;
1006 }
1007
1008 static int
1009 ntb_dev_close(struct rte_rawdev *dev)
1010 {
1011         struct ntb_hw *hw = dev->dev_private;
1012         struct rte_intr_handle *intr_handle;
1013         int i;
1014
1015         if (dev->started)
1016                 ntb_dev_stop(dev);
1017
1018         /* free queues */
1019         for (i = 0; i < hw->queue_pairs; i++)
1020                 ntb_queue_release(dev, i);
1021         hw->queue_pairs = 0;
1022
1023         intr_handle = &hw->pci_dev->intr_handle;
1024         /* Clean datapath event and vec mapping */
1025         rte_intr_efd_disable(intr_handle);
1026         if (intr_handle->intr_vec) {
1027                 rte_free(intr_handle->intr_vec);
1028                 intr_handle->intr_vec = NULL;
1029         }
1030         /* Disable uio intr before callback unregister */
1031         rte_intr_disable(intr_handle);
1032
1033         /* Unregister callback func to eal lib */
1034         rte_intr_callback_unregister(intr_handle,
1035                                      ntb_dev_intr_handler, dev);
1036
1037         return 0;
1038 }
1039
1040 static int
1041 ntb_dev_reset(struct rte_rawdev *rawdev __rte_unused)
1042 {
1043         return 0;
1044 }
1045
1046 static int
1047 ntb_attr_set(struct rte_rawdev *dev, const char *attr_name,
1048              uint64_t attr_value)
1049 {
1050         struct ntb_hw *hw;
1051         int index;
1052
1053         if (dev == NULL || attr_name == NULL) {
1054                 NTB_LOG(ERR, "Invalid arguments for setting attributes");
1055                 return -EINVAL;
1056         }
1057
1058         hw = dev->dev_private;
1059
1060         if (!strncmp(attr_name, NTB_SPAD_USER, NTB_SPAD_USER_LEN)) {
1061                 if (hw->ntb_ops->spad_write == NULL)
1062                         return -ENOTSUP;
1063                 index = atoi(&attr_name[NTB_SPAD_USER_LEN]);
1064                 (*hw->ntb_ops->spad_write)(dev, hw->spad_user_list[index],
1065                                            1, attr_value);
1066                 NTB_LOG(DEBUG, "Set attribute (%s) Value (%" PRIu64 ")",
1067                         attr_name, attr_value);
1068                 return 0;
1069         }
1070
1071         if (!strncmp(attr_name, NTB_QUEUE_SZ_NAME, NTB_ATTR_NAME_LEN)) {
1072                 hw->queue_size = attr_value;
1073                 NTB_LOG(DEBUG, "Set attribute (%s) Value (%" PRIu64 ")",
1074                         attr_name, attr_value);
1075                 return 0;
1076         }
1077
1078         if (!strncmp(attr_name, NTB_QUEUE_NUM_NAME, NTB_ATTR_NAME_LEN)) {
1079                 hw->queue_pairs = attr_value;
1080                 NTB_LOG(DEBUG, "Set attribute (%s) Value (%" PRIu64 ")",
1081                         attr_name, attr_value);
1082                 return 0;
1083         }
1084
1085         /* Attribute not found. */
1086         NTB_LOG(ERR, "Attribute not found.");
1087         return -EINVAL;
1088 }
1089
1090 static int
1091 ntb_attr_get(struct rte_rawdev *dev, const char *attr_name,
1092              uint64_t *attr_value)
1093 {
1094         struct ntb_hw *hw;
1095         int index;
1096
1097         if (dev == NULL || attr_name == NULL || attr_value == NULL) {
1098                 NTB_LOG(ERR, "Invalid arguments for getting attributes");
1099                 return -EINVAL;
1100         }
1101
1102         hw = dev->dev_private;
1103
1104         if (!strncmp(attr_name, NTB_TOPO_NAME, NTB_ATTR_NAME_LEN)) {
1105                 *attr_value = hw->topo;
1106                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1107                         attr_name, *attr_value);
1108                 return 0;
1109         }
1110
1111         if (!strncmp(attr_name, NTB_LINK_STATUS_NAME, NTB_ATTR_NAME_LEN)) {
1112                 /* hw->link_status only indicates hw link status. */
1113                 *attr_value = hw->link_status && hw->peer_dev_up;
1114                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1115                         attr_name, *attr_value);
1116                 return 0;
1117         }
1118
1119         if (!strncmp(attr_name, NTB_SPEED_NAME, NTB_ATTR_NAME_LEN)) {
1120                 *attr_value = hw->link_speed;
1121                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1122                         attr_name, *attr_value);
1123                 return 0;
1124         }
1125
1126         if (!strncmp(attr_name, NTB_WIDTH_NAME, NTB_ATTR_NAME_LEN)) {
1127                 *attr_value = hw->link_width;
1128                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1129                         attr_name, *attr_value);
1130                 return 0;
1131         }
1132
1133         if (!strncmp(attr_name, NTB_MW_CNT_NAME, NTB_ATTR_NAME_LEN)) {
1134                 *attr_value = hw->mw_cnt;
1135                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1136                         attr_name, *attr_value);
1137                 return 0;
1138         }
1139
1140         if (!strncmp(attr_name, NTB_DB_CNT_NAME, NTB_ATTR_NAME_LEN)) {
1141                 *attr_value = hw->db_cnt;
1142                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1143                         attr_name, *attr_value);
1144                 return 0;
1145         }
1146
1147         if (!strncmp(attr_name, NTB_SPAD_CNT_NAME, NTB_ATTR_NAME_LEN)) {
1148                 *attr_value = hw->spad_cnt;
1149                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1150                         attr_name, *attr_value);
1151                 return 0;
1152         }
1153
1154         if (!strncmp(attr_name, NTB_SPAD_USER, NTB_SPAD_USER_LEN)) {
1155                 if (hw->ntb_ops->spad_read == NULL)
1156                         return -ENOTSUP;
1157                 index = atoi(&attr_name[NTB_SPAD_USER_LEN]);
1158                 *attr_value = (*hw->ntb_ops->spad_read)(dev,
1159                                 hw->spad_user_list[index], 0);
1160                 NTB_LOG(DEBUG, "Attribute (%s) Value (%" PRIu64 ")",
1161                         attr_name, *attr_value);
1162                 return 0;
1163         }
1164
1165         /* Attribute not found. */
1166         NTB_LOG(ERR, "Attribute not found.");
1167         return -EINVAL;
1168 }
1169
1170 static inline uint64_t
1171 ntb_stats_update(uint64_t offset, uint64_t stat)
1172 {
1173         if (stat >= offset)
1174                 return (stat - offset);
1175         else
1176                 return (uint64_t)(((uint64_t)-1) - offset + stat + 1);
1177 }
1178
1179 static int
1180 ntb_xstats_get(const struct rte_rawdev *dev,
1181                const unsigned int ids[],
1182                uint64_t values[],
1183                unsigned int n)
1184 {
1185         struct ntb_hw *hw = dev->dev_private;
1186         uint32_t i, j, off, xstats_num;
1187
1188         /* Calculate total stats of all queues. */
1189         for (i = 0; i < NTB_XSTATS_NUM; i++) {
1190                 hw->ntb_xstats[i] = 0;
1191                 for (j = 0; j < hw->queue_pairs; j++) {
1192                         off = NTB_XSTATS_NUM * (j + 1) + i;
1193                         hw->ntb_xstats[i] +=
1194                         ntb_stats_update(hw->ntb_xstats_off[off],
1195                                          hw->ntb_xstats[off]);
1196                 }
1197         }
1198
1199         xstats_num = NTB_XSTATS_NUM * (hw->queue_pairs + 1);
1200         for (i = 0; i < n && ids[i] < xstats_num; i++) {
1201                 if (ids[i] < NTB_XSTATS_NUM)
1202                         values[i] = hw->ntb_xstats[ids[i]];
1203                 else
1204                         values[i] =
1205                         ntb_stats_update(hw->ntb_xstats_off[ids[i]],
1206                                          hw->ntb_xstats[ids[i]]);
1207         }
1208
1209         return i;
1210 }
1211
1212 static int
1213 ntb_xstats_get_names(const struct rte_rawdev *dev,
1214                      struct rte_rawdev_xstats_name *xstats_names,
1215                      unsigned int size)
1216 {
1217         struct ntb_hw *hw = dev->dev_private;
1218         uint32_t xstats_num, i, j, off;
1219
1220         xstats_num = NTB_XSTATS_NUM * (hw->queue_pairs + 1);
1221         if (xstats_names == NULL || size < xstats_num)
1222                 return xstats_num;
1223
1224         /* Total stats names */
1225         memcpy(xstats_names, ntb_xstats_names, sizeof(ntb_xstats_names));
1226
1227         /* Queue stats names */
1228         for (i = 0; i < hw->queue_pairs; i++) {
1229                 for (j = 0; j < NTB_XSTATS_NUM; j++) {
1230                         off = j + (i + 1) * NTB_XSTATS_NUM;
1231                         snprintf(xstats_names[off].name,
1232                                 sizeof(xstats_names[0].name),
1233                                 "%s_q%u", ntb_xstats_names[j].name, i);
1234                 }
1235         }
1236
1237         return xstats_num;
1238 }
1239
1240 static uint64_t
1241 ntb_xstats_get_by_name(const struct rte_rawdev *dev,
1242                        const char *name, unsigned int *id)
1243 {
1244         struct rte_rawdev_xstats_name *xstats_names;
1245         struct ntb_hw *hw = dev->dev_private;
1246         uint32_t xstats_num, i, j, off;
1247
1248         if (name == NULL)
1249                 return -EINVAL;
1250
1251         xstats_num = NTB_XSTATS_NUM * (hw->queue_pairs + 1);
1252         xstats_names = rte_zmalloc("ntb_stats_name",
1253                                    sizeof(struct rte_rawdev_xstats_name) *
1254                                    xstats_num, 0);
1255         ntb_xstats_get_names(dev, xstats_names, xstats_num);
1256
1257         /* Calculate total stats of all queues. */
1258         for (i = 0; i < NTB_XSTATS_NUM; i++) {
1259                 for (j = 0; j < hw->queue_pairs; j++) {
1260                         off = NTB_XSTATS_NUM * (j + 1) + i;
1261                         hw->ntb_xstats[i] +=
1262                         ntb_stats_update(hw->ntb_xstats_off[off],
1263                                          hw->ntb_xstats[off]);
1264                 }
1265         }
1266
1267         for (i = 0; i < xstats_num; i++) {
1268                 if (!strncmp(name, xstats_names[i].name,
1269                     RTE_RAW_DEV_XSTATS_NAME_SIZE)) {
1270                         *id = i;
1271                         rte_free(xstats_names);
1272                         if (i < NTB_XSTATS_NUM)
1273                                 return hw->ntb_xstats[i];
1274                         else
1275                                 return ntb_stats_update(hw->ntb_xstats_off[i],
1276                                                         hw->ntb_xstats[i]);
1277                 }
1278         }
1279
1280         NTB_LOG(ERR, "Cannot find the xstats name.");
1281
1282         return -EINVAL;
1283 }
1284
1285 static int
1286 ntb_xstats_reset(struct rte_rawdev *dev,
1287                  const uint32_t ids[],
1288                  uint32_t nb_ids)
1289 {
1290         struct ntb_hw *hw = dev->dev_private;
1291         uint32_t i, j, off, xstats_num;
1292
1293         xstats_num = NTB_XSTATS_NUM * (hw->queue_pairs + 1);
1294         for (i = 0; i < nb_ids && ids[i] < xstats_num; i++) {
1295                 if (ids[i] < NTB_XSTATS_NUM) {
1296                         for (j = 0; j < hw->queue_pairs; j++) {
1297                                 off = NTB_XSTATS_NUM * (j + 1) + ids[i];
1298                                 hw->ntb_xstats_off[off] = hw->ntb_xstats[off];
1299                         }
1300                 } else {
1301                         hw->ntb_xstats_off[ids[i]] = hw->ntb_xstats[ids[i]];
1302                 }
1303         }
1304
1305         return i;
1306 }
1307
1308 static const struct rte_rawdev_ops ntb_ops = {
1309         .dev_info_get         = ntb_dev_info_get,
1310         .dev_configure        = ntb_dev_configure,
1311         .dev_start            = ntb_dev_start,
1312         .dev_stop             = ntb_dev_stop,
1313         .dev_close            = ntb_dev_close,
1314         .dev_reset            = ntb_dev_reset,
1315
1316         .queue_def_conf       = ntb_queue_conf_get,
1317         .queue_setup          = ntb_queue_setup,
1318         .queue_release        = ntb_queue_release,
1319         .queue_count          = ntb_queue_count,
1320
1321         .enqueue_bufs         = ntb_enqueue_bufs,
1322         .dequeue_bufs         = ntb_dequeue_bufs,
1323
1324         .attr_get             = ntb_attr_get,
1325         .attr_set             = ntb_attr_set,
1326
1327         .xstats_get           = ntb_xstats_get,
1328         .xstats_get_names     = ntb_xstats_get_names,
1329         .xstats_get_by_name   = ntb_xstats_get_by_name,
1330         .xstats_reset         = ntb_xstats_reset,
1331 };
1332
1333 static int
1334 ntb_init_hw(struct rte_rawdev *dev, struct rte_pci_device *pci_dev)
1335 {
1336         struct ntb_hw *hw = dev->dev_private;
1337         struct rte_intr_handle *intr_handle;
1338         int ret, i;
1339
1340         hw->pci_dev = pci_dev;
1341         hw->peer_dev_up = 0;
1342         hw->link_status = NTB_LINK_DOWN;
1343         hw->link_speed = NTB_SPEED_NONE;
1344         hw->link_width = NTB_WIDTH_NONE;
1345
1346         switch (pci_dev->id.device_id) {
1347         case NTB_INTEL_DEV_ID_B2B_SKX:
1348                 hw->ntb_ops = &intel_ntb_ops;
1349                 break;
1350         default:
1351                 NTB_LOG(ERR, "Not supported device.");
1352                 return -EINVAL;
1353         }
1354
1355         if (hw->ntb_ops->ntb_dev_init == NULL)
1356                 return -ENOTSUP;
1357         ret = (*hw->ntb_ops->ntb_dev_init)(dev);
1358         if (ret) {
1359                 NTB_LOG(ERR, "Unable to init ntb dev.");
1360                 return ret;
1361         }
1362
1363         if (hw->ntb_ops->set_link == NULL)
1364                 return -ENOTSUP;
1365         ret = (*hw->ntb_ops->set_link)(dev, 1);
1366         if (ret)
1367                 return ret;
1368
1369         /* Init doorbell. */
1370         hw->db_valid_mask = RTE_LEN2MASK(hw->db_cnt, uint64_t);
1371
1372         intr_handle = &pci_dev->intr_handle;
1373         /* Register callback func to eal lib */
1374         rte_intr_callback_register(intr_handle,
1375                                    ntb_dev_intr_handler, dev);
1376
1377         ret = rte_intr_efd_enable(intr_handle, hw->db_cnt);
1378         if (ret)
1379                 return ret;
1380
1381         /* To clarify, the interrupt for each doorbell is already mapped
1382          * by default for intel gen3. They are mapped to msix vec 1-32,
1383          * and hardware intr is mapped to 0. Map all to 0 for uio.
1384          */
1385         if (!rte_intr_cap_multiple(intr_handle)) {
1386                 for (i = 0; i < hw->db_cnt; i++) {
1387                         if (hw->ntb_ops->vector_bind == NULL)
1388                                 return -ENOTSUP;
1389                         ret = (*hw->ntb_ops->vector_bind)(dev, i, 0);
1390                         if (ret)
1391                                 return ret;
1392                 }
1393         }
1394
1395         if (hw->ntb_ops->db_set_mask == NULL ||
1396             hw->ntb_ops->peer_db_set == NULL) {
1397                 NTB_LOG(ERR, "Doorbell is not supported.");
1398                 return -ENOTSUP;
1399         }
1400         hw->db_mask = 0;
1401         ret = (*hw->ntb_ops->db_set_mask)(dev, hw->db_mask);
1402         if (ret) {
1403                 NTB_LOG(ERR, "Unable to enable intr for all dbs.");
1404                 return ret;
1405         }
1406
1407         /* enable uio intr after callback register */
1408         rte_intr_enable(intr_handle);
1409
1410         return ret;
1411 }
1412
1413 static int
1414 ntb_create(struct rte_pci_device *pci_dev, int socket_id)
1415 {
1416         char name[RTE_RAWDEV_NAME_MAX_LEN];
1417         struct rte_rawdev *rawdev = NULL;
1418         int ret;
1419
1420         if (pci_dev == NULL) {
1421                 NTB_LOG(ERR, "Invalid pci_dev.");
1422                 return -EINVAL;
1423         }
1424
1425         memset(name, 0, sizeof(name));
1426         snprintf(name, RTE_RAWDEV_NAME_MAX_LEN, "NTB:%x:%02x.%x",
1427                  pci_dev->addr.bus, pci_dev->addr.devid,
1428                  pci_dev->addr.function);
1429
1430         NTB_LOG(INFO, "Init %s on NUMA node %d", name, socket_id);
1431
1432         /* Allocate device structure. */
1433         rawdev = rte_rawdev_pmd_allocate(name, sizeof(struct ntb_hw),
1434                                          socket_id);
1435         if (rawdev == NULL) {
1436                 NTB_LOG(ERR, "Unable to allocate rawdev.");
1437                 return -EINVAL;
1438         }
1439
1440         rawdev->dev_ops = &ntb_ops;
1441         rawdev->device = &pci_dev->device;
1442         rawdev->driver_name = pci_dev->driver->driver.name;
1443
1444         ret = ntb_init_hw(rawdev, pci_dev);
1445         if (ret < 0) {
1446                 NTB_LOG(ERR, "Unable to init ntb hw.");
1447                 goto fail;
1448         }
1449
1450         return ret;
1451
1452 fail:
1453         if (rawdev != NULL)
1454                 rte_rawdev_pmd_release(rawdev);
1455
1456         return ret;
1457 }
1458
1459 static int
1460 ntb_destroy(struct rte_pci_device *pci_dev)
1461 {
1462         char name[RTE_RAWDEV_NAME_MAX_LEN];
1463         struct rte_rawdev *rawdev;
1464         int ret;
1465
1466         if (pci_dev == NULL) {
1467                 NTB_LOG(ERR, "Invalid pci_dev.");
1468                 ret = -EINVAL;
1469                 return ret;
1470         }
1471
1472         memset(name, 0, sizeof(name));
1473         snprintf(name, RTE_RAWDEV_NAME_MAX_LEN, "NTB:%x:%02x.%x",
1474                  pci_dev->addr.bus, pci_dev->addr.devid,
1475                  pci_dev->addr.function);
1476
1477         NTB_LOG(INFO, "Closing %s on NUMA node %d", name, rte_socket_id());
1478
1479         rawdev = rte_rawdev_pmd_get_named_dev(name);
1480         if (rawdev == NULL) {
1481                 NTB_LOG(ERR, "Invalid device name (%s)", name);
1482                 ret = -EINVAL;
1483                 return ret;
1484         }
1485
1486         ret = rte_rawdev_pmd_release(rawdev);
1487         if (ret)
1488                 NTB_LOG(ERR, "Failed to destroy ntb rawdev.");
1489
1490         return ret;
1491 }
1492
1493 static int
1494 ntb_probe(struct rte_pci_driver *pci_drv __rte_unused,
1495         struct rte_pci_device *pci_dev)
1496 {
1497         return ntb_create(pci_dev, rte_socket_id());
1498 }
1499
1500 static int
1501 ntb_remove(struct rte_pci_device *pci_dev)
1502 {
1503         return ntb_destroy(pci_dev);
1504 }
1505
1506
1507 static struct rte_pci_driver rte_ntb_pmd = {
1508         .id_table = pci_id_ntb_map,
1509         .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_WC_ACTIVATE,
1510         .probe = ntb_probe,
1511         .remove = ntb_remove,
1512 };
1513
1514 RTE_PMD_REGISTER_PCI(raw_ntb, rte_ntb_pmd);
1515 RTE_PMD_REGISTER_PCI_TABLE(raw_ntb, pci_id_ntb_map);
1516 RTE_PMD_REGISTER_KMOD_DEP(raw_ntb, "* igb_uio | uio_pci_generic | vfio-pci");
1517 RTE_LOG_REGISTER(ntb_logtype, pmd.raw.ntb, INFO);