mempool/octeontx: support allocation
[dpdk.git] / drivers / mempool / octeontx / octeontx_fpavf.c
1 /*
2  *   BSD LICENSE
3  *
4  *   Copyright (C) Cavium Inc. 2017. All Right reserved.
5  *
6  *   Redistribution and use in source and binary forms, with or without
7  *   modification, are permitted provided that the following conditions
8  *   are met:
9  *
10  *     * Redistributions of source code must retain the above copyright
11  *       notice, this list of conditions and the following disclaimer.
12  *     * Redistributions in binary form must reproduce the above copyright
13  *       notice, this list of conditions and the following disclaimer in
14  *       the documentation and/or other materials provided with the
15  *       distribution.
16  *     * Neither the name of Cavium networks nor the names of its
17  *       contributors may be used to endorse or promote products derived
18  *       from this software without specific prior written permission.
19  *
20  *   THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
21  *   "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
22  *   LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
23  *   A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
24  *   OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
25  *   SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
26  *   LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
27  *   DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
28  *   THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
29  *   (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
30  *   OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
31  */
32
33 #include <stdlib.h>
34 #include <string.h>
35 #include <stdbool.h>
36 #include <stdio.h>
37 #include <unistd.h>
38 #include <fcntl.h>
39 #include <errno.h>
40 #include <sys/mman.h>
41
42 #include <rte_atomic.h>
43 #include <rte_eal.h>
44 #include <rte_pci.h>
45 #include <rte_errno.h>
46 #include <rte_memory.h>
47 #include <rte_malloc.h>
48 #include <rte_spinlock.h>
49 #include <rte_mbuf.h>
50
51 #include <rte_pmd_octeontx_ssovf.h>
52 #include "octeontx_fpavf.h"
53
54 /* FPA Mbox Message */
55 #define IDENTIFY                0x0
56
57 #define FPA_CONFIGSET           0x1
58 #define FPA_CONFIGGET           0x2
59 #define FPA_START_COUNT         0x3
60 #define FPA_STOP_COUNT          0x4
61 #define FPA_ATTACHAURA          0x5
62 #define FPA_DETACHAURA          0x6
63 #define FPA_SETAURALVL          0x7
64 #define FPA_GETAURALVL          0x8
65
66 #define FPA_COPROC              0x1
67
68 /* fpa mbox struct */
69 struct octeontx_mbox_fpa_cfg {
70         int             aid;
71         uint64_t        pool_cfg;
72         uint64_t        pool_stack_base;
73         uint64_t        pool_stack_end;
74         uint64_t        aura_cfg;
75 };
76
77 struct __attribute__((__packed__)) gen_req {
78         uint32_t        value;
79 };
80
81 struct __attribute__((__packed__)) idn_req {
82         uint8_t domain_id;
83 };
84
85 struct __attribute__((__packed__)) gen_resp {
86         uint16_t        domain_id;
87         uint16_t        vfid;
88 };
89
90 struct __attribute__((__packed__)) dcfg_resp {
91         uint8_t sso_count;
92         uint8_t ssow_count;
93         uint8_t fpa_count;
94         uint8_t pko_count;
95         uint8_t tim_count;
96         uint8_t net_port_count;
97         uint8_t virt_port_count;
98 };
99
100 #define FPA_MAX_POOL    32
101 #define FPA_PF_PAGE_SZ  4096
102
103 #define FPA_LN_SIZE     128
104 #define FPA_ROUND_UP(x, size) \
105         ((((unsigned long)(x)) + size-1) & (~(size-1)))
106 #define FPA_OBJSZ_2_CACHE_LINE(sz)      (((sz) + RTE_CACHE_LINE_MASK) >> 7)
107 #define FPA_CACHE_LINE_2_OBJSZ(sz)      ((sz) << 7)
108
109 #define POOL_ENA                        (0x1 << 0)
110 #define POOL_DIS                        (0x0 << 0)
111 #define POOL_SET_NAT_ALIGN              (0x1 << 1)
112 #define POOL_DIS_NAT_ALIGN              (0x0 << 1)
113 #define POOL_STYPE(x)                   (((x) & 0x1) << 2)
114 #define POOL_LTYPE(x)                   (((x) & 0x3) << 3)
115 #define POOL_BUF_OFFSET(x)              (((x) & 0x7fffULL) << 16)
116 #define POOL_BUF_SIZE(x)                (((x) & 0x7ffULL) << 32)
117
118 struct fpavf_res {
119         void            *pool_stack_base;
120         void            *bar0;
121         uint64_t        stack_ln_ptr;
122         uint16_t        domain_id;
123         uint16_t        vf_id;  /* gpool_id */
124         uint16_t        sz128;  /* Block size in cache lines */
125         bool            is_inuse;
126 };
127
128 struct octeontx_fpadev {
129         rte_spinlock_t lock;
130         uint8_t total_gpool_cnt;
131         struct fpavf_res pool[FPA_VF_MAX];
132 };
133
134 static struct octeontx_fpadev fpadev;
135
136 /* lock is taken by caller */
137 static int
138 octeontx_fpa_gpool_alloc(unsigned int object_size)
139 {
140         struct fpavf_res *res = NULL;
141         uint16_t gpool;
142         unsigned int sz128;
143
144         sz128 = FPA_OBJSZ_2_CACHE_LINE(object_size);
145
146         for (gpool = 0; gpool < FPA_VF_MAX; gpool++) {
147
148                 /* Skip VF that is not mapped Or _inuse */
149                 if ((fpadev.pool[gpool].bar0 == NULL) ||
150                     (fpadev.pool[gpool].is_inuse == true))
151                         continue;
152
153                 res = &fpadev.pool[gpool];
154
155                 RTE_ASSERT(res->domain_id != (uint16_t)~0);
156                 RTE_ASSERT(res->vf_id != (uint16_t)~0);
157                 RTE_ASSERT(res->stack_ln_ptr != 0);
158
159                 if (res->sz128 == 0) {
160                         res->sz128 = sz128;
161
162                         fpavf_log_dbg("gpool %d blk_sz %d\n", gpool, sz128);
163                         return gpool;
164                 }
165         }
166
167         return -ENOSPC;
168 }
169
170 /* lock is taken by caller */
171 static __rte_always_inline uintptr_t
172 octeontx_fpa_gpool2handle(uint16_t gpool)
173 {
174         struct fpavf_res *res = NULL;
175
176         RTE_ASSERT(gpool < FPA_VF_MAX);
177
178         res = &fpadev.pool[gpool];
179         if (unlikely(res == NULL))
180                 return 0;
181
182         return (uintptr_t)res->bar0 | gpool;
183 }
184
185 static __rte_always_inline bool
186 octeontx_fpa_handle_valid(uintptr_t handle)
187 {
188         struct fpavf_res *res = NULL;
189         uint8_t gpool;
190         int i;
191         bool ret = false;
192
193         if (unlikely(!handle))
194                 return ret;
195
196         /* get the gpool */
197         gpool = octeontx_fpa_bufpool_gpool(handle);
198
199         /* get the bar address */
200         handle &= ~(uint64_t)FPA_GPOOL_MASK;
201         for (i = 0; i < FPA_VF_MAX; i++) {
202                 if ((uintptr_t)fpadev.pool[i].bar0 != handle)
203                         continue;
204
205                 /* validate gpool */
206                 if (gpool != i)
207                         return false;
208
209                 res = &fpadev.pool[i];
210
211                 if (res->sz128 == 0 || res->domain_id == (uint16_t)~0 ||
212                     res->stack_ln_ptr == 0)
213                         ret = false;
214                 else
215                         ret = true;
216                 break;
217         }
218
219         return ret;
220 }
221
222 static int
223 octeontx_fpapf_pool_setup(unsigned int gpool, unsigned int buf_size,
224                           signed short buf_offset, unsigned int max_buf_count)
225 {
226         void *memptr = NULL;
227         phys_addr_t phys_addr;
228         unsigned int memsz;
229         struct fpavf_res *fpa = NULL;
230         uint64_t reg;
231         struct octeontx_mbox_hdr hdr;
232         struct dcfg_resp resp;
233         struct octeontx_mbox_fpa_cfg cfg;
234         int ret = -1;
235
236         fpa = &fpadev.pool[gpool];
237         memsz = FPA_ROUND_UP(max_buf_count / fpa->stack_ln_ptr, FPA_LN_SIZE) *
238                         FPA_LN_SIZE;
239
240         /* Round-up to page size */
241         memsz = (memsz + FPA_PF_PAGE_SZ - 1) & ~(uintptr_t)(FPA_PF_PAGE_SZ-1);
242         memptr = rte_malloc(NULL, memsz, RTE_CACHE_LINE_SIZE);
243         if (memptr == NULL) {
244                 ret = -ENOMEM;
245                 goto err;
246         }
247
248         /* Configure stack */
249         fpa->pool_stack_base = memptr;
250         phys_addr = rte_malloc_virt2phy(memptr);
251
252         buf_size /= FPA_LN_SIZE;
253
254         /* POOL setup */
255         hdr.coproc = FPA_COPROC;
256         hdr.msg = FPA_CONFIGSET;
257         hdr.vfid = fpa->vf_id;
258         hdr.res_code = 0;
259
260         buf_offset /= FPA_LN_SIZE;
261         reg = POOL_BUF_SIZE(buf_size) | POOL_BUF_OFFSET(buf_offset) |
262                 POOL_LTYPE(0x2) | POOL_STYPE(0) | POOL_SET_NAT_ALIGN |
263                 POOL_ENA;
264
265         cfg.aid = 0;
266         cfg.pool_cfg = reg;
267         cfg.pool_stack_base = phys_addr;
268         cfg.pool_stack_end = phys_addr + memsz;
269         cfg.aura_cfg = (1 << 9);
270
271         ret = octeontx_ssovf_mbox_send(&hdr, &cfg,
272                                         sizeof(struct octeontx_mbox_fpa_cfg),
273                                         &resp, sizeof(resp));
274         if (ret < 0) {
275                 ret = -EACCES;
276                 goto err;
277         }
278
279         fpavf_log_dbg(" vfid %d gpool %d aid %d pool_cfg 0x%x pool_stack_base %" PRIx64 " pool_stack_end %" PRIx64" aura_cfg %" PRIx64 "\n",
280                       fpa->vf_id, gpool, cfg.aid, (unsigned int)cfg.pool_cfg,
281                       cfg.pool_stack_base, cfg.pool_stack_end, cfg.aura_cfg);
282
283         /* Now pool is in_use */
284         fpa->is_inuse = true;
285
286 err:
287         if (ret < 0)
288                 rte_free(memptr);
289
290         return ret;
291 }
292
293 static int
294 octeontx_fpapf_pool_destroy(unsigned int gpool_index)
295 {
296         struct octeontx_mbox_hdr hdr;
297         struct dcfg_resp resp;
298         struct octeontx_mbox_fpa_cfg cfg;
299         struct fpavf_res *fpa = NULL;
300         int ret = -1;
301
302         fpa = &fpadev.pool[gpool_index];
303
304         hdr.coproc = FPA_COPROC;
305         hdr.msg = FPA_CONFIGSET;
306         hdr.vfid = fpa->vf_id;
307         hdr.res_code = 0;
308
309         /* reset and free the pool */
310         cfg.aid = 0;
311         cfg.pool_cfg = 0;
312         cfg.pool_stack_base = 0;
313         cfg.pool_stack_end = 0;
314         cfg.aura_cfg = 0;
315
316         ret = octeontx_ssovf_mbox_send(&hdr, &cfg,
317                                         sizeof(struct octeontx_mbox_fpa_cfg),
318                                         &resp, sizeof(resp));
319         if (ret < 0) {
320                 ret = -EACCES;
321                 goto err;
322         }
323
324         ret = 0;
325 err:
326         /* anycase free pool stack memory */
327         rte_free(fpa->pool_stack_base);
328         fpa->pool_stack_base = NULL;
329         return ret;
330 }
331
332 static int
333 octeontx_fpapf_aura_attach(unsigned int gpool_index)
334 {
335         struct octeontx_mbox_hdr hdr;
336         struct dcfg_resp resp;
337         struct octeontx_mbox_fpa_cfg cfg;
338         int ret = 0;
339
340         if (gpool_index >= FPA_MAX_POOL) {
341                 ret = -EINVAL;
342                 goto err;
343         }
344         hdr.coproc = FPA_COPROC;
345         hdr.msg = FPA_ATTACHAURA;
346         hdr.vfid = gpool_index;
347         hdr.res_code = 0;
348         memset(&cfg, 0x0, sizeof(struct octeontx_mbox_fpa_cfg));
349         cfg.aid = gpool_index; /* gpool is guara */
350
351         ret = octeontx_ssovf_mbox_send(&hdr, &cfg,
352                                         sizeof(struct octeontx_mbox_fpa_cfg),
353                                         &resp, sizeof(resp));
354         if (ret < 0) {
355                 fpavf_log_err("Could not attach fpa ");
356                 fpavf_log_err("aura %d to pool %d. Err=%d. FuncErr=%d\n",
357                               gpool_index, gpool_index, ret, hdr.res_code);
358                 ret = -EACCES;
359                 goto err;
360         }
361 err:
362         return ret;
363 }
364
365 static int
366 octeontx_fpapf_aura_detach(unsigned int gpool_index)
367 {
368         struct octeontx_mbox_fpa_cfg cfg = {0};
369         struct octeontx_mbox_hdr hdr = {0};
370         int ret = 0;
371
372         if (gpool_index >= FPA_MAX_POOL) {
373                 ret = -EINVAL;
374                 goto err;
375         }
376
377         cfg.aid = gpool_index; /* gpool is gaura */
378         hdr.coproc = FPA_COPROC;
379         hdr.msg = FPA_DETACHAURA;
380         hdr.vfid = gpool_index;
381         ret = octeontx_ssovf_mbox_send(&hdr, &cfg, sizeof(cfg), NULL, 0);
382         if (ret < 0) {
383                 fpavf_log_err("Couldn't detach FPA aura %d Err=%d FuncErr=%d\n",
384                               gpool_index, ret, hdr.res_code);
385                 ret = -EINVAL;
386         }
387
388 err:
389         return ret;
390 }
391
392 static int
393 octeontx_fpavf_pool_setup(uintptr_t handle, unsigned long memsz,
394                           void *memva, uint16_t gpool)
395 {
396         uint64_t va_end;
397
398         if (unlikely(!handle))
399                 return -ENODEV;
400
401         va_end = (uintptr_t)memva + memsz;
402         va_end &= ~RTE_CACHE_LINE_MASK;
403
404         /* VHPOOL setup */
405         fpavf_write64((uintptr_t)memva,
406                          (void *)((uintptr_t)handle +
407                          FPA_VF_VHPOOL_START_ADDR(gpool)));
408         fpavf_write64(va_end,
409                          (void *)((uintptr_t)handle +
410                          FPA_VF_VHPOOL_END_ADDR(gpool)));
411         return 0;
412 }
413
414 static int
415 octeontx_fpapf_start_count(uint16_t gpool_index)
416 {
417         int ret = 0;
418         struct octeontx_mbox_hdr hdr = {0};
419
420         if (gpool_index >= FPA_MAX_POOL) {
421                 ret = -EINVAL;
422                 goto err;
423         }
424
425         hdr.coproc = FPA_COPROC;
426         hdr.msg = FPA_START_COUNT;
427         hdr.vfid = gpool_index;
428         ret = octeontx_ssovf_mbox_send(&hdr, NULL, 0, NULL, 0);
429         if (ret < 0) {
430                 fpavf_log_err("Could not start buffer counting for ");
431                 fpavf_log_err("FPA pool %d. Err=%d. FuncErr=%d\n",
432                               gpool_index, ret, hdr.res_code);
433                 ret = -EINVAL;
434                 goto err;
435         }
436
437 err:
438         return ret;
439 }
440
441 static __rte_always_inline int
442 octeontx_fpavf_free(unsigned int gpool)
443 {
444         int ret = 0;
445
446         if (gpool >= FPA_MAX_POOL) {
447                 ret = -EINVAL;
448                 goto err;
449         }
450
451         /* Pool is free */
452         fpadev.pool[gpool].is_inuse = false;
453
454 err:
455         return ret;
456 }
457
458 static __rte_always_inline int
459 octeontx_gpool_free(uint16_t gpool)
460 {
461         if (fpadev.pool[gpool].sz128 != 0) {
462                 fpadev.pool[gpool].sz128 = 0;
463                 return 0;
464         }
465         return -EINVAL;
466 }
467
468 /*
469  * Return buffer size for a given pool
470  */
471 int
472 octeontx_fpa_bufpool_block_size(uintptr_t handle)
473 {
474         struct fpavf_res *res = NULL;
475         uint8_t gpool;
476
477         if (unlikely(!octeontx_fpa_handle_valid(handle)))
478                 return -EINVAL;
479
480         /* get the gpool */
481         gpool = octeontx_fpa_bufpool_gpool(handle);
482         res = &fpadev.pool[gpool];
483         return FPA_CACHE_LINE_2_OBJSZ(res->sz128);
484 }
485
486 uintptr_t
487 octeontx_fpa_bufpool_create(unsigned int object_size, unsigned int object_count,
488                                 unsigned int buf_offset, char **va_start,
489                                 int node_id)
490 {
491         unsigned int gpool;
492         void *memva;
493         unsigned long memsz;
494         uintptr_t gpool_handle;
495         uintptr_t pool_bar;
496         int res;
497
498         RTE_SET_USED(node_id);
499         FPAVF_STATIC_ASSERTION(sizeof(struct rte_mbuf) <=
500                                 OCTEONTX_FPAVF_BUF_OFFSET);
501
502         if (unlikely(*va_start == NULL))
503                 goto error_end;
504
505         object_size = RTE_CACHE_LINE_ROUNDUP(object_size);
506         if (object_size > FPA_MAX_OBJ_SIZE) {
507                 errno = EINVAL;
508                 goto error_end;
509         }
510
511         rte_spinlock_lock(&fpadev.lock);
512         res = octeontx_fpa_gpool_alloc(object_size);
513
514         /* Bail if failed */
515         if (unlikely(res < 0)) {
516                 errno = res;
517                 goto error_unlock;
518         }
519
520         /* get fpavf */
521         gpool = res;
522
523         /* get pool handle */
524         gpool_handle = octeontx_fpa_gpool2handle(gpool);
525         if (!octeontx_fpa_handle_valid(gpool_handle)) {
526                 errno = ENOSPC;
527                 goto error_gpool_free;
528         }
529
530         /* Get pool bar address from handle */
531         pool_bar = gpool_handle & ~(uint64_t)FPA_GPOOL_MASK;
532
533         res = octeontx_fpapf_pool_setup(gpool, object_size, buf_offset,
534                                         object_count);
535         if (res < 0) {
536                 errno = res;
537                 goto error_gpool_free;
538         }
539
540         /* populate AURA fields */
541         res = octeontx_fpapf_aura_attach(gpool);
542         if (res < 0) {
543                 errno = res;
544                 goto error_pool_destroy;
545         }
546
547         /* vf pool setup */
548         memsz = object_size * object_count;
549         memva = *va_start;
550         res = octeontx_fpavf_pool_setup(pool_bar, memsz, memva, gpool);
551         if (res < 0) {
552                 errno = res;
553                 goto error_gaura_detach;
554         }
555
556         /* Release lock */
557         rte_spinlock_unlock(&fpadev.lock);
558
559         /* populate AURA registers */
560         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
561                          FPA_VF_VHAURA_CNT(gpool)));
562         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
563                          FPA_VF_VHAURA_CNT_LIMIT(gpool)));
564         fpavf_write64(object_count + 1, (void *)((uintptr_t)pool_bar +
565                          FPA_VF_VHAURA_CNT_THRESHOLD(gpool)));
566
567         octeontx_fpapf_start_count(gpool);
568
569         return gpool_handle;
570
571 error_gaura_detach:
572         (void) octeontx_fpapf_aura_detach(gpool);
573 error_pool_destroy:
574         octeontx_fpavf_free(gpool);
575         octeontx_fpapf_pool_destroy(gpool);
576 error_gpool_free:
577         octeontx_gpool_free(gpool);
578 error_unlock:
579         rte_spinlock_unlock(&fpadev.lock);
580 error_end:
581         return (uintptr_t)NULL;
582 }
583
584 static void
585 octeontx_fpavf_setup(void)
586 {
587         uint8_t i;
588         static bool init_once;
589
590         if (!init_once) {
591                 rte_spinlock_init(&fpadev.lock);
592                 fpadev.total_gpool_cnt = 0;
593
594                 for (i = 0; i < FPA_VF_MAX; i++) {
595
596                         fpadev.pool[i].domain_id = ~0;
597                         fpadev.pool[i].stack_ln_ptr = 0;
598                         fpadev.pool[i].sz128 = 0;
599                         fpadev.pool[i].bar0 = NULL;
600                         fpadev.pool[i].pool_stack_base = NULL;
601                         fpadev.pool[i].is_inuse = false;
602                 }
603                 init_once = 1;
604         }
605 }
606
607 static int
608 octeontx_fpavf_identify(void *bar0)
609 {
610         uint64_t val;
611         uint16_t domain_id;
612         uint16_t vf_id;
613         uint64_t stack_ln_ptr;
614
615         val = fpavf_read64((void *)((uintptr_t)bar0 +
616                                 FPA_VF_VHAURA_CNT_THRESHOLD(0)));
617
618         domain_id = (val >> 8) & 0xffff;
619         vf_id = (val >> 24) & 0xffff;
620
621         stack_ln_ptr = fpavf_read64((void *)((uintptr_t)bar0 +
622                                         FPA_VF_VHPOOL_THRESHOLD(0)));
623         if (vf_id >= FPA_VF_MAX) {
624                 fpavf_log_err("vf_id(%d) greater than max vf (32)\n", vf_id);
625                 return -1;
626         }
627
628         if (fpadev.pool[vf_id].is_inuse) {
629                 fpavf_log_err("vf_id %d is_inuse\n", vf_id);
630                 return -1;
631         }
632
633         fpadev.pool[vf_id].domain_id = domain_id;
634         fpadev.pool[vf_id].vf_id = vf_id;
635         fpadev.pool[vf_id].bar0 = bar0;
636         fpadev.pool[vf_id].stack_ln_ptr = stack_ln_ptr;
637
638         /* SUCCESS */
639         return vf_id;
640 }
641
642 /* FPAVF pcie device aka mempool probe */
643 static int
644 fpavf_probe(struct rte_pci_driver *pci_drv, struct rte_pci_device *pci_dev)
645 {
646         uint8_t *idreg;
647         int res;
648         struct fpavf_res *fpa;
649
650         RTE_SET_USED(pci_drv);
651         RTE_SET_USED(fpa);
652
653         /* For secondary processes, the primary has done all the work */
654         if (rte_eal_process_type() != RTE_PROC_PRIMARY)
655                 return 0;
656
657         if (pci_dev->mem_resource[0].addr == NULL) {
658                 fpavf_log_err("Empty bars %p ", pci_dev->mem_resource[0].addr);
659                 return -ENODEV;
660         }
661         idreg = pci_dev->mem_resource[0].addr;
662
663         octeontx_fpavf_setup();
664
665         res = octeontx_fpavf_identify(idreg);
666         if (res < 0)
667                 return -1;
668
669         fpa = &fpadev.pool[res];
670         fpadev.total_gpool_cnt++;
671         rte_wmb();
672
673         fpavf_log_dbg("total_fpavfs %d bar0 %p domain %d vf %d stk_ln_ptr 0x%x",
674                        fpadev.total_gpool_cnt, fpa->bar0, fpa->domain_id,
675                        fpa->vf_id, (unsigned int)fpa->stack_ln_ptr);
676
677         return 0;
678 }
679
680 static const struct rte_pci_id pci_fpavf_map[] = {
681         {
682                 RTE_PCI_DEVICE(PCI_VENDOR_ID_CAVIUM,
683                                 PCI_DEVICE_ID_OCTEONTX_FPA_VF)
684         },
685         {
686                 .vendor_id = 0,
687         },
688 };
689
690 static struct rte_pci_driver pci_fpavf = {
691         .id_table = pci_fpavf_map,
692         .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_IOVA_AS_VA,
693         .probe = fpavf_probe,
694 };
695
696 RTE_PMD_REGISTER_PCI(octeontx_fpavf, pci_fpavf);