818887140bdc02c71795a8f407665d9fef4f41f7
[dpdk.git] / drivers / mempool / octeontx / octeontx_fpavf.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2017 Cavium, Inc
3  */
4
5 #include <stdlib.h>
6 #include <string.h>
7 #include <stdbool.h>
8 #include <stdio.h>
9 #include <unistd.h>
10 #include <fcntl.h>
11 #include <errno.h>
12 #include <sys/mman.h>
13
14 #include <rte_atomic.h>
15 #include <rte_eal.h>
16 #include <rte_bus_pci.h>
17 #include <rte_errno.h>
18 #include <rte_memory.h>
19 #include <rte_malloc.h>
20 #include <rte_spinlock.h>
21 #include <rte_mbuf.h>
22
23 #include "octeontx_mbox.h"
24 #include "octeontx_fpavf.h"
25
26 /* FPA Mbox Message */
27 #define IDENTIFY                0x0
28
29 #define FPA_CONFIGSET           0x1
30 #define FPA_CONFIGGET           0x2
31 #define FPA_START_COUNT         0x3
32 #define FPA_STOP_COUNT          0x4
33 #define FPA_ATTACHAURA          0x5
34 #define FPA_DETACHAURA          0x6
35 #define FPA_SETAURALVL          0x7
36 #define FPA_GETAURALVL          0x8
37
38 #define FPA_COPROC              0x1
39
40 /* fpa mbox struct */
41 struct octeontx_mbox_fpa_cfg {
42         int             aid;
43         uint64_t        pool_cfg;
44         uint64_t        pool_stack_base;
45         uint64_t        pool_stack_end;
46         uint64_t        aura_cfg;
47 };
48
49 struct __attribute__((__packed__)) gen_req {
50         uint32_t        value;
51 };
52
53 struct __attribute__((__packed__)) idn_req {
54         uint8_t domain_id;
55 };
56
57 struct __attribute__((__packed__)) gen_resp {
58         uint16_t        domain_id;
59         uint16_t        vfid;
60 };
61
62 struct __attribute__((__packed__)) dcfg_resp {
63         uint8_t sso_count;
64         uint8_t ssow_count;
65         uint8_t fpa_count;
66         uint8_t pko_count;
67         uint8_t tim_count;
68         uint8_t net_port_count;
69         uint8_t virt_port_count;
70 };
71
72 #define FPA_MAX_POOL    32
73 #define FPA_PF_PAGE_SZ  4096
74
75 #define FPA_LN_SIZE     128
76 #define FPA_ROUND_UP(x, size) \
77         ((((unsigned long)(x)) + size-1) & (~(size-1)))
78 #define FPA_OBJSZ_2_CACHE_LINE(sz)      (((sz) + RTE_CACHE_LINE_MASK) >> 7)
79 #define FPA_CACHE_LINE_2_OBJSZ(sz)      ((sz) << 7)
80
81 #define POOL_ENA                        (0x1 << 0)
82 #define POOL_DIS                        (0x0 << 0)
83 #define POOL_SET_NAT_ALIGN              (0x1 << 1)
84 #define POOL_DIS_NAT_ALIGN              (0x0 << 1)
85 #define POOL_STYPE(x)                   (((x) & 0x1) << 2)
86 #define POOL_LTYPE(x)                   (((x) & 0x3) << 3)
87 #define POOL_BUF_OFFSET(x)              (((x) & 0x7fffULL) << 16)
88 #define POOL_BUF_SIZE(x)                (((x) & 0x7ffULL) << 32)
89
90 struct fpavf_res {
91         void            *pool_stack_base;
92         void            *bar0;
93         uint64_t        stack_ln_ptr;
94         uint16_t        domain_id;
95         uint16_t        vf_id;  /* gpool_id */
96         uint16_t        sz128;  /* Block size in cache lines */
97         bool            is_inuse;
98 };
99
100 struct octeontx_fpadev {
101         rte_spinlock_t lock;
102         uint8_t total_gpool_cnt;
103         struct fpavf_res pool[FPA_VF_MAX];
104 };
105
106 static struct octeontx_fpadev fpadev;
107
108 int octeontx_logtype_fpavf;
109 int octeontx_logtype_fpavf_mbox;
110
111 RTE_INIT(otx_pool_init_log)
112 {
113         octeontx_logtype_fpavf = rte_log_register("pmd.mempool.octeontx");
114         if (octeontx_logtype_fpavf >= 0)
115                 rte_log_set_level(octeontx_logtype_fpavf, RTE_LOG_NOTICE);
116 }
117
118 /* lock is taken by caller */
119 static int
120 octeontx_fpa_gpool_alloc(unsigned int object_size)
121 {
122         struct fpavf_res *res = NULL;
123         uint16_t gpool;
124         unsigned int sz128;
125
126         sz128 = FPA_OBJSZ_2_CACHE_LINE(object_size);
127
128         for (gpool = 0; gpool < FPA_VF_MAX; gpool++) {
129
130                 /* Skip VF that is not mapped Or _inuse */
131                 if ((fpadev.pool[gpool].bar0 == NULL) ||
132                     (fpadev.pool[gpool].is_inuse == true))
133                         continue;
134
135                 res = &fpadev.pool[gpool];
136
137                 RTE_ASSERT(res->domain_id != (uint16_t)~0);
138                 RTE_ASSERT(res->vf_id != (uint16_t)~0);
139                 RTE_ASSERT(res->stack_ln_ptr != 0);
140
141                 if (res->sz128 == 0) {
142                         res->sz128 = sz128;
143
144                         fpavf_log_dbg("gpool %d blk_sz %d\n", gpool, sz128);
145                         return gpool;
146                 }
147         }
148
149         return -ENOSPC;
150 }
151
152 /* lock is taken by caller */
153 static __rte_always_inline uintptr_t
154 octeontx_fpa_gpool2handle(uint16_t gpool)
155 {
156         struct fpavf_res *res = NULL;
157
158         RTE_ASSERT(gpool < FPA_VF_MAX);
159
160         res = &fpadev.pool[gpool];
161         return (uintptr_t)res->bar0 | gpool;
162 }
163
164 static __rte_always_inline bool
165 octeontx_fpa_handle_valid(uintptr_t handle)
166 {
167         struct fpavf_res *res = NULL;
168         uint8_t gpool;
169         int i;
170         bool ret = false;
171
172         if (unlikely(!handle))
173                 return ret;
174
175         /* get the gpool */
176         gpool = octeontx_fpa_bufpool_gpool(handle);
177
178         /* get the bar address */
179         handle &= ~(uint64_t)FPA_GPOOL_MASK;
180         for (i = 0; i < FPA_VF_MAX; i++) {
181                 if ((uintptr_t)fpadev.pool[i].bar0 != handle)
182                         continue;
183
184                 /* validate gpool */
185                 if (gpool != i)
186                         return false;
187
188                 res = &fpadev.pool[i];
189
190                 if (res->sz128 == 0 || res->domain_id == (uint16_t)~0 ||
191                     res->stack_ln_ptr == 0)
192                         ret = false;
193                 else
194                         ret = true;
195                 break;
196         }
197
198         return ret;
199 }
200
201 static int
202 octeontx_fpapf_pool_setup(unsigned int gpool, unsigned int buf_size,
203                           signed short buf_offset, unsigned int max_buf_count)
204 {
205         void *memptr = NULL;
206         rte_iova_t phys_addr;
207         unsigned int memsz;
208         struct fpavf_res *fpa = NULL;
209         uint64_t reg;
210         struct octeontx_mbox_hdr hdr;
211         struct dcfg_resp resp;
212         struct octeontx_mbox_fpa_cfg cfg;
213         int ret = -1;
214
215         fpa = &fpadev.pool[gpool];
216         memsz = FPA_ROUND_UP(max_buf_count / fpa->stack_ln_ptr, FPA_LN_SIZE) *
217                         FPA_LN_SIZE;
218
219         /* Round-up to page size */
220         memsz = (memsz + FPA_PF_PAGE_SZ - 1) & ~(uintptr_t)(FPA_PF_PAGE_SZ-1);
221         memptr = rte_malloc(NULL, memsz, RTE_CACHE_LINE_SIZE);
222         if (memptr == NULL) {
223                 ret = -ENOMEM;
224                 goto err;
225         }
226
227         /* Configure stack */
228         fpa->pool_stack_base = memptr;
229         phys_addr = rte_malloc_virt2iova(memptr);
230
231         buf_size /= FPA_LN_SIZE;
232
233         /* POOL setup */
234         hdr.coproc = FPA_COPROC;
235         hdr.msg = FPA_CONFIGSET;
236         hdr.vfid = fpa->vf_id;
237         hdr.res_code = 0;
238
239         buf_offset /= FPA_LN_SIZE;
240         reg = POOL_BUF_SIZE(buf_size) | POOL_BUF_OFFSET(buf_offset) |
241                 POOL_LTYPE(0x2) | POOL_STYPE(0) | POOL_SET_NAT_ALIGN |
242                 POOL_ENA;
243
244         cfg.aid = 0;
245         cfg.pool_cfg = reg;
246         cfg.pool_stack_base = phys_addr;
247         cfg.pool_stack_end = phys_addr + memsz;
248         cfg.aura_cfg = (1 << 9);
249
250         ret = octeontx_mbox_send(&hdr, &cfg,
251                                         sizeof(struct octeontx_mbox_fpa_cfg),
252                                         &resp, sizeof(resp));
253         if (ret < 0) {
254                 ret = -EACCES;
255                 goto err;
256         }
257
258         fpavf_log_dbg(" vfid %d gpool %d aid %d pool_cfg 0x%x pool_stack_base %" PRIx64 " pool_stack_end %" PRIx64" aura_cfg %" PRIx64 "\n",
259                       fpa->vf_id, gpool, cfg.aid, (unsigned int)cfg.pool_cfg,
260                       cfg.pool_stack_base, cfg.pool_stack_end, cfg.aura_cfg);
261
262         /* Now pool is in_use */
263         fpa->is_inuse = true;
264
265 err:
266         if (ret < 0)
267                 rte_free(memptr);
268
269         return ret;
270 }
271
272 static int
273 octeontx_fpapf_pool_destroy(unsigned int gpool_index)
274 {
275         struct octeontx_mbox_hdr hdr;
276         struct dcfg_resp resp;
277         struct octeontx_mbox_fpa_cfg cfg;
278         struct fpavf_res *fpa = NULL;
279         int ret = -1;
280
281         fpa = &fpadev.pool[gpool_index];
282
283         hdr.coproc = FPA_COPROC;
284         hdr.msg = FPA_CONFIGSET;
285         hdr.vfid = fpa->vf_id;
286         hdr.res_code = 0;
287
288         /* reset and free the pool */
289         cfg.aid = 0;
290         cfg.pool_cfg = 0;
291         cfg.pool_stack_base = 0;
292         cfg.pool_stack_end = 0;
293         cfg.aura_cfg = 0;
294
295         ret = octeontx_mbox_send(&hdr, &cfg,
296                                         sizeof(struct octeontx_mbox_fpa_cfg),
297                                         &resp, sizeof(resp));
298         if (ret < 0) {
299                 ret = -EACCES;
300                 goto err;
301         }
302
303         ret = 0;
304 err:
305         /* anycase free pool stack memory */
306         rte_free(fpa->pool_stack_base);
307         fpa->pool_stack_base = NULL;
308         return ret;
309 }
310
311 static int
312 octeontx_fpapf_aura_attach(unsigned int gpool_index)
313 {
314         struct octeontx_mbox_hdr hdr;
315         struct dcfg_resp resp;
316         struct octeontx_mbox_fpa_cfg cfg;
317         int ret = 0;
318
319         if (gpool_index >= FPA_MAX_POOL) {
320                 ret = -EINVAL;
321                 goto err;
322         }
323         hdr.coproc = FPA_COPROC;
324         hdr.msg = FPA_ATTACHAURA;
325         hdr.vfid = gpool_index;
326         hdr.res_code = 0;
327         memset(&cfg, 0x0, sizeof(struct octeontx_mbox_fpa_cfg));
328         cfg.aid = gpool_index; /* gpool is guara */
329
330         ret = octeontx_mbox_send(&hdr, &cfg,
331                                         sizeof(struct octeontx_mbox_fpa_cfg),
332                                         &resp, sizeof(resp));
333         if (ret < 0) {
334                 fpavf_log_err("Could not attach fpa ");
335                 fpavf_log_err("aura %d to pool %d. Err=%d. FuncErr=%d\n",
336                               gpool_index, gpool_index, ret, hdr.res_code);
337                 ret = -EACCES;
338                 goto err;
339         }
340 err:
341         return ret;
342 }
343
344 static int
345 octeontx_fpapf_aura_detach(unsigned int gpool_index)
346 {
347         struct octeontx_mbox_fpa_cfg cfg = {0};
348         struct octeontx_mbox_hdr hdr = {0};
349         int ret = 0;
350
351         if (gpool_index >= FPA_MAX_POOL) {
352                 ret = -EINVAL;
353                 goto err;
354         }
355
356         cfg.aid = gpool_index; /* gpool is gaura */
357         hdr.coproc = FPA_COPROC;
358         hdr.msg = FPA_DETACHAURA;
359         hdr.vfid = gpool_index;
360         ret = octeontx_mbox_send(&hdr, &cfg, sizeof(cfg), NULL, 0);
361         if (ret < 0) {
362                 fpavf_log_err("Couldn't detach FPA aura %d Err=%d FuncErr=%d\n",
363                               gpool_index, ret, hdr.res_code);
364                 ret = -EINVAL;
365         }
366
367 err:
368         return ret;
369 }
370
371 int
372 octeontx_fpavf_pool_set_range(uintptr_t handle, unsigned long memsz,
373                           void *memva, uint16_t gpool)
374 {
375         uint64_t va_end;
376
377         if (unlikely(!handle))
378                 return -ENODEV;
379
380         va_end = (uintptr_t)memva + memsz;
381         va_end &= ~RTE_CACHE_LINE_MASK;
382
383         /* VHPOOL setup */
384         fpavf_write64((uintptr_t)memva,
385                          (void *)((uintptr_t)handle +
386                          FPA_VF_VHPOOL_START_ADDR(gpool)));
387         fpavf_write64(va_end,
388                          (void *)((uintptr_t)handle +
389                          FPA_VF_VHPOOL_END_ADDR(gpool)));
390         return 0;
391 }
392
393 static int
394 octeontx_fpapf_start_count(uint16_t gpool_index)
395 {
396         int ret = 0;
397         struct octeontx_mbox_hdr hdr = {0};
398
399         if (gpool_index >= FPA_MAX_POOL) {
400                 ret = -EINVAL;
401                 goto err;
402         }
403
404         hdr.coproc = FPA_COPROC;
405         hdr.msg = FPA_START_COUNT;
406         hdr.vfid = gpool_index;
407         ret = octeontx_mbox_send(&hdr, NULL, 0, NULL, 0);
408         if (ret < 0) {
409                 fpavf_log_err("Could not start buffer counting for ");
410                 fpavf_log_err("FPA pool %d. Err=%d. FuncErr=%d\n",
411                               gpool_index, ret, hdr.res_code);
412                 ret = -EINVAL;
413                 goto err;
414         }
415
416 err:
417         return ret;
418 }
419
420 static __rte_always_inline int
421 octeontx_fpavf_free(unsigned int gpool)
422 {
423         int ret = 0;
424
425         if (gpool >= FPA_MAX_POOL) {
426                 ret = -EINVAL;
427                 goto err;
428         }
429
430         /* Pool is free */
431         fpadev.pool[gpool].is_inuse = false;
432
433 err:
434         return ret;
435 }
436
437 static __rte_always_inline int
438 octeontx_gpool_free(uint16_t gpool)
439 {
440         if (fpadev.pool[gpool].sz128 != 0) {
441                 fpadev.pool[gpool].sz128 = 0;
442                 return 0;
443         }
444         return -EINVAL;
445 }
446
447 /*
448  * Return buffer size for a given pool
449  */
450 int
451 octeontx_fpa_bufpool_block_size(uintptr_t handle)
452 {
453         struct fpavf_res *res = NULL;
454         uint8_t gpool;
455
456         if (unlikely(!octeontx_fpa_handle_valid(handle)))
457                 return -EINVAL;
458
459         /* get the gpool */
460         gpool = octeontx_fpa_bufpool_gpool(handle);
461         res = &fpadev.pool[gpool];
462         return FPA_CACHE_LINE_2_OBJSZ(res->sz128);
463 }
464
465 int
466 octeontx_fpa_bufpool_free_count(uintptr_t handle)
467 {
468         uint64_t cnt, limit, avail;
469         uint8_t gpool;
470         uintptr_t pool_bar;
471
472         if (unlikely(!octeontx_fpa_handle_valid(handle)))
473                 return -EINVAL;
474
475         /* get the gpool */
476         gpool = octeontx_fpa_bufpool_gpool(handle);
477
478         /* Get pool bar address from handle */
479         pool_bar = handle & ~(uint64_t)FPA_GPOOL_MASK;
480
481         cnt = fpavf_read64((void *)((uintptr_t)pool_bar +
482                                 FPA_VF_VHAURA_CNT(gpool)));
483         limit = fpavf_read64((void *)((uintptr_t)pool_bar +
484                                 FPA_VF_VHAURA_CNT_LIMIT(gpool)));
485
486         avail = fpavf_read64((void *)((uintptr_t)pool_bar +
487                                 FPA_VF_VHPOOL_AVAILABLE(gpool)));
488
489         return RTE_MIN(avail, (limit - cnt));
490 }
491
492 uintptr_t
493 octeontx_fpa_bufpool_create(unsigned int object_size, unsigned int object_count,
494                                 unsigned int buf_offset, int node_id)
495 {
496         unsigned int gpool;
497         uintptr_t gpool_handle;
498         uintptr_t pool_bar;
499         int res;
500
501         RTE_SET_USED(node_id);
502         RTE_BUILD_BUG_ON(sizeof(struct rte_mbuf) > OCTEONTX_FPAVF_BUF_OFFSET);
503
504         object_size = RTE_CACHE_LINE_ROUNDUP(object_size);
505         if (object_size > FPA_MAX_OBJ_SIZE) {
506                 errno = EINVAL;
507                 goto error_end;
508         }
509
510         rte_spinlock_lock(&fpadev.lock);
511         res = octeontx_fpa_gpool_alloc(object_size);
512
513         /* Bail if failed */
514         if (unlikely(res < 0)) {
515                 errno = res;
516                 goto error_unlock;
517         }
518
519         /* get fpavf */
520         gpool = res;
521
522         /* get pool handle */
523         gpool_handle = octeontx_fpa_gpool2handle(gpool);
524         if (!octeontx_fpa_handle_valid(gpool_handle)) {
525                 errno = ENOSPC;
526                 goto error_gpool_free;
527         }
528
529         /* Get pool bar address from handle */
530         pool_bar = gpool_handle & ~(uint64_t)FPA_GPOOL_MASK;
531
532         res = octeontx_fpapf_pool_setup(gpool, object_size, buf_offset,
533                                         object_count);
534         if (res < 0) {
535                 errno = res;
536                 goto error_gpool_free;
537         }
538
539         /* populate AURA fields */
540         res = octeontx_fpapf_aura_attach(gpool);
541         if (res < 0) {
542                 errno = res;
543                 goto error_pool_destroy;
544         }
545
546         /* Release lock */
547         rte_spinlock_unlock(&fpadev.lock);
548
549         /* populate AURA registers */
550         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
551                          FPA_VF_VHAURA_CNT(gpool)));
552         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
553                          FPA_VF_VHAURA_CNT_LIMIT(gpool)));
554         fpavf_write64(object_count + 1, (void *)((uintptr_t)pool_bar +
555                          FPA_VF_VHAURA_CNT_THRESHOLD(gpool)));
556
557         octeontx_fpapf_start_count(gpool);
558
559         return gpool_handle;
560
561 error_pool_destroy:
562         octeontx_fpavf_free(gpool);
563         octeontx_fpapf_pool_destroy(gpool);
564 error_gpool_free:
565         octeontx_gpool_free(gpool);
566 error_unlock:
567         rte_spinlock_unlock(&fpadev.lock);
568 error_end:
569         return (uintptr_t)NULL;
570 }
571
572 /*
573  * Destroy a buffer pool.
574  */
575 int
576 octeontx_fpa_bufpool_destroy(uintptr_t handle, int node_id)
577 {
578         void **node, **curr, *head = NULL;
579         uint64_t sz;
580         uint64_t cnt, avail;
581         uint8_t gpool;
582         uintptr_t pool_bar;
583         int ret;
584
585         RTE_SET_USED(node_id);
586
587         /* Wait for all outstanding writes to be committed */
588         rte_smp_wmb();
589
590         if (unlikely(!octeontx_fpa_handle_valid(handle)))
591                 return -EINVAL;
592
593         /* get the pool */
594         gpool = octeontx_fpa_bufpool_gpool(handle);
595
596         /* Get pool bar address from handle */
597         pool_bar = handle & ~(uint64_t)FPA_GPOOL_MASK;
598
599          /* Check for no outstanding buffers */
600         cnt = fpavf_read64((void *)((uintptr_t)pool_bar +
601                                         FPA_VF_VHAURA_CNT(gpool)));
602         if (cnt) {
603                 fpavf_log_dbg("buffer exist in pool cnt %" PRId64 "\n", cnt);
604                 return -EBUSY;
605         }
606
607         rte_spinlock_lock(&fpadev.lock);
608
609         avail = fpavf_read64((void *)((uintptr_t)pool_bar +
610                                 FPA_VF_VHPOOL_AVAILABLE(gpool)));
611
612         /* Prepare to empty the entire POOL */
613         fpavf_write64(avail, (void *)((uintptr_t)pool_bar +
614                          FPA_VF_VHAURA_CNT_LIMIT(gpool)));
615         fpavf_write64(avail + 1, (void *)((uintptr_t)pool_bar +
616                          FPA_VF_VHAURA_CNT_THRESHOLD(gpool)));
617
618         /* Empty the pool */
619         /* Invalidate the POOL */
620         octeontx_gpool_free(gpool);
621
622         /* Process all buffers in the pool */
623         while (avail--) {
624
625                 /* Yank a buffer from the pool */
626                 node = (void *)(uintptr_t)
627                         fpavf_read64((void *)
628                                     (pool_bar + FPA_VF_VHAURA_OP_ALLOC(gpool)));
629
630                 if (node == NULL) {
631                         fpavf_log_err("GAURA[%u] missing %" PRIx64 " buf\n",
632                                       gpool, avail);
633                         break;
634                 }
635
636                 /* Imsert it into an ordered linked list */
637                 for (curr = &head; curr[0] != NULL; curr = curr[0]) {
638                         if ((uintptr_t)node <= (uintptr_t)curr[0])
639                                 break;
640                 }
641                 node[0] = curr[0];
642                 curr[0] = node;
643         }
644
645         /* Verify the linked list to be a perfect series */
646         sz = octeontx_fpa_bufpool_block_size(handle) << 7;
647         for (curr = head; curr != NULL && curr[0] != NULL;
648                 curr = curr[0]) {
649                 if (curr == curr[0] ||
650                         ((uintptr_t)curr != ((uintptr_t)curr[0] - sz))) {
651                         fpavf_log_err("POOL# %u buf sequence err (%p vs. %p)\n",
652                                       gpool, curr, curr[0]);
653                 }
654         }
655
656         /* Disable pool operation */
657         fpavf_write64(~0ul, (void *)((uintptr_t)pool_bar +
658                          FPA_VF_VHPOOL_START_ADDR(gpool)));
659         fpavf_write64(~0ul, (void *)((uintptr_t)pool_bar +
660                         FPA_VF_VHPOOL_END_ADDR(gpool)));
661
662         (void)octeontx_fpapf_pool_destroy(gpool);
663
664         /* Deactivate the AURA */
665         fpavf_write64(0, (void *)((uintptr_t)pool_bar +
666                         FPA_VF_VHAURA_CNT_LIMIT(gpool)));
667         fpavf_write64(0, (void *)((uintptr_t)pool_bar +
668                         FPA_VF_VHAURA_CNT_THRESHOLD(gpool)));
669
670         ret = octeontx_fpapf_aura_detach(gpool);
671         if (ret) {
672                 fpavf_log_err("Failed to dettach gaura %u. error code=%d\n",
673                               gpool, ret);
674         }
675
676         /* Free VF */
677         (void)octeontx_fpavf_free(gpool);
678
679         rte_spinlock_unlock(&fpadev.lock);
680         return 0;
681 }
682
683 static void
684 octeontx_fpavf_setup(void)
685 {
686         uint8_t i;
687         static bool init_once;
688
689         if (!init_once) {
690                 rte_spinlock_init(&fpadev.lock);
691                 fpadev.total_gpool_cnt = 0;
692
693                 for (i = 0; i < FPA_VF_MAX; i++) {
694
695                         fpadev.pool[i].domain_id = ~0;
696                         fpadev.pool[i].stack_ln_ptr = 0;
697                         fpadev.pool[i].sz128 = 0;
698                         fpadev.pool[i].bar0 = NULL;
699                         fpadev.pool[i].pool_stack_base = NULL;
700                         fpadev.pool[i].is_inuse = false;
701                 }
702                 init_once = 1;
703         }
704 }
705
706 static int
707 octeontx_fpavf_identify(void *bar0)
708 {
709         uint64_t val;
710         uint16_t domain_id;
711         uint16_t vf_id;
712         uint64_t stack_ln_ptr;
713
714         val = fpavf_read64((void *)((uintptr_t)bar0 +
715                                 FPA_VF_VHAURA_CNT_THRESHOLD(0)));
716
717         domain_id = (val >> 8) & 0xffff;
718         vf_id = (val >> 24) & 0xffff;
719
720         stack_ln_ptr = fpavf_read64((void *)((uintptr_t)bar0 +
721                                         FPA_VF_VHPOOL_THRESHOLD(0)));
722         if (vf_id >= FPA_VF_MAX) {
723                 fpavf_log_err("vf_id(%d) greater than max vf (32)\n", vf_id);
724                 return -1;
725         }
726
727         if (fpadev.pool[vf_id].is_inuse) {
728                 fpavf_log_err("vf_id %d is_inuse\n", vf_id);
729                 return -1;
730         }
731
732         fpadev.pool[vf_id].domain_id = domain_id;
733         fpadev.pool[vf_id].vf_id = vf_id;
734         fpadev.pool[vf_id].bar0 = bar0;
735         fpadev.pool[vf_id].stack_ln_ptr = stack_ln_ptr;
736
737         /* SUCCESS */
738         return vf_id;
739 }
740
741 /* FPAVF pcie device aka mempool probe */
742 static int
743 fpavf_probe(struct rte_pci_driver *pci_drv, struct rte_pci_device *pci_dev)
744 {
745         uint8_t *idreg;
746         int res;
747         struct fpavf_res *fpa = NULL;
748
749         RTE_SET_USED(pci_drv);
750         RTE_SET_USED(fpa);
751
752         /* For secondary processes, the primary has done all the work */
753         if (rte_eal_process_type() != RTE_PROC_PRIMARY)
754                 return 0;
755
756         if (pci_dev->mem_resource[0].addr == NULL) {
757                 fpavf_log_err("Empty bars %p ", pci_dev->mem_resource[0].addr);
758                 return -ENODEV;
759         }
760         idreg = pci_dev->mem_resource[0].addr;
761
762         octeontx_fpavf_setup();
763
764         res = octeontx_fpavf_identify(idreg);
765         if (res < 0)
766                 return -1;
767
768         fpa = &fpadev.pool[res];
769         fpadev.total_gpool_cnt++;
770         rte_wmb();
771
772         fpavf_log_dbg("total_fpavfs %d bar0 %p domain %d vf %d stk_ln_ptr 0x%x",
773                        fpadev.total_gpool_cnt, fpa->bar0, fpa->domain_id,
774                        fpa->vf_id, (unsigned int)fpa->stack_ln_ptr);
775
776         return 0;
777 }
778
779 static const struct rte_pci_id pci_fpavf_map[] = {
780         {
781                 RTE_PCI_DEVICE(PCI_VENDOR_ID_CAVIUM,
782                                 PCI_DEVICE_ID_OCTEONTX_FPA_VF)
783         },
784         {
785                 .vendor_id = 0,
786         },
787 };
788
789 static struct rte_pci_driver pci_fpavf = {
790         .id_table = pci_fpavf_map,
791         .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_IOVA_AS_VA,
792         .probe = fpavf_probe,
793 };
794
795 RTE_PMD_REGISTER_PCI(octeontx_fpavf, pci_fpavf);