mempool/octeontx: add application domain validation
[dpdk.git] / drivers / mempool / octeontx / octeontx_fpavf.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2017 Cavium, Inc
3  */
4
5 #include <stdlib.h>
6 #include <string.h>
7 #include <stdbool.h>
8 #include <stdio.h>
9 #include <unistd.h>
10 #include <fcntl.h>
11 #include <errno.h>
12 #include <sys/mman.h>
13
14 #include <rte_atomic.h>
15 #include <rte_eal.h>
16 #include <rte_bus_pci.h>
17 #include <rte_errno.h>
18 #include <rte_memory.h>
19 #include <rte_malloc.h>
20 #include <rte_spinlock.h>
21 #include <rte_mbuf.h>
22
23 #include "octeontx_mbox.h"
24 #include "octeontx_fpavf.h"
25
26 /* FPA Mbox Message */
27 #define IDENTIFY                0x0
28
29 #define FPA_CONFIGSET           0x1
30 #define FPA_CONFIGGET           0x2
31 #define FPA_START_COUNT         0x3
32 #define FPA_STOP_COUNT          0x4
33 #define FPA_ATTACHAURA          0x5
34 #define FPA_DETACHAURA          0x6
35 #define FPA_SETAURALVL          0x7
36 #define FPA_GETAURALVL          0x8
37
38 #define FPA_COPROC              0x1
39
40 /* fpa mbox struct */
41 struct octeontx_mbox_fpa_cfg {
42         int             aid;
43         uint64_t        pool_cfg;
44         uint64_t        pool_stack_base;
45         uint64_t        pool_stack_end;
46         uint64_t        aura_cfg;
47 };
48
49 struct __attribute__((__packed__)) gen_req {
50         uint32_t        value;
51 };
52
53 struct __attribute__((__packed__)) idn_req {
54         uint8_t domain_id;
55 };
56
57 struct __attribute__((__packed__)) gen_resp {
58         uint16_t        domain_id;
59         uint16_t        vfid;
60 };
61
62 struct __attribute__((__packed__)) dcfg_resp {
63         uint8_t sso_count;
64         uint8_t ssow_count;
65         uint8_t fpa_count;
66         uint8_t pko_count;
67         uint8_t tim_count;
68         uint8_t net_port_count;
69         uint8_t virt_port_count;
70 };
71
72 #define FPA_MAX_POOL    32
73 #define FPA_PF_PAGE_SZ  4096
74
75 #define FPA_LN_SIZE     128
76 #define FPA_ROUND_UP(x, size) \
77         ((((unsigned long)(x)) + size-1) & (~(size-1)))
78 #define FPA_OBJSZ_2_CACHE_LINE(sz)      (((sz) + RTE_CACHE_LINE_MASK) >> 7)
79 #define FPA_CACHE_LINE_2_OBJSZ(sz)      ((sz) << 7)
80
81 #define POOL_ENA                        (0x1 << 0)
82 #define POOL_DIS                        (0x0 << 0)
83 #define POOL_SET_NAT_ALIGN              (0x1 << 1)
84 #define POOL_DIS_NAT_ALIGN              (0x0 << 1)
85 #define POOL_STYPE(x)                   (((x) & 0x1) << 2)
86 #define POOL_LTYPE(x)                   (((x) & 0x3) << 3)
87 #define POOL_BUF_OFFSET(x)              (((x) & 0x7fffULL) << 16)
88 #define POOL_BUF_SIZE(x)                (((x) & 0x7ffULL) << 32)
89
90 struct fpavf_res {
91         void            *pool_stack_base;
92         void            *bar0;
93         uint64_t        stack_ln_ptr;
94         uint16_t        domain_id;
95         uint16_t        vf_id;  /* gpool_id */
96         uint16_t        sz128;  /* Block size in cache lines */
97         bool            is_inuse;
98 };
99
100 struct octeontx_fpadev {
101         rte_spinlock_t lock;
102         uint8_t total_gpool_cnt;
103         struct fpavf_res pool[FPA_VF_MAX];
104 };
105
106 static struct octeontx_fpadev fpadev;
107
108 int octeontx_logtype_fpavf;
109 int octeontx_logtype_fpavf_mbox;
110
111 RTE_INIT(otx_pool_init_log)
112 {
113         octeontx_logtype_fpavf = rte_log_register("pmd.mempool.octeontx");
114         if (octeontx_logtype_fpavf >= 0)
115                 rte_log_set_level(octeontx_logtype_fpavf, RTE_LOG_NOTICE);
116 }
117
118 /* lock is taken by caller */
119 static int
120 octeontx_fpa_gpool_alloc(unsigned int object_size)
121 {
122         uint16_t global_domain = octeontx_get_global_domain();
123         struct fpavf_res *res = NULL;
124         unsigned int sz128;
125         int i;
126
127         sz128 = FPA_OBJSZ_2_CACHE_LINE(object_size);
128
129         for (i = 0; i < FPA_VF_MAX; i++) {
130
131                 /* Skip VF that is not mapped Or _inuse */
132                 if ((fpadev.pool[i].bar0 == NULL) ||
133                     (fpadev.pool[i].is_inuse == true) ||
134                     (fpadev.pool[i].domain_id != global_domain))
135                         continue;
136
137                 res = &fpadev.pool[i];
138
139                 RTE_ASSERT(res->domain_id != (uint16_t)~0);
140                 RTE_ASSERT(res->vf_id != (uint16_t)~0);
141                 RTE_ASSERT(res->stack_ln_ptr != 0);
142
143                 if (res->sz128 == 0) {
144                         res->sz128 = sz128;
145                         fpavf_log_dbg("gpool %d blk_sz %d\n", res->vf_id,
146                                       sz128);
147
148                         return res->vf_id;
149                 }
150         }
151
152         return -ENOSPC;
153 }
154
155 static __rte_always_inline struct fpavf_res *
156 octeontx_get_fpavf(uint16_t gpool)
157 {
158         uint16_t global_domain = octeontx_get_global_domain();
159         int i;
160
161         for (i = 0; i < FPA_VF_MAX; i++) {
162                 if (fpadev.pool[i].domain_id != global_domain)
163                         continue;
164                 if (fpadev.pool[i].vf_id != gpool)
165                         continue;
166
167                 return &fpadev.pool[i];
168         }
169
170         return NULL;
171 }
172
173 /* lock is taken by caller */
174 static __rte_always_inline uintptr_t
175 octeontx_fpa_gpool2handle(uint16_t gpool)
176 {
177         struct fpavf_res *res = NULL;
178
179         RTE_ASSERT(gpool < FPA_VF_MAX);
180         res = octeontx_get_fpavf(gpool);
181         if (res == NULL)
182                 return 0;
183
184         return (uintptr_t)res->bar0 | gpool;
185 }
186
187 static __rte_always_inline bool
188 octeontx_fpa_handle_valid(uintptr_t handle)
189 {
190         struct fpavf_res *res = NULL;
191         uint8_t gpool;
192         int i;
193         bool ret = false;
194
195         if (unlikely(!handle))
196                 return ret;
197
198         /* get the gpool */
199         gpool = octeontx_fpa_bufpool_gpool(handle);
200
201         /* get the bar address */
202         handle &= ~(uint64_t)FPA_GPOOL_MASK;
203         for (i = 0; i < FPA_VF_MAX; i++) {
204                 if ((uintptr_t)fpadev.pool[i].bar0 != handle)
205                         continue;
206
207                 /* validate gpool */
208                 if (gpool != fpadev.pool[i].vf_id)
209                         return false;
210
211                 res = &fpadev.pool[i];
212
213                 if (res->sz128 == 0 || res->domain_id == (uint16_t)~0 ||
214                     res->stack_ln_ptr == 0)
215                         ret = false;
216                 else
217                         ret = true;
218                 break;
219         }
220
221         return ret;
222 }
223
224 static int
225 octeontx_fpapf_pool_setup(unsigned int gpool, unsigned int buf_size,
226                           signed short buf_offset, unsigned int max_buf_count)
227 {
228         void *memptr = NULL;
229         rte_iova_t phys_addr;
230         unsigned int memsz;
231         struct fpavf_res *fpa = NULL;
232         uint64_t reg;
233         struct octeontx_mbox_hdr hdr;
234         struct dcfg_resp resp;
235         struct octeontx_mbox_fpa_cfg cfg;
236         int ret = -1;
237
238         fpa = octeontx_get_fpavf(gpool);
239         if (fpa == NULL)
240                 return -EINVAL;
241
242         memsz = FPA_ROUND_UP(max_buf_count / fpa->stack_ln_ptr, FPA_LN_SIZE) *
243                         FPA_LN_SIZE;
244
245         /* Round-up to page size */
246         memsz = (memsz + FPA_PF_PAGE_SZ - 1) & ~(uintptr_t)(FPA_PF_PAGE_SZ-1);
247         memptr = rte_malloc(NULL, memsz, RTE_CACHE_LINE_SIZE);
248         if (memptr == NULL) {
249                 ret = -ENOMEM;
250                 goto err;
251         }
252
253         /* Configure stack */
254         fpa->pool_stack_base = memptr;
255         phys_addr = rte_malloc_virt2iova(memptr);
256
257         buf_size /= FPA_LN_SIZE;
258
259         /* POOL setup */
260         hdr.coproc = FPA_COPROC;
261         hdr.msg = FPA_CONFIGSET;
262         hdr.vfid = fpa->vf_id;
263         hdr.res_code = 0;
264
265         buf_offset /= FPA_LN_SIZE;
266         reg = POOL_BUF_SIZE(buf_size) | POOL_BUF_OFFSET(buf_offset) |
267                 POOL_LTYPE(0x2) | POOL_STYPE(0) | POOL_SET_NAT_ALIGN |
268                 POOL_ENA;
269
270         cfg.aid = FPA_AURA_IDX(gpool);
271         cfg.pool_cfg = reg;
272         cfg.pool_stack_base = phys_addr;
273         cfg.pool_stack_end = phys_addr + memsz;
274         cfg.aura_cfg = (1 << 9);
275
276         ret = octeontx_mbox_send(&hdr, &cfg,
277                                         sizeof(struct octeontx_mbox_fpa_cfg),
278                                         &resp, sizeof(resp));
279         if (ret < 0) {
280                 ret = -EACCES;
281                 goto err;
282         }
283
284         fpavf_log_dbg(" vfid %d gpool %d aid %d pool_cfg 0x%x pool_stack_base %" PRIx64 " pool_stack_end %" PRIx64" aura_cfg %" PRIx64 "\n",
285                       fpa->vf_id, gpool, cfg.aid, (unsigned int)cfg.pool_cfg,
286                       cfg.pool_stack_base, cfg.pool_stack_end, cfg.aura_cfg);
287
288         /* Now pool is in_use */
289         fpa->is_inuse = true;
290
291 err:
292         if (ret < 0)
293                 rte_free(memptr);
294
295         return ret;
296 }
297
298 static int
299 octeontx_fpapf_pool_destroy(unsigned int gpool_index)
300 {
301         struct octeontx_mbox_hdr hdr;
302         struct dcfg_resp resp;
303         struct octeontx_mbox_fpa_cfg cfg;
304         struct fpavf_res *fpa = NULL;
305         int ret = -1;
306
307         fpa = octeontx_get_fpavf(gpool_index);
308         if (fpa == NULL) {
309                 ret = -EINVAL;
310                 goto err;
311         }
312
313         hdr.coproc = FPA_COPROC;
314         hdr.msg = FPA_CONFIGSET;
315         hdr.vfid = fpa->vf_id;
316         hdr.res_code = 0;
317
318         /* reset and free the pool */
319         cfg.aid = 0;
320         cfg.pool_cfg = 0;
321         cfg.pool_stack_base = 0;
322         cfg.pool_stack_end = 0;
323         cfg.aura_cfg = 0;
324
325         ret = octeontx_mbox_send(&hdr, &cfg,
326                                         sizeof(struct octeontx_mbox_fpa_cfg),
327                                         &resp, sizeof(resp));
328         if (ret < 0) {
329                 ret = -EACCES;
330                 goto err;
331         }
332
333         ret = 0;
334 err:
335         /* anycase free pool stack memory */
336         rte_free(fpa->pool_stack_base);
337         fpa->pool_stack_base = NULL;
338         return ret;
339 }
340
341 static int
342 octeontx_fpapf_aura_attach(unsigned int gpool_index)
343 {
344         struct octeontx_mbox_hdr hdr;
345         struct dcfg_resp resp;
346         struct octeontx_mbox_fpa_cfg cfg;
347         int ret = 0;
348
349         if (gpool_index >= FPA_MAX_POOL) {
350                 ret = -EINVAL;
351                 goto err;
352         }
353         hdr.coproc = FPA_COPROC;
354         hdr.msg = FPA_ATTACHAURA;
355         hdr.vfid = gpool_index;
356         hdr.res_code = 0;
357         memset(&cfg, 0x0, sizeof(struct octeontx_mbox_fpa_cfg));
358         cfg.aid = FPA_AURA_IDX(gpool_index);
359
360         ret = octeontx_mbox_send(&hdr, &cfg,
361                                         sizeof(struct octeontx_mbox_fpa_cfg),
362                                         &resp, sizeof(resp));
363         if (ret < 0) {
364                 fpavf_log_err("Could not attach fpa ");
365                 fpavf_log_err("aura %d to pool %d. Err=%d. FuncErr=%d\n",
366                               FPA_AURA_IDX(gpool_index), gpool_index, ret,
367                               hdr.res_code);
368                 ret = -EACCES;
369                 goto err;
370         }
371 err:
372         return ret;
373 }
374
375 static int
376 octeontx_fpapf_aura_detach(unsigned int gpool_index)
377 {
378         struct octeontx_mbox_fpa_cfg cfg = {0};
379         struct octeontx_mbox_hdr hdr = {0};
380         int ret = 0;
381
382         if (gpool_index >= FPA_MAX_POOL) {
383                 ret = -EINVAL;
384                 goto err;
385         }
386
387         cfg.aid = FPA_AURA_IDX(gpool_index);
388         hdr.coproc = FPA_COPROC;
389         hdr.msg = FPA_DETACHAURA;
390         hdr.vfid = gpool_index;
391         ret = octeontx_mbox_send(&hdr, &cfg, sizeof(cfg), NULL, 0);
392         if (ret < 0) {
393                 fpavf_log_err("Couldn't detach FPA aura %d Err=%d FuncErr=%d\n",
394                               FPA_AURA_IDX(gpool_index), ret,
395                               hdr.res_code);
396                 ret = -EINVAL;
397         }
398
399 err:
400         return ret;
401 }
402
403 int
404 octeontx_fpavf_pool_set_range(uintptr_t handle, unsigned long memsz,
405                           void *memva, uint16_t gpool)
406 {
407         uint64_t va_end;
408
409         if (unlikely(!handle))
410                 return -ENODEV;
411
412         va_end = (uintptr_t)memva + memsz;
413         va_end &= ~RTE_CACHE_LINE_MASK;
414
415         /* VHPOOL setup */
416         fpavf_write64((uintptr_t)memva,
417                          (void *)((uintptr_t)handle +
418                          FPA_VF_VHPOOL_START_ADDR(gpool)));
419         fpavf_write64(va_end,
420                          (void *)((uintptr_t)handle +
421                          FPA_VF_VHPOOL_END_ADDR(gpool)));
422         return 0;
423 }
424
425 static int
426 octeontx_fpapf_start_count(uint16_t gpool_index)
427 {
428         int ret = 0;
429         struct octeontx_mbox_hdr hdr = {0};
430
431         if (gpool_index >= FPA_MAX_POOL) {
432                 ret = -EINVAL;
433                 goto err;
434         }
435
436         hdr.coproc = FPA_COPROC;
437         hdr.msg = FPA_START_COUNT;
438         hdr.vfid = gpool_index;
439         ret = octeontx_mbox_send(&hdr, NULL, 0, NULL, 0);
440         if (ret < 0) {
441                 fpavf_log_err("Could not start buffer counting for ");
442                 fpavf_log_err("FPA pool %d. Err=%d. FuncErr=%d\n",
443                               gpool_index, ret, hdr.res_code);
444                 ret = -EINVAL;
445                 goto err;
446         }
447
448 err:
449         return ret;
450 }
451
452 static __rte_always_inline int
453 octeontx_fpavf_free(unsigned int gpool)
454 {
455         struct fpavf_res *res = octeontx_get_fpavf(gpool);
456         int ret = 0;
457
458         if (gpool >= FPA_MAX_POOL) {
459                 ret = -EINVAL;
460                 goto err;
461         }
462
463         /* Pool is free */
464         if (res != NULL)
465                 res->is_inuse = false;
466
467 err:
468         return ret;
469 }
470
471 static __rte_always_inline int
472 octeontx_gpool_free(uint16_t gpool)
473 {
474         struct fpavf_res *res = octeontx_get_fpavf(gpool);
475
476         if (res && res->sz128 != 0) {
477                 res->sz128 = 0;
478                 return 0;
479         }
480         return -EINVAL;
481 }
482
483 /*
484  * Return buffer size for a given pool
485  */
486 int
487 octeontx_fpa_bufpool_block_size(uintptr_t handle)
488 {
489         struct fpavf_res *res = NULL;
490         uint8_t gpool;
491
492         if (unlikely(!octeontx_fpa_handle_valid(handle)))
493                 return -EINVAL;
494
495         /* get the gpool */
496         gpool = octeontx_fpa_bufpool_gpool(handle);
497         res = octeontx_get_fpavf(gpool);
498         return res ? FPA_CACHE_LINE_2_OBJSZ(res->sz128) : 0;
499 }
500
501 int
502 octeontx_fpa_bufpool_free_count(uintptr_t handle)
503 {
504         uint64_t cnt, limit, avail;
505         uint8_t gpool;
506         uint16_t gaura;
507         uintptr_t pool_bar;
508
509         if (unlikely(!octeontx_fpa_handle_valid(handle)))
510                 return -EINVAL;
511
512         /* get the gpool */
513         gpool = octeontx_fpa_bufpool_gpool(handle);
514         /* get the aura */
515         gaura = octeontx_fpa_bufpool_gaura(handle);
516
517         /* Get pool bar address from handle */
518         pool_bar = handle & ~(uint64_t)FPA_GPOOL_MASK;
519
520         cnt = fpavf_read64((void *)((uintptr_t)pool_bar +
521                                 FPA_VF_VHAURA_CNT(gaura)));
522         limit = fpavf_read64((void *)((uintptr_t)pool_bar +
523                                 FPA_VF_VHAURA_CNT_LIMIT(gaura)));
524
525         avail = fpavf_read64((void *)((uintptr_t)pool_bar +
526                                 FPA_VF_VHPOOL_AVAILABLE(gpool)));
527
528         return RTE_MIN(avail, (limit - cnt));
529 }
530
531 uintptr_t
532 octeontx_fpa_bufpool_create(unsigned int object_size, unsigned int object_count,
533                                 unsigned int buf_offset, int node_id)
534 {
535         unsigned int gpool;
536         unsigned int gaura;
537         uintptr_t gpool_handle;
538         uintptr_t pool_bar;
539         int res;
540
541         RTE_SET_USED(node_id);
542         RTE_BUILD_BUG_ON(sizeof(struct rte_mbuf) > OCTEONTX_FPAVF_BUF_OFFSET);
543
544         octeontx_mbox_init();
545         object_size = RTE_CACHE_LINE_ROUNDUP(object_size);
546         if (object_size > FPA_MAX_OBJ_SIZE) {
547                 errno = EINVAL;
548                 goto error_end;
549         }
550
551         rte_spinlock_lock(&fpadev.lock);
552         res = octeontx_fpa_gpool_alloc(object_size);
553
554         /* Bail if failed */
555         if (unlikely(res < 0)) {
556                 errno = res;
557                 goto error_unlock;
558         }
559
560         /* get fpavf */
561         gpool = res;
562
563         /* get pool handle */
564         gpool_handle = octeontx_fpa_gpool2handle(gpool);
565         if (!octeontx_fpa_handle_valid(gpool_handle)) {
566                 errno = ENOSPC;
567                 goto error_gpool_free;
568         }
569
570         /* Get pool bar address from handle */
571         pool_bar = gpool_handle & ~(uint64_t)FPA_GPOOL_MASK;
572
573         res = octeontx_fpapf_pool_setup(gpool, object_size, buf_offset,
574                                         object_count);
575         if (res < 0) {
576                 errno = res;
577                 goto error_gpool_free;
578         }
579
580         /* populate AURA fields */
581         res = octeontx_fpapf_aura_attach(gpool);
582         if (res < 0) {
583                 errno = res;
584                 goto error_pool_destroy;
585         }
586
587         gaura = FPA_AURA_IDX(gpool);
588
589         /* Release lock */
590         rte_spinlock_unlock(&fpadev.lock);
591
592         /* populate AURA registers */
593         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
594                          FPA_VF_VHAURA_CNT(gaura)));
595         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
596                          FPA_VF_VHAURA_CNT_LIMIT(gaura)));
597         fpavf_write64(object_count + 1, (void *)((uintptr_t)pool_bar +
598                          FPA_VF_VHAURA_CNT_THRESHOLD(gaura)));
599
600         octeontx_fpapf_start_count(gpool);
601
602         return gpool_handle;
603
604 error_pool_destroy:
605         octeontx_fpavf_free(gpool);
606         octeontx_fpapf_pool_destroy(gpool);
607 error_gpool_free:
608         octeontx_gpool_free(gpool);
609 error_unlock:
610         rte_spinlock_unlock(&fpadev.lock);
611 error_end:
612         return (uintptr_t)NULL;
613 }
614
615 /*
616  * Destroy a buffer pool.
617  */
618 int
619 octeontx_fpa_bufpool_destroy(uintptr_t handle, int node_id)
620 {
621         void **node, **curr, *head = NULL;
622         uint64_t sz;
623         uint64_t cnt, avail;
624         uint8_t gpool;
625         uint16_t gaura;
626         uintptr_t pool_bar;
627         int ret;
628
629         RTE_SET_USED(node_id);
630
631         /* Wait for all outstanding writes to be committed */
632         rte_smp_wmb();
633
634         if (unlikely(!octeontx_fpa_handle_valid(handle)))
635                 return -EINVAL;
636
637         /* get the pool */
638         gpool = octeontx_fpa_bufpool_gpool(handle);
639         /* get the aura */
640         gaura = octeontx_fpa_bufpool_gaura(handle);
641
642         /* Get pool bar address from handle */
643         pool_bar = handle & ~(uint64_t)FPA_GPOOL_MASK;
644
645          /* Check for no outstanding buffers */
646         cnt = fpavf_read64((void *)((uintptr_t)pool_bar +
647                                         FPA_VF_VHAURA_CNT(gaura)));
648         if (cnt) {
649                 fpavf_log_dbg("buffer exist in pool cnt %" PRId64 "\n", cnt);
650                 return -EBUSY;
651         }
652
653         rte_spinlock_lock(&fpadev.lock);
654
655         avail = fpavf_read64((void *)((uintptr_t)pool_bar +
656                                 FPA_VF_VHPOOL_AVAILABLE(gpool)));
657
658         /* Prepare to empty the entire POOL */
659         fpavf_write64(avail, (void *)((uintptr_t)pool_bar +
660                          FPA_VF_VHAURA_CNT_LIMIT(gaura)));
661         fpavf_write64(avail + 1, (void *)((uintptr_t)pool_bar +
662                          FPA_VF_VHAURA_CNT_THRESHOLD(gaura)));
663
664         /* Empty the pool */
665         /* Invalidate the POOL */
666         octeontx_gpool_free(gpool);
667
668         /* Process all buffers in the pool */
669         while (avail--) {
670
671                 /* Yank a buffer from the pool */
672                 node = (void *)(uintptr_t)
673                         fpavf_read64((void *)
674                                     (pool_bar + FPA_VF_VHAURA_OP_ALLOC(gaura)));
675
676                 if (node == NULL) {
677                         fpavf_log_err("GAURA[%u] missing %" PRIx64 " buf\n",
678                                       gaura, avail);
679                         break;
680                 }
681
682                 /* Imsert it into an ordered linked list */
683                 for (curr = &head; curr[0] != NULL; curr = curr[0]) {
684                         if ((uintptr_t)node <= (uintptr_t)curr[0])
685                                 break;
686                 }
687                 node[0] = curr[0];
688                 curr[0] = node;
689         }
690
691         /* Verify the linked list to be a perfect series */
692         sz = octeontx_fpa_bufpool_block_size(handle) << 7;
693         for (curr = head; curr != NULL && curr[0] != NULL;
694                 curr = curr[0]) {
695                 if (curr == curr[0] ||
696                         ((uintptr_t)curr != ((uintptr_t)curr[0] - sz))) {
697                         fpavf_log_err("POOL# %u buf sequence err (%p vs. %p)\n",
698                                       gpool, curr, curr[0]);
699                 }
700         }
701
702         /* Disable pool operation */
703         fpavf_write64(~0ul, (void *)((uintptr_t)pool_bar +
704                          FPA_VF_VHPOOL_START_ADDR(gpool)));
705         fpavf_write64(~0ul, (void *)((uintptr_t)pool_bar +
706                         FPA_VF_VHPOOL_END_ADDR(gpool)));
707
708         (void)octeontx_fpapf_pool_destroy(gpool);
709
710         /* Deactivate the AURA */
711         fpavf_write64(0, (void *)((uintptr_t)pool_bar +
712                         FPA_VF_VHAURA_CNT_LIMIT(gaura)));
713         fpavf_write64(0, (void *)((uintptr_t)pool_bar +
714                         FPA_VF_VHAURA_CNT_THRESHOLD(gaura)));
715
716         ret = octeontx_fpapf_aura_detach(gpool);
717         if (ret) {
718                 fpavf_log_err("Failed to dettach gaura %u. error code=%d\n",
719                               gpool, ret);
720         }
721
722         /* Free VF */
723         (void)octeontx_fpavf_free(gpool);
724
725         rte_spinlock_unlock(&fpadev.lock);
726         return 0;
727 }
728
729 static void
730 octeontx_fpavf_setup(void)
731 {
732         uint8_t i;
733         static bool init_once;
734
735         if (!init_once) {
736                 rte_spinlock_init(&fpadev.lock);
737                 fpadev.total_gpool_cnt = 0;
738
739                 for (i = 0; i < FPA_VF_MAX; i++) {
740
741                         fpadev.pool[i].domain_id = ~0;
742                         fpadev.pool[i].stack_ln_ptr = 0;
743                         fpadev.pool[i].sz128 = 0;
744                         fpadev.pool[i].bar0 = NULL;
745                         fpadev.pool[i].pool_stack_base = NULL;
746                         fpadev.pool[i].is_inuse = false;
747                 }
748                 init_once = 1;
749         }
750 }
751
752 static int
753 octeontx_fpavf_identify(void *bar0)
754 {
755         uint64_t val;
756         uint16_t domain_id;
757         uint16_t vf_id;
758         uint64_t stack_ln_ptr;
759         static uint16_t vf_idx;
760
761         val = fpavf_read64((void *)((uintptr_t)bar0 +
762                                 FPA_VF_VHAURA_CNT_THRESHOLD(0)));
763
764         domain_id = (val >> 8) & 0xffff;
765         vf_id = (val >> 24) & 0xffff;
766
767         stack_ln_ptr = fpavf_read64((void *)((uintptr_t)bar0 +
768                                         FPA_VF_VHPOOL_THRESHOLD(0)));
769         if (vf_idx >= FPA_VF_MAX) {
770                 fpavf_log_err("vf_id(%d) greater than max vf (32)\n", vf_id);
771                 return -E2BIG;
772         }
773
774         fpadev.pool[vf_idx].domain_id = domain_id;
775         fpadev.pool[vf_idx].vf_id = vf_id;
776         fpadev.pool[vf_idx].bar0 = bar0;
777         fpadev.pool[vf_idx].stack_ln_ptr = stack_ln_ptr;
778
779         /* SUCCESS */
780         return vf_idx++;
781 }
782
783 /* FPAVF pcie device aka mempool probe */
784 static int
785 fpavf_probe(struct rte_pci_driver *pci_drv, struct rte_pci_device *pci_dev)
786 {
787         uint8_t *idreg;
788         int res;
789         struct fpavf_res *fpa = NULL;
790
791         RTE_SET_USED(pci_drv);
792         RTE_SET_USED(fpa);
793
794         /* For secondary processes, the primary has done all the work */
795         if (rte_eal_process_type() != RTE_PROC_PRIMARY)
796                 return 0;
797
798         if (pci_dev->mem_resource[0].addr == NULL) {
799                 fpavf_log_err("Empty bars %p ", pci_dev->mem_resource[0].addr);
800                 return -ENODEV;
801         }
802         idreg = pci_dev->mem_resource[0].addr;
803
804         octeontx_fpavf_setup();
805
806         res = octeontx_fpavf_identify(idreg);
807         if (res < 0)
808                 return -1;
809
810         fpa = &fpadev.pool[res];
811         fpadev.total_gpool_cnt++;
812         rte_wmb();
813
814         fpavf_log_dbg("total_fpavfs %d bar0 %p domain %d vf %d stk_ln_ptr 0x%x",
815                        fpadev.total_gpool_cnt, fpa->bar0, fpa->domain_id,
816                        fpa->vf_id, (unsigned int)fpa->stack_ln_ptr);
817
818         return 0;
819 }
820
821 static const struct rte_pci_id pci_fpavf_map[] = {
822         {
823                 RTE_PCI_DEVICE(PCI_VENDOR_ID_CAVIUM,
824                                 PCI_DEVICE_ID_OCTEONTX_FPA_VF)
825         },
826         {
827                 .vendor_id = 0,
828         },
829 };
830
831 static struct rte_pci_driver pci_fpavf = {
832         .id_table = pci_fpavf_map,
833         .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_NEED_IOVA_AS_VA,
834         .probe = fpavf_probe,
835 };
836
837 RTE_PMD_REGISTER_PCI(octeontx_fpavf, pci_fpavf);