drivers: use SPDX tag for Cavium copyright files
[dpdk.git] / drivers / mempool / octeontx / octeontx_fpavf.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2017 Cavium, Inc
3  */
4
5 #include <stdlib.h>
6 #include <string.h>
7 #include <stdbool.h>
8 #include <stdio.h>
9 #include <unistd.h>
10 #include <fcntl.h>
11 #include <errno.h>
12 #include <sys/mman.h>
13
14 #include <rte_atomic.h>
15 #include <rte_eal.h>
16 #include <rte_bus_pci.h>
17 #include <rte_errno.h>
18 #include <rte_memory.h>
19 #include <rte_malloc.h>
20 #include <rte_spinlock.h>
21 #include <rte_mbuf.h>
22
23 #include "octeontx_mbox.h"
24 #include "octeontx_fpavf.h"
25
26 /* FPA Mbox Message */
27 #define IDENTIFY                0x0
28
29 #define FPA_CONFIGSET           0x1
30 #define FPA_CONFIGGET           0x2
31 #define FPA_START_COUNT         0x3
32 #define FPA_STOP_COUNT          0x4
33 #define FPA_ATTACHAURA          0x5
34 #define FPA_DETACHAURA          0x6
35 #define FPA_SETAURALVL          0x7
36 #define FPA_GETAURALVL          0x8
37
38 #define FPA_COPROC              0x1
39
40 /* fpa mbox struct */
41 struct octeontx_mbox_fpa_cfg {
42         int             aid;
43         uint64_t        pool_cfg;
44         uint64_t        pool_stack_base;
45         uint64_t        pool_stack_end;
46         uint64_t        aura_cfg;
47 };
48
49 struct __attribute__((__packed__)) gen_req {
50         uint32_t        value;
51 };
52
53 struct __attribute__((__packed__)) idn_req {
54         uint8_t domain_id;
55 };
56
57 struct __attribute__((__packed__)) gen_resp {
58         uint16_t        domain_id;
59         uint16_t        vfid;
60 };
61
62 struct __attribute__((__packed__)) dcfg_resp {
63         uint8_t sso_count;
64         uint8_t ssow_count;
65         uint8_t fpa_count;
66         uint8_t pko_count;
67         uint8_t tim_count;
68         uint8_t net_port_count;
69         uint8_t virt_port_count;
70 };
71
72 #define FPA_MAX_POOL    32
73 #define FPA_PF_PAGE_SZ  4096
74
75 #define FPA_LN_SIZE     128
76 #define FPA_ROUND_UP(x, size) \
77         ((((unsigned long)(x)) + size-1) & (~(size-1)))
78 #define FPA_OBJSZ_2_CACHE_LINE(sz)      (((sz) + RTE_CACHE_LINE_MASK) >> 7)
79 #define FPA_CACHE_LINE_2_OBJSZ(sz)      ((sz) << 7)
80
81 #define POOL_ENA                        (0x1 << 0)
82 #define POOL_DIS                        (0x0 << 0)
83 #define POOL_SET_NAT_ALIGN              (0x1 << 1)
84 #define POOL_DIS_NAT_ALIGN              (0x0 << 1)
85 #define POOL_STYPE(x)                   (((x) & 0x1) << 2)
86 #define POOL_LTYPE(x)                   (((x) & 0x3) << 3)
87 #define POOL_BUF_OFFSET(x)              (((x) & 0x7fffULL) << 16)
88 #define POOL_BUF_SIZE(x)                (((x) & 0x7ffULL) << 32)
89
90 struct fpavf_res {
91         void            *pool_stack_base;
92         void            *bar0;
93         uint64_t        stack_ln_ptr;
94         uint16_t        domain_id;
95         uint16_t        vf_id;  /* gpool_id */
96         uint16_t        sz128;  /* Block size in cache lines */
97         bool            is_inuse;
98 };
99
100 struct octeontx_fpadev {
101         rte_spinlock_t lock;
102         uint8_t total_gpool_cnt;
103         struct fpavf_res pool[FPA_VF_MAX];
104 };
105
106 static struct octeontx_fpadev fpadev;
107
108 /* lock is taken by caller */
109 static int
110 octeontx_fpa_gpool_alloc(unsigned int object_size)
111 {
112         struct fpavf_res *res = NULL;
113         uint16_t gpool;
114         unsigned int sz128;
115
116         sz128 = FPA_OBJSZ_2_CACHE_LINE(object_size);
117
118         for (gpool = 0; gpool < FPA_VF_MAX; gpool++) {
119
120                 /* Skip VF that is not mapped Or _inuse */
121                 if ((fpadev.pool[gpool].bar0 == NULL) ||
122                     (fpadev.pool[gpool].is_inuse == true))
123                         continue;
124
125                 res = &fpadev.pool[gpool];
126
127                 RTE_ASSERT(res->domain_id != (uint16_t)~0);
128                 RTE_ASSERT(res->vf_id != (uint16_t)~0);
129                 RTE_ASSERT(res->stack_ln_ptr != 0);
130
131                 if (res->sz128 == 0) {
132                         res->sz128 = sz128;
133
134                         fpavf_log_dbg("gpool %d blk_sz %d\n", gpool, sz128);
135                         return gpool;
136                 }
137         }
138
139         return -ENOSPC;
140 }
141
142 /* lock is taken by caller */
143 static __rte_always_inline uintptr_t
144 octeontx_fpa_gpool2handle(uint16_t gpool)
145 {
146         struct fpavf_res *res = NULL;
147
148         RTE_ASSERT(gpool < FPA_VF_MAX);
149
150         res = &fpadev.pool[gpool];
151         return (uintptr_t)res->bar0 | gpool;
152 }
153
154 static __rte_always_inline bool
155 octeontx_fpa_handle_valid(uintptr_t handle)
156 {
157         struct fpavf_res *res = NULL;
158         uint8_t gpool;
159         int i;
160         bool ret = false;
161
162         if (unlikely(!handle))
163                 return ret;
164
165         /* get the gpool */
166         gpool = octeontx_fpa_bufpool_gpool(handle);
167
168         /* get the bar address */
169         handle &= ~(uint64_t)FPA_GPOOL_MASK;
170         for (i = 0; i < FPA_VF_MAX; i++) {
171                 if ((uintptr_t)fpadev.pool[i].bar0 != handle)
172                         continue;
173
174                 /* validate gpool */
175                 if (gpool != i)
176                         return false;
177
178                 res = &fpadev.pool[i];
179
180                 if (res->sz128 == 0 || res->domain_id == (uint16_t)~0 ||
181                     res->stack_ln_ptr == 0)
182                         ret = false;
183                 else
184                         ret = true;
185                 break;
186         }
187
188         return ret;
189 }
190
191 static int
192 octeontx_fpapf_pool_setup(unsigned int gpool, unsigned int buf_size,
193                           signed short buf_offset, unsigned int max_buf_count)
194 {
195         void *memptr = NULL;
196         rte_iova_t phys_addr;
197         unsigned int memsz;
198         struct fpavf_res *fpa = NULL;
199         uint64_t reg;
200         struct octeontx_mbox_hdr hdr;
201         struct dcfg_resp resp;
202         struct octeontx_mbox_fpa_cfg cfg;
203         int ret = -1;
204
205         fpa = &fpadev.pool[gpool];
206         memsz = FPA_ROUND_UP(max_buf_count / fpa->stack_ln_ptr, FPA_LN_SIZE) *
207                         FPA_LN_SIZE;
208
209         /* Round-up to page size */
210         memsz = (memsz + FPA_PF_PAGE_SZ - 1) & ~(uintptr_t)(FPA_PF_PAGE_SZ-1);
211         memptr = rte_malloc(NULL, memsz, RTE_CACHE_LINE_SIZE);
212         if (memptr == NULL) {
213                 ret = -ENOMEM;
214                 goto err;
215         }
216
217         /* Configure stack */
218         fpa->pool_stack_base = memptr;
219         phys_addr = rte_malloc_virt2iova(memptr);
220
221         buf_size /= FPA_LN_SIZE;
222
223         /* POOL setup */
224         hdr.coproc = FPA_COPROC;
225         hdr.msg = FPA_CONFIGSET;
226         hdr.vfid = fpa->vf_id;
227         hdr.res_code = 0;
228
229         buf_offset /= FPA_LN_SIZE;
230         reg = POOL_BUF_SIZE(buf_size) | POOL_BUF_OFFSET(buf_offset) |
231                 POOL_LTYPE(0x2) | POOL_STYPE(0) | POOL_SET_NAT_ALIGN |
232                 POOL_ENA;
233
234         cfg.aid = 0;
235         cfg.pool_cfg = reg;
236         cfg.pool_stack_base = phys_addr;
237         cfg.pool_stack_end = phys_addr + memsz;
238         cfg.aura_cfg = (1 << 9);
239
240         ret = octeontx_ssovf_mbox_send(&hdr, &cfg,
241                                         sizeof(struct octeontx_mbox_fpa_cfg),
242                                         &resp, sizeof(resp));
243         if (ret < 0) {
244                 ret = -EACCES;
245                 goto err;
246         }
247
248         fpavf_log_dbg(" vfid %d gpool %d aid %d pool_cfg 0x%x pool_stack_base %" PRIx64 " pool_stack_end %" PRIx64" aura_cfg %" PRIx64 "\n",
249                       fpa->vf_id, gpool, cfg.aid, (unsigned int)cfg.pool_cfg,
250                       cfg.pool_stack_base, cfg.pool_stack_end, cfg.aura_cfg);
251
252         /* Now pool is in_use */
253         fpa->is_inuse = true;
254
255 err:
256         if (ret < 0)
257                 rte_free(memptr);
258
259         return ret;
260 }
261
262 static int
263 octeontx_fpapf_pool_destroy(unsigned int gpool_index)
264 {
265         struct octeontx_mbox_hdr hdr;
266         struct dcfg_resp resp;
267         struct octeontx_mbox_fpa_cfg cfg;
268         struct fpavf_res *fpa = NULL;
269         int ret = -1;
270
271         fpa = &fpadev.pool[gpool_index];
272
273         hdr.coproc = FPA_COPROC;
274         hdr.msg = FPA_CONFIGSET;
275         hdr.vfid = fpa->vf_id;
276         hdr.res_code = 0;
277
278         /* reset and free the pool */
279         cfg.aid = 0;
280         cfg.pool_cfg = 0;
281         cfg.pool_stack_base = 0;
282         cfg.pool_stack_end = 0;
283         cfg.aura_cfg = 0;
284
285         ret = octeontx_ssovf_mbox_send(&hdr, &cfg,
286                                         sizeof(struct octeontx_mbox_fpa_cfg),
287                                         &resp, sizeof(resp));
288         if (ret < 0) {
289                 ret = -EACCES;
290                 goto err;
291         }
292
293         ret = 0;
294 err:
295         /* anycase free pool stack memory */
296         rte_free(fpa->pool_stack_base);
297         fpa->pool_stack_base = NULL;
298         return ret;
299 }
300
301 static int
302 octeontx_fpapf_aura_attach(unsigned int gpool_index)
303 {
304         struct octeontx_mbox_hdr hdr;
305         struct dcfg_resp resp;
306         struct octeontx_mbox_fpa_cfg cfg;
307         int ret = 0;
308
309         if (gpool_index >= FPA_MAX_POOL) {
310                 ret = -EINVAL;
311                 goto err;
312         }
313         hdr.coproc = FPA_COPROC;
314         hdr.msg = FPA_ATTACHAURA;
315         hdr.vfid = gpool_index;
316         hdr.res_code = 0;
317         memset(&cfg, 0x0, sizeof(struct octeontx_mbox_fpa_cfg));
318         cfg.aid = gpool_index; /* gpool is guara */
319
320         ret = octeontx_ssovf_mbox_send(&hdr, &cfg,
321                                         sizeof(struct octeontx_mbox_fpa_cfg),
322                                         &resp, sizeof(resp));
323         if (ret < 0) {
324                 fpavf_log_err("Could not attach fpa ");
325                 fpavf_log_err("aura %d to pool %d. Err=%d. FuncErr=%d\n",
326                               gpool_index, gpool_index, ret, hdr.res_code);
327                 ret = -EACCES;
328                 goto err;
329         }
330 err:
331         return ret;
332 }
333
334 static int
335 octeontx_fpapf_aura_detach(unsigned int gpool_index)
336 {
337         struct octeontx_mbox_fpa_cfg cfg = {0};
338         struct octeontx_mbox_hdr hdr = {0};
339         int ret = 0;
340
341         if (gpool_index >= FPA_MAX_POOL) {
342                 ret = -EINVAL;
343                 goto err;
344         }
345
346         cfg.aid = gpool_index; /* gpool is gaura */
347         hdr.coproc = FPA_COPROC;
348         hdr.msg = FPA_DETACHAURA;
349         hdr.vfid = gpool_index;
350         ret = octeontx_ssovf_mbox_send(&hdr, &cfg, sizeof(cfg), NULL, 0);
351         if (ret < 0) {
352                 fpavf_log_err("Couldn't detach FPA aura %d Err=%d FuncErr=%d\n",
353                               gpool_index, ret, hdr.res_code);
354                 ret = -EINVAL;
355         }
356
357 err:
358         return ret;
359 }
360
361 static int
362 octeontx_fpavf_pool_setup(uintptr_t handle, unsigned long memsz,
363                           void *memva, uint16_t gpool)
364 {
365         uint64_t va_end;
366
367         if (unlikely(!handle))
368                 return -ENODEV;
369
370         va_end = (uintptr_t)memva + memsz;
371         va_end &= ~RTE_CACHE_LINE_MASK;
372
373         /* VHPOOL setup */
374         fpavf_write64((uintptr_t)memva,
375                          (void *)((uintptr_t)handle +
376                          FPA_VF_VHPOOL_START_ADDR(gpool)));
377         fpavf_write64(va_end,
378                          (void *)((uintptr_t)handle +
379                          FPA_VF_VHPOOL_END_ADDR(gpool)));
380         return 0;
381 }
382
383 static int
384 octeontx_fpapf_start_count(uint16_t gpool_index)
385 {
386         int ret = 0;
387         struct octeontx_mbox_hdr hdr = {0};
388
389         if (gpool_index >= FPA_MAX_POOL) {
390                 ret = -EINVAL;
391                 goto err;
392         }
393
394         hdr.coproc = FPA_COPROC;
395         hdr.msg = FPA_START_COUNT;
396         hdr.vfid = gpool_index;
397         ret = octeontx_ssovf_mbox_send(&hdr, NULL, 0, NULL, 0);
398         if (ret < 0) {
399                 fpavf_log_err("Could not start buffer counting for ");
400                 fpavf_log_err("FPA pool %d. Err=%d. FuncErr=%d\n",
401                               gpool_index, ret, hdr.res_code);
402                 ret = -EINVAL;
403                 goto err;
404         }
405
406 err:
407         return ret;
408 }
409
410 static __rte_always_inline int
411 octeontx_fpavf_free(unsigned int gpool)
412 {
413         int ret = 0;
414
415         if (gpool >= FPA_MAX_POOL) {
416                 ret = -EINVAL;
417                 goto err;
418         }
419
420         /* Pool is free */
421         fpadev.pool[gpool].is_inuse = false;
422
423 err:
424         return ret;
425 }
426
427 static __rte_always_inline int
428 octeontx_gpool_free(uint16_t gpool)
429 {
430         if (fpadev.pool[gpool].sz128 != 0) {
431                 fpadev.pool[gpool].sz128 = 0;
432                 return 0;
433         }
434         return -EINVAL;
435 }
436
437 /*
438  * Return buffer size for a given pool
439  */
440 int
441 octeontx_fpa_bufpool_block_size(uintptr_t handle)
442 {
443         struct fpavf_res *res = NULL;
444         uint8_t gpool;
445
446         if (unlikely(!octeontx_fpa_handle_valid(handle)))
447                 return -EINVAL;
448
449         /* get the gpool */
450         gpool = octeontx_fpa_bufpool_gpool(handle);
451         res = &fpadev.pool[gpool];
452         return FPA_CACHE_LINE_2_OBJSZ(res->sz128);
453 }
454
455 int
456 octeontx_fpa_bufpool_free_count(uintptr_t handle)
457 {
458         uint64_t cnt, limit, avail;
459         uint8_t gpool;
460         uintptr_t pool_bar;
461
462         if (unlikely(!octeontx_fpa_handle_valid(handle)))
463                 return -EINVAL;
464
465         /* get the gpool */
466         gpool = octeontx_fpa_bufpool_gpool(handle);
467
468         /* Get pool bar address from handle */
469         pool_bar = handle & ~(uint64_t)FPA_GPOOL_MASK;
470
471         cnt = fpavf_read64((void *)((uintptr_t)pool_bar +
472                                 FPA_VF_VHAURA_CNT(gpool)));
473         limit = fpavf_read64((void *)((uintptr_t)pool_bar +
474                                 FPA_VF_VHAURA_CNT_LIMIT(gpool)));
475
476         avail = fpavf_read64((void *)((uintptr_t)pool_bar +
477                                 FPA_VF_VHPOOL_AVAILABLE(gpool)));
478
479         return RTE_MIN(avail, (limit - cnt));
480 }
481
482 uintptr_t
483 octeontx_fpa_bufpool_create(unsigned int object_size, unsigned int object_count,
484                                 unsigned int buf_offset, char **va_start,
485                                 int node_id)
486 {
487         unsigned int gpool;
488         void *memva;
489         unsigned long memsz;
490         uintptr_t gpool_handle;
491         uintptr_t pool_bar;
492         int res;
493
494         RTE_SET_USED(node_id);
495         RTE_BUILD_BUG_ON(sizeof(struct rte_mbuf) > OCTEONTX_FPAVF_BUF_OFFSET);
496
497         if (unlikely(*va_start == NULL))
498                 goto error_end;
499
500         object_size = RTE_CACHE_LINE_ROUNDUP(object_size);
501         if (object_size > FPA_MAX_OBJ_SIZE) {
502                 errno = EINVAL;
503                 goto error_end;
504         }
505
506         rte_spinlock_lock(&fpadev.lock);
507         res = octeontx_fpa_gpool_alloc(object_size);
508
509         /* Bail if failed */
510         if (unlikely(res < 0)) {
511                 errno = res;
512                 goto error_unlock;
513         }
514
515         /* get fpavf */
516         gpool = res;
517
518         /* get pool handle */
519         gpool_handle = octeontx_fpa_gpool2handle(gpool);
520         if (!octeontx_fpa_handle_valid(gpool_handle)) {
521                 errno = ENOSPC;
522                 goto error_gpool_free;
523         }
524
525         /* Get pool bar address from handle */
526         pool_bar = gpool_handle & ~(uint64_t)FPA_GPOOL_MASK;
527
528         res = octeontx_fpapf_pool_setup(gpool, object_size, buf_offset,
529                                         object_count);
530         if (res < 0) {
531                 errno = res;
532                 goto error_gpool_free;
533         }
534
535         /* populate AURA fields */
536         res = octeontx_fpapf_aura_attach(gpool);
537         if (res < 0) {
538                 errno = res;
539                 goto error_pool_destroy;
540         }
541
542         /* vf pool setup */
543         memsz = object_size * object_count;
544         memva = *va_start;
545         res = octeontx_fpavf_pool_setup(pool_bar, memsz, memva, gpool);
546         if (res < 0) {
547                 errno = res;
548                 goto error_gaura_detach;
549         }
550
551         /* Release lock */
552         rte_spinlock_unlock(&fpadev.lock);
553
554         /* populate AURA registers */
555         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
556                          FPA_VF_VHAURA_CNT(gpool)));
557         fpavf_write64(object_count, (void *)((uintptr_t)pool_bar +
558                          FPA_VF_VHAURA_CNT_LIMIT(gpool)));
559         fpavf_write64(object_count + 1, (void *)((uintptr_t)pool_bar +
560                          FPA_VF_VHAURA_CNT_THRESHOLD(gpool)));
561
562         octeontx_fpapf_start_count(gpool);
563
564         return gpool_handle;
565
566 error_gaura_detach:
567         (void) octeontx_fpapf_aura_detach(gpool);
568 error_pool_destroy:
569         octeontx_fpavf_free(gpool);
570         octeontx_fpapf_pool_destroy(gpool);
571 error_gpool_free:
572         octeontx_gpool_free(gpool);
573 error_unlock:
574         rte_spinlock_unlock(&fpadev.lock);
575 error_end:
576         return (uintptr_t)NULL;
577 }
578
579 /*
580  * Destroy a buffer pool.
581  */
582 int
583 octeontx_fpa_bufpool_destroy(uintptr_t handle, int node_id)
584 {
585         void **node, **curr, *head = NULL;
586         uint64_t sz;
587         uint64_t cnt, avail;
588         uint8_t gpool;
589         uintptr_t pool_bar;
590         int ret;
591
592         RTE_SET_USED(node_id);
593
594         /* Wait for all outstanding writes to be committed */
595         rte_smp_wmb();
596
597         if (unlikely(!octeontx_fpa_handle_valid(handle)))
598                 return -EINVAL;
599
600         /* get the pool */
601         gpool = octeontx_fpa_bufpool_gpool(handle);
602
603         /* Get pool bar address from handle */
604         pool_bar = handle & ~(uint64_t)FPA_GPOOL_MASK;
605
606          /* Check for no outstanding buffers */
607         cnt = fpavf_read64((void *)((uintptr_t)pool_bar +
608                                         FPA_VF_VHAURA_CNT(gpool)));
609         if (cnt) {
610                 fpavf_log_dbg("buffer exist in pool cnt %" PRId64 "\n", cnt);
611                 return -EBUSY;
612         }
613
614         rte_spinlock_lock(&fpadev.lock);
615
616         avail = fpavf_read64((void *)((uintptr_t)pool_bar +
617                                 FPA_VF_VHPOOL_AVAILABLE(gpool)));
618
619         /* Prepare to empty the entire POOL */
620         fpavf_write64(avail, (void *)((uintptr_t)pool_bar +
621                          FPA_VF_VHAURA_CNT_LIMIT(gpool)));
622         fpavf_write64(avail + 1, (void *)((uintptr_t)pool_bar +
623                          FPA_VF_VHAURA_CNT_THRESHOLD(gpool)));
624
625         /* Empty the pool */
626         /* Invalidate the POOL */
627         octeontx_gpool_free(gpool);
628
629         /* Process all buffers in the pool */
630         while (avail--) {
631
632                 /* Yank a buffer from the pool */
633                 node = (void *)(uintptr_t)
634                         fpavf_read64((void *)
635                                     (pool_bar + FPA_VF_VHAURA_OP_ALLOC(gpool)));
636
637                 if (node == NULL) {
638                         fpavf_log_err("GAURA[%u] missing %" PRIx64 " buf\n",
639                                       gpool, avail);
640                         break;
641                 }
642
643                 /* Imsert it into an ordered linked list */
644                 for (curr = &head; curr[0] != NULL; curr = curr[0]) {
645                         if ((uintptr_t)node <= (uintptr_t)curr[0])
646                                 break;
647                 }
648                 node[0] = curr[0];
649                 curr[0] = node;
650         }
651
652         /* Verify the linked list to be a perfect series */
653         sz = octeontx_fpa_bufpool_block_size(handle) << 7;
654         for (curr = head; curr != NULL && curr[0] != NULL;
655                 curr = curr[0]) {
656                 if (curr == curr[0] ||
657                         ((uintptr_t)curr != ((uintptr_t)curr[0] - sz))) {
658                         fpavf_log_err("POOL# %u buf sequence err (%p vs. %p)\n",
659                                       gpool, curr, curr[0]);
660                 }
661         }
662
663         /* Disable pool operation */
664         fpavf_write64(~0ul, (void *)((uintptr_t)pool_bar +
665                          FPA_VF_VHPOOL_START_ADDR(gpool)));
666         fpavf_write64(~0ul, (void *)((uintptr_t)pool_bar +
667                         FPA_VF_VHPOOL_END_ADDR(gpool)));
668
669         (void)octeontx_fpapf_pool_destroy(gpool);
670
671         /* Deactivate the AURA */
672         fpavf_write64(0, (void *)((uintptr_t)pool_bar +
673                         FPA_VF_VHAURA_CNT_LIMIT(gpool)));
674         fpavf_write64(0, (void *)((uintptr_t)pool_bar +
675                         FPA_VF_VHAURA_CNT_THRESHOLD(gpool)));
676
677         ret = octeontx_fpapf_aura_detach(gpool);
678         if (ret) {
679                 fpavf_log_err("Failed to dettach gaura %u. error code=%d\n",
680                               gpool, ret);
681         }
682
683         /* Free VF */
684         (void)octeontx_fpavf_free(gpool);
685
686         rte_spinlock_unlock(&fpadev.lock);
687         return 0;
688 }
689
690 static void
691 octeontx_fpavf_setup(void)
692 {
693         uint8_t i;
694         static bool init_once;
695
696         if (!init_once) {
697                 rte_spinlock_init(&fpadev.lock);
698                 fpadev.total_gpool_cnt = 0;
699
700                 for (i = 0; i < FPA_VF_MAX; i++) {
701
702                         fpadev.pool[i].domain_id = ~0;
703                         fpadev.pool[i].stack_ln_ptr = 0;
704                         fpadev.pool[i].sz128 = 0;
705                         fpadev.pool[i].bar0 = NULL;
706                         fpadev.pool[i].pool_stack_base = NULL;
707                         fpadev.pool[i].is_inuse = false;
708                 }
709                 init_once = 1;
710         }
711 }
712
713 static int
714 octeontx_fpavf_identify(void *bar0)
715 {
716         uint64_t val;
717         uint16_t domain_id;
718         uint16_t vf_id;
719         uint64_t stack_ln_ptr;
720
721         val = fpavf_read64((void *)((uintptr_t)bar0 +
722                                 FPA_VF_VHAURA_CNT_THRESHOLD(0)));
723
724         domain_id = (val >> 8) & 0xffff;
725         vf_id = (val >> 24) & 0xffff;
726
727         stack_ln_ptr = fpavf_read64((void *)((uintptr_t)bar0 +
728                                         FPA_VF_VHPOOL_THRESHOLD(0)));
729         if (vf_id >= FPA_VF_MAX) {
730                 fpavf_log_err("vf_id(%d) greater than max vf (32)\n", vf_id);
731                 return -1;
732         }
733
734         if (fpadev.pool[vf_id].is_inuse) {
735                 fpavf_log_err("vf_id %d is_inuse\n", vf_id);
736                 return -1;
737         }
738
739         fpadev.pool[vf_id].domain_id = domain_id;
740         fpadev.pool[vf_id].vf_id = vf_id;
741         fpadev.pool[vf_id].bar0 = bar0;
742         fpadev.pool[vf_id].stack_ln_ptr = stack_ln_ptr;
743
744         /* SUCCESS */
745         return vf_id;
746 }
747
748 /* FPAVF pcie device aka mempool probe */
749 static int
750 fpavf_probe(struct rte_pci_driver *pci_drv, struct rte_pci_device *pci_dev)
751 {
752         uint8_t *idreg;
753         int res;
754         struct fpavf_res *fpa = NULL;
755
756         RTE_SET_USED(pci_drv);
757         RTE_SET_USED(fpa);
758
759         /* For secondary processes, the primary has done all the work */
760         if (rte_eal_process_type() != RTE_PROC_PRIMARY)
761                 return 0;
762
763         if (pci_dev->mem_resource[0].addr == NULL) {
764                 fpavf_log_err("Empty bars %p ", pci_dev->mem_resource[0].addr);
765                 return -ENODEV;
766         }
767         idreg = pci_dev->mem_resource[0].addr;
768
769         octeontx_fpavf_setup();
770
771         res = octeontx_fpavf_identify(idreg);
772         if (res < 0)
773                 return -1;
774
775         fpa = &fpadev.pool[res];
776         fpadev.total_gpool_cnt++;
777         rte_wmb();
778
779         fpavf_log_dbg("total_fpavfs %d bar0 %p domain %d vf %d stk_ln_ptr 0x%x",
780                        fpadev.total_gpool_cnt, fpa->bar0, fpa->domain_id,
781                        fpa->vf_id, (unsigned int)fpa->stack_ln_ptr);
782
783         return 0;
784 }
785
786 static const struct rte_pci_id pci_fpavf_map[] = {
787         {
788                 RTE_PCI_DEVICE(PCI_VENDOR_ID_CAVIUM,
789                                 PCI_DEVICE_ID_OCTEONTX_FPA_VF)
790         },
791         {
792                 .vendor_id = 0,
793         },
794 };
795
796 static struct rte_pci_driver pci_fpavf = {
797         .id_table = pci_fpavf_map,
798         .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_IOVA_AS_VA,
799         .probe = fpavf_probe,
800 };
801
802 RTE_PMD_REGISTER_PCI(octeontx_fpavf, pci_fpavf);