60c51d80e64f8be0a716b4919f854ccce6e2bec1
[dpdk.git] / drivers / bus / fslmc / fslmc_vfio.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  *
3  *   Copyright (c) 2015-2016 Freescale Semiconductor, Inc. All rights reserved.
4  *   Copyright 2016-2019 NXP
5  *
6  */
7
8 #include <unistd.h>
9 #include <stdio.h>
10 #include <sys/types.h>
11 #include <string.h>
12 #include <stdlib.h>
13 #include <fcntl.h>
14 #include <errno.h>
15 #include <sys/ioctl.h>
16 #include <sys/stat.h>
17 #include <sys/mman.h>
18 #include <sys/vfs.h>
19 #include <libgen.h>
20 #include <dirent.h>
21 #include <sys/eventfd.h>
22
23 #include <eal_filesystem.h>
24 #include <rte_mbuf.h>
25 #include <rte_ethdev_driver.h>
26 #include <rte_malloc.h>
27 #include <rte_memcpy.h>
28 #include <rte_string_fns.h>
29 #include <rte_cycles.h>
30 #include <rte_kvargs.h>
31 #include <rte_dev.h>
32 #include <rte_bus.h>
33 #include <rte_eal_memconfig.h>
34
35 #include "rte_fslmc.h"
36 #include "fslmc_vfio.h"
37 #include "fslmc_logs.h"
38 #include <mc/fsl_dpmng.h>
39
40 #include "portal/dpaa2_hw_pvt.h"
41 #include "portal/dpaa2_hw_dpio.h"
42
43 /** Pathname of FSL-MC devices directory. */
44 #define SYSFS_FSL_MC_DEVICES "/sys/bus/fsl-mc/devices"
45
46 #define FSLMC_CONTAINER_MAX_LEN 8 /**< Of the format dprc.XX */
47
48 /* Number of VFIO containers & groups with in */
49 static struct fslmc_vfio_group vfio_group;
50 static struct fslmc_vfio_container vfio_container;
51 static int container_device_fd;
52 static char *fslmc_container;
53 static int fslmc_iommu_type;
54 static uint32_t *msi_intr_vaddr;
55 void *(*rte_mcp_ptr_list);
56
57 static struct rte_dpaa2_object_list dpaa2_obj_list =
58         TAILQ_HEAD_INITIALIZER(dpaa2_obj_list);
59
60 /*register a fslmc bus based dpaa2 driver */
61 void
62 rte_fslmc_object_register(struct rte_dpaa2_object *object)
63 {
64         RTE_VERIFY(object);
65
66         TAILQ_INSERT_TAIL(&dpaa2_obj_list, object, next);
67 }
68
69 int
70 fslmc_get_container_group(int *groupid)
71 {
72         int ret;
73         char *container;
74
75         if (!fslmc_container) {
76                 container = getenv("DPRC");
77                 if (container == NULL) {
78                         DPAA2_BUS_DEBUG("DPAA2: DPRC not available");
79                         return -EINVAL;
80                 }
81
82                 if (strlen(container) >= FSLMC_CONTAINER_MAX_LEN) {
83                         DPAA2_BUS_ERR("Invalid container name: %s", container);
84                         return -1;
85                 }
86
87                 fslmc_container = strdup(container);
88                 if (!fslmc_container) {
89                         DPAA2_BUS_ERR("Mem alloc failure; Container name");
90                         return -ENOMEM;
91                 }
92         }
93
94         fslmc_iommu_type = (rte_vfio_noiommu_is_enabled() == 1) ?
95                 RTE_VFIO_NOIOMMU : VFIO_TYPE1_IOMMU;
96
97         /* get group number */
98         ret = rte_vfio_get_group_num(SYSFS_FSL_MC_DEVICES,
99                                      fslmc_container, groupid);
100         if (ret <= 0) {
101                 DPAA2_BUS_ERR("Unable to find %s IOMMU group", fslmc_container);
102                 return -1;
103         }
104
105         DPAA2_BUS_DEBUG("Container: %s has VFIO iommu group id = %d",
106                         fslmc_container, *groupid);
107
108         return 0;
109 }
110
111 static int
112 vfio_connect_container(void)
113 {
114         int fd, ret;
115
116         if (vfio_container.used) {
117                 DPAA2_BUS_DEBUG("No container available");
118                 return -1;
119         }
120
121         /* Try connecting to vfio container if already created */
122         if (!ioctl(vfio_group.fd, VFIO_GROUP_SET_CONTAINER,
123                 &vfio_container.fd)) {
124                 DPAA2_BUS_DEBUG(
125                     "Container pre-exists with FD[0x%x] for this group",
126                     vfio_container.fd);
127                 vfio_group.container = &vfio_container;
128                 return 0;
129         }
130
131         /* Opens main vfio file descriptor which represents the "container" */
132         fd = rte_vfio_get_container_fd();
133         if (fd < 0) {
134                 DPAA2_BUS_ERR("Failed to open VFIO container");
135                 return -errno;
136         }
137
138         /* Check whether support for SMMU type IOMMU present or not */
139         if (ioctl(fd, VFIO_CHECK_EXTENSION, fslmc_iommu_type)) {
140                 /* Connect group to container */
141                 ret = ioctl(vfio_group.fd, VFIO_GROUP_SET_CONTAINER, &fd);
142                 if (ret) {
143                         DPAA2_BUS_ERR("Failed to setup group container");
144                         close(fd);
145                         return -errno;
146                 }
147
148                 ret = ioctl(fd, VFIO_SET_IOMMU, fslmc_iommu_type);
149                 if (ret) {
150                         DPAA2_BUS_ERR("Failed to setup VFIO iommu");
151                         close(fd);
152                         return -errno;
153                 }
154         } else {
155                 DPAA2_BUS_ERR("No supported IOMMU available");
156                 close(fd);
157                 return -EINVAL;
158         }
159
160         vfio_container.used = 1;
161         vfio_container.fd = fd;
162         vfio_container.group = &vfio_group;
163         vfio_group.container = &vfio_container;
164
165         return 0;
166 }
167
168 static int vfio_map_irq_region(struct fslmc_vfio_group *group)
169 {
170         int ret;
171         unsigned long *vaddr = NULL;
172         struct vfio_iommu_type1_dma_map map = {
173                 .argsz = sizeof(map),
174                 .flags = VFIO_DMA_MAP_FLAG_READ | VFIO_DMA_MAP_FLAG_WRITE,
175                 .vaddr = 0x6030000,
176                 .iova = 0x6030000,
177                 .size = 0x1000,
178         };
179
180         vaddr = (unsigned long *)mmap(NULL, 0x1000, PROT_WRITE |
181                 PROT_READ, MAP_SHARED, container_device_fd, 0x6030000);
182         if (vaddr == MAP_FAILED) {
183                 DPAA2_BUS_INFO("Unable to map region (errno = %d)", errno);
184                 return -errno;
185         }
186
187         msi_intr_vaddr = (uint32_t *)((char *)(vaddr) + 64);
188         map.vaddr = (unsigned long)vaddr;
189         ret = ioctl(group->container->fd, VFIO_IOMMU_MAP_DMA, &map);
190         if (ret == 0)
191                 return 0;
192
193         DPAA2_BUS_ERR("Unable to map DMA address (errno = %d)", errno);
194         return -errno;
195 }
196
197 static int fslmc_map_dma(uint64_t vaddr, rte_iova_t iovaddr, size_t len);
198 static int fslmc_unmap_dma(uint64_t vaddr, rte_iova_t iovaddr, size_t len);
199
200 static void
201 fslmc_memevent_cb(enum rte_mem_event type, const void *addr, size_t len,
202                 void *arg __rte_unused)
203 {
204         struct rte_memseg_list *msl;
205         struct rte_memseg *ms;
206         size_t cur_len = 0, map_len = 0;
207         uint64_t virt_addr;
208         rte_iova_t iova_addr;
209         int ret;
210
211         msl = rte_mem_virt2memseg_list(addr);
212
213         while (cur_len < len) {
214                 const void *va = RTE_PTR_ADD(addr, cur_len);
215
216                 ms = rte_mem_virt2memseg(va, msl);
217                 iova_addr = ms->iova;
218                 virt_addr = ms->addr_64;
219                 map_len = ms->len;
220
221                 DPAA2_BUS_DEBUG("Request for %s, va=%p, "
222                                 "virt_addr=0x%" PRIx64 ", "
223                                 "iova=0x%" PRIx64 ", map_len=%zu",
224                                 type == RTE_MEM_EVENT_ALLOC ?
225                                         "alloc" : "dealloc",
226                                 va, virt_addr, iova_addr, map_len);
227
228                 /* iova_addr may be set to RTE_BAD_IOVA */
229                 if (iova_addr == RTE_BAD_IOVA) {
230                         DPAA2_BUS_DEBUG("Segment has invalid iova, skipping\n");
231                         cur_len += map_len;
232                         continue;
233                 }
234
235                 if (type == RTE_MEM_EVENT_ALLOC)
236                         ret = fslmc_map_dma(virt_addr, iova_addr, map_len);
237                 else
238                         ret = fslmc_unmap_dma(virt_addr, iova_addr, map_len);
239
240                 if (ret != 0) {
241                         DPAA2_BUS_ERR("DMA Mapping/Unmapping failed. "
242                                         "Map=%d, addr=%p, len=%zu, err:(%d)",
243                                         type, va, map_len, ret);
244                         return;
245                 }
246
247                 cur_len += map_len;
248         }
249
250         if (type == RTE_MEM_EVENT_ALLOC)
251                 DPAA2_BUS_DEBUG("Total Mapped: addr=%p, len=%zu",
252                                 addr, len);
253         else
254                 DPAA2_BUS_DEBUG("Total Unmapped: addr=%p, len=%zu",
255                                 addr, len);
256 }
257
258 static int
259 fslmc_map_dma(uint64_t vaddr, rte_iova_t iovaddr __rte_unused, size_t len)
260 {
261         struct fslmc_vfio_group *group;
262         struct vfio_iommu_type1_dma_map dma_map = {
263                 .argsz = sizeof(struct vfio_iommu_type1_dma_map),
264                 .flags = VFIO_DMA_MAP_FLAG_READ | VFIO_DMA_MAP_FLAG_WRITE,
265         };
266         int ret;
267
268         if (fslmc_iommu_type == RTE_VFIO_NOIOMMU) {
269                 DPAA2_BUS_DEBUG("Running in NOIOMMU mode");
270                 return 0;
271         }
272
273         dma_map.size = len;
274         dma_map.vaddr = vaddr;
275
276 #ifdef RTE_LIBRTE_DPAA2_USE_PHYS_IOVA
277         dma_map.iova = iovaddr;
278 #else
279         dma_map.iova = dma_map.vaddr;
280 #endif
281
282         /* SET DMA MAP for IOMMU */
283         group = &vfio_group;
284
285         if (!group->container) {
286                 DPAA2_BUS_ERR("Container is not connected ");
287                 return -1;
288         }
289
290         DPAA2_BUS_DEBUG("--> Map address: 0x%"PRIx64", size: %"PRIu64"",
291                         (uint64_t)dma_map.vaddr, (uint64_t)dma_map.size);
292         ret = ioctl(group->container->fd, VFIO_IOMMU_MAP_DMA, &dma_map);
293         if (ret) {
294                 DPAA2_BUS_ERR("VFIO_IOMMU_MAP_DMA API(errno = %d)",
295                                 errno);
296                 return -1;
297         }
298
299         return 0;
300 }
301
302 static int
303 fslmc_unmap_dma(uint64_t vaddr, uint64_t iovaddr __rte_unused, size_t len)
304 {
305         struct fslmc_vfio_group *group;
306         struct vfio_iommu_type1_dma_unmap dma_unmap = {
307                 .argsz = sizeof(struct vfio_iommu_type1_dma_unmap),
308                 .flags = 0,
309         };
310         int ret;
311
312         if (fslmc_iommu_type == RTE_VFIO_NOIOMMU) {
313                 DPAA2_BUS_DEBUG("Running in NOIOMMU mode");
314                 return 0;
315         }
316
317         dma_unmap.size = len;
318         dma_unmap.iova = vaddr;
319
320         /* SET DMA MAP for IOMMU */
321         group = &vfio_group;
322
323         if (!group->container) {
324                 DPAA2_BUS_ERR("Container is not connected ");
325                 return -1;
326         }
327
328         DPAA2_BUS_DEBUG("--> Unmap address: 0x%"PRIx64", size: %"PRIu64"",
329                         (uint64_t)dma_unmap.iova, (uint64_t)dma_unmap.size);
330         ret = ioctl(group->container->fd, VFIO_IOMMU_UNMAP_DMA, &dma_unmap);
331         if (ret) {
332                 DPAA2_BUS_ERR("VFIO_IOMMU_UNMAP_DMA API(errno = %d)",
333                                 errno);
334                 return -1;
335         }
336
337         return 0;
338 }
339
340 static int
341 fslmc_dmamap_seg(const struct rte_memseg_list *msl __rte_unused,
342                 const struct rte_memseg *ms, void *arg)
343 {
344         int *n_segs = arg;
345         int ret;
346
347         /* if IOVA address is invalid, skip */
348         if (ms->iova == RTE_BAD_IOVA)
349                 return 0;
350
351         ret = fslmc_map_dma(ms->addr_64, ms->iova, ms->len);
352         if (ret)
353                 DPAA2_BUS_ERR("Unable to VFIO map (addr=%p, len=%zu)",
354                                 ms->addr, ms->len);
355         else
356                 (*n_segs)++;
357
358         return ret;
359 }
360
361 int
362 rte_fslmc_vfio_mem_dmamap(uint64_t vaddr, uint64_t iova, uint64_t size)
363 {
364         int ret;
365         struct fslmc_vfio_group *group;
366         struct vfio_iommu_type1_dma_map dma_map = {
367                 .argsz = sizeof(struct vfio_iommu_type1_dma_map),
368                 .flags = VFIO_DMA_MAP_FLAG_READ | VFIO_DMA_MAP_FLAG_WRITE,
369         };
370
371         if (fslmc_iommu_type == RTE_VFIO_NOIOMMU) {
372                 DPAA2_BUS_DEBUG("Running in NOIOMMU mode");
373                 return 0;
374         }
375
376         /* SET DMA MAP for IOMMU */
377         group = &vfio_group;
378         if (!group->container) {
379                 DPAA2_BUS_ERR("Container is not connected");
380                 return -1;
381         }
382
383         dma_map.size = size;
384         dma_map.vaddr = vaddr;
385         dma_map.iova = iova;
386
387         DPAA2_BUS_DEBUG("VFIOdmamap 0x%"PRIx64":0x%"PRIx64",size 0x%"PRIx64"\n",
388                         (uint64_t)dma_map.vaddr, (uint64_t)dma_map.iova,
389                         (uint64_t)dma_map.size);
390         ret = ioctl(group->container->fd, VFIO_IOMMU_MAP_DMA,
391                     &dma_map);
392         if (ret) {
393                 printf("Unable to map DMA address (errno = %d)\n",
394                         errno);
395                 return ret;
396         }
397
398         return 0;
399 }
400
401 int rte_fslmc_vfio_dmamap(void)
402 {
403         int i = 0, ret;
404
405         /* Lock before parsing and registering callback to memory subsystem */
406         rte_mcfg_mem_read_lock();
407
408         if (rte_memseg_walk(fslmc_dmamap_seg, &i) < 0) {
409                 rte_mcfg_mem_read_unlock();
410                 return -1;
411         }
412
413         ret = rte_mem_event_callback_register("fslmc_memevent_clb",
414                         fslmc_memevent_cb, NULL);
415         if (ret && rte_errno == ENOTSUP)
416                 DPAA2_BUS_DEBUG("Memory event callbacks not supported");
417         else if (ret)
418                 DPAA2_BUS_DEBUG("Unable to install memory handler");
419         else
420                 DPAA2_BUS_DEBUG("Installed memory callback handler");
421
422         DPAA2_BUS_DEBUG("Total %d segments found.", i);
423
424         /* TODO - This is a W.A. as VFIO currently does not add the mapping of
425          * the interrupt region to SMMU. This should be removed once the
426          * support is added in the Kernel.
427          */
428         vfio_map_irq_region(&vfio_group);
429
430         /* Existing segments have been mapped and memory callback for hotplug
431          * has been installed.
432          */
433         rte_mcfg_mem_read_unlock();
434
435         return 0;
436 }
437
438 static int64_t vfio_map_mcp_obj(struct fslmc_vfio_group *group, char *mcp_obj)
439 {
440         intptr_t v_addr = (intptr_t)MAP_FAILED;
441         int32_t ret, mc_fd;
442
443         struct vfio_device_info d_info = { .argsz = sizeof(d_info) };
444         struct vfio_region_info reg_info = { .argsz = sizeof(reg_info) };
445
446         /* getting the mcp object's fd*/
447         mc_fd = ioctl(group->fd, VFIO_GROUP_GET_DEVICE_FD, mcp_obj);
448         if (mc_fd < 0) {
449                 DPAA2_BUS_ERR("Error in VFIO get dev %s fd from group %d",
450                               mcp_obj, group->fd);
451                 return v_addr;
452         }
453
454         /* getting device info*/
455         ret = ioctl(mc_fd, VFIO_DEVICE_GET_INFO, &d_info);
456         if (ret < 0) {
457                 DPAA2_BUS_ERR("Error in VFIO getting DEVICE_INFO");
458                 goto MC_FAILURE;
459         }
460
461         /* getting device region info*/
462         ret = ioctl(mc_fd, VFIO_DEVICE_GET_REGION_INFO, &reg_info);
463         if (ret < 0) {
464                 DPAA2_BUS_ERR("Error in VFIO getting REGION_INFO");
465                 goto MC_FAILURE;
466         }
467
468         v_addr = (size_t)mmap(NULL, reg_info.size,
469                 PROT_WRITE | PROT_READ, MAP_SHARED,
470                 mc_fd, reg_info.offset);
471
472 MC_FAILURE:
473         close(mc_fd);
474
475         return v_addr;
476 }
477
478 #define IRQ_SET_BUF_LEN  (sizeof(struct vfio_irq_set) + sizeof(int))
479
480 int rte_dpaa2_intr_enable(struct rte_intr_handle *intr_handle, int index)
481 {
482         int len, ret;
483         char irq_set_buf[IRQ_SET_BUF_LEN];
484         struct vfio_irq_set *irq_set;
485         int *fd_ptr;
486
487         len = sizeof(irq_set_buf);
488
489         irq_set = (struct vfio_irq_set *)irq_set_buf;
490         irq_set->argsz = len;
491         irq_set->count = 1;
492         irq_set->flags =
493                 VFIO_IRQ_SET_DATA_EVENTFD | VFIO_IRQ_SET_ACTION_TRIGGER;
494         irq_set->index = index;
495         irq_set->start = 0;
496         fd_ptr = (int *)&irq_set->data;
497         *fd_ptr = intr_handle->fd;
498
499         ret = ioctl(intr_handle->vfio_dev_fd, VFIO_DEVICE_SET_IRQS, irq_set);
500         if (ret) {
501                 DPAA2_BUS_ERR("Error:dpaa2 SET IRQs fd=%d, err = %d(%s)",
502                               intr_handle->fd, errno, strerror(errno));
503                 return ret;
504         }
505
506         return ret;
507 }
508
509 int rte_dpaa2_intr_disable(struct rte_intr_handle *intr_handle, int index)
510 {
511         struct vfio_irq_set *irq_set;
512         char irq_set_buf[IRQ_SET_BUF_LEN];
513         int len, ret;
514
515         len = sizeof(struct vfio_irq_set);
516
517         irq_set = (struct vfio_irq_set *)irq_set_buf;
518         irq_set->argsz = len;
519         irq_set->flags = VFIO_IRQ_SET_DATA_NONE | VFIO_IRQ_SET_ACTION_TRIGGER;
520         irq_set->index = index;
521         irq_set->start = 0;
522         irq_set->count = 0;
523
524         ret = ioctl(intr_handle->vfio_dev_fd, VFIO_DEVICE_SET_IRQS, irq_set);
525         if (ret)
526                 DPAA2_BUS_ERR(
527                         "Error disabling dpaa2 interrupts for fd %d",
528                         intr_handle->fd);
529
530         return ret;
531 }
532
533 /* set up interrupt support (but not enable interrupts) */
534 int
535 rte_dpaa2_vfio_setup_intr(struct rte_intr_handle *intr_handle,
536                           int vfio_dev_fd,
537                           int num_irqs)
538 {
539         int i, ret;
540
541         /* start from MSI-X interrupt type */
542         for (i = 0; i < num_irqs; i++) {
543                 struct vfio_irq_info irq_info = { .argsz = sizeof(irq_info) };
544                 int fd = -1;
545
546                 irq_info.index = i;
547
548                 ret = ioctl(vfio_dev_fd, VFIO_DEVICE_GET_IRQ_INFO, &irq_info);
549                 if (ret < 0) {
550                         DPAA2_BUS_ERR("Cannot get IRQ(%d) info, error %i (%s)",
551                                       i, errno, strerror(errno));
552                         return -1;
553                 }
554
555                 /* if this vector cannot be used with eventfd,
556                  * fail if we explicitly
557                  * specified interrupt type, otherwise continue
558                  */
559                 if ((irq_info.flags & VFIO_IRQ_INFO_EVENTFD) == 0)
560                         continue;
561
562                 /* set up an eventfd for interrupts */
563                 fd = eventfd(0, EFD_NONBLOCK | EFD_CLOEXEC);
564                 if (fd < 0) {
565                         DPAA2_BUS_ERR("Cannot set up eventfd, error %i (%s)",
566                                       errno, strerror(errno));
567                         return -1;
568                 }
569
570                 intr_handle->fd = fd;
571                 intr_handle->type = RTE_INTR_HANDLE_VFIO_MSI;
572                 intr_handle->vfio_dev_fd = vfio_dev_fd;
573
574                 return 0;
575         }
576
577         /* if we're here, we haven't found a suitable interrupt vector */
578         return -1;
579 }
580
581 /*
582  * fslmc_process_iodevices for processing only IO (ETH, CRYPTO, and possibly
583  * EVENT) devices.
584  */
585 static int
586 fslmc_process_iodevices(struct rte_dpaa2_device *dev)
587 {
588         int dev_fd;
589         struct vfio_device_info device_info = { .argsz = sizeof(device_info) };
590         struct rte_dpaa2_object *object = NULL;
591
592         dev_fd = ioctl(vfio_group.fd, VFIO_GROUP_GET_DEVICE_FD,
593                        dev->device.name);
594         if (dev_fd <= 0) {
595                 DPAA2_BUS_ERR("Unable to obtain device FD for device:%s",
596                               dev->device.name);
597                 return -1;
598         }
599
600         if (ioctl(dev_fd, VFIO_DEVICE_GET_INFO, &device_info)) {
601                 DPAA2_BUS_ERR("Unable to obtain information for device:%s",
602                               dev->device.name);
603                 return -1;
604         }
605
606         switch (dev->dev_type) {
607         case DPAA2_ETH:
608                 rte_dpaa2_vfio_setup_intr(&dev->intr_handle, dev_fd,
609                                           device_info.num_irqs);
610                 break;
611         case DPAA2_CON:
612         case DPAA2_IO:
613         case DPAA2_CI:
614         case DPAA2_BPOOL:
615         case DPAA2_DPRTC:
616         case DPAA2_MUX:
617                 TAILQ_FOREACH(object, &dpaa2_obj_list, next) {
618                         if (dev->dev_type == object->dev_type)
619                                 object->create(dev_fd, &device_info,
620                                                dev->object_id);
621                         else
622                                 continue;
623                 }
624                 break;
625         default:
626                 break;
627         }
628
629         DPAA2_BUS_LOG(DEBUG, "Device (%s) abstracted from VFIO",
630                       dev->device.name);
631         return 0;
632 }
633
634 static int
635 fslmc_process_mcp(struct rte_dpaa2_device *dev)
636 {
637         int ret;
638         intptr_t v_addr;
639         char *dev_name = NULL;
640         struct fsl_mc_io dpmng  = {0};
641         struct mc_version mc_ver_info = {0};
642
643         rte_mcp_ptr_list = malloc(sizeof(void *) * 1);
644         if (!rte_mcp_ptr_list) {
645                 DPAA2_BUS_ERR("Unable to allocate MC portal memory");
646                 ret = -ENOMEM;
647                 goto cleanup;
648         }
649
650         dev_name = strdup(dev->device.name);
651         if (!dev_name) {
652                 DPAA2_BUS_ERR("Unable to allocate MC device name memory");
653                 ret = -ENOMEM;
654                 goto cleanup;
655         }
656
657         v_addr = vfio_map_mcp_obj(&vfio_group, dev_name);
658         if (v_addr == (intptr_t)MAP_FAILED) {
659                 DPAA2_BUS_ERR("Error mapping region (errno = %d)", errno);
660                 ret = -1;
661                 goto cleanup;
662         }
663
664         /* check the MC version compatibility */
665         dpmng.regs = (void *)v_addr;
666
667         /* In case of secondary processes, MC version check is no longer
668          * required.
669          */
670         if (rte_eal_process_type() == RTE_PROC_SECONDARY) {
671                 rte_mcp_ptr_list[0] = (void *)v_addr;
672                 return 0;
673         }
674
675         if (mc_get_version(&dpmng, CMD_PRI_LOW, &mc_ver_info)) {
676                 DPAA2_BUS_ERR("Unable to obtain MC version");
677                 ret = -1;
678                 goto cleanup;
679         }
680
681         if ((mc_ver_info.major != MC_VER_MAJOR) ||
682             (mc_ver_info.minor < MC_VER_MINOR)) {
683                 DPAA2_BUS_ERR("DPAA2 MC version not compatible!"
684                               " Expected %d.%d.x, Detected %d.%d.%d",
685                               MC_VER_MAJOR, MC_VER_MINOR,
686                               mc_ver_info.major, mc_ver_info.minor,
687                               mc_ver_info.revision);
688                 ret = -1;
689                 goto cleanup;
690         }
691         rte_mcp_ptr_list[0] = (void *)v_addr;
692
693         free(dev_name);
694         return 0;
695
696 cleanup:
697         if (dev_name)
698                 free(dev_name);
699
700         if (rte_mcp_ptr_list) {
701                 free(rte_mcp_ptr_list);
702                 rte_mcp_ptr_list = NULL;
703         }
704
705         return ret;
706 }
707
708 int
709 fslmc_vfio_process_group(void)
710 {
711         int ret;
712         int found_mportal = 0;
713         struct rte_dpaa2_device *dev, *dev_temp;
714
715         /* Search the MCP as that should be initialized first. */
716         TAILQ_FOREACH_SAFE(dev, &rte_fslmc_bus.device_list, next, dev_temp) {
717                 if (dev->dev_type == DPAA2_MPORTAL) {
718                         if (dev->device.devargs &&
719                             dev->device.devargs->policy == RTE_DEV_BLACKLISTED) {
720                                 DPAA2_BUS_LOG(DEBUG, "%s Blacklisted, skipping",
721                                               dev->device.name);
722                                 TAILQ_REMOVE(&rte_fslmc_bus.device_list,
723                                                 dev, next);
724                                 continue;
725                         }
726
727                         ret = fslmc_process_mcp(dev);
728                         if (ret) {
729                                 DPAA2_BUS_ERR("Unable to map MC Portal");
730                                 return -1;
731                         }
732                         if (!found_mportal)
733                                 found_mportal = 1;
734
735                         TAILQ_REMOVE(&rte_fslmc_bus.device_list, dev, next);
736                         free(dev);
737                         dev = NULL;
738                         /* Ideally there is only a single dpmcp, but in case
739                          * multiple exists, looping on remaining devices.
740                          */
741                 }
742         }
743
744         /* Cannot continue if there is not even a single mportal */
745         if (!found_mportal) {
746                 DPAA2_BUS_ERR("No MC Portal device found. Not continuing");
747                 return -1;
748         }
749
750         TAILQ_FOREACH_SAFE(dev, &rte_fslmc_bus.device_list, next, dev_temp) {
751                 if (dev->device.devargs &&
752                     dev->device.devargs->policy == RTE_DEV_BLACKLISTED) {
753                         DPAA2_BUS_LOG(DEBUG, "%s Blacklisted, skipping",
754                                       dev->device.name);
755                         TAILQ_REMOVE(&rte_fslmc_bus.device_list, dev, next);
756                         continue;
757                 }
758                 switch (dev->dev_type) {
759                 case DPAA2_ETH:
760                 case DPAA2_CRYPTO:
761                 case DPAA2_QDMA:
762                         ret = fslmc_process_iodevices(dev);
763                         if (ret) {
764                                 DPAA2_BUS_DEBUG("Dev (%s) init failed",
765                                                 dev->device.name);
766                                 return ret;
767                         }
768                         break;
769                 case DPAA2_CON:
770                 case DPAA2_CI:
771                 case DPAA2_BPOOL:
772                 case DPAA2_DPRTC:
773                 case DPAA2_MUX:
774                         /* IN case of secondary processes, all control objects
775                          * like dpbp, dpcon, dpci are not initialized/required
776                          * - all of these are assumed to be initialized and made
777                          *   available by primary.
778                          */
779                         if (rte_eal_process_type() == RTE_PROC_SECONDARY)
780                                 continue;
781
782                         /* Call the object creation routine and remove the
783                          * device entry from device list
784                          */
785                         ret = fslmc_process_iodevices(dev);
786                         if (ret) {
787                                 DPAA2_BUS_DEBUG("Dev (%s) init failed",
788                                                 dev->device.name);
789                                 return -1;
790                         }
791
792                         break;
793                 case DPAA2_IO:
794                         ret = fslmc_process_iodevices(dev);
795                         if (ret) {
796                                 DPAA2_BUS_DEBUG("Dev (%s) init failed",
797                                                 dev->device.name);
798                                 return -1;
799                         }
800
801                         break;
802                 case DPAA2_UNKNOWN:
803                 default:
804                         /* Unknown - ignore */
805                         DPAA2_BUS_DEBUG("Found unknown device (%s)",
806                                         dev->device.name);
807                         TAILQ_REMOVE(&rte_fslmc_bus.device_list, dev, next);
808                         free(dev);
809                         dev = NULL;
810                 }
811         }
812
813         return 0;
814 }
815
816 int
817 fslmc_vfio_setup_group(void)
818 {
819         int groupid;
820         int ret;
821         struct vfio_group_status status = { .argsz = sizeof(status) };
822
823         /* if already done once */
824         if (container_device_fd)
825                 return 0;
826
827         ret = fslmc_get_container_group(&groupid);
828         if (ret)
829                 return ret;
830
831         /* In case this group was already opened, continue without any
832          * processing.
833          */
834         if (vfio_group.groupid == groupid) {
835                 DPAA2_BUS_ERR("groupid already exists %d", groupid);
836                 return 0;
837         }
838
839         /* Get the actual group fd */
840         ret = rte_vfio_get_group_fd(groupid);
841         if (ret < 0)
842                 return ret;
843         vfio_group.fd = ret;
844
845         /* Check group viability */
846         ret = ioctl(vfio_group.fd, VFIO_GROUP_GET_STATUS, &status);
847         if (ret) {
848                 DPAA2_BUS_ERR("VFIO error getting group status");
849                 close(vfio_group.fd);
850                 rte_vfio_clear_group(vfio_group.fd);
851                 return ret;
852         }
853
854         if (!(status.flags & VFIO_GROUP_FLAGS_VIABLE)) {
855                 DPAA2_BUS_ERR("VFIO group not viable");
856                 close(vfio_group.fd);
857                 rte_vfio_clear_group(vfio_group.fd);
858                 return -EPERM;
859         }
860         /* Since Group is VIABLE, Store the groupid */
861         vfio_group.groupid = groupid;
862
863         /* check if group does not have a container yet */
864         if (!(status.flags & VFIO_GROUP_FLAGS_CONTAINER_SET)) {
865                 /* Now connect this IOMMU group to given container */
866                 ret = vfio_connect_container();
867                 if (ret) {
868                         DPAA2_BUS_ERR(
869                                 "Error connecting container with groupid %d",
870                                 groupid);
871                         close(vfio_group.fd);
872                         rte_vfio_clear_group(vfio_group.fd);
873                         return ret;
874                 }
875         }
876
877         /* Get Device information */
878         ret = ioctl(vfio_group.fd, VFIO_GROUP_GET_DEVICE_FD, fslmc_container);
879         if (ret < 0) {
880                 DPAA2_BUS_ERR("Error getting device %s fd from group %d",
881                               fslmc_container, vfio_group.groupid);
882                 close(vfio_group.fd);
883                 rte_vfio_clear_group(vfio_group.fd);
884                 return ret;
885         }
886         container_device_fd = ret;
887         DPAA2_BUS_DEBUG("VFIO Container FD is [0x%X]",
888                         container_device_fd);
889
890         return 0;
891 }