net/dpaa: update process specific device info
[dpdk.git] / drivers / bus / dpaa / rte_dpaa_bus.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  *
3  *   Copyright 2017-2019 NXP
4  *
5  */
6 #ifndef __RTE_DPAA_BUS_H__
7 #define __RTE_DPAA_BUS_H__
8
9 #include <rte_bus.h>
10 #include <rte_mempool.h>
11 #include <dpaax_iova_table.h>
12
13 #include <dpaa_of.h>
14 #include <fsl_usd.h>
15 #include <fsl_qman.h>
16 #include <fsl_bman.h>
17 #include <netcfg.h>
18
19 #define DPAA_MEMPOOL_OPS_NAME   "dpaa"
20
21 #define DEV_TO_DPAA_DEVICE(ptr) \
22                 container_of(ptr, struct rte_dpaa_device, device)
23
24 /* DPAA SoC identifier; If this is not available, it can be concluded
25  * that board is non-DPAA. Single slot is currently supported.
26  */
27 #define DPAA_SOC_ID_FILE        "/sys/devices/soc0/soc_id"
28
29 #define SVR_LS1043A_FAMILY      0x87920000
30 #define SVR_LS1046A_FAMILY      0x87070000
31 #define SVR_MASK                0xffff0000
32
33 #define RTE_DEV_TO_DPAA_CONST(ptr) \
34         container_of(ptr, const struct rte_dpaa_device, device)
35
36 extern unsigned int dpaa_svr_family;
37
38 extern RTE_DEFINE_PER_LCORE(bool, dpaa_io);
39
40 struct rte_dpaa_device;
41 struct rte_dpaa_driver;
42
43 /* DPAA Device and Driver lists for DPAA bus */
44 TAILQ_HEAD(rte_dpaa_device_list, rte_dpaa_device);
45 TAILQ_HEAD(rte_dpaa_driver_list, rte_dpaa_driver);
46
47 enum rte_dpaa_type {
48         FSL_DPAA_ETH = 1,
49         FSL_DPAA_CRYPTO,
50 };
51
52 struct rte_dpaa_bus {
53         struct rte_bus bus;
54         struct rte_dpaa_device_list device_list;
55         struct rte_dpaa_driver_list driver_list;
56         int device_count;
57         int detected;
58 };
59
60 struct dpaa_device_id {
61         uint8_t fman_id; /**< Fman interface ID, for ETH type device */
62         uint8_t mac_id; /**< Fman MAC interface ID, for ETH type device */
63         uint16_t dev_id; /**< Device Identifier from DPDK */
64 };
65
66 struct rte_dpaa_device {
67         TAILQ_ENTRY(rte_dpaa_device) next;
68         struct rte_device device;
69         union {
70                 struct rte_eth_dev *eth_dev;
71                 struct rte_cryptodev *crypto_dev;
72         };
73         struct rte_dpaa_driver *driver;
74         struct dpaa_device_id id;
75         struct rte_intr_handle intr_handle;
76         enum rte_dpaa_type device_type; /**< Ethernet or crypto type device */
77         char name[RTE_ETH_NAME_MAX_LEN];
78 };
79
80 typedef int (*rte_dpaa_probe_t)(struct rte_dpaa_driver *dpaa_drv,
81                                 struct rte_dpaa_device *dpaa_dev);
82 typedef int (*rte_dpaa_remove_t)(struct rte_dpaa_device *dpaa_dev);
83
84 struct rte_dpaa_driver {
85         TAILQ_ENTRY(rte_dpaa_driver) next;
86         struct rte_driver driver;
87         struct rte_dpaa_bus *dpaa_bus;
88         enum rte_dpaa_type drv_type;
89         rte_dpaa_probe_t probe;
90         rte_dpaa_remove_t remove;
91 };
92
93 struct dpaa_portal {
94         uint32_t bman_idx; /**< BMAN Portal ID*/
95         uint32_t qman_idx; /**< QMAN Portal ID*/
96         uint64_t tid;/**< Parent Thread id for this portal */
97 };
98
99 /* Various structures representing contiguous memory maps */
100 struct dpaa_memseg {
101         TAILQ_ENTRY(dpaa_memseg) next;
102         char *vaddr;
103         rte_iova_t iova;
104         size_t len;
105 };
106
107 TAILQ_HEAD(dpaa_memseg_list, dpaa_memseg);
108 extern struct dpaa_memseg_list rte_dpaa_memsegs;
109
110 /* Either iterate over the list of internal memseg references or fallback to
111  * EAL memseg based iova2virt.
112  */
113 static inline void *rte_dpaa_mem_ptov(phys_addr_t paddr)
114 {
115         struct dpaa_memseg *ms;
116         void *va;
117
118         va = dpaax_iova_table_get_va(paddr);
119         if (likely(va != NULL))
120                 return va;
121
122         /* Check if the address is already part of the memseg list internally
123          * maintained by the dpaa driver.
124          */
125         TAILQ_FOREACH(ms, &rte_dpaa_memsegs, next) {
126                 if (paddr >= ms->iova && paddr <
127                         ms->iova + ms->len)
128                         return RTE_PTR_ADD(ms->vaddr, (uintptr_t)(paddr - ms->iova));
129         }
130
131         /* If not, Fallback to full memseg list searching */
132         va = rte_mem_iova2virt(paddr);
133
134         dpaax_iova_table_update(paddr, va, RTE_CACHE_LINE_SIZE);
135
136         return va;
137 }
138
139 static inline rte_iova_t
140 rte_dpaa_mem_vtop(void *vaddr)
141 {
142         const struct rte_memseg *ms;
143
144         ms = rte_mem_virt2memseg(vaddr, NULL);
145         if (ms)
146                 return ms->iova + RTE_PTR_DIFF(vaddr, ms->addr);
147
148         return (size_t)NULL;
149 }
150
151 /**
152  * Register a DPAA driver.
153  *
154  * @param driver
155  *   A pointer to a rte_dpaa_driver structure describing the driver
156  *   to be registered.
157  */
158 __rte_internal
159 void rte_dpaa_driver_register(struct rte_dpaa_driver *driver);
160
161 /**
162  * Unregister a DPAA driver.
163  *
164  * @param driver
165  *      A pointer to a rte_dpaa_driver structure describing the driver
166  *      to be unregistered.
167  */
168 __rte_internal
169 void rte_dpaa_driver_unregister(struct rte_dpaa_driver *driver);
170
171 /**
172  * Initialize a DPAA portal
173  *
174  * @param arg
175  *      Per thread ID
176  *
177  * @return
178  *      0 in case of success, error otherwise
179  */
180 __rte_internal
181 int rte_dpaa_portal_init(void *arg);
182
183 __rte_internal
184 int rte_dpaa_portal_fq_init(void *arg, struct qman_fq *fq);
185
186 __rte_internal
187 int rte_dpaa_portal_fq_close(struct qman_fq *fq);
188
189 /**
190  * Cleanup a DPAA Portal
191  */
192 void dpaa_portal_finish(void *arg);
193
194 /** Helper for DPAA device registration from driver (eth, crypto) instance */
195 #define RTE_PMD_REGISTER_DPAA(nm, dpaa_drv) \
196 RTE_INIT(dpaainitfn_ ##nm) \
197 {\
198         (dpaa_drv).driver.name = RTE_STR(nm);\
199         rte_dpaa_driver_register(&dpaa_drv); \
200 } \
201 RTE_PMD_EXPORT_NAME(nm, __COUNTER__)
202
203 /* Create storage for dqrr entries per lcore */
204 #define DPAA_PORTAL_DEQUEUE_DEPTH       16
205 struct dpaa_portal_dqrr {
206         void *mbuf[DPAA_PORTAL_DEQUEUE_DEPTH];
207         uint64_t dqrr_held;
208         uint8_t dqrr_size;
209 };
210
211 RTE_DECLARE_PER_LCORE(struct dpaa_portal_dqrr, held_bufs);
212
213 #define DPAA_PER_LCORE_DQRR_SIZE       RTE_PER_LCORE(held_bufs).dqrr_size
214 #define DPAA_PER_LCORE_DQRR_HELD       RTE_PER_LCORE(held_bufs).dqrr_held
215 #define DPAA_PER_LCORE_DQRR_MBUF(i)    RTE_PER_LCORE(held_bufs).mbuf[i]
216
217 __rte_internal
218 struct fm_eth_port_cfg *dpaa_get_eth_port_cfg(int dev_id);
219
220 #ifdef __cplusplus
221 }
222 #endif
223
224 #endif /* __RTE_DPAA_BUS_H__ */