mempool: remove callback to register memory area
[dpdk.git] / lib / librte_mempool / rte_mempool_ops.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2016 Intel Corporation.
3  * Copyright(c) 2016 6WIND S.A.
4  */
5
6 #include <stdio.h>
7 #include <string.h>
8
9 #include <rte_mempool.h>
10 #include <rte_errno.h>
11 #include <rte_dev.h>
12
13 /* indirect jump table to support external memory pools. */
14 struct rte_mempool_ops_table rte_mempool_ops_table = {
15         .sl =  RTE_SPINLOCK_INITIALIZER,
16         .num_ops = 0
17 };
18
19 /* add a new ops struct in rte_mempool_ops_table, return its index. */
20 int
21 rte_mempool_register_ops(const struct rte_mempool_ops *h)
22 {
23         struct rte_mempool_ops *ops;
24         int16_t ops_index;
25
26         rte_spinlock_lock(&rte_mempool_ops_table.sl);
27
28         if (rte_mempool_ops_table.num_ops >=
29                         RTE_MEMPOOL_MAX_OPS_IDX) {
30                 rte_spinlock_unlock(&rte_mempool_ops_table.sl);
31                 RTE_LOG(ERR, MEMPOOL,
32                         "Maximum number of mempool ops structs exceeded\n");
33                 return -ENOSPC;
34         }
35
36         if (h->alloc == NULL || h->enqueue == NULL ||
37                         h->dequeue == NULL || h->get_count == NULL) {
38                 rte_spinlock_unlock(&rte_mempool_ops_table.sl);
39                 RTE_LOG(ERR, MEMPOOL,
40                         "Missing callback while registering mempool ops\n");
41                 return -EINVAL;
42         }
43
44         if (strlen(h->name) >= sizeof(ops->name) - 1) {
45                 rte_spinlock_unlock(&rte_mempool_ops_table.sl);
46                 RTE_LOG(DEBUG, EAL, "%s(): mempool_ops <%s>: name too long\n",
47                                 __func__, h->name);
48                 rte_errno = EEXIST;
49                 return -EEXIST;
50         }
51
52         ops_index = rte_mempool_ops_table.num_ops++;
53         ops = &rte_mempool_ops_table.ops[ops_index];
54         snprintf(ops->name, sizeof(ops->name), "%s", h->name);
55         ops->alloc = h->alloc;
56         ops->free = h->free;
57         ops->enqueue = h->enqueue;
58         ops->dequeue = h->dequeue;
59         ops->get_count = h->get_count;
60         ops->calc_mem_size = h->calc_mem_size;
61         ops->populate = h->populate;
62
63         rte_spinlock_unlock(&rte_mempool_ops_table.sl);
64
65         return ops_index;
66 }
67
68 /* wrapper to allocate an external mempool's private (pool) data. */
69 int
70 rte_mempool_ops_alloc(struct rte_mempool *mp)
71 {
72         struct rte_mempool_ops *ops;
73
74         ops = rte_mempool_get_ops(mp->ops_index);
75         return ops->alloc(mp);
76 }
77
78 /* wrapper to free an external pool ops. */
79 void
80 rte_mempool_ops_free(struct rte_mempool *mp)
81 {
82         struct rte_mempool_ops *ops;
83
84         ops = rte_mempool_get_ops(mp->ops_index);
85         if (ops->free == NULL)
86                 return;
87         ops->free(mp);
88 }
89
90 /* wrapper to get available objects in an external mempool. */
91 unsigned int
92 rte_mempool_ops_get_count(const struct rte_mempool *mp)
93 {
94         struct rte_mempool_ops *ops;
95
96         ops = rte_mempool_get_ops(mp->ops_index);
97         return ops->get_count(mp);
98 }
99
100 /* wrapper to notify new memory area to external mempool */
101 ssize_t
102 rte_mempool_ops_calc_mem_size(const struct rte_mempool *mp,
103                                 uint32_t obj_num, uint32_t pg_shift,
104                                 size_t *min_chunk_size, size_t *align)
105 {
106         struct rte_mempool_ops *ops;
107
108         ops = rte_mempool_get_ops(mp->ops_index);
109
110         if (ops->calc_mem_size == NULL)
111                 return rte_mempool_op_calc_mem_size_default(mp, obj_num,
112                                 pg_shift, min_chunk_size, align);
113
114         return ops->calc_mem_size(mp, obj_num, pg_shift, min_chunk_size, align);
115 }
116
117 /* wrapper to populate memory pool objects using provided memory chunk */
118 int
119 rte_mempool_ops_populate(struct rte_mempool *mp, unsigned int max_objs,
120                                 void *vaddr, rte_iova_t iova, size_t len,
121                                 rte_mempool_populate_obj_cb_t *obj_cb,
122                                 void *obj_cb_arg)
123 {
124         struct rte_mempool_ops *ops;
125
126         ops = rte_mempool_get_ops(mp->ops_index);
127
128         if (ops->populate == NULL)
129                 return rte_mempool_op_populate_default(mp, max_objs, vaddr,
130                                                        iova, len, obj_cb,
131                                                        obj_cb_arg);
132
133         return ops->populate(mp, max_objs, vaddr, iova, len, obj_cb,
134                              obj_cb_arg);
135 }
136
137 /* sets mempool ops previously registered by rte_mempool_register_ops. */
138 int
139 rte_mempool_set_ops_byname(struct rte_mempool *mp, const char *name,
140         void *pool_config)
141 {
142         struct rte_mempool_ops *ops = NULL;
143         unsigned i;
144
145         /* too late, the mempool is already populated. */
146         if (mp->flags & MEMPOOL_F_POOL_CREATED)
147                 return -EEXIST;
148
149         for (i = 0; i < rte_mempool_ops_table.num_ops; i++) {
150                 if (!strcmp(name,
151                                 rte_mempool_ops_table.ops[i].name)) {
152                         ops = &rte_mempool_ops_table.ops[i];
153                         break;
154                 }
155         }
156
157         if (ops == NULL)
158                 return -EINVAL;
159
160         mp->ops_index = i;
161         mp->pool_config = pool_config;
162         return 0;
163 }