net/ixgbe: fix statistics in flow control mode
[dpdk.git] / lib / librte_ring / rte_ring.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  *
3  * Copyright (c) 2010-2015 Intel Corporation
4  * Copyright (c) 2007,2008 Kip Macy kmacy@freebsd.org
5  * All rights reserved.
6  * Derived from FreeBSD's bufring.h
7  * Used as BSD-3 Licensed with permission from Kip Macy.
8  */
9
10 #include <stdio.h>
11 #include <stdarg.h>
12 #include <string.h>
13 #include <stdint.h>
14 #include <inttypes.h>
15 #include <errno.h>
16 #include <sys/queue.h>
17
18 #include <rte_common.h>
19 #include <rte_log.h>
20 #include <rte_memory.h>
21 #include <rte_memzone.h>
22 #include <rte_malloc.h>
23 #include <rte_launch.h>
24 #include <rte_eal.h>
25 #include <rte_eal_memconfig.h>
26 #include <rte_atomic.h>
27 #include <rte_per_lcore.h>
28 #include <rte_lcore.h>
29 #include <rte_branch_prediction.h>
30 #include <rte_errno.h>
31 #include <rte_string_fns.h>
32 #include <rte_spinlock.h>
33 #include <rte_tailq.h>
34
35 #include "rte_ring.h"
36 #include "rte_ring_elem.h"
37
38 TAILQ_HEAD(rte_ring_list, rte_tailq_entry);
39
40 static struct rte_tailq_elem rte_ring_tailq = {
41         .name = RTE_TAILQ_RING_NAME,
42 };
43 EAL_REGISTER_TAILQ(rte_ring_tailq)
44
45 /* true if x is a power of 2 */
46 #define POWEROF2(x) ((((x)-1) & (x)) == 0)
47
48 /* by default set head/tail distance as 1/8 of ring capacity */
49 #define HTD_MAX_DEF     8
50
51 /* return the size of memory occupied by a ring */
52 ssize_t
53 rte_ring_get_memsize_elem(unsigned int esize, unsigned int count)
54 {
55         ssize_t sz;
56
57         /* Check if element size is a multiple of 4B */
58         if (esize % 4 != 0) {
59                 RTE_LOG(ERR, RING, "element size is not a multiple of 4\n");
60
61                 return -EINVAL;
62         }
63
64         /* count must be a power of 2 */
65         if ((!POWEROF2(count)) || (count > RTE_RING_SZ_MASK )) {
66                 RTE_LOG(ERR, RING,
67                         "Requested number of elements is invalid, must be power of 2, and not exceed %u\n",
68                         RTE_RING_SZ_MASK);
69
70                 return -EINVAL;
71         }
72
73         sz = sizeof(struct rte_ring) + count * esize;
74         sz = RTE_ALIGN(sz, RTE_CACHE_LINE_SIZE);
75         return sz;
76 }
77
78 /* return the size of memory occupied by a ring */
79 ssize_t
80 rte_ring_get_memsize(unsigned int count)
81 {
82         return rte_ring_get_memsize_elem(sizeof(void *), count);
83 }
84
85 /*
86  * internal helper function to reset prod/cons head-tail values.
87  */
88 static void
89 reset_headtail(void *p)
90 {
91         struct rte_ring_headtail *ht;
92         struct rte_ring_hts_headtail *ht_hts;
93         struct rte_ring_rts_headtail *ht_rts;
94
95         ht = p;
96         ht_hts = p;
97         ht_rts = p;
98
99         switch (ht->sync_type) {
100         case RTE_RING_SYNC_MT:
101         case RTE_RING_SYNC_ST:
102                 ht->head = 0;
103                 ht->tail = 0;
104                 break;
105         case RTE_RING_SYNC_MT_RTS:
106                 ht_rts->head.raw = 0;
107                 ht_rts->tail.raw = 0;
108                 break;
109         case RTE_RING_SYNC_MT_HTS:
110                 ht_hts->ht.raw = 0;
111                 break;
112         default:
113                 /* unknown sync mode */
114                 RTE_ASSERT(0);
115         }
116 }
117
118 void
119 rte_ring_reset(struct rte_ring *r)
120 {
121         reset_headtail(&r->prod);
122         reset_headtail(&r->cons);
123 }
124
125 /*
126  * helper function, calculates sync_type values for prod and cons
127  * based on input flags. Returns zero at success or negative
128  * errno value otherwise.
129  */
130 static int
131 get_sync_type(uint32_t flags, enum rte_ring_sync_type *prod_st,
132         enum rte_ring_sync_type *cons_st)
133 {
134         static const uint32_t prod_st_flags =
135                 (RING_F_SP_ENQ | RING_F_MP_RTS_ENQ | RING_F_MP_HTS_ENQ);
136         static const uint32_t cons_st_flags =
137                 (RING_F_SC_DEQ | RING_F_MC_RTS_DEQ | RING_F_MC_HTS_DEQ);
138
139         switch (flags & prod_st_flags) {
140         case 0:
141                 *prod_st = RTE_RING_SYNC_MT;
142                 break;
143         case RING_F_SP_ENQ:
144                 *prod_st = RTE_RING_SYNC_ST;
145                 break;
146         case RING_F_MP_RTS_ENQ:
147                 *prod_st = RTE_RING_SYNC_MT_RTS;
148                 break;
149         case RING_F_MP_HTS_ENQ:
150                 *prod_st = RTE_RING_SYNC_MT_HTS;
151                 break;
152         default:
153                 return -EINVAL;
154         }
155
156         switch (flags & cons_st_flags) {
157         case 0:
158                 *cons_st = RTE_RING_SYNC_MT;
159                 break;
160         case RING_F_SC_DEQ:
161                 *cons_st = RTE_RING_SYNC_ST;
162                 break;
163         case RING_F_MC_RTS_DEQ:
164                 *cons_st = RTE_RING_SYNC_MT_RTS;
165                 break;
166         case RING_F_MC_HTS_DEQ:
167                 *cons_st = RTE_RING_SYNC_MT_HTS;
168                 break;
169         default:
170                 return -EINVAL;
171         }
172
173         return 0;
174 }
175
176 int
177 rte_ring_init(struct rte_ring *r, const char *name, unsigned count,
178         unsigned flags)
179 {
180         int ret;
181
182         /* compilation-time checks */
183         RTE_BUILD_BUG_ON((sizeof(struct rte_ring) &
184                           RTE_CACHE_LINE_MASK) != 0);
185         RTE_BUILD_BUG_ON((offsetof(struct rte_ring, cons) &
186                           RTE_CACHE_LINE_MASK) != 0);
187         RTE_BUILD_BUG_ON((offsetof(struct rte_ring, prod) &
188                           RTE_CACHE_LINE_MASK) != 0);
189
190         RTE_BUILD_BUG_ON(offsetof(struct rte_ring_headtail, sync_type) !=
191                 offsetof(struct rte_ring_hts_headtail, sync_type));
192         RTE_BUILD_BUG_ON(offsetof(struct rte_ring_headtail, tail) !=
193                 offsetof(struct rte_ring_hts_headtail, ht.pos.tail));
194
195         RTE_BUILD_BUG_ON(offsetof(struct rte_ring_headtail, sync_type) !=
196                 offsetof(struct rte_ring_rts_headtail, sync_type));
197         RTE_BUILD_BUG_ON(offsetof(struct rte_ring_headtail, tail) !=
198                 offsetof(struct rte_ring_rts_headtail, tail.val.pos));
199
200         /* init the ring structure */
201         memset(r, 0, sizeof(*r));
202         ret = strlcpy(r->name, name, sizeof(r->name));
203         if (ret < 0 || ret >= (int)sizeof(r->name))
204                 return -ENAMETOOLONG;
205         r->flags = flags;
206         ret = get_sync_type(flags, &r->prod.sync_type, &r->cons.sync_type);
207         if (ret != 0)
208                 return ret;
209
210         if (flags & RING_F_EXACT_SZ) {
211                 r->size = rte_align32pow2(count + 1);
212                 r->mask = r->size - 1;
213                 r->capacity = count;
214         } else {
215                 if ((!POWEROF2(count)) || (count > RTE_RING_SZ_MASK)) {
216                         RTE_LOG(ERR, RING,
217                                 "Requested size is invalid, must be power of 2, and not exceed the size limit %u\n",
218                                 RTE_RING_SZ_MASK);
219                         return -EINVAL;
220                 }
221                 r->size = count;
222                 r->mask = count - 1;
223                 r->capacity = r->mask;
224         }
225
226         /* set default values for head-tail distance */
227         if (flags & RING_F_MP_RTS_ENQ)
228                 rte_ring_set_prod_htd_max(r, r->capacity / HTD_MAX_DEF);
229         if (flags & RING_F_MC_RTS_DEQ)
230                 rte_ring_set_cons_htd_max(r, r->capacity / HTD_MAX_DEF);
231
232         return 0;
233 }
234
235 /* create the ring for a given element size */
236 struct rte_ring *
237 rte_ring_create_elem(const char *name, unsigned int esize, unsigned int count,
238                 int socket_id, unsigned int flags)
239 {
240         char mz_name[RTE_MEMZONE_NAMESIZE];
241         struct rte_ring *r;
242         struct rte_tailq_entry *te;
243         const struct rte_memzone *mz;
244         ssize_t ring_size;
245         int mz_flags = 0;
246         struct rte_ring_list* ring_list = NULL;
247         const unsigned int requested_count = count;
248         int ret;
249
250         ring_list = RTE_TAILQ_CAST(rte_ring_tailq.head, rte_ring_list);
251
252         /* for an exact size ring, round up from count to a power of two */
253         if (flags & RING_F_EXACT_SZ)
254                 count = rte_align32pow2(count + 1);
255
256         ring_size = rte_ring_get_memsize_elem(esize, count);
257         if (ring_size < 0) {
258                 rte_errno = ring_size;
259                 return NULL;
260         }
261
262         ret = snprintf(mz_name, sizeof(mz_name), "%s%s",
263                 RTE_RING_MZ_PREFIX, name);
264         if (ret < 0 || ret >= (int)sizeof(mz_name)) {
265                 rte_errno = ENAMETOOLONG;
266                 return NULL;
267         }
268
269         te = rte_zmalloc("RING_TAILQ_ENTRY", sizeof(*te), 0);
270         if (te == NULL) {
271                 RTE_LOG(ERR, RING, "Cannot reserve memory for tailq\n");
272                 rte_errno = ENOMEM;
273                 return NULL;
274         }
275
276         rte_mcfg_tailq_write_lock();
277
278         /* reserve a memory zone for this ring. If we can't get rte_config or
279          * we are secondary process, the memzone_reserve function will set
280          * rte_errno for us appropriately - hence no check in this this function */
281         mz = rte_memzone_reserve_aligned(mz_name, ring_size, socket_id,
282                                          mz_flags, __alignof__(*r));
283         if (mz != NULL) {
284                 r = mz->addr;
285                 /* no need to check return value here, we already checked the
286                  * arguments above */
287                 rte_ring_init(r, name, requested_count, flags);
288
289                 te->data = (void *) r;
290                 r->memzone = mz;
291
292                 TAILQ_INSERT_TAIL(ring_list, te, next);
293         } else {
294                 r = NULL;
295                 RTE_LOG(ERR, RING, "Cannot reserve memory\n");
296                 rte_free(te);
297         }
298         rte_mcfg_tailq_write_unlock();
299
300         return r;
301 }
302
303 /* create the ring */
304 struct rte_ring *
305 rte_ring_create(const char *name, unsigned int count, int socket_id,
306                 unsigned int flags)
307 {
308         return rte_ring_create_elem(name, sizeof(void *), count, socket_id,
309                 flags);
310 }
311
312 /* free the ring */
313 void
314 rte_ring_free(struct rte_ring *r)
315 {
316         struct rte_ring_list *ring_list = NULL;
317         struct rte_tailq_entry *te;
318
319         if (r == NULL)
320                 return;
321
322         /*
323          * Ring was not created with rte_ring_create,
324          * therefore, there is no memzone to free.
325          */
326         if (r->memzone == NULL) {
327                 RTE_LOG(ERR, RING,
328                         "Cannot free ring, not created with rte_ring_create()\n");
329                 return;
330         }
331
332         if (rte_memzone_free(r->memzone) != 0) {
333                 RTE_LOG(ERR, RING, "Cannot free memory\n");
334                 return;
335         }
336
337         ring_list = RTE_TAILQ_CAST(rte_ring_tailq.head, rte_ring_list);
338         rte_mcfg_tailq_write_lock();
339
340         /* find out tailq entry */
341         TAILQ_FOREACH(te, ring_list, next) {
342                 if (te->data == (void *) r)
343                         break;
344         }
345
346         if (te == NULL) {
347                 rte_mcfg_tailq_write_unlock();
348                 return;
349         }
350
351         TAILQ_REMOVE(ring_list, te, next);
352
353         rte_mcfg_tailq_write_unlock();
354
355         rte_free(te);
356 }
357
358 /* dump the status of the ring on the console */
359 void
360 rte_ring_dump(FILE *f, const struct rte_ring *r)
361 {
362         fprintf(f, "ring <%s>@%p\n", r->name, r);
363         fprintf(f, "  flags=%x\n", r->flags);
364         fprintf(f, "  size=%"PRIu32"\n", r->size);
365         fprintf(f, "  capacity=%"PRIu32"\n", r->capacity);
366         fprintf(f, "  ct=%"PRIu32"\n", r->cons.tail);
367         fprintf(f, "  ch=%"PRIu32"\n", r->cons.head);
368         fprintf(f, "  pt=%"PRIu32"\n", r->prod.tail);
369         fprintf(f, "  ph=%"PRIu32"\n", r->prod.head);
370         fprintf(f, "  used=%u\n", rte_ring_count(r));
371         fprintf(f, "  avail=%u\n", rte_ring_free_count(r));
372 }
373
374 /* dump the status of all rings on the console */
375 void
376 rte_ring_list_dump(FILE *f)
377 {
378         const struct rte_tailq_entry *te;
379         struct rte_ring_list *ring_list;
380
381         ring_list = RTE_TAILQ_CAST(rte_ring_tailq.head, rte_ring_list);
382
383         rte_mcfg_tailq_read_lock();
384
385         TAILQ_FOREACH(te, ring_list, next) {
386                 rte_ring_dump(f, (struct rte_ring *) te->data);
387         }
388
389         rte_mcfg_tailq_read_unlock();
390 }
391
392 /* search a ring from its name */
393 struct rte_ring *
394 rte_ring_lookup(const char *name)
395 {
396         struct rte_tailq_entry *te;
397         struct rte_ring *r = NULL;
398         struct rte_ring_list *ring_list;
399
400         ring_list = RTE_TAILQ_CAST(rte_ring_tailq.head, rte_ring_list);
401
402         rte_mcfg_tailq_read_lock();
403
404         TAILQ_FOREACH(te, ring_list, next) {
405                 r = (struct rte_ring *) te->data;
406                 if (strncmp(name, r->name, RTE_RING_NAMESIZE) == 0)
407                         break;
408         }
409
410         rte_mcfg_tailq_read_unlock();
411
412         if (te == NULL) {
413                 rte_errno = ENOENT;
414                 return NULL;
415         }
416
417         return r;
418 }