mempool: fix slow allocation of large mempools
[dpdk.git] / lib / librte_bbdev / rte_bbdev.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(c) 2017 Intel Corporation
3  */
4
5 #ifndef _RTE_BBDEV_H_
6 #define _RTE_BBDEV_H_
7
8 /**
9  * @file rte_bbdev.h
10  *
11  * Wireless base band device abstraction APIs.
12  *
13  * @warning
14  * @b EXPERIMENTAL: this API may change without prior notice
15  *
16  * This API allows an application to discover, configure and use a device to
17  * process operations. An asynchronous API (enqueue, followed by later dequeue)
18  * is used for processing operations.
19  *
20  * The functions in this API are not thread-safe when called on the same
21  * target object (a device, or a queue on a device), with the exception that
22  * one thread can enqueue operations to a queue while another thread dequeues
23  * from the same queue.
24  */
25
26 #ifdef __cplusplus
27 extern "C" {
28 #endif
29
30 #include <stdint.h>
31 #include <stdbool.h>
32 #include <string.h>
33
34 #include <rte_compat.h>
35 #include <rte_atomic.h>
36 #include <rte_bus.h>
37 #include <rte_cpuflags.h>
38 #include <rte_memory.h>
39
40 #include "rte_bbdev_op.h"
41
42 #ifndef RTE_BBDEV_MAX_DEVS
43 #define RTE_BBDEV_MAX_DEVS 128  /**< Max number of devices */
44 #endif
45
46 /** Flags indicate current state of BBDEV device */
47 enum rte_bbdev_state {
48         RTE_BBDEV_UNUSED,
49         RTE_BBDEV_INITIALIZED
50 };
51
52 /**
53  * Get the total number of devices that have been successfully initialised.
54  *
55  * @return
56  *   The total number of usable devices.
57  */
58 __rte_experimental
59 uint16_t
60 rte_bbdev_count(void);
61
62 /**
63  * Check if a device is valid.
64  *
65  * @param dev_id
66  *   The identifier of the device.
67  *
68  * @return
69  *   true if device ID is valid and device is attached, false otherwise.
70  */
71 __rte_experimental
72 bool
73 rte_bbdev_is_valid(uint16_t dev_id);
74
75 /**
76  * Get the next enabled device.
77  *
78  * @param dev_id
79  *   The current device
80  *
81  * @return
82  *   - The next device, or
83  *   - RTE_BBDEV_MAX_DEVS if none found
84  */
85 __rte_experimental
86 uint16_t
87 rte_bbdev_find_next(uint16_t dev_id);
88
89 /** Iterate through all enabled devices */
90 #define RTE_BBDEV_FOREACH(i) for (i = rte_bbdev_find_next(-1); \
91                 i < RTE_BBDEV_MAX_DEVS; \
92                 i = rte_bbdev_find_next(i))
93
94 /**
95  * Setup up device queues.
96  * This function must be called on a device before setting up the queues and
97  * starting the device. It can also be called when a device is in the stopped
98  * state. If any device queues have been configured their configuration will be
99  * cleared by a call to this function.
100  *
101  * @param dev_id
102  *   The identifier of the device.
103  * @param num_queues
104  *   Number of queues to configure on device.
105  * @param socket_id
106  *   ID of a socket which will be used to allocate memory.
107  *
108  * @return
109  *   - 0 on success
110  *   - -ENODEV if dev_id is invalid or the device is corrupted
111  *   - -EINVAL if num_queues is invalid, 0 or greater than maximum
112  *   - -EBUSY if the identified device has already started
113  *   - -ENOMEM if unable to allocate memory
114  */
115 __rte_experimental
116 int
117 rte_bbdev_setup_queues(uint16_t dev_id, uint16_t num_queues, int socket_id);
118
119 /**
120  * Enable interrupts.
121  * This function may be called before starting the device to enable the
122  * interrupts if they are available.
123  *
124  * @param dev_id
125  *   The identifier of the device.
126  *
127  * @return
128  *   - 0 on success
129  *   - -ENODEV if dev_id is invalid or the device is corrupted
130  *   - -EBUSY if the identified device has already started
131  *   - -ENOTSUP if the interrupts are not supported by the device
132  */
133 __rte_experimental
134 int
135 rte_bbdev_intr_enable(uint16_t dev_id);
136
137 /** Device queue configuration structure */
138 struct rte_bbdev_queue_conf {
139         int socket;  /**< NUMA socket used for memory allocation */
140         uint32_t queue_size;  /**< Size of queue */
141         uint8_t priority;  /**< Queue priority */
142         bool deferred_start; /**< Do not start queue when device is started. */
143         enum rte_bbdev_op_type op_type; /**< Operation type */
144 };
145
146 /**
147  * Configure a queue on a device.
148  * This function can be called after device configuration, and before starting.
149  * It can also be called when the device or the queue is in the stopped state.
150  *
151  * @param dev_id
152  *   The identifier of the device.
153  * @param queue_id
154  *   The index of the queue.
155  * @param conf
156  *   The queue configuration. If NULL, a default configuration will be used.
157  *
158  * @return
159  *   - 0 on success
160  *   - EINVAL if the identified queue size or priority are invalid
161  *   - EBUSY if the identified queue or its device have already started
162  */
163 __rte_experimental
164 int
165 rte_bbdev_queue_configure(uint16_t dev_id, uint16_t queue_id,
166                 const struct rte_bbdev_queue_conf *conf);
167
168 /**
169  * Start a device.
170  * This is the last step needed before enqueueing operations is possible.
171  *
172  * @param dev_id
173  *   The identifier of the device.
174  *
175  * @return
176  *   - 0 on success
177  *   - negative value on failure - as returned from PMD driver
178  */
179 __rte_experimental
180 int
181 rte_bbdev_start(uint16_t dev_id);
182
183 /**
184  * Stop a device.
185  * The device can be reconfigured, and restarted after being stopped.
186  *
187  * @param dev_id
188  *   The identifier of the device.
189  *
190  * @return
191  *   - 0 on success
192  */
193 __rte_experimental
194 int
195 rte_bbdev_stop(uint16_t dev_id);
196
197 /**
198  * Close a device.
199  * The device cannot be restarted without reconfiguration!
200  *
201  * @param dev_id
202  *   The identifier of the device.
203  *
204  * @return
205  *   - 0 on success
206  */
207 __rte_experimental
208 int
209 rte_bbdev_close(uint16_t dev_id);
210
211 /**
212  * Start a specified queue on a device.
213  * This is only needed if the queue has been stopped, or if the deferred_start
214  * flag has been set when configuring the queue.
215  *
216  * @param dev_id
217  *   The identifier of the device.
218  * @param queue_id
219  *   The index of the queue.
220  *
221  * @return
222  *   - 0 on success
223  *   - negative value on failure - as returned from PMD driver
224  */
225 __rte_experimental
226 int
227 rte_bbdev_queue_start(uint16_t dev_id, uint16_t queue_id);
228
229 /**
230  * Stop a specified queue on a device, to allow re configuration.
231  *
232  * @param dev_id
233  *   The identifier of the device.
234  * @param queue_id
235  *   The index of the queue.
236  *
237  * @return
238  *   - 0 on success
239  *   - negative value on failure - as returned from PMD driver
240  */
241 __rte_experimental
242 int
243 rte_bbdev_queue_stop(uint16_t dev_id, uint16_t queue_id);
244
245 /** Device statistics. */
246 struct rte_bbdev_stats {
247         uint64_t enqueued_count;  /**< Count of all operations enqueued */
248         uint64_t dequeued_count;  /**< Count of all operations dequeued */
249         /** Total error count on operations enqueued */
250         uint64_t enqueue_err_count;
251         /** Total error count on operations dequeued */
252         uint64_t dequeue_err_count;
253         /** CPU cycles consumed by the (HW/SW) accelerator device to offload
254          *  the enqueue request to its internal queues.
255          *  - For a HW device this is the cycles consumed in MMIO write
256          *  - For a SW (vdev) device, this is the processing time of the
257          *     bbdev operation
258          */
259         uint64_t acc_offload_cycles;
260 };
261
262 /**
263  * Retrieve the general I/O statistics of a device.
264  *
265  * @param dev_id
266  *   The identifier of the device.
267  * @param stats
268  *   Pointer to structure to where statistics will be copied. On error, this
269  *   location may or may not have been modified.
270  *
271  * @return
272  *   - 0 on success
273  *   - EINVAL if invalid parameter pointer is provided
274  */
275 __rte_experimental
276 int
277 rte_bbdev_stats_get(uint16_t dev_id, struct rte_bbdev_stats *stats);
278
279 /**
280  * Reset the statistics of a device.
281  *
282  * @param dev_id
283  *   The identifier of the device.
284  * @return
285  *   - 0 on success
286  */
287 __rte_experimental
288 int
289 rte_bbdev_stats_reset(uint16_t dev_id);
290
291 /** Device information supplied by the device's driver */
292 struct rte_bbdev_driver_info {
293         /** Driver name */
294         const char *driver_name;
295
296         /** Maximum number of queues supported by the device */
297         unsigned int max_num_queues;
298         /** Queue size limit (queue size must also be power of 2) */
299         uint32_t queue_size_lim;
300         /** Set if device off-loads operation to hardware  */
301         bool hardware_accelerated;
302         /** Max value supported by queue priority for DL */
303         uint8_t max_dl_queue_priority;
304         /** Max value supported by queue priority for UL */
305         uint8_t max_ul_queue_priority;
306         /** Set if device supports per-queue interrupts */
307         bool queue_intr_supported;
308         /** Minimum alignment of buffers, in bytes */
309         uint16_t min_alignment;
310         /** Default queue configuration used if none is supplied  */
311         struct rte_bbdev_queue_conf default_queue_conf;
312         /** Device operation capabilities */
313         const struct rte_bbdev_op_cap *capabilities;
314         /** Device cpu_flag requirements */
315         const enum rte_cpu_flag_t *cpu_flag_reqs;
316 };
317
318 /** Macro used at end of bbdev PMD list */
319 #define RTE_BBDEV_END_OF_CAPABILITIES_LIST() \
320         { RTE_BBDEV_OP_NONE }
321
322 /**
323  * Device information structure used by an application to discover a devices
324  * capabilities and current configuration
325  */
326 struct rte_bbdev_info {
327         int socket_id;  /**< NUMA socket that device is on */
328         const char *dev_name;  /**< Unique device name */
329         const struct rte_device *device; /**< Device Information */
330         uint16_t num_queues;  /**< Number of queues currently configured */
331         bool started;  /**< Set if device is currently started */
332         struct rte_bbdev_driver_info drv;  /**< Info from device driver */
333 };
334
335 /**
336  * Retrieve information about a device.
337  *
338  * @param dev_id
339  *   The identifier of the device.
340  * @param dev_info
341  *   Pointer to structure to where information will be copied. On error, this
342  *   location may or may not have been modified.
343  *
344  * @return
345  *   - 0 on success
346  *   - EINVAL if invalid parameter pointer is provided
347  */
348 __rte_experimental
349 int
350 rte_bbdev_info_get(uint16_t dev_id, struct rte_bbdev_info *dev_info);
351
352 /** Queue information */
353 struct rte_bbdev_queue_info {
354         /** Current device configuration */
355         struct rte_bbdev_queue_conf conf;
356         /** Set if queue is currently started */
357         bool started;
358 };
359
360 /**
361  * Retrieve information about a specific queue on a device.
362  *
363  * @param dev_id
364  *   The identifier of the device.
365  * @param queue_id
366  *   The index of the queue.
367  * @param queue_info
368  *   Pointer to structure to where information will be copied. On error, this
369  *   location may or may not have been modified.
370  *
371  * @return
372  *   - 0 on success
373  *   - EINVAL if invalid parameter pointer is provided
374  */
375 __rte_experimental
376 int
377 rte_bbdev_queue_info_get(uint16_t dev_id, uint16_t queue_id,
378                 struct rte_bbdev_queue_info *queue_info);
379
380 /** @internal The data structure associated with each queue of a device. */
381 struct rte_bbdev_queue_data {
382         void *queue_private;  /**< Driver-specific per-queue data */
383         struct rte_bbdev_queue_conf conf;  /**< Current configuration */
384         struct rte_bbdev_stats queue_stats;  /**< Queue statistics */
385         bool started;  /**< Queue state */
386 };
387
388 /** @internal Enqueue encode operations for processing on queue of a device. */
389 typedef uint16_t (*rte_bbdev_enqueue_enc_ops_t)(
390                 struct rte_bbdev_queue_data *q_data,
391                 struct rte_bbdev_enc_op **ops,
392                 uint16_t num);
393
394 /** @internal Enqueue decode operations for processing on queue of a device. */
395 typedef uint16_t (*rte_bbdev_enqueue_dec_ops_t)(
396                 struct rte_bbdev_queue_data *q_data,
397                 struct rte_bbdev_dec_op **ops,
398                 uint16_t num);
399
400 /** @internal Dequeue encode operations from a queue of a device. */
401 typedef uint16_t (*rte_bbdev_dequeue_enc_ops_t)(
402                 struct rte_bbdev_queue_data *q_data,
403                 struct rte_bbdev_enc_op **ops, uint16_t num);
404
405 /** @internal Dequeue decode operations from a queue of a device. */
406 typedef uint16_t (*rte_bbdev_dequeue_dec_ops_t)(
407                 struct rte_bbdev_queue_data *q_data,
408                 struct rte_bbdev_dec_op **ops, uint16_t num);
409
410 #define RTE_BBDEV_NAME_MAX_LEN  64  /**< Max length of device name */
411
412 /**
413  * @internal The data associated with a device, with no function pointers.
414  * This structure is safe to place in shared memory to be common among
415  * different processes in a multi-process configuration. Drivers can access
416  * these fields, but should never write to them!
417  */
418 struct rte_bbdev_data {
419         char name[RTE_BBDEV_NAME_MAX_LEN]; /**< Unique identifier name */
420         void *dev_private;  /**< Driver-specific private data */
421         uint16_t num_queues;  /**< Number of currently configured queues */
422         struct rte_bbdev_queue_data *queues;  /**< Queue structures */
423         uint16_t dev_id;  /**< Device ID */
424         int socket_id;  /**< NUMA socket that device is on */
425         bool started;  /**< Device run-time state */
426         /** Counter of processes using the device */
427         rte_atomic16_t process_cnt;
428 };
429
430 /* Forward declarations */
431 struct rte_bbdev_ops;
432 struct rte_bbdev_callback;
433 struct rte_intr_handle;
434
435 /** Structure to keep track of registered callbacks */
436 TAILQ_HEAD(rte_bbdev_cb_list, rte_bbdev_callback);
437
438 /**
439  * @internal The data structure associated with a device. Drivers can access
440  * these fields, but should only write to the *_ops fields.
441  */
442 struct __rte_cache_aligned rte_bbdev {
443         /**< Enqueue encode function */
444         rte_bbdev_enqueue_enc_ops_t enqueue_enc_ops;
445         /**< Enqueue decode function */
446         rte_bbdev_enqueue_dec_ops_t enqueue_dec_ops;
447         /**< Dequeue encode function */
448         rte_bbdev_dequeue_enc_ops_t dequeue_enc_ops;
449         /**< Dequeue decode function */
450         rte_bbdev_dequeue_dec_ops_t dequeue_dec_ops;
451         /**< Enqueue encode function */
452         rte_bbdev_enqueue_enc_ops_t enqueue_ldpc_enc_ops;
453         /**< Enqueue decode function */
454         rte_bbdev_enqueue_dec_ops_t enqueue_ldpc_dec_ops;
455         /**< Dequeue encode function */
456         rte_bbdev_dequeue_enc_ops_t dequeue_ldpc_enc_ops;
457         /**< Dequeue decode function */
458         rte_bbdev_dequeue_dec_ops_t dequeue_ldpc_dec_ops;
459         const struct rte_bbdev_ops *dev_ops;  /**< Functions exported by PMD */
460         struct rte_bbdev_data *data;  /**< Pointer to device data */
461         enum rte_bbdev_state state;  /**< If device is currently used or not */
462         struct rte_device *device; /**< Backing device */
463         /** User application callback for interrupts if present */
464         struct rte_bbdev_cb_list list_cbs;
465         struct rte_intr_handle *intr_handle; /**< Device interrupt handle */
466 };
467
468 /** @internal array of all devices */
469 extern struct rte_bbdev rte_bbdev_devices[];
470
471 /**
472  * Enqueue a burst of processed encode operations to a queue of the device.
473  * This functions only enqueues as many operations as currently possible and
474  * does not block until @p num_ops entries in the queue are available.
475  * This function does not provide any error notification to avoid the
476  * corresponding overhead.
477  *
478  * @param dev_id
479  *   The identifier of the device.
480  * @param queue_id
481  *   The index of the queue.
482  * @param ops
483  *   Pointer array containing operations to be enqueued Must have at least
484  *   @p num_ops entries
485  * @param num_ops
486  *   The maximum number of operations to enqueue.
487  *
488  * @return
489  *   The number of operations actually enqueued (this is the number of processed
490  *   entries in the @p ops array).
491  */
492 __rte_experimental
493 static inline uint16_t
494 rte_bbdev_enqueue_enc_ops(uint16_t dev_id, uint16_t queue_id,
495                 struct rte_bbdev_enc_op **ops, uint16_t num_ops)
496 {
497         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
498         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
499         return dev->enqueue_enc_ops(q_data, ops, num_ops);
500 }
501
502 /**
503  * Enqueue a burst of processed decode operations to a queue of the device.
504  * This functions only enqueues as many operations as currently possible and
505  * does not block until @p num_ops entries in the queue are available.
506  * This function does not provide any error notification to avoid the
507  * corresponding overhead.
508  *
509  * @param dev_id
510  *   The identifier of the device.
511  * @param queue_id
512  *   The index of the queue.
513  * @param ops
514  *   Pointer array containing operations to be enqueued Must have at least
515  *   @p num_ops entries
516  * @param num_ops
517  *   The maximum number of operations to enqueue.
518  *
519  * @return
520  *   The number of operations actually enqueued (this is the number of processed
521  *   entries in the @p ops array).
522  */
523 __rte_experimental
524 static inline uint16_t
525 rte_bbdev_enqueue_dec_ops(uint16_t dev_id, uint16_t queue_id,
526                 struct rte_bbdev_dec_op **ops, uint16_t num_ops)
527 {
528         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
529         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
530         return dev->enqueue_dec_ops(q_data, ops, num_ops);
531 }
532
533 /**
534  * Enqueue a burst of processed encode operations to a queue of the device.
535  * This functions only enqueues as many operations as currently possible and
536  * does not block until @p num_ops entries in the queue are available.
537  * This function does not provide any error notification to avoid the
538  * corresponding overhead.
539  *
540  * @param dev_id
541  *   The identifier of the device.
542  * @param queue_id
543  *   The index of the queue.
544  * @param ops
545  *   Pointer array containing operations to be enqueued Must have at least
546  *   @p num_ops entries
547  * @param num_ops
548  *   The maximum number of operations to enqueue.
549  *
550  * @return
551  *   The number of operations actually enqueued (this is the number of processed
552  *   entries in the @p ops array).
553  */
554 __rte_experimental
555 static inline uint16_t
556 rte_bbdev_enqueue_ldpc_enc_ops(uint16_t dev_id, uint16_t queue_id,
557                 struct rte_bbdev_enc_op **ops, uint16_t num_ops)
558 {
559         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
560         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
561         return dev->enqueue_ldpc_enc_ops(q_data, ops, num_ops);
562 }
563
564 /**
565  * Enqueue a burst of processed decode operations to a queue of the device.
566  * This functions only enqueues as many operations as currently possible and
567  * does not block until @p num_ops entries in the queue are available.
568  * This function does not provide any error notification to avoid the
569  * corresponding overhead.
570  *
571  * @param dev_id
572  *   The identifier of the device.
573  * @param queue_id
574  *   The index of the queue.
575  * @param ops
576  *   Pointer array containing operations to be enqueued Must have at least
577  *   @p num_ops entries
578  * @param num_ops
579  *   The maximum number of operations to enqueue.
580  *
581  * @return
582  *   The number of operations actually enqueued (this is the number of processed
583  *   entries in the @p ops array).
584  */
585 __rte_experimental
586 static inline uint16_t
587 rte_bbdev_enqueue_ldpc_dec_ops(uint16_t dev_id, uint16_t queue_id,
588                 struct rte_bbdev_dec_op **ops, uint16_t num_ops)
589 {
590         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
591         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
592         return dev->enqueue_ldpc_dec_ops(q_data, ops, num_ops);
593 }
594
595
596 /**
597  * Dequeue a burst of processed encode operations from a queue of the device.
598  * This functions returns only the current contents of the queue, and does not
599  * block until @ num_ops is available.
600  * This function does not provide any error notification to avoid the
601  * corresponding overhead.
602  *
603  * @param dev_id
604  *   The identifier of the device.
605  * @param queue_id
606  *   The index of the queue.
607  * @param ops
608  *   Pointer array where operations will be dequeued to. Must have at least
609  *   @p num_ops entries
610  * @param num_ops
611  *   The maximum number of operations to dequeue.
612  *
613  * @return
614  *   The number of operations actually dequeued (this is the number of entries
615  *   copied into the @p ops array).
616  */
617 __rte_experimental
618 static inline uint16_t
619 rte_bbdev_dequeue_enc_ops(uint16_t dev_id, uint16_t queue_id,
620                 struct rte_bbdev_enc_op **ops, uint16_t num_ops)
621 {
622         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
623         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
624         return dev->dequeue_enc_ops(q_data, ops, num_ops);
625 }
626
627 /**
628  * Dequeue a burst of processed decode operations from a queue of the device.
629  * This functions returns only the current contents of the queue, and does not
630  * block until @ num_ops is available.
631  * This function does not provide any error notification to avoid the
632  * corresponding overhead.
633  *
634  * @param dev_id
635  *   The identifier of the device.
636  * @param queue_id
637  *   The index of the queue.
638  * @param ops
639  *   Pointer array where operations will be dequeued to. Must have at least
640  *   @p num_ops entries
641  * @param num_ops
642  *   The maximum number of operations to dequeue.
643  *
644  * @return
645  *   The number of operations actually dequeued (this is the number of entries
646  *   copied into the @p ops array).
647  */
648
649 __rte_experimental
650 static inline uint16_t
651 rte_bbdev_dequeue_dec_ops(uint16_t dev_id, uint16_t queue_id,
652                 struct rte_bbdev_dec_op **ops, uint16_t num_ops)
653 {
654         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
655         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
656         return dev->dequeue_dec_ops(q_data, ops, num_ops);
657 }
658
659
660 /**
661  * Dequeue a burst of processed encode operations from a queue of the device.
662  * This functions returns only the current contents of the queue, and does not
663  * block until @ num_ops is available.
664  * This function does not provide any error notification to avoid the
665  * corresponding overhead.
666  *
667  * @param dev_id
668  *   The identifier of the device.
669  * @param queue_id
670  *   The index of the queue.
671  * @param ops
672  *   Pointer array where operations will be dequeued to. Must have at least
673  *   @p num_ops entries
674  * @param num_ops
675  *   The maximum number of operations to dequeue.
676  *
677  * @return
678  *   The number of operations actually dequeued (this is the number of entries
679  *   copied into the @p ops array).
680  */
681 __rte_experimental
682 static inline uint16_t
683 rte_bbdev_dequeue_ldpc_enc_ops(uint16_t dev_id, uint16_t queue_id,
684                 struct rte_bbdev_enc_op **ops, uint16_t num_ops)
685 {
686         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
687         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
688         return dev->dequeue_ldpc_enc_ops(q_data, ops, num_ops);
689 }
690
691 /**
692  * Dequeue a burst of processed decode operations from a queue of the device.
693  * This functions returns only the current contents of the queue, and does not
694  * block until @ num_ops is available.
695  * This function does not provide any error notification to avoid the
696  * corresponding overhead.
697  *
698  * @param dev_id
699  *   The identifier of the device.
700  * @param queue_id
701  *   The index of the queue.
702  * @param ops
703  *   Pointer array where operations will be dequeued to. Must have at least
704  *   @p num_ops entries
705  * @param num_ops
706  *   The maximum number of operations to dequeue.
707  *
708  * @return
709  *   The number of operations actually dequeued (this is the number of entries
710  *   copied into the @p ops array).
711  */
712 __rte_experimental
713 static inline uint16_t
714 rte_bbdev_dequeue_ldpc_dec_ops(uint16_t dev_id, uint16_t queue_id,
715                 struct rte_bbdev_dec_op **ops, uint16_t num_ops)
716 {
717         struct rte_bbdev *dev = &rte_bbdev_devices[dev_id];
718         struct rte_bbdev_queue_data *q_data = &dev->data->queues[queue_id];
719         return dev->dequeue_ldpc_dec_ops(q_data, ops, num_ops);
720 }
721
722 /** Definitions of device event types */
723 enum rte_bbdev_event_type {
724         RTE_BBDEV_EVENT_UNKNOWN,  /**< unknown event type */
725         RTE_BBDEV_EVENT_ERROR,  /**< error interrupt event */
726         RTE_BBDEV_EVENT_DEQUEUE,  /**< dequeue event */
727         RTE_BBDEV_EVENT_MAX  /**< max value of this enum */
728 };
729
730 /**
731  * Typedef for application callback function registered by application
732  * software for notification of device events
733  *
734  * @param dev_id
735  *   Device identifier
736  * @param event
737  *   Device event to register for notification of.
738  * @param cb_arg
739  *   User specified parameter to be passed to user's callback function.
740  * @param ret_param
741  *   To pass data back to user application.
742  */
743 typedef void (*rte_bbdev_cb_fn)(uint16_t dev_id,
744                 enum rte_bbdev_event_type event, void *cb_arg,
745                 void *ret_param);
746
747 /**
748  * Register a callback function for specific device id. Multiple callbacks can
749  * be added and will be called in the order they are added when an event is
750  * triggered. Callbacks are called in a separate thread created by the DPDK EAL.
751  *
752  * @param dev_id
753  *   Device id.
754  * @param event
755  *   The event that the callback will be registered for.
756  * @param cb_fn
757  *   User supplied callback function to be called.
758  * @param cb_arg
759  *   Pointer to parameter that will be passed to the callback.
760  *
761  * @return
762  *   Zero on success, negative value on failure.
763  */
764 __rte_experimental
765 int
766 rte_bbdev_callback_register(uint16_t dev_id, enum rte_bbdev_event_type event,
767                 rte_bbdev_cb_fn cb_fn, void *cb_arg);
768
769 /**
770  * Unregister a callback function for specific device id.
771  *
772  * @param dev_id
773  *   The device identifier.
774  * @param event
775  *   The event that the callback will be unregistered for.
776  * @param cb_fn
777  *   User supplied callback function to be unregistered.
778  * @param cb_arg
779  *   Pointer to the parameter supplied when registering the callback.
780  *   (void *)-1 means to remove all registered callbacks with the specified
781  *   function address.
782  *
783  * @return
784  *   - 0 on success
785  *   - EINVAL if invalid parameter pointer is provided
786  *   - EAGAIN if the provided callback pointer does not exist
787  */
788 __rte_experimental
789 int
790 rte_bbdev_callback_unregister(uint16_t dev_id, enum rte_bbdev_event_type event,
791                 rte_bbdev_cb_fn cb_fn, void *cb_arg);
792
793 /**
794  * Enable a one-shot interrupt on the next operation enqueued to a particular
795  * queue. The interrupt will be triggered when the operation is ready to be
796  * dequeued. To handle the interrupt, an epoll file descriptor must be
797  * registered using rte_bbdev_queue_intr_ctl(), and then an application
798  * thread/lcore can wait for the interrupt using rte_epoll_wait().
799  *
800  * @param dev_id
801  *   The device identifier.
802  * @param queue_id
803  *   The index of the queue.
804  *
805  * @return
806  *   - 0 on success
807  *   - negative value on failure - as returned from PMD driver
808  */
809 __rte_experimental
810 int
811 rte_bbdev_queue_intr_enable(uint16_t dev_id, uint16_t queue_id);
812
813 /**
814  * Disable a one-shot interrupt on the next operation enqueued to a particular
815  * queue (if it has been enabled).
816  *
817  * @param dev_id
818  *   The device identifier.
819  * @param queue_id
820  *   The index of the queue.
821  *
822  * @return
823  *   - 0 on success
824  *   - negative value on failure - as returned from PMD driver
825  */
826 __rte_experimental
827 int
828 rte_bbdev_queue_intr_disable(uint16_t dev_id, uint16_t queue_id);
829
830 /**
831  * Control interface for per-queue interrupts.
832  *
833  * @param dev_id
834  *   The device identifier.
835  * @param queue_id
836  *   The index of the queue.
837  * @param epfd
838  *   Epoll file descriptor that will be associated with the interrupt source.
839  *   If the special value RTE_EPOLL_PER_THREAD is provided, a per thread epoll
840  *   file descriptor created by the EAL is used (RTE_EPOLL_PER_THREAD can also
841  *   be used when calling rte_epoll_wait()).
842  * @param op
843  *   The operation be performed for the vector.RTE_INTR_EVENT_ADD or
844  *   RTE_INTR_EVENT_DEL.
845  * @param data
846  *   User context, that will be returned in the epdata.data field of the
847  *   rte_epoll_event structure filled in by rte_epoll_wait().
848  *
849  * @return
850  *   - 0 on success
851  *   - ENOTSUP if interrupts are not supported by the identified device
852  *   - negative value on failure - as returned from PMD driver
853  */
854 __rte_experimental
855 int
856 rte_bbdev_queue_intr_ctl(uint16_t dev_id, uint16_t queue_id, int epfd, int op,
857                 void *data);
858
859 #ifdef __cplusplus
860 }
861 #endif
862
863 #endif /* _RTE_BBDEV_H_ */