ethdev: introduce shared Rx queue
[dpdk.git] / doc / guides / prog_guide / cryptodev_lib.rst
1 ..  SPDX-License-Identifier: BSD-3-Clause
2     Copyright(c) 2016-2020 Intel Corporation.
3
4 Cryptography Device Library
5 ===========================
6
7 The cryptodev library provides a Crypto device framework for management and
8 provisioning of hardware and software Crypto poll mode drivers, defining generic
9 APIs which support a number of different Crypto operations. The framework
10 currently only supports cipher, authentication, chained cipher/authentication
11 and AEAD symmetric and asymmetric Crypto operations.
12
13
14 Design Principles
15 -----------------
16
17 The cryptodev library follows the same basic principles as those used in DPDK's
18 Ethernet Device framework. The Crypto framework provides a generic Crypto device
19 framework which supports both physical (hardware) and virtual (software) Crypto
20 devices as well as a generic Crypto API which allows Crypto devices to be
21 managed and configured and supports Crypto operations to be provisioned on
22 Crypto poll mode driver.
23
24
25 Device Management
26 -----------------
27
28 Device Creation
29 ~~~~~~~~~~~~~~~
30
31 Physical Crypto devices are discovered during the PCI probe/enumeration of the
32 EAL function which is executed at DPDK initialization, based on
33 their PCI device identifier, each unique PCI BDF (bus/bridge, device,
34 function). Specific physical Crypto devices, like other physical devices in DPDK
35 can be listed using the EAL command line options.
36
37 Virtual devices can be created by two mechanisms, either using the EAL command
38 line options or from within the application using an EAL API directly.
39
40 From the command line using the --vdev EAL option
41
42 .. code-block:: console
43
44    --vdev  'crypto_aesni_mb0,max_nb_queue_pairs=2,socket_id=0'
45
46 .. Note::
47
48    * If DPDK application requires multiple software crypto PMD devices then required
49      number of ``--vdev`` with appropriate libraries are to be added.
50
51    * An Application with crypto PMD instances sharing the same library requires unique ID.
52
53    Example: ``--vdev  'crypto_aesni_mb0' --vdev  'crypto_aesni_mb1'``
54
55 Or using the rte_vdev_init API within the application code.
56
57 .. code-block:: c
58
59    rte_vdev_init("crypto_aesni_mb",
60                      "max_nb_queue_pairs=2,socket_id=0")
61
62 All virtual Crypto devices support the following initialization parameters:
63
64 * ``max_nb_queue_pairs`` - maximum number of queue pairs supported by the device.
65 * ``socket_id`` - socket on which to allocate the device resources on.
66
67
68 Device Identification
69 ~~~~~~~~~~~~~~~~~~~~~
70
71 Each device, whether virtual or physical is uniquely designated by two
72 identifiers:
73
74 - A unique device index used to designate the Crypto device in all functions
75   exported by the cryptodev API.
76
77 - A device name used to designate the Crypto device in console messages, for
78   administration or debugging purposes. For ease of use, the port name includes
79   the port index.
80
81
82 Device Configuration
83 ~~~~~~~~~~~~~~~~~~~~
84
85 The configuration of each Crypto device includes the following operations:
86
87 - Allocation of resources, including hardware resources if a physical device.
88 - Resetting the device into a well-known default state.
89 - Initialization of statistics counters.
90
91 The rte_cryptodev_configure API is used to configure a Crypto device.
92
93 .. code-block:: c
94
95    int rte_cryptodev_configure(uint8_t dev_id,
96                                struct rte_cryptodev_config *config)
97
98 The ``rte_cryptodev_config`` structure is used to pass the configuration
99 parameters for socket selection and number of queue pairs.
100
101 .. code-block:: c
102
103     struct rte_cryptodev_config {
104         int socket_id;
105         /**< Socket to allocate resources on */
106         uint16_t nb_queue_pairs;
107         /**< Number of queue pairs to configure on device */
108     };
109
110
111 Configuration of Queue Pairs
112 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
113
114 Each Crypto devices queue pair is individually configured through the
115 ``rte_cryptodev_queue_pair_setup`` API.
116 Each queue pairs resources may be allocated on a specified socket.
117
118 .. code-block:: c
119
120     int rte_cryptodev_queue_pair_setup(uint8_t dev_id, uint16_t queue_pair_id,
121                 const struct rte_cryptodev_qp_conf *qp_conf,
122                 int socket_id)
123
124    struct rte_cryptodev_qp_conf {
125         uint32_t nb_descriptors; /**< Number of descriptors per queue pair */
126         struct rte_mempool *mp_session;
127         /**< The mempool for creating session in sessionless mode */
128         struct rte_mempool *mp_session_private;
129         /**< The mempool for creating sess private data in sessionless mode */
130     };
131
132
133 The fields ``mp_session`` and ``mp_session_private`` are used for creating
134 temporary session to process the crypto operations in the session-less mode.
135 They can be the same other different mempools. Please note not all Cryptodev
136 PMDs supports session-less mode.
137
138
139 Logical Cores, Memory and Queues Pair Relationships
140 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
141
142 The Crypto device Library as the Poll Mode Driver library support NUMA for when
143 a processor’s logical cores and interfaces utilize its local memory. Therefore
144 Crypto operations, and in the case of symmetric Crypto operations, the session
145 and the mbuf being operated on, should be allocated from memory pools created
146 in the local memory. The buffers should, if possible, remain on the local
147 processor to obtain the best performance results and buffer descriptors should
148 be populated with mbufs allocated from a mempool allocated from local memory.
149
150 The run-to-completion model also performs better, especially in the case of
151 virtual Crypto devices, if the Crypto operation and session and data buffer is
152 in local memory instead of a remote processor's memory. This is also true for
153 the pipe-line model provided all logical cores used are located on the same
154 processor.
155
156 Multiple logical cores should never share the same queue pair for enqueuing
157 operations or dequeuing operations on the same Crypto device since this would
158 require global locks and hinder performance. It is however possible to use a
159 different logical core to dequeue an operation on a queue pair from the logical
160 core which it was enqueued on. This means that a crypto burst enqueue/dequeue
161 APIs are a logical place to transition from one logical core to another in a
162 packet processing pipeline.
163
164
165 Device Features and Capabilities
166 ---------------------------------
167
168 Crypto devices define their functionality through two mechanisms, global device
169 features and algorithm capabilities. Global devices features identify device
170 wide level features which are applicable to the whole device such as
171 the device having hardware acceleration or supporting symmetric and/or asymmetric
172 Crypto operations.
173
174 The capabilities mechanism defines the individual algorithms/functions which
175 the device supports, such as a specific symmetric Crypto cipher,
176 authentication operation or Authenticated Encryption with Associated Data
177 (AEAD) operation.
178
179
180 Device Features
181 ~~~~~~~~~~~~~~~
182
183 Currently the following Crypto device features are defined:
184
185 * Symmetric Crypto operations
186 * Asymmetric Crypto operations
187 * Chaining of symmetric Crypto operations
188 * SSE accelerated SIMD vector operations
189 * AVX accelerated SIMD vector operations
190 * AVX2 accelerated SIMD vector operations
191 * AESNI accelerated instructions
192 * Hardware off-load processing
193
194
195 Device Operation Capabilities
196 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
197
198 Crypto capabilities which identify particular algorithm which the Crypto PMD
199 supports are  defined by the operation type, the operation transform, the
200 transform identifier and then the particulars of the transform. For the full
201 scope of the Crypto capability see the definition of the structure in the
202 *DPDK API Reference*.
203
204 .. code-block:: c
205
206    struct rte_cryptodev_capabilities;
207
208 Each Crypto poll mode driver defines its own private array of capabilities
209 for the operations it supports. Below is an example of the capabilities for a
210 PMD which supports the authentication algorithm SHA1_HMAC and the cipher
211 algorithm AES_CBC.
212
213 .. code-block:: c
214
215     static const struct rte_cryptodev_capabilities pmd_capabilities[] = {
216         {    /* SHA1 HMAC */
217             .op = RTE_CRYPTO_OP_TYPE_SYMMETRIC,
218             .sym = {
219                 .xform_type = RTE_CRYPTO_SYM_XFORM_AUTH,
220                 .auth = {
221                     .algo = RTE_CRYPTO_AUTH_SHA1_HMAC,
222                     .block_size = 64,
223                     .key_size = {
224                         .min = 64,
225                         .max = 64,
226                         .increment = 0
227                     },
228                     .digest_size = {
229                         .min = 12,
230                         .max = 12,
231                         .increment = 0
232                     },
233                     .aad_size = { 0 },
234                     .iv_size = { 0 }
235                 }
236             }
237         },
238         {    /* AES CBC */
239             .op = RTE_CRYPTO_OP_TYPE_SYMMETRIC,
240             .sym = {
241                 .xform_type = RTE_CRYPTO_SYM_XFORM_CIPHER,
242                 .cipher = {
243                     .algo = RTE_CRYPTO_CIPHER_AES_CBC,
244                     .block_size = 16,
245                     .key_size = {
246                         .min = 16,
247                         .max = 32,
248                         .increment = 8
249                     },
250                     .iv_size = {
251                         .min = 16,
252                         .max = 16,
253                         .increment = 0
254                     }
255                 }
256             }
257         }
258     }
259
260
261 Capabilities Discovery
262 ~~~~~~~~~~~~~~~~~~~~~~
263
264 Discovering the features and capabilities of a Crypto device poll mode driver
265 is achieved through the ``rte_cryptodev_info_get`` function.
266
267 .. code-block:: c
268
269    void rte_cryptodev_info_get(uint8_t dev_id,
270                                struct rte_cryptodev_info *dev_info);
271
272 This allows the user to query a specific Crypto PMD and get all the device
273 features and capabilities. The ``rte_cryptodev_info`` structure contains all the
274 relevant information for the device.
275
276 .. code-block:: c
277
278     struct rte_cryptodev_info {
279         const char *driver_name;
280         uint8_t driver_id;
281         struct rte_device *device;
282
283         uint64_t feature_flags;
284
285         const struct rte_cryptodev_capabilities *capabilities;
286
287         unsigned max_nb_queue_pairs;
288
289         struct {
290             unsigned max_nb_sessions;
291         } sym;
292     };
293
294
295 Operation Processing
296 --------------------
297
298 Scheduling of Crypto operations on DPDK's application data path is
299 performed using a burst oriented asynchronous API set. A queue pair on a Crypto
300 device accepts a burst of Crypto operations using enqueue burst API. On physical
301 Crypto devices the enqueue burst API will place the operations to be processed
302 on the devices hardware input queue, for virtual devices the processing of the
303 Crypto operations is usually completed during the enqueue call to the Crypto
304 device. The dequeue burst API will retrieve any processed operations available
305 from the queue pair on the Crypto device, from physical devices this is usually
306 directly from the devices processed queue, and for virtual device's from a
307 ``rte_ring`` where processed operations are placed after being processed on the
308 enqueue call.
309
310
311 Private data
312 ~~~~~~~~~~~~
313 For session-based operations, the set and get API provides a mechanism for an
314 application to store and retrieve the private user data information stored along
315 with the crypto session.
316
317 For example, suppose an application is submitting a crypto operation with a session
318 associated and wants to indicate private user data information which is required to be
319 used after completion of the crypto operation. In this case, the application can use
320 the set API to set the user data and retrieve it using get API.
321
322 .. code-block:: c
323
324         int rte_cryptodev_sym_session_set_user_data(
325                 struct rte_cryptodev_sym_session *sess, void *data, uint16_t size);
326
327         void * rte_cryptodev_sym_session_get_user_data(
328                 struct rte_cryptodev_sym_session *sess);
329
330 Please note the ``size`` passed to set API cannot be bigger than the predefined
331 ``user_data_sz`` when creating the session header mempool, otherwise the
332 function will return error. Also when ``user_data_sz`` was defined as ``0`` when
333 creating the session header mempool, the get API will always return ``NULL``.
334
335 For session-less mode, the private user data information can be placed along with the
336 ``struct rte_crypto_op``. The ``rte_crypto_op::private_data_offset`` indicates the
337 start of private data information. The offset is counted from the start of the
338 rte_crypto_op including other crypto information such as the IVs (since there can
339 be an IV also for authentication).
340
341 User callback APIs
342 ~~~~~~~~~~~~~~~~~~
343 The add APIs configures a user callback function to be called for each burst of crypto
344 ops received/sent on a given crypto device queue pair. The return value is a pointer
345 that can be used later to remove the callback using remove API. Application is expected
346 to register a callback function of type ``rte_cryptodev_callback_fn``. Multiple callback
347 functions can be added for a given queue pair. API does not restrict on maximum number of
348 callbacks.
349
350 Callbacks registered by application would not survive ``rte_cryptodev_configure`` as it
351 reinitializes the callback list. It is user responsibility to remove all installed
352 callbacks before calling ``rte_cryptodev_configure`` to avoid possible memory leakage.
353
354 So, the application is expected to add user callback after ``rte_cryptodev_configure``.
355 The callbacks can also be added at the runtime. These callbacks get executed when
356 ``rte_cryptodev_enqueue_burst``/``rte_cryptodev_dequeue_burst`` is called.
357
358 .. code-block:: c
359
360         struct rte_cryptodev_cb *
361                 rte_cryptodev_add_enq_callback(uint8_t dev_id, uint16_t qp_id,
362                                                rte_cryptodev_callback_fn cb_fn,
363                                                void *cb_arg);
364
365         struct rte_cryptodev_cb *
366                 rte_cryptodev_add_deq_callback(uint8_t dev_id, uint16_t qp_id,
367                                                rte_cryptodev_callback_fn cb_fn,
368                                                void *cb_arg);
369
370         uint16_t (* rte_cryptodev_callback_fn)(uint16_t dev_id, uint16_t qp_id,
371                                                struct rte_crypto_op **ops,
372                                                uint16_t nb_ops, void *user_param);
373
374 The remove API removes a callback function added by
375 ``rte_cryptodev_add_enq_callback``/``rte_cryptodev_add_deq_callback``.
376
377 .. code-block:: c
378
379         int rte_cryptodev_remove_enq_callback(uint8_t dev_id, uint16_t qp_id,
380                                               struct rte_cryptodev_cb *cb);
381
382         int rte_cryptodev_remove_deq_callback(uint8_t dev_id, uint16_t qp_id,
383                                               struct rte_cryptodev_cb *cb);
384
385
386 Enqueue / Dequeue Burst APIs
387 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
388
389 The burst enqueue API uses a Crypto device identifier and a queue pair
390 identifier to specify the Crypto device queue pair to schedule the processing on.
391 The ``nb_ops`` parameter is the number of operations to process which are
392 supplied in the ``ops`` array of ``rte_crypto_op`` structures.
393 The enqueue function returns the number of operations it actually enqueued for
394 processing, a return value equal to ``nb_ops`` means that all packets have been
395 enqueued.
396
397 .. code-block:: c
398
399    uint16_t rte_cryptodev_enqueue_burst(uint8_t dev_id, uint16_t qp_id,
400                                         struct rte_crypto_op **ops, uint16_t nb_ops)
401
402 The dequeue API uses the same format as the enqueue API of processed but
403 the ``nb_ops`` and ``ops`` parameters are now used to specify the max processed
404 operations the user wishes to retrieve and the location in which to store them.
405 The API call returns the actual number of processed operations returned, this
406 can never be larger than ``nb_ops``.
407
408 .. code-block:: c
409
410    uint16_t rte_cryptodev_dequeue_burst(uint8_t dev_id, uint16_t qp_id,
411                                         struct rte_crypto_op **ops, uint16_t nb_ops)
412
413
414 Operation Representation
415 ~~~~~~~~~~~~~~~~~~~~~~~~
416
417 An Crypto operation is represented by an rte_crypto_op structure, which is a
418 generic metadata container for all necessary information required for the
419 Crypto operation to be processed on a particular Crypto device poll mode driver.
420
421 .. figure:: img/crypto_op.*
422
423 The operation structure includes the operation type, the operation status
424 and the session type (session-based/less), a reference to the operation
425 specific data, which can vary in size and content depending on the operation
426 being provisioned. It also contains the source mempool for the operation,
427 if it allocated from a mempool.
428
429 If Crypto operations are allocated from a Crypto operation mempool, see next
430 section, there is also the ability to allocate private memory with the
431 operation for applications purposes.
432
433 Application software is responsible for specifying all the operation specific
434 fields in the ``rte_crypto_op`` structure which are then used by the Crypto PMD
435 to process the requested operation.
436
437
438 Operation Management and Allocation
439 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
440
441 The cryptodev library provides an API set for managing Crypto operations which
442 utilize the Mempool Library to allocate operation buffers. Therefore, it ensures
443 that the crypto operation is interleaved optimally across the channels and
444 ranks for optimal processing.
445 A ``rte_crypto_op`` contains a field indicating the pool that it originated from.
446 When calling ``rte_crypto_op_free(op)``, the operation returns to its original pool.
447
448 .. code-block:: c
449
450    extern struct rte_mempool *
451    rte_crypto_op_pool_create(const char *name, enum rte_crypto_op_type type,
452                              unsigned nb_elts, unsigned cache_size, uint16_t priv_size,
453                              int socket_id);
454
455 During pool creation ``rte_crypto_op_init()`` is called as a constructor to
456 initialize each Crypto operation which subsequently calls
457 ``__rte_crypto_op_reset()`` to configure any operation type specific fields based
458 on the type parameter.
459
460
461 ``rte_crypto_op_alloc()`` and ``rte_crypto_op_bulk_alloc()`` are used to allocate
462 Crypto operations of a specific type from a given Crypto operation mempool.
463 ``__rte_crypto_op_reset()`` is called on each operation before being returned to
464 allocate to a user so the operation is always in a good known state before use
465 by the application.
466
467 .. code-block:: c
468
469    struct rte_crypto_op *rte_crypto_op_alloc(struct rte_mempool *mempool,
470                                              enum rte_crypto_op_type type)
471
472    unsigned rte_crypto_op_bulk_alloc(struct rte_mempool *mempool,
473                                      enum rte_crypto_op_type type,
474                                      struct rte_crypto_op **ops, uint16_t nb_ops)
475
476 ``rte_crypto_op_free()`` is called by the application to return an operation to
477 its allocating pool.
478
479 .. code-block:: c
480
481    void rte_crypto_op_free(struct rte_crypto_op *op)
482
483
484 Symmetric Cryptography Support
485 ------------------------------
486
487 The cryptodev library currently provides support for the following symmetric
488 Crypto operations; cipher, authentication, including chaining of these
489 operations, as well as also supporting AEAD operations.
490
491
492 Session and Session Management
493 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
494
495 Sessions are used in symmetric cryptographic processing to store the immutable
496 data defined in a cryptographic transform which is used in the operation
497 processing of a packet flow. Sessions are used to manage information such as
498 expand cipher keys and HMAC IPADs and OPADs, which need to be calculated for a
499 particular Crypto operation, but are immutable on a packet to packet basis for
500 a flow. Crypto sessions cache this immutable data in a optimal way for the
501 underlying PMD and this allows further acceleration of the offload of
502 Crypto workloads.
503
504 .. figure:: img/cryptodev_sym_sess.*
505
506 The Crypto device framework provides APIs to create session mempool and allocate
507 and initialize sessions for crypto devices, where sessions are mempool objects.
508 The application has to use ``rte_cryptodev_sym_session_pool_create()`` to
509 create the session header mempool that creates a mempool with proper element
510 size automatically and stores necessary information for safely accessing the
511 session in the mempool's private data field.
512
513 To create a mempool for storing session private data, the application has two
514 options. The first is to create another mempool with elt size equal to or
515 bigger than the maximum session private data size of all crypto devices that
516 will share the same session header. The creation of the mempool shall use the
517 traditional ``rte_mempool_create()`` with the correct ``elt_size``. The other
518 option is to change the ``elt_size`` parameter in
519 ``rte_cryptodev_sym_session_pool_create()`` to the correct value. The first
520 option is more complex to implement but may result in better memory usage as
521 a session header normally takes smaller memory footprint as the session private
522 data.
523
524 Once the session mempools have been created, ``rte_cryptodev_sym_session_create()``
525 is used to allocate an uninitialized session from the given mempool.
526 The session then must be initialized using ``rte_cryptodev_sym_session_init()``
527 for each of the required crypto devices. A symmetric transform chain
528 is used to specify the operation and its parameters. See the section below for
529 details on transforms.
530
531 When a session is no longer used, user must call ``rte_cryptodev_sym_session_clear()``
532 for each of the crypto devices that are using the session, to free all driver
533 private session data. Once this is done, session should be freed using
534 ``rte_cryptodev_sym_session_free`` which returns them to their mempool.
535
536
537 Transforms and Transform Chaining
538 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
539
540 Symmetric Crypto transforms (``rte_crypto_sym_xform``) are the mechanism used
541 to specify the details of the Crypto operation. For chaining of symmetric
542 operations such as cipher encrypt and authentication generate, the next pointer
543 allows transform to be chained together. Crypto devices which support chaining
544 must publish the chaining of symmetric Crypto operations feature flag. Allocation of the
545 xform structure is in the application domain. To allow future API extensions in a
546 backwardly compatible manner, e.g. addition of a new parameter, the application should
547 zero the full xform struct before populating it.
548
549 Currently there are three transforms types cipher, authentication and AEAD.
550 Also it is important to note that the order in which the
551 transforms are passed indicates the order of the chaining.
552
553 .. code-block:: c
554
555     struct rte_crypto_sym_xform {
556         struct rte_crypto_sym_xform *next;
557         /**< next xform in chain */
558         enum rte_crypto_sym_xform_type type;
559         /**< xform type */
560         union {
561             struct rte_crypto_auth_xform auth;
562             /**< Authentication / hash xform */
563             struct rte_crypto_cipher_xform cipher;
564             /**< Cipher xform */
565             struct rte_crypto_aead_xform aead;
566             /**< AEAD xform */
567         };
568     };
569
570 The API does not place a limit on the number of transforms that can be chained
571 together but this will be limited by the underlying Crypto device poll mode
572 driver which is processing the operation.
573
574 .. figure:: img/crypto_xform_chain.*
575
576
577 Symmetric Operations
578 ~~~~~~~~~~~~~~~~~~~~
579
580 The symmetric Crypto operation structure contains all the mutable data relating
581 to performing symmetric cryptographic processing on a referenced mbuf data
582 buffer. It is used for either cipher, authentication, AEAD and chained
583 operations.
584
585 As a minimum the symmetric operation must have a source data buffer (``m_src``),
586 a valid session (or transform chain if in session-less mode) and the minimum
587 authentication/ cipher/ AEAD parameters required depending on the type of operation
588 specified in the session or the transform
589 chain.
590
591 .. code-block:: c
592
593     struct rte_crypto_sym_op {
594         struct rte_mbuf *m_src;
595         struct rte_mbuf *m_dst;
596
597         union {
598             struct rte_cryptodev_sym_session *session;
599             /**< Handle for the initialised session context */
600             struct rte_crypto_sym_xform *xform;
601             /**< Session-less API Crypto operation parameters */
602         };
603
604         union {
605             struct {
606                 struct {
607                     uint32_t offset;
608                     uint32_t length;
609                 } data; /**< Data offsets and length for AEAD */
610
611                 struct {
612                     uint8_t *data;
613                     rte_iova_t phys_addr;
614                 } digest; /**< Digest parameters */
615
616                 struct {
617                     uint8_t *data;
618                     rte_iova_t phys_addr;
619                 } aad;
620                 /**< Additional authentication parameters */
621             } aead;
622
623             struct {
624                 struct {
625                     struct {
626                         uint32_t offset;
627                         uint32_t length;
628                     } data; /**< Data offsets and length for ciphering */
629                 } cipher;
630
631                 struct {
632                     struct {
633                         uint32_t offset;
634                         uint32_t length;
635                     } data;
636                     /**< Data offsets and length for authentication */
637
638                     struct {
639                         uint8_t *data;
640                         rte_iova_t phys_addr;
641                     } digest; /**< Digest parameters */
642                 } auth;
643             };
644         };
645     };
646
647 Synchronous mode
648 ----------------
649
650 Some cryptodevs support synchronous mode alongside with a standard asynchronous
651 mode. In that case operations are performed directly when calling
652 ``rte_cryptodev_sym_cpu_crypto_process`` method instead of enqueuing and
653 dequeuing an operation before. This mode of operation allows cryptodevs which
654 utilize CPU cryptographic acceleration to have significant performance boost
655 comparing to standard asynchronous approach. Cryptodevs supporting synchronous
656 mode have ``RTE_CRYPTODEV_FF_SYM_CPU_CRYPTO`` feature flag set.
657
658 To perform a synchronous operation a call to
659 ``rte_cryptodev_sym_cpu_crypto_process`` has to be made with vectorized
660 operation descriptor (``struct rte_crypto_sym_vec``) containing:
661
662 - ``num`` - number of operations to perform,
663 - pointer to an array of size ``num`` containing a scatter-gather list
664   descriptors of performed operations (``struct rte_crypto_sgl``). Each instance
665   of ``struct rte_crypto_sgl`` consists of a number of segments and a pointer to
666   an array of segment descriptors ``struct rte_crypto_vec``;
667 - pointers to arrays of size ``num`` containing IV, AAD and digest information
668   in the ``cpu_crypto`` sub-structure,
669 - pointer to an array of size ``num`` where status information will be stored
670   for each operation.
671
672 Function returns a number of successfully completed operations and sets
673 appropriate status number for each operation in the status array provided as
674 a call argument. Status different than zero must be treated as error.
675
676 For more details, e.g. how to convert an mbuf to an SGL, please refer to an
677 example usage in the IPsec library implementation.
678
679 Cryptodev Raw Data-path APIs
680 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
681
682 The Crypto Raw data-path APIs are a set of APIs designed to enable external
683 libraries/applications to leverage the cryptographic processing provided by
684 DPDK crypto PMDs through the cryptodev API but in a manner that is not
685 dependent on native DPDK data structures (eg. rte_mbuf, rte_crypto_op, ... etc)
686 in their data-path implementation.
687
688 The raw data-path APIs have the following advantages:
689
690 - External data structure friendly design. The new APIs uses the operation
691   descriptor ``struct rte_crypto_sym_vec`` that supports raw data pointer and
692   IOVA addresses as input. Moreover, the APIs does not require the user to
693   allocate the descriptor from mempool, nor requiring mbufs to describe input
694   data's virtual and IOVA addresses. All these features made the translation
695   from user's own data structure into the descriptor easier and more efficient.
696
697 - Flexible enqueue and dequeue operation. The raw data-path APIs gives the
698   user more control to the enqueue and dequeue operations, including the
699   capability of precious enqueue/dequeue count, abandoning enqueue or dequeue
700   at any time, and operation status translation and set on the fly.
701
702 Cryptodev PMDs which support the raw data-path APIs will have
703 ``RTE_CRYPTODEV_FF_SYM_RAW_DP`` feature flag presented. To use this feature,
704 the user shall create a local ``struct rte_crypto_raw_dp_ctx`` buffer and
705 extend to at least the length returned by ``rte_cryptodev_get_raw_dp_ctx_size``
706 function call. The created buffer is then initialized using
707 ``rte_cryptodev_configure_raw_dp_ctx`` function with the ``is_update``
708 parameter as 0. The library and the crypto device driver will then set the
709 buffer and attach either the cryptodev sym session, the rte_security session,
710 or the cryptodev xform for session-less operation into the ctx buffer, and
711 set the corresponding enqueue and dequeue function handlers based on the
712 algorithm information stored in the session or xform. When the ``is_update``
713 parameter passed into ``rte_cryptodev_configure_raw_dp_ctx`` is 1, the driver
714 will not initialize the buffer but only update the session or xform and
715 the function handlers accordingly.
716
717 After the ``struct rte_crypto_raw_dp_ctx`` buffer is initialized, it is now
718 ready for enqueue and dequeue operation. There are two different enqueue
719 functions: ``rte_cryptodev_raw_enqueue`` to enqueue single raw data
720 operation, and ``rte_cryptodev_raw_enqueue_burst`` to enqueue a descriptor
721 with multiple operations. In case of the application uses similar approach to
722 ``struct rte_crypto_sym_vec`` to manage its data burst but with different
723 data structure, using the ``rte_cryptodev_raw_enqueue_burst`` function may be
724 less efficient as this is a situation where the application has to loop over
725 all crypto operations to assemble the ``struct rte_crypto_sym_vec`` descriptor
726 from its own data structure, and then the driver will loop over them again to
727 translate every operation in the descriptor to the driver's specific queue data.
728 The ``rte_cryptodev_raw_enqueue`` should be used to save one loop for each data
729 burst instead.
730
731 The ``rte_cryptodev_raw_enqueue`` and ``rte_cryptodev_raw_enqueue_burst``
732 functions will return or set the enqueue status. ``rte_cryptodev_raw_enqueue``
733 will return the status directly, ``rte_cryptodev_raw_enqueue_burst`` will
734 return the number of operations enqueued or stored (explained as follows) and
735 set the ``enqueue_status`` buffer provided by the user. The possible
736 enqueue status values are:
737
738 - ``1``: the operation(s) is/are enqueued successfully.
739 - ``0``: the operation(s) is/are cached successfully in the crypto device queue
740   but is not actually enqueued. The user shall call
741   ``rte_cryptodev_raw_enqueue_done`` function after the expected operations
742   are stored. The crypto device will then start enqueuing all of them at
743   once.
744 - The negative integer: error occurred during enqueue.
745
746 Calling ``rte_cryptodev_configure_raw_dp_ctx`` with the parameter ``is_update``
747 set as 0 twice without the enqueue function returning or setting enqueue status
748 to 1 or ``rte_cryptodev_raw_enqueue_done`` function being called in between will
749 invalidate any operation stored in the device queue but not enqueued. This
750 feature is useful when the user wants to abandon partially enqueued operations
751 for a failed enqueue burst operation and try enqueuing in a whole later.
752
753 Similar as enqueue, there are two dequeue functions:
754 ``rte_cryptodev_raw_dequeue`` for dequeing single operation, and
755 ``rte_cryptodev_raw_dequeue_burst`` for dequeuing a burst of operations (e.g.
756 all operations in a ``struct rte_crypto_sym_vec`` descriptor). The
757 ``rte_cryptodev_raw_dequeue_burst`` function allows the user to provide callback
758 functions to retrieve dequeue count from the enqueued user data and write the
759 expected status value to the user data on the fly. The dequeue functions also
760 set the dequeue status:
761
762 - ``1``: the operation(s) is/are dequeued successfully.
763 - ``0``: the operation(s) is/are completed but is not actually dequeued (hence
764   still kept in the device queue). The user shall call the
765   ``rte_cryptodev_raw_dequeue_done`` function after the expected number of
766   operations (e.g. all operations in a descriptor) are dequeued. The crypto
767   device driver will then free them from the queue at once.
768 - The negative integer: error occurred during dequeue.
769
770 Calling ``rte_cryptodev_configure_raw_dp_ctx`` with the parameter ``is_update``
771 set as 0 twice without the dequeue functions execution changed dequeue_status
772 to 1 or ``rte_cryptodev_raw_dequeue_done`` function being called in between will
773 revert the crypto device queue's dequeue effort to the moment when the
774 ``struct rte_crypto_raw_dp_ctx`` buffer is initialized. This feature is useful
775 when the user wants to abandon partially dequeued data and try dequeuing again
776 later in a whole.
777
778 There are a few limitations to the raw data path APIs:
779
780 * Only support in-place operations.
781 * APIs are NOT thread-safe.
782 * CANNOT mix the raw data-path API's enqueue with rte_cryptodev_enqueue_burst,
783   or vice versa.
784
785 See *DPDK API Reference* for details on each API definitions.
786
787 Sample code
788 -----------
789
790 There are various sample applications that show how to use the cryptodev library,
791 such as the L2fwd with Crypto sample application (L2fwd-crypto) and
792 the IPsec Security Gateway application (ipsec-secgw).
793
794 While these applications demonstrate how an application can be created to perform
795 generic crypto operation, the required complexity hides the basic steps of
796 how to use the cryptodev APIs.
797
798 The following sample code shows the basic steps to encrypt several buffers
799 with AES-CBC (although performing other crypto operations is similar),
800 using one of the crypto PMDs available in DPDK.
801
802 .. code-block:: c
803
804     /*
805      * Simple example to encrypt several buffers with AES-CBC using
806      * the Cryptodev APIs.
807      */
808
809     #define MAX_SESSIONS         1024
810     #define NUM_MBUFS            1024
811     #define POOL_CACHE_SIZE      128
812     #define BURST_SIZE           32
813     #define BUFFER_SIZE          1024
814     #define AES_CBC_IV_LENGTH    16
815     #define AES_CBC_KEY_LENGTH   16
816     #define IV_OFFSET            (sizeof(struct rte_crypto_op) + \
817                                  sizeof(struct rte_crypto_sym_op))
818
819     struct rte_mempool *mbuf_pool, *crypto_op_pool;
820     struct rte_mempool *session_pool, *session_priv_pool;
821     unsigned int session_size;
822     int ret;
823
824     /* Initialize EAL. */
825     ret = rte_eal_init(argc, argv);
826     if (ret < 0)
827         rte_exit(EXIT_FAILURE, "Invalid EAL arguments\n");
828
829     uint8_t socket_id = rte_socket_id();
830
831     /* Create the mbuf pool. */
832     mbuf_pool = rte_pktmbuf_pool_create("mbuf_pool",
833                                     NUM_MBUFS,
834                                     POOL_CACHE_SIZE,
835                                     0,
836                                     RTE_MBUF_DEFAULT_BUF_SIZE,
837                                     socket_id);
838     if (mbuf_pool == NULL)
839         rte_exit(EXIT_FAILURE, "Cannot create mbuf pool\n");
840
841     /*
842      * The IV is always placed after the crypto operation,
843      * so some private data is required to be reserved.
844      */
845     unsigned int crypto_op_private_data = AES_CBC_IV_LENGTH;
846
847     /* Create crypto operation pool. */
848     crypto_op_pool = rte_crypto_op_pool_create("crypto_op_pool",
849                                             RTE_CRYPTO_OP_TYPE_SYMMETRIC,
850                                             NUM_MBUFS,
851                                             POOL_CACHE_SIZE,
852                                             crypto_op_private_data,
853                                             socket_id);
854     if (crypto_op_pool == NULL)
855         rte_exit(EXIT_FAILURE, "Cannot create crypto op pool\n");
856
857     /* Create the virtual crypto device. */
858     char args[128];
859     const char *crypto_name = "crypto_aesni_mb0";
860     snprintf(args, sizeof(args), "socket_id=%d", socket_id);
861     ret = rte_vdev_init(crypto_name, args);
862     if (ret != 0)
863         rte_exit(EXIT_FAILURE, "Cannot create virtual device");
864
865     uint8_t cdev_id = rte_cryptodev_get_dev_id(crypto_name);
866
867     /* Get private session data size. */
868     session_size = rte_cryptodev_sym_get_private_session_size(cdev_id);
869
870     #ifdef USE_TWO_MEMPOOLS
871     /* Create session mempool for the session header. */
872     session_pool = rte_cryptodev_sym_session_pool_create("session_pool",
873                                     MAX_SESSIONS,
874                                     0,
875                                     POOL_CACHE_SIZE,
876                                     0,
877                                     socket_id);
878
879     /*
880      * Create session private data mempool for the
881      * private session data for the crypto device.
882      */
883     session_priv_pool = rte_mempool_create("session_pool",
884                                     MAX_SESSIONS,
885                                     session_size,
886                                     POOL_CACHE_SIZE,
887                                     0, NULL, NULL, NULL,
888                                     NULL, socket_id,
889                                     0);
890
891     #else
892     /* Use of the same mempool for session header and private data */
893         session_pool = rte_cryptodev_sym_session_pool_create("session_pool",
894                                     MAX_SESSIONS * 2,
895                                     session_size,
896                                     POOL_CACHE_SIZE,
897                                     0,
898                                     socket_id);
899
900         session_priv_pool = session_pool;
901
902     #endif
903
904     /* Configure the crypto device. */
905     struct rte_cryptodev_config conf = {
906         .nb_queue_pairs = 1,
907         .socket_id = socket_id
908     };
909
910     struct rte_cryptodev_qp_conf qp_conf = {
911         .nb_descriptors = 2048,
912         .mp_session = session_pool,
913         .mp_session_private = session_priv_pool
914     };
915
916     if (rte_cryptodev_configure(cdev_id, &conf) < 0)
917         rte_exit(EXIT_FAILURE, "Failed to configure cryptodev %u", cdev_id);
918
919     if (rte_cryptodev_queue_pair_setup(cdev_id, 0, &qp_conf, socket_id) < 0)
920         rte_exit(EXIT_FAILURE, "Failed to setup queue pair\n");
921
922     if (rte_cryptodev_start(cdev_id) < 0)
923         rte_exit(EXIT_FAILURE, "Failed to start device\n");
924
925     /* Create the crypto transform. */
926     uint8_t cipher_key[16] = {0};
927     struct rte_crypto_sym_xform cipher_xform = {
928         .next = NULL,
929         .type = RTE_CRYPTO_SYM_XFORM_CIPHER,
930         .cipher = {
931             .op = RTE_CRYPTO_CIPHER_OP_ENCRYPT,
932             .algo = RTE_CRYPTO_CIPHER_AES_CBC,
933             .key = {
934                 .data = cipher_key,
935                 .length = AES_CBC_KEY_LENGTH
936             },
937             .iv = {
938                 .offset = IV_OFFSET,
939                 .length = AES_CBC_IV_LENGTH
940             }
941         }
942     };
943
944     /* Create crypto session and initialize it for the crypto device. */
945     struct rte_cryptodev_sym_session *session;
946     session = rte_cryptodev_sym_session_create(session_pool);
947     if (session == NULL)
948         rte_exit(EXIT_FAILURE, "Session could not be created\n");
949
950     if (rte_cryptodev_sym_session_init(cdev_id, session,
951                     &cipher_xform, session_priv_pool) < 0)
952         rte_exit(EXIT_FAILURE, "Session could not be initialized "
953                     "for the crypto device\n");
954
955     /* Get a burst of crypto operations. */
956     struct rte_crypto_op *crypto_ops[BURST_SIZE];
957     if (rte_crypto_op_bulk_alloc(crypto_op_pool,
958                             RTE_CRYPTO_OP_TYPE_SYMMETRIC,
959                             crypto_ops, BURST_SIZE) == 0)
960         rte_exit(EXIT_FAILURE, "Not enough crypto operations available\n");
961
962     /* Get a burst of mbufs. */
963     struct rte_mbuf *mbufs[BURST_SIZE];
964     if (rte_pktmbuf_alloc_bulk(mbuf_pool, mbufs, BURST_SIZE) < 0)
965         rte_exit(EXIT_FAILURE, "Not enough mbufs available");
966
967     /* Initialize the mbufs and append them to the crypto operations. */
968     unsigned int i;
969     for (i = 0; i < BURST_SIZE; i++) {
970         if (rte_pktmbuf_append(mbufs[i], BUFFER_SIZE) == NULL)
971             rte_exit(EXIT_FAILURE, "Not enough room in the mbuf\n");
972         crypto_ops[i]->sym->m_src = mbufs[i];
973     }
974
975     /* Set up the crypto operations. */
976     for (i = 0; i < BURST_SIZE; i++) {
977         struct rte_crypto_op *op = crypto_ops[i];
978         /* Modify bytes of the IV at the end of the crypto operation */
979         uint8_t *iv_ptr = rte_crypto_op_ctod_offset(op, uint8_t *,
980                                                 IV_OFFSET);
981
982         generate_random_bytes(iv_ptr, AES_CBC_IV_LENGTH);
983
984         op->sym->cipher.data.offset = 0;
985         op->sym->cipher.data.length = BUFFER_SIZE;
986
987         /* Attach the crypto session to the operation */
988         rte_crypto_op_attach_sym_session(op, session);
989     }
990
991     /* Enqueue the crypto operations in the crypto device. */
992     uint16_t num_enqueued_ops = rte_cryptodev_enqueue_burst(cdev_id, 0,
993                                             crypto_ops, BURST_SIZE);
994
995     /*
996      * Dequeue the crypto operations until all the operations
997      * are processed in the crypto device.
998      */
999     uint16_t num_dequeued_ops, total_num_dequeued_ops = 0;
1000     do {
1001         struct rte_crypto_op *dequeued_ops[BURST_SIZE];
1002         num_dequeued_ops = rte_cryptodev_dequeue_burst(cdev_id, 0,
1003                                         dequeued_ops, BURST_SIZE);
1004         total_num_dequeued_ops += num_dequeued_ops;
1005
1006         /* Check if operation was processed successfully */
1007         for (i = 0; i < num_dequeued_ops; i++) {
1008             if (dequeued_ops[i]->status != RTE_CRYPTO_OP_STATUS_SUCCESS)
1009                 rte_exit(EXIT_FAILURE,
1010                         "Some operations were not processed correctly");
1011         }
1012
1013         rte_mempool_put_bulk(crypto_op_pool, (void **)dequeued_ops,
1014                                             num_dequeued_ops);
1015     } while (total_num_dequeued_ops < num_enqueued_ops);
1016
1017 Asymmetric Cryptography
1018 -----------------------
1019
1020 The cryptodev library currently provides support for the following asymmetric
1021 Crypto operations; RSA, Modular exponentiation and inversion, Diffie-Hellman
1022 public and/or private key generation and shared secret compute, DSA Signature
1023 generation and verification.
1024
1025 Session and Session Management
1026 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1027
1028 Sessions are used in asymmetric cryptographic processing to store the immutable
1029 data defined in asymmetric cryptographic transform which is further used in the
1030 operation processing. Sessions typically stores information, such as, public
1031 and private key information or domain params or prime modulus data i.e. immutable
1032 across data sets. Crypto sessions cache this immutable data in a optimal way for the
1033 underlying PMD and this allows further acceleration of the offload of Crypto workloads.
1034
1035 Like symmetric, the Crypto device framework provides APIs to allocate and initialize
1036 asymmetric sessions for crypto devices, where sessions are mempool objects.
1037 It is the application's responsibility to create and manage the session mempools.
1038 Application using both symmetric and asymmetric sessions should allocate and maintain
1039 different sessions pools for each type.
1040
1041 An application can use ``rte_cryptodev_get_asym_session_private_size()`` to
1042 get the private size of asymmetric session on a given crypto device. This
1043 function would allow an application to calculate the max device asymmetric
1044 session size of all crypto devices to create a single session mempool.
1045 If instead an application creates multiple asymmetric session mempools,
1046 the Crypto device framework also provides ``rte_cryptodev_asym_get_header_session_size()`` to get
1047 the size of an uninitialized session.
1048
1049 Once the session mempools have been created, ``rte_cryptodev_asym_session_create()``
1050 is used to allocate an uninitialized asymmetric session from the given mempool.
1051 The session then must be initialized using ``rte_cryptodev_asym_session_init()``
1052 for each of the required crypto devices. An asymmetric transform chain
1053 is used to specify the operation and its parameters. See the section below for
1054 details on transforms.
1055
1056 When a session is no longer used, user must call ``rte_cryptodev_asym_session_clear()``
1057 for each of the crypto devices that are using the session, to free all driver
1058 private asymmetric session data. Once this is done, session should be freed using
1059 ``rte_cryptodev_asym_session_free()`` which returns them to their mempool.
1060
1061 Asymmetric Sessionless Support
1062 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1063
1064 Asymmetric crypto framework supports session-less operations as well.
1065
1066 Fields that should be set by user are:
1067
1068 Member xform of struct rte_crypto_asym_op should point to the user created rte_crypto_asym_xform.
1069 Note that rte_crypto_asym_xform should be immutable for the lifetime of associated crypto_op.
1070
1071 Member sess_type of rte_crypto_op should also be set to RTE_CRYPTO_OP_SESSIONLESS.
1072
1073 Transforms and Transform Chaining
1074 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1075
1076 Asymmetric Crypto transforms (``rte_crypto_asym_xform``) are the mechanism used
1077 to specify the details of the asymmetric Crypto operation. Next pointer within
1078 xform allows transform to be chained together. Also it is important to note that
1079 the order in which the transforms are passed indicates the order of the chaining. Allocation
1080 of the xform structure is in the application domain. To allow future API extensions in a
1081 backwardly compatible manner, e.g. addition of a new parameter, the application should
1082 zero the full xform struct before populating it.
1083
1084 Not all asymmetric crypto xforms are supported for chaining. Currently supported
1085 asymmetric crypto chaining is Diffie-Hellman private key generation followed by
1086 public generation. Also, currently API does not support chaining of symmetric and
1087 asymmetric crypto xforms.
1088
1089 Each xform defines specific asymmetric crypto algo. Currently supported are:
1090 * RSA
1091 * Modular operations (Exponentiation and Inverse)
1092 * Diffie-Hellman
1093 * DSA
1094 * None - special case where PMD may support a passthrough mode. More for diagnostic purpose
1095
1096 See *DPDK API Reference* for details on each rte_crypto_xxx_xform struct
1097
1098 Asymmetric Operations
1099 ~~~~~~~~~~~~~~~~~~~~~
1100
1101 The asymmetric Crypto operation structure contains all the mutable data relating
1102 to asymmetric cryptographic processing on an input data buffer. It uses either
1103 RSA, Modular, Diffie-Hellman or DSA operations depending upon session it is attached
1104 to.
1105
1106 Every operation must carry a valid session handle which further carries information
1107 on xform or xform-chain to be performed on op. Every xform type defines its own set
1108 of operational params in their respective rte_crypto_xxx_op_param struct. Depending
1109 on xform information within session, PMD picks up and process respective op_param
1110 struct.
1111 Unlike symmetric, asymmetric operations do not use mbufs for input/output.
1112 They operate on data buffer of type ``rte_crypto_param``.
1113
1114 See *DPDK API Reference* for details on each rte_crypto_xxx_op_param struct
1115
1116 Asymmetric crypto Sample code
1117 -----------------------------
1118
1119 There's a unit test application test_cryptodev_asym.c inside unit test framework that
1120 show how to setup and process asymmetric operations using cryptodev library.
1121
1122 The following sample code shows the basic steps to compute modular exponentiation
1123 using 1024-bit modulus length using openssl PMD available in DPDK (performing other
1124 crypto operations is similar except change to respective op and xform setup).
1125
1126 .. code-block:: c
1127
1128     /*
1129      * Simple example to compute modular exponentiation with 1024-bit key
1130      *
1131      */
1132     #define MAX_ASYM_SESSIONS   10
1133     #define NUM_ASYM_BUFS       10
1134
1135     struct rte_mempool *crypto_op_pool, *asym_session_pool;
1136     unsigned int asym_session_size;
1137     int ret;
1138
1139     /* Initialize EAL. */
1140     ret = rte_eal_init(argc, argv);
1141     if (ret < 0)
1142         rte_exit(EXIT_FAILURE, "Invalid EAL arguments\n");
1143
1144     uint8_t socket_id = rte_socket_id();
1145
1146     /* Create crypto operation pool. */
1147     crypto_op_pool = rte_crypto_op_pool_create(
1148                                     "crypto_op_pool",
1149                                     RTE_CRYPTO_OP_TYPE_ASYMMETRIC,
1150                                     NUM_ASYM_BUFS, 0, 0,
1151                                     socket_id);
1152     if (crypto_op_pool == NULL)
1153         rte_exit(EXIT_FAILURE, "Cannot create crypto op pool\n");
1154
1155     /* Create the virtual crypto device. */
1156     char args[128];
1157     const char *crypto_name = "crypto_openssl";
1158     snprintf(args, sizeof(args), "socket_id=%d", socket_id);
1159     ret = rte_vdev_init(crypto_name, args);
1160     if (ret != 0)
1161         rte_exit(EXIT_FAILURE, "Cannot create virtual device");
1162
1163     uint8_t cdev_id = rte_cryptodev_get_dev_id(crypto_name);
1164
1165     /* Get private asym session data size. */
1166     asym_session_size = rte_cryptodev_get_asym_private_session_size(cdev_id);
1167
1168     /*
1169      * Create session mempool, with two objects per session,
1170      * one for the session header and another one for the
1171      * private asym session data for the crypto device.
1172      */
1173     asym_session_pool = rte_mempool_create("asym_session_pool",
1174                                     MAX_ASYM_SESSIONS * 2,
1175                                     asym_session_size,
1176                                     0,
1177                                     0, NULL, NULL, NULL,
1178                                     NULL, socket_id,
1179                                     0);
1180
1181     /* Configure the crypto device. */
1182     struct rte_cryptodev_config conf = {
1183         .nb_queue_pairs = 1,
1184         .socket_id = socket_id
1185     };
1186     struct rte_cryptodev_qp_conf qp_conf = {
1187         .nb_descriptors = 2048
1188     };
1189
1190     if (rte_cryptodev_configure(cdev_id, &conf) < 0)
1191         rte_exit(EXIT_FAILURE, "Failed to configure cryptodev %u", cdev_id);
1192
1193     if (rte_cryptodev_queue_pair_setup(cdev_id, 0, &qp_conf,
1194                             socket_id, asym_session_pool) < 0)
1195         rte_exit(EXIT_FAILURE, "Failed to setup queue pair\n");
1196
1197     if (rte_cryptodev_start(cdev_id) < 0)
1198         rte_exit(EXIT_FAILURE, "Failed to start device\n");
1199
1200     /* Setup crypto xform to do modular exponentiation with 1024 bit
1201          * length modulus
1202          */
1203     struct rte_crypto_asym_xform modex_xform = {
1204                 .next = NULL,
1205                 .xform_type = RTE_CRYPTO_ASYM_XFORM_MODEX,
1206                 .modex = {
1207                         .modulus = {
1208                                 .data =
1209                                 (uint8_t *)
1210                                 ("\xb3\xa1\xaf\xb7\x13\x08\x00\x0a\x35\xdc\x2b\x20\x8d"
1211                                 "\xa1\xb5\xce\x47\x8a\xc3\x80\xf4\x7d\x4a\xa2\x62\xfd\x61\x7f"
1212                                 "\xb5\xa8\xde\x0a\x17\x97\xa0\xbf\xdf\x56\x5a\x3d\x51\x56\x4f"
1213                                 "\x70\x70\x3f\x63\x6a\x44\x5b\xad\x84\x0d\x3f\x27\x6e\x3b\x34"
1214                                 "\x91\x60\x14\xb9\xaa\x72\xfd\xa3\x64\xd2\x03\xa7\x53\x87\x9e"
1215                                 "\x88\x0b\xc1\x14\x93\x1a\x62\xff\xb1\x5d\x74\xcd\x59\x63\x18"
1216                                 "\x11\x3d\x4f\xba\x75\xd4\x33\x4e\x23\x6b\x7b\x57\x44\xe1\xd3"
1217                                 "\x03\x13\xa6\xf0\x8b\x60\xb0\x9e\xee\x75\x08\x9d\x71\x63\x13"
1218                                 "\xcb\xa6\x81\x92\x14\x03\x22\x2d\xde\x55"),
1219                                 .length = 128
1220                         },
1221                         .exponent = {
1222                                 .data = (uint8_t *)("\x01\x00\x01"),
1223                                 .length = 3
1224                         }
1225                 }
1226     };
1227     /* Create asym crypto session and initialize it for the crypto device. */
1228     struct rte_cryptodev_asym_session *asym_session;
1229     asym_session = rte_cryptodev_asym_session_create(asym_session_pool);
1230     if (asym_session == NULL)
1231         rte_exit(EXIT_FAILURE, "Session could not be created\n");
1232
1233     if (rte_cryptodev_asym_session_init(cdev_id, asym_session,
1234                     &modex_xform, asym_session_pool) < 0)
1235         rte_exit(EXIT_FAILURE, "Session could not be initialized "
1236                     "for the crypto device\n");
1237
1238     /* Get a burst of crypto operations. */
1239     struct rte_crypto_op *crypto_ops[1];
1240     if (rte_crypto_op_bulk_alloc(crypto_op_pool,
1241                             RTE_CRYPTO_OP_TYPE_ASYMMETRIC,
1242                             crypto_ops, 1) == 0)
1243         rte_exit(EXIT_FAILURE, "Not enough crypto operations available\n");
1244
1245     /* Set up the crypto operations. */
1246     struct rte_crypto_asym_op *asym_op = crypto_ops[0]->asym;
1247
1248         /* calculate mod exp of value 0xf8 */
1249     static unsigned char base[] = {0xF8};
1250     asym_op->modex.base.data = base;
1251     asym_op->modex.base.length = sizeof(base);
1252         asym_op->modex.base.iova = base;
1253
1254     /* Attach the asym crypto session to the operation */
1255     rte_crypto_op_attach_asym_session(op, asym_session);
1256
1257     /* Enqueue the crypto operations in the crypto device. */
1258     uint16_t num_enqueued_ops = rte_cryptodev_enqueue_burst(cdev_id, 0,
1259                                             crypto_ops, 1);
1260
1261     /*
1262      * Dequeue the crypto operations until all the operations
1263      * are processed in the crypto device.
1264      */
1265     uint16_t num_dequeued_ops, total_num_dequeued_ops = 0;
1266     do {
1267         struct rte_crypto_op *dequeued_ops[1];
1268         num_dequeued_ops = rte_cryptodev_dequeue_burst(cdev_id, 0,
1269                                         dequeued_ops, 1);
1270         total_num_dequeued_ops += num_dequeued_ops;
1271
1272         /* Check if operation was processed successfully */
1273         if (dequeued_ops[0]->status != RTE_CRYPTO_OP_STATUS_SUCCESS)
1274                 rte_exit(EXIT_FAILURE,
1275                         "Some operations were not processed correctly");
1276
1277     } while (total_num_dequeued_ops < num_enqueued_ops);
1278
1279
1280 Asymmetric Crypto Device API
1281 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1282
1283 The cryptodev Library API is described in the
1284 `DPDK API Reference <https://doc.dpdk.org/api/>`_