net/mlx5: enforce limitation on IPv6 next protocol
[dpdk.git] / drivers / raw / ioat / rte_ioat_rawdev.h
index 7a89632..f9e8425 100644 (file)
@@ -5,6 +5,10 @@
 #ifndef _RTE_IOAT_RAWDEV_H_
 #define _RTE_IOAT_RAWDEV_H_
 
+#ifdef __cplusplus
+extern "C" {
+#endif
+
 /**
  * @file rte_ioat_rawdev.h
  *
  * @b EXPERIMENTAL: these structures and APIs may change without prior notice
  */
 
-#include <x86intrin.h>
-#include <rte_atomic.h>
-#include <rte_memory.h>
-#include <rte_memzone.h>
-#include <rte_prefetch.h>
-#include <rte_ioat_spec.h>
+#include <rte_common.h>
 
 /** Name of the device driver */
 #define IOAT_PMD_RAWDEV_NAME rawdev_ioat
 /** String reported as the device driver name by rte_rawdev_info_get() */
 #define IOAT_PMD_RAWDEV_NAME_STR "rawdev_ioat"
-/** Name used to adjust the log level for this driver */
-#define IOAT_PMD_LOG_NAME "rawdev.ioat"
 
 /**
  * Configuration structure for an ioat rawdev instance
  * an ioat rawdev instance.
  */
 struct rte_ioat_rawdev_config {
-       unsigned short ring_size;
+       unsigned short ring_size; /**< size of job submission descriptor ring */
+       bool hdls_disable;    /**< if set, ignore user-supplied handle params */
 };
 
 /**
- * @internal
- * Structure representing a device instance
+ * Enqueue a fill operation onto the ioat device
+ *
+ * This queues up a fill operation to be performed by hardware, but does not
+ * trigger hardware to begin that operation.
+ *
+ * @param dev_id
+ *   The rawdev device id of the ioat instance
+ * @param pattern
+ *   The pattern to populate the destination buffer with
+ * @param dst
+ *   The physical address of the destination buffer
+ * @param length
+ *   The length of the destination buffer
+ * @param dst_hdl
+ *   An opaque handle for the destination data, to be returned when this
+ *   operation has been completed and the user polls for the completion details.
+ *   NOTE: If hdls_disable configuration option for the device is set, this
+ *   parameter is ignored.
+ * @return
+ *   Number of operations enqueued, either 0 or 1
  */
-struct rte_ioat_rawdev {
-       struct rte_rawdev *rawdev;
-       const struct rte_memzone *mz;
-       const struct rte_memzone *desc_mz;
-
-       volatile struct rte_ioat_registers *regs;
-       phys_addr_t status_addr;
-       phys_addr_t ring_addr;
-
-       unsigned short ring_size;
-       struct rte_ioat_generic_hw_desc *desc_ring;
-       __m128i *hdls; /* completion handles for returning to user */
-
-
-       unsigned short next_read;
-       unsigned short next_write;
-
-       /* some statistics for tracking, if added/changed update xstats fns*/
-       uint64_t enqueue_failed __rte_cache_aligned;
-       uint64_t enqueued;
-       uint64_t started;
-       uint64_t completed;
-
-       /* to report completions, the device will write status back here */
-       volatile uint64_t status __rte_cache_aligned;
-};
+static inline int
+__rte_experimental
+rte_ioat_enqueue_fill(int dev_id, uint64_t pattern, phys_addr_t dst,
+               unsigned int length, uintptr_t dst_hdl);
 
 /**
  * Enqueue a copy operation onto the ioat device
@@ -86,148 +80,96 @@ struct rte_ioat_rawdev {
  *   The length of the data to be copied
  * @param src_hdl
  *   An opaque handle for the source data, to be returned when this operation
- *   has been completed and the user polls for the completion details
+ *   has been completed and the user polls for the completion details.
+ *   NOTE: If hdls_disable configuration option for the device is set, this
+ *   parameter is ignored.
  * @param dst_hdl
  *   An opaque handle for the destination data, to be returned when this
- *   operation has been completed and the user polls for the completion details
- * @param fence
- *   A flag parameter indicating that hardware should not begin to perform any
- *   subsequently enqueued copy operations until after this operation has
- *   completed
+ *   operation has been completed and the user polls for the completion details.
+ *   NOTE: If hdls_disable configuration option for the device is set, this
+ *   parameter is ignored.
  * @return
  *   Number of operations enqueued, either 0 or 1
  */
 static inline int
+__rte_experimental
 rte_ioat_enqueue_copy(int dev_id, phys_addr_t src, phys_addr_t dst,
-               unsigned int length, uintptr_t src_hdl, uintptr_t dst_hdl,
-               int fence)
-{
-       struct rte_ioat_rawdev *ioat = rte_rawdevs[dev_id].dev_private;
-       unsigned short read = ioat->next_read;
-       unsigned short write = ioat->next_write;
-       unsigned short mask = ioat->ring_size - 1;
-       unsigned short space = mask + read - write;
-       struct rte_ioat_generic_hw_desc *desc;
-
-       if (space == 0) {
-               ioat->enqueue_failed++;
-               return 0;
-       }
+               unsigned int length, uintptr_t src_hdl, uintptr_t dst_hdl);
 
-       ioat->next_write = write + 1;
-       write &= mask;
-
-       desc = &ioat->desc_ring[write];
-       desc->size = length;
-       /* set descriptor write-back every 16th descriptor */
-       desc->u.control_raw = (uint32_t)((!!fence << 4) | (!(write & 0xF)) << 3);
-       desc->src_addr = src;
-       desc->dest_addr = dst;
-
-       ioat->hdls[write] = _mm_set_epi64x((int64_t)dst_hdl, (int64_t)src_hdl);
-       rte_prefetch0(&ioat->desc_ring[ioat->next_write & mask]);
+/**
+ * Add a fence to force ordering between operations
+ *
+ * This adds a fence to a sequence of operations to enforce ordering, such that
+ * all operations enqueued before the fence must be completed before operations
+ * after the fence.
+ * NOTE: Since this fence may be added as a flag to the last operation enqueued,
+ * this API may not function correctly when called immediately after an
+ * "rte_ioat_perform_ops" call i.e. before any new operations are enqueued.
+ *
+ * @param dev_id
+ *   The rawdev device id of the ioat instance
+ * @return
+ *   Number of fences enqueued, either 0 or 1
+ */
+static inline int
+__rte_experimental
+rte_ioat_fence(int dev_id);
 
-       ioat->enqueued++;
-       return 1;
-}
 
 /**
- * Trigger hardware to begin performing enqueued copy operations
+ * Trigger hardware to begin performing enqueued operations
  *
  * This API is used to write the "doorbell" to the hardware to trigger it
- * to begin the copy operations previously enqueued by rte_ioat_enqueue_copy()
+ * to begin the operations previously enqueued by rte_ioat_enqueue_copy()
  *
  * @param dev_id
  *   The rawdev device id of the ioat instance
  */
 static inline void
-rte_ioat_do_copies(int dev_id)
-{
-       struct rte_ioat_rawdev *ioat = rte_rawdevs[dev_id].dev_private;
-       ioat->desc_ring[(ioat->next_write - 1) & (ioat->ring_size - 1)].u
-                       .control.completion_update = 1;
-       rte_compiler_barrier();
-       ioat->regs->dmacount = ioat->next_write;
-       ioat->started = ioat->enqueued;
-}
+__rte_experimental
+rte_ioat_perform_ops(int dev_id);
 
 /**
- * @internal
- * Returns the index of the last completed operation.
- */
-static inline int
-rte_ioat_get_last_completed(struct rte_ioat_rawdev *ioat, int *error)
-{
-       uint64_t status = ioat->status;
-
-       /* lower 3 bits indicate "transfer status" : active, idle, halted.
-        * We can ignore bit 0.
-        */
-       *error = status & (RTE_IOAT_CHANSTS_SUSPENDED | RTE_IOAT_CHANSTS_ARMED);
-       return (status - ioat->ring_addr) >> 6;
-}
-
-/**
- * Returns details of copy operations that have been completed
+ * Returns details of operations that have been completed
  *
- * Returns to the caller the user-provided "handles" for the copy operations
- * which have been completed by the hardware, and not already returned by
- * a previous call to this API.
+ * If the hdls_disable option was not set when the device was configured,
+ * the function will return to the caller the user-provided "handles" for
+ * the copy operations which have been completed by the hardware, and not
+ * already returned by a previous call to this API.
+ * If the hdls_disable option for the device was set on configure, the
+ * max_copies, src_hdls and dst_hdls parameters will be ignored, and the
+ * function returns the number of newly-completed operations.
  *
  * @param dev_id
  *   The rawdev device id of the ioat instance
  * @param max_copies
  *   The number of entries which can fit in the src_hdls and dst_hdls
- *   arrays, i.e. max number of completed operations to report
+ *   arrays, i.e. max number of completed operations to report.
+ *   NOTE: If hdls_disable configuration option for the device is set, this
+ *   parameter is ignored.
  * @param src_hdls
- *   Array to hold the source handle parameters of the completed copies
+ *   Array to hold the source handle parameters of the completed ops.
+ *   NOTE: If hdls_disable configuration option for the device is set, this
+ *   parameter is ignored.
  * @param dst_hdls
- *   Array to hold the destination handle parameters of the completed copies
+ *   Array to hold the destination handle parameters of the completed ops.
+ *   NOTE: If hdls_disable configuration option for the device is set, this
+ *   parameter is ignored.
  * @return
  *   -1 on error, with rte_errno set appropriately.
  *   Otherwise number of completed operations i.e. number of entries written
  *   to the src_hdls and dst_hdls array parameters.
  */
 static inline int
-rte_ioat_completed_copies(int dev_id, uint8_t max_copies,
-               uintptr_t *src_hdls, uintptr_t *dst_hdls)
-{
-       struct rte_ioat_rawdev *ioat = rte_rawdevs[dev_id].dev_private;
-       unsigned short mask = (ioat->ring_size - 1);
-       unsigned short read = ioat->next_read;
-       unsigned short end_read, count;
-       int error;
-       int i = 0;
-
-       end_read = (rte_ioat_get_last_completed(ioat, &error) + 1) & mask;
-       count = (end_read - (read & mask)) & mask;
-
-       if (error) {
-               rte_errno = EIO;
-               return -1;
-       }
-
-       if (count > max_copies)
-               count = max_copies;
-
-       for (; i < count - 1; i += 2, read += 2) {
-               __m128i hdls0 = _mm_load_si128(&ioat->hdls[read & mask]);
-               __m128i hdls1 = _mm_load_si128(&ioat->hdls[(read + 1) & mask]);
+__rte_experimental
+rte_ioat_completed_ops(int dev_id, uint8_t max_copies,
+               uintptr_t *src_hdls, uintptr_t *dst_hdls);
 
-               _mm_storeu_si128((void *)&src_hdls[i],
-                               _mm_unpacklo_epi64(hdls0, hdls1));
-               _mm_storeu_si128((void *)&dst_hdls[i],
-                               _mm_unpackhi_epi64(hdls0, hdls1));
-       }
-       for (; i < count; i++, read++) {
-               uintptr_t *hdls = (void *)&ioat->hdls[read & mask];
-               src_hdls[i] = hdls[0];
-               dst_hdls[i] = hdls[1];
-       }
+/* include the implementation details from a separate file */
+#include "rte_ioat_rawdev_fns.h"
 
-       ioat->next_read = read;
-       ioat->completed += count;
-       return count;
+#ifdef __cplusplus
 }
+#endif
 
 #endif /* _RTE_IOAT_RAWDEV_H_ */