net/mlx5: fix multi-segment packet wraparound
[dpdk.git] / drivers / dma / idxd / idxd_internal.h
index 8f1cdf6..3375600 100644 (file)
@@ -6,6 +6,7 @@
 #define _IDXD_INTERNAL_H_
 
 #include <rte_dmadev_pmd.h>
+#include <rte_spinlock.h>
 
 #include "idxd_hw_defs.h"
 
@@ -28,7 +29,19 @@ extern int idxd_pmd_logtype;
 #define IDXD_PMD_ERR(fmt, args...)    IDXD_PMD_LOG(ERR, fmt, ## args)
 #define IDXD_PMD_WARN(fmt, args...)   IDXD_PMD_LOG(WARNING, fmt, ## args)
 
+struct idxd_pci_common {
+       rte_spinlock_t lk;
+
+       uint8_t wq_cfg_sz;
+       volatile struct rte_idxd_bar0 *regs;
+       volatile uint32_t *wq_regs_base;
+       volatile struct rte_idxd_grpcfg *grp_regs;
+       volatile void *portals;
+};
+
 struct idxd_dmadev {
+       struct idxd_hw_desc *desc_ring;
+
        /* counters to track the batches */
        unsigned short max_batches;
        unsigned short batch_idx_read;
@@ -46,12 +59,15 @@ struct idxd_dmadev {
        struct idxd_completion *batch_comp_ring;
        unsigned short *batch_idx_ring; /* store where each batch ends */
 
+       struct rte_dma_stats stats;
+
        rte_iova_t batch_iova; /* base address of the batch comp ring */
        rte_iova_t desc_iova; /* base address of desc ring, needed for completions */
 
        unsigned short max_batch_size;
 
        struct rte_dma_dev *dmadev;
+       struct rte_dma_vchan_conf qcfg;
        uint8_t sva_support;
        uint8_t qid;
 
@@ -59,10 +75,35 @@ struct idxd_dmadev {
                struct {
                        unsigned int dsa_id;
                } bus;
+
+               struct idxd_pci_common *pci;
        } u;
 };
 
 int idxd_dmadev_create(const char *name, struct rte_device *dev,
                const struct idxd_dmadev *base_idxd, const struct rte_dma_dev_ops *ops);
+int idxd_dump(const struct rte_dma_dev *dev, FILE *f);
+int idxd_configure(struct rte_dma_dev *dev, const struct rte_dma_conf *dev_conf,
+               uint32_t conf_sz);
+int idxd_vchan_setup(struct rte_dma_dev *dev, uint16_t vchan,
+               const struct rte_dma_vchan_conf *qconf, uint32_t qconf_sz);
+int idxd_info_get(const struct rte_dma_dev *dev, struct rte_dma_info *dev_info,
+               uint32_t size);
+int idxd_enqueue_copy(void *dev_private, uint16_t qid, rte_iova_t src,
+               rte_iova_t dst, unsigned int length, uint64_t flags);
+int idxd_enqueue_fill(void *dev_private, uint16_t qid, uint64_t pattern,
+               rte_iova_t dst, unsigned int length, uint64_t flags);
+int idxd_submit(void *dev_private, uint16_t qid);
+uint16_t idxd_completed(void *dev_private, uint16_t qid, uint16_t max_ops,
+               uint16_t *last_idx, bool *has_error);
+uint16_t idxd_completed_status(void *dev_private, uint16_t qid __rte_unused,
+               uint16_t max_ops, uint16_t *last_idx,
+               enum rte_dma_status_code *status);
+int idxd_stats_get(const struct rte_dma_dev *dev, uint16_t vchan,
+               struct rte_dma_stats *stats, uint32_t stats_sz);
+int idxd_stats_reset(struct rte_dma_dev *dev, uint16_t vchan);
+int idxd_vchan_status(const struct rte_dma_dev *dev, uint16_t vchan,
+               enum rte_dma_vchan_status *status);
+uint16_t idxd_burst_capacity(const void *dev_private, uint16_t vchan);
 
 #endif /* _IDXD_INTERNAL_H_ */