common/iavf: support VLAN filtering
[dpdk.git] / drivers / common / iavf / virtchnl.h
index 2fbbb9e..6b99e17 100644 (file)
@@ -1,5 +1,5 @@
 /* SPDX-License-Identifier: BSD-3-Clause
- * Copyright(c) 2001-2019
+ * Copyright(c) 2001-2021 Intel Corporation
  */
 
 #ifndef _VIRTCHNL_H_
@@ -128,9 +128,149 @@ enum virtchnl_ops {
        VIRTCHNL_OP_DISABLE_CHANNELS = 31,
        VIRTCHNL_OP_ADD_CLOUD_FILTER = 32,
        VIRTCHNL_OP_DEL_CLOUD_FILTER = 33,
-       /* opcodes 34, 35, 36, 37 and 38 are reserved */
+       /* opcodes 34, 35, 36, and 37 are reserved */
+       VIRTCHNL_OP_DCF_VLAN_OFFLOAD = 38,
+       VIRTCHNL_OP_DCF_CMD_DESC = 39,
+       VIRTCHNL_OP_DCF_CMD_BUFF = 40,
+       VIRTCHNL_OP_DCF_DISABLE = 41,
+       VIRTCHNL_OP_DCF_GET_VSI_MAP = 42,
+       VIRTCHNL_OP_DCF_GET_PKG_INFO = 43,
+       VIRTCHNL_OP_GET_SUPPORTED_RXDIDS = 44,
+       VIRTCHNL_OP_ADD_RSS_CFG = 45,
+       VIRTCHNL_OP_DEL_RSS_CFG = 46,
+       VIRTCHNL_OP_ADD_FDIR_FILTER = 47,
+       VIRTCHNL_OP_DEL_FDIR_FILTER = 48,
+       VIRTCHNL_OP_QUERY_FDIR_FILTER = 49,
+       VIRTCHNL_OP_GET_MAX_RSS_QREGION = 50,
+       VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS = 51,
+       VIRTCHNL_OP_ADD_VLAN_V2 = 52,
+       VIRTCHNL_OP_DEL_VLAN_V2 = 53,
+       VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2 = 54,
+       VIRTCHNL_OP_DISABLE_VLAN_STRIPPING_V2 = 55,
+       VIRTCHNL_OP_ENABLE_VLAN_INSERTION_V2 = 56,
+       VIRTCHNL_OP_DISABLE_VLAN_INSERTION_V2 = 57,
+       VIRTCHNL_OP_ENABLE_VLAN_FILTERING_V2 = 58,
+       VIRTCHNL_OP_DISABLE_VLAN_FILTERING_V2 = 59,
+       VIRTCHNL_OP_ENABLE_QUEUES_V2 = 107,
+       VIRTCHNL_OP_DISABLE_QUEUES_V2 = 108,
+       VIRTCHNL_OP_MAP_QUEUE_VECTOR = 111,
+       VIRTCHNL_OP_MAX,
 };
 
+static inline const char *virtchnl_op_str(enum virtchnl_ops v_opcode)
+{
+       switch (v_opcode) {
+       case VIRTCHNL_OP_UNKNOWN:
+               return "VIRTCHNL_OP_UNKNOWN";
+       case VIRTCHNL_OP_VERSION:
+               return "VIRTCHNL_OP_VERSION";
+       case VIRTCHNL_OP_RESET_VF:
+               return "VIRTCHNL_OP_RESET_VF";
+       case VIRTCHNL_OP_GET_VF_RESOURCES:
+               return "VIRTCHNL_OP_GET_VF_RESOURCES";
+       case VIRTCHNL_OP_CONFIG_TX_QUEUE:
+               return "VIRTCHNL_OP_CONFIG_TX_QUEUE";
+       case VIRTCHNL_OP_CONFIG_RX_QUEUE:
+               return "VIRTCHNL_OP_CONFIG_RX_QUEUE";
+       case VIRTCHNL_OP_CONFIG_VSI_QUEUES:
+               return "VIRTCHNL_OP_CONFIG_VSI_QUEUES";
+       case VIRTCHNL_OP_CONFIG_IRQ_MAP:
+               return "VIRTCHNL_OP_CONFIG_IRQ_MAP";
+       case VIRTCHNL_OP_ENABLE_QUEUES:
+               return "VIRTCHNL_OP_ENABLE_QUEUES";
+       case VIRTCHNL_OP_DISABLE_QUEUES:
+               return "VIRTCHNL_OP_DISABLE_QUEUES";
+       case VIRTCHNL_OP_ADD_ETH_ADDR:
+               return "VIRTCHNL_OP_ADD_ETH_ADDR";
+       case VIRTCHNL_OP_DEL_ETH_ADDR:
+               return "VIRTCHNL_OP_DEL_ETH_ADDR";
+       case VIRTCHNL_OP_ADD_VLAN:
+               return "VIRTCHNL_OP_ADD_VLAN";
+       case VIRTCHNL_OP_DEL_VLAN:
+               return "VIRTCHNL_OP_DEL_VLAN";
+       case VIRTCHNL_OP_CONFIG_PROMISCUOUS_MODE:
+               return "VIRTCHNL_OP_CONFIG_PROMISCUOUS_MODE";
+       case VIRTCHNL_OP_GET_STATS:
+               return "VIRTCHNL_OP_GET_STATS";
+       case VIRTCHNL_OP_RSVD:
+               return "VIRTCHNL_OP_RSVD";
+       case VIRTCHNL_OP_EVENT:
+               return "VIRTCHNL_OP_EVENT";
+       case VIRTCHNL_OP_CONFIG_RSS_KEY:
+               return "VIRTCHNL_OP_CONFIG_RSS_KEY";
+       case VIRTCHNL_OP_CONFIG_RSS_LUT:
+               return "VIRTCHNL_OP_CONFIG_RSS_LUT";
+       case VIRTCHNL_OP_GET_RSS_HENA_CAPS:
+               return "VIRTCHNL_OP_GET_RSS_HENA_CAPS";
+       case VIRTCHNL_OP_SET_RSS_HENA:
+               return "VIRTCHNL_OP_SET_RSS_HENA";
+       case VIRTCHNL_OP_ENABLE_VLAN_STRIPPING:
+               return "VIRTCHNL_OP_ENABLE_VLAN_STRIPPING";
+       case VIRTCHNL_OP_DISABLE_VLAN_STRIPPING:
+               return "VIRTCHNL_OP_DISABLE_VLAN_STRIPPING";
+       case VIRTCHNL_OP_REQUEST_QUEUES:
+               return "VIRTCHNL_OP_REQUEST_QUEUES";
+       case VIRTCHNL_OP_ENABLE_CHANNELS:
+               return "VIRTCHNL_OP_ENABLE_CHANNELS";
+       case VIRTCHNL_OP_DISABLE_CHANNELS:
+               return "VIRTCHNL_OP_DISABLE_CHANNELS";
+       case VIRTCHNL_OP_ADD_CLOUD_FILTER:
+               return "VIRTCHNL_OP_ADD_CLOUD_FILTER";
+       case VIRTCHNL_OP_DEL_CLOUD_FILTER:
+               return "VIRTCHNL_OP_DEL_CLOUD_FILTER";
+       case VIRTCHNL_OP_DCF_CMD_DESC:
+               return "VIRTCHNL_OP_DCF_CMD_DESC";
+       case VIRTCHNL_OP_DCF_CMD_BUFF:
+               return "VIRTCHHNL_OP_DCF_CMD_BUFF";
+       case VIRTCHNL_OP_DCF_DISABLE:
+               return "VIRTCHNL_OP_DCF_DISABLE";
+       case VIRTCHNL_OP_DCF_GET_VSI_MAP:
+               return "VIRTCHNL_OP_DCF_GET_VSI_MAP";
+       case VIRTCHNL_OP_GET_SUPPORTED_RXDIDS:
+               return "VIRTCHNL_OP_GET_SUPPORTED_RXDIDS";
+       case VIRTCHNL_OP_ADD_RSS_CFG:
+               return "VIRTCHNL_OP_ADD_RSS_CFG";
+       case VIRTCHNL_OP_DEL_RSS_CFG:
+               return "VIRTCHNL_OP_DEL_RSS_CFG";
+       case VIRTCHNL_OP_ADD_FDIR_FILTER:
+               return "VIRTCHNL_OP_ADD_FDIR_FILTER";
+       case VIRTCHNL_OP_DEL_FDIR_FILTER:
+               return "VIRTCHNL_OP_DEL_FDIR_FILTER";
+       case VIRTCHNL_OP_QUERY_FDIR_FILTER:
+               return "VIRTCHNL_OP_QUERY_FDIR_FILTER";
+       case VIRTCHNL_OP_GET_MAX_RSS_QREGION:
+               return "VIRTCHNL_OP_GET_MAX_RSS_QREGION";
+       case VIRTCHNL_OP_ENABLE_QUEUES_V2:
+               return "VIRTCHNL_OP_ENABLE_QUEUES_V2";
+       case VIRTCHNL_OP_DISABLE_QUEUES_V2:
+               return "VIRTCHNL_OP_DISABLE_QUEUES_V2";
+       case VIRTCHNL_OP_MAP_QUEUE_VECTOR:
+               return "VIRTCHNL_OP_MAP_QUEUE_VECTOR";
+       case VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS:
+               return "VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS";
+       case VIRTCHNL_OP_ADD_VLAN_V2:
+               return "VIRTCHNL_OP_ADD_VLAN_V2";
+       case VIRTCHNL_OP_DEL_VLAN_V2:
+               return "VIRTCHNL_OP_DEL_VLAN_V2";
+       case VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2:
+               return "VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2";
+       case VIRTCHNL_OP_DISABLE_VLAN_STRIPPING_V2:
+               return "VIRTCHNL_OP_DISABLE_VLAN_STRIPPING_V2";
+       case VIRTCHNL_OP_ENABLE_VLAN_INSERTION_V2:
+               return "VIRTCHNL_OP_ENABLE_VLAN_INSERTION_V2";
+       case VIRTCHNL_OP_DISABLE_VLAN_INSERTION_V2:
+               return "VIRTCHNL_OP_DISABLE_VLAN_INSERTION_V2";
+       case VIRTCHNL_OP_ENABLE_VLAN_FILTERING_V2:
+               return "VIRTCHNL_OP_ENABLE_VLAN_FILTERING_V2";
+       case VIRTCHNL_OP_DISABLE_VLAN_FILTERING_V2:
+               return "VIRTCHNL_OP_DISABLE_VLAN_FILTERING_V2";
+       case VIRTCHNL_OP_MAX:
+               return "VIRTCHNL_OP_MAX";
+       default:
+               return "Unsupported (update virtchnl.h)";
+       }
+}
+
 /* These macros are used to generate compilation errors if a structure/union
  * is not exactly the correct length. It gives a divide by zero error if the
  * structure/union is not of the correct size, otherwise it creates an enum
@@ -233,6 +373,9 @@ VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_vsi_resource);
 #define VIRTCHNL_VF_OFFLOAD_WB_ON_ITR          0x00000020
 #define VIRTCHNL_VF_OFFLOAD_REQ_QUEUES         0x00000040
 #define VIRTCHNL_VF_OFFLOAD_CRC                        0x00000080
+       /* 0X00000100 is reserved */
+#define VIRTCHNL_VF_LARGE_NUM_QPAIRS           0x00000200
+#define VIRTCHNL_VF_OFFLOAD_VLAN_V2            0x00008000
 #define VIRTCHNL_VF_OFFLOAD_VLAN               0x00010000
 #define VIRTCHNL_VF_OFFLOAD_RX_POLLING         0x00020000
 #define VIRTCHNL_VF_OFFLOAD_RSS_PCTYPE_V2      0x00040000
@@ -243,6 +386,11 @@ VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_vsi_resource);
 #define VIRTCHNL_VF_OFFLOAD_ADQ                        0X00800000
 #define VIRTCHNL_VF_OFFLOAD_ADQ_V2             0X01000000
 #define VIRTCHNL_VF_OFFLOAD_USO                        0X02000000
+#define VIRTCHNL_VF_OFFLOAD_RX_FLEX_DESC       0X04000000
+#define VIRTCHNL_VF_OFFLOAD_ADV_RSS_PF         0X08000000
+#define VIRTCHNL_VF_OFFLOAD_FDIR_PF            0X10000000
+       /* 0X20000000 is reserved */
+#define VIRTCHNL_VF_CAP_DCF                    0X40000000
        /* 0X80000000 is reserved */
 
 /* Define below the capability flags that are not offloads */
@@ -306,7 +454,9 @@ struct virtchnl_rxq_info {
        u32 databuffer_size;
        u32 max_pkt_size;
        u8 crc_disable;
-       u8 pad1[3];
+       /* only used when VIRTCHNL_VF_OFFLOAD_RX_FLEX_DESC is supported */
+       u8 rxdid;
+       u8 pad1[2];
        u64 dma_ring_addr;
        enum virtchnl_rx_hsplit rx_split_pos; /* deprecated with AVF 1.0 */
        u32 pad2;
@@ -406,6 +556,35 @@ struct virtchnl_queue_select {
 
 VIRTCHNL_CHECK_STRUCT_LEN(12, virtchnl_queue_select);
 
+/* VIRTCHNL_OP_GET_MAX_RSS_QREGION
+ *
+ * if VIRTCHNL_VF_LARGE_NUM_QPAIRS was negotiated in VIRTCHNL_OP_GET_VF_RESOURCES
+ * then this op must be supported.
+ *
+ * VF sends this message in order to query the max RSS queue region
+ * size supported by PF, when VIRTCHNL_VF_LARGE_NUM_QPAIRS is enabled.
+ * This information should be used when configuring the RSS LUT and/or
+ * configuring queue region based filters.
+ *
+ * The maximum RSS queue region is 2^qregion_width. So, a qregion_width
+ * of 6 would inform the VF that the PF supports a maximum RSS queue region
+ * of 64.
+ *
+ * A queue region represents a range of queues that can be used to configure
+ * a RSS LUT. For example, if a VF is given 64 queues, but only a max queue
+ * region size of 16 (i.e. 2^qregion_width = 16) then it will only be able
+ * to configure the RSS LUT with queue indices from 0 to 15. However, other
+ * filters can be used to direct packets to queues >15 via specifying a queue
+ * base/offset and queue region width.
+ */
+struct virtchnl_max_rss_qregion {
+       u16 vport_id;
+       u16 qregion_width;
+       u8 pad[4];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(8, virtchnl_max_rss_qregion);
+
 /* VIRTCHNL_OP_ADD_ETH_ADDR
  * VF sends this message in order to add one or more unicast or multicast
  * address filters for the specified VSI.
@@ -418,9 +597,36 @@ VIRTCHNL_CHECK_STRUCT_LEN(12, virtchnl_queue_select);
  * PF removes the filters and returns status.
  */
 
+/* VIRTCHNL_ETHER_ADDR_LEGACY
+ * Prior to adding the @type member to virtchnl_ether_addr, there were 2 pad
+ * bytes. Moving forward all VF drivers should not set type to
+ * VIRTCHNL_ETHER_ADDR_LEGACY. This is only here to not break previous/legacy
+ * behavior. The control plane function (i.e. PF) can use a best effort method
+ * of tracking the primary/device unicast in this case, but there is no
+ * guarantee and functionality depends on the implementation of the PF.
+ */
+
+/* VIRTCHNL_ETHER_ADDR_PRIMARY
+ * All VF drivers should set @type to VIRTCHNL_ETHER_ADDR_PRIMARY for the
+ * primary/device unicast MAC address filter for VIRTCHNL_OP_ADD_ETH_ADDR and
+ * VIRTCHNL_OP_DEL_ETH_ADDR. This allows for the underlying control plane
+ * function (i.e. PF) to accurately track and use this MAC address for
+ * displaying on the host and for VM/function reset.
+ */
+
+/* VIRTCHNL_ETHER_ADDR_EXTRA
+ * All VF drivers should set @type to VIRTCHNL_ETHER_ADDR_EXTRA for any extra
+ * unicast and/or multicast filters that are being added/deleted via
+ * VIRTCHNL_OP_DEL_ETH_ADDR/VIRTCHNL_OP_ADD_ETH_ADDR respectively.
+ */
 struct virtchnl_ether_addr {
        u8 addr[VIRTCHNL_ETH_LENGTH_OF_ADDRESS];
-       u8 pad[2];
+       u8 type;
+#define VIRTCHNL_ETHER_ADDR_LEGACY     0
+#define VIRTCHNL_ETHER_ADDR_PRIMARY    1
+#define VIRTCHNL_ETHER_ADDR_EXTRA      2
+#define VIRTCHNL_ETHER_ADDR_TYPE_MASK  3 /* first two bits of type are valid */
+       u8 pad;
 };
 
 VIRTCHNL_CHECK_STRUCT_LEN(8, virtchnl_ether_addr);
@@ -455,6 +661,388 @@ struct virtchnl_vlan_filter_list {
 
 VIRTCHNL_CHECK_STRUCT_LEN(6, virtchnl_vlan_filter_list);
 
+/* This enum is used for all of the VIRTCHNL_VF_OFFLOAD_VLAN_V2_CAPS related
+ * structures and opcodes.
+ *
+ * VIRTCHNL_VLAN_UNSUPPORTED - This field is not supported and if a VF driver
+ * populates it the PF should return VIRTCHNL_STATUS_ERR_NOT_SUPPORTED.
+ *
+ * VIRTCHNL_VLAN_ETHERTYPE_8100 - This field supports 0x8100 ethertype.
+ * VIRTCHNL_VLAN_ETHERTYPE_88A8 - This field supports 0x88A8 ethertype.
+ * VIRTCHNL_VLAN_ETHERTYPE_9100 - This field supports 0x9100 ethertype.
+ *
+ * VIRTCHNL_VLAN_ETHERTYPE_AND - Used when multiple ethertypes can be supported
+ * by the PF concurrently. For example, if the PF can support
+ * VIRTCHNL_VLAN_ETHERTYPE_8100 AND VIRTCHNL_VLAN_ETHERTYPE_88A8 filters it
+ * would OR the following bits:
+ *
+ *     VIRTHCNL_VLAN_ETHERTYPE_8100 |
+ *     VIRTCHNL_VLAN_ETHERTYPE_88A8 |
+ *     VIRTCHNL_VLAN_ETHERTYPE_AND;
+ *
+ * The VF would interpret this as VLAN filtering can be supported on both 0x8100
+ * and 0x88A8 VLAN ethertypes.
+ *
+ * VIRTCHNL_ETHERTYPE_XOR - Used when only a single ethertype can be supported
+ * by the PF concurrently. For example if the PF can support
+ * VIRTCHNL_VLAN_ETHERTYPE_8100 XOR VIRTCHNL_VLAN_ETHERTYPE_88A8 stripping
+ * offload it would OR the following bits:
+ *
+ *     VIRTCHNL_VLAN_ETHERTYPE_8100 |
+ *     VIRTCHNL_VLAN_ETHERTYPE_88A8 |
+ *     VIRTCHNL_VLAN_ETHERTYPE_XOR;
+ *
+ * The VF would interpret this as VLAN stripping can be supported on either
+ * 0x8100 or 0x88a8 VLAN ethertypes. So when requesting VLAN stripping via
+ * VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2 the specified ethertype will override
+ * the previously set value.
+ *
+ * VIRTCHNL_VLAN_TAG_LOCATION_L2TAG1 - Used to tell the VF to insert and/or
+ * strip the VLAN tag using the L2TAG1 field of the Tx/Rx descriptors.
+ *
+ * VIRTCHNL_VLAN_TAG_LOCATION_L2TAG2 - Used to tell the VF to insert hardware
+ * offloaded VLAN tags using the L2TAG2 field of the Tx descriptor.
+ *
+ * VIRTCHNL_VLAN_TAG_LOCATION_L2TAG2 - Used to tell the VF to strip hardware
+ * offloaded VLAN tags using the L2TAG2_2 field of the Rx descriptor.
+ *
+ * VIRTCHNL_VLAN_PRIO - This field supports VLAN priority bits. This is used for
+ * VLAN filtering if the underlying PF supports it.
+ *
+ * VIRTCHNL_VLAN_TOGGLE_ALLOWED - This field is used to say whether a
+ * certain VLAN capability can be toggled. For example if the underlying PF/CP
+ * allows the VF to toggle VLAN filtering, stripping, and/or insertion it should
+ * set this bit along with the supported ethertypes.
+ */
+enum virtchnl_vlan_support {
+       VIRTCHNL_VLAN_UNSUPPORTED =             0,
+       VIRTCHNL_VLAN_ETHERTYPE_8100 =          0x00000001,
+       VIRTCHNL_VLAN_ETHERTYPE_88A8 =          0x00000002,
+       VIRTCHNL_VLAN_ETHERTYPE_9100 =          0x00000004,
+       VIRTCHNL_VLAN_TAG_LOCATION_L2TAG1 =     0x00000100,
+       VIRTCHNL_VLAN_TAG_LOCATION_L2TAG2 =     0x00000200,
+       VIRTCHNL_VLAN_TAG_LOCATION_L2TAG2_2 =   0x00000400,
+       VIRTCHNL_VLAN_PRIO =                    0x01000000,
+       VIRTCHNL_VLAN_FILTER_MASK =             0x10000000,
+       VIRTCHNL_VLAN_ETHERTYPE_AND =           0x20000000,
+       VIRTCHNL_VLAN_ETHERTYPE_XOR =           0x40000000,
+       VIRTCHNL_VLAN_TOGGLE =                  0x80000000
+};
+
+/* This structure is used as part of the VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS
+ * for filtering, insertion, and stripping capabilities.
+ *
+ * If only outer capabilities are supported (for filtering, insertion, and/or
+ * stripping) then this refers to the outer most or single VLAN from the VF's
+ * perspective.
+ *
+ * If only inner capabilities are supported (for filtering, insertion, and/or
+ * stripping) then this refers to the outer most or single VLAN from the VF's
+ * perspective. Functionally this is the same as if only outer capabilities are
+ * supported. The VF driver is just forced to use the inner fields when
+ * adding/deleting filters and enabling/disabling offloads (if supported).
+ *
+ * If both outer and inner capabilities are supported (for filtering, insertion,
+ * and/or stripping) then outer refers to the outer most or single VLAN and
+ * inner refers to the second VLAN, if it exists, in the packet.
+ *
+ * There is no support for tunneled VLAN offloads, so outer or inner are never
+ * referring to a tunneled packet from the VF's perspective.
+ */
+struct virtchnl_vlan_supported_caps {
+       u32 outer;
+       u32 inner;
+};
+
+/* The PF populates these fields based on the supported VLAN filtering. If a
+ * field is VIRTCHNL_VLAN_UNSUPPORTED then it's not supported and the PF will
+ * reject any VIRTCHNL_OP_ADD_VLAN_V2 or VIRTCHNL_OP_DEL_VLAN_V2 messages using
+ * the unsupported fields.
+ *
+ * Also, a VF is only allowed to toggle its VLAN filtering setting if the
+ * VIRTCHNL_VLAN_TOGGLE bit is set.
+ *
+ * The ethertype(s) specified in the ethertype_init field are the ethertypes
+ * enabled for VLAN filtering. VLAN filtering in this case refers to the outer
+ * most VLAN from the VF's perspective. If both inner and outer filtering are
+ * allowed then ethertype_init only refers to the outer most VLAN as only
+ * VLAN ethertype supported for inner VLAN filtering is
+ * VIRTCHNL_VLAN_ETHERTYPE_8100. By default, inner VLAN filtering is disabled
+ * when both inner and outer filtering are allowed.
+ *
+ * The max_filters field tells the VF how many VLAN filters it's allowed to have
+ * at any one time. If it exceeds this amount and tries to add another filter,
+ * then the request will be rejected by the PF. To prevent failures, the VF
+ * should keep track of how many VLAN filters it has added and not attempt to
+ * add more than max_filters.
+ */
+struct virtchnl_vlan_filtering_caps {
+       struct virtchnl_vlan_supported_caps filtering_support;
+       u32 ethertype_init;
+       u16 max_filters;
+       u8 pad[2];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_vlan_filtering_caps);
+
+/* This enum is used for the virtchnl_vlan_offload_caps structure to specify
+ * if the PF supports a different ethertype for stripping and insertion.
+ *
+ * VIRTCHNL_ETHERTYPE_STRIPPING_MATCHES_INSERTION - The ethertype(s) specified
+ * for stripping affect the ethertype(s) specified for insertion and visa versa
+ * as well. If the VF tries to configure VLAN stripping via
+ * VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2 with VIRTCHNL_VLAN_ETHERTYPE_8100 then
+ * that will be the ethertype for both stripping and insertion.
+ *
+ * VIRTCHNL_ETHERTYPE_MATCH_NOT_REQUIRED - The ethertype(s) specified for
+ * stripping do not affect the ethertype(s) specified for insertion and visa
+ * versa.
+ */
+enum virtchnl_vlan_ethertype_match {
+       VIRTCHNL_ETHERTYPE_STRIPPING_MATCHES_INSERTION = 0,
+       VIRTCHNL_ETHERTYPE_MATCH_NOT_REQUIRED = 1,
+};
+
+/* The PF populates these fields based on the supported VLAN offloads. If a
+ * field is VIRTCHNL_VLAN_UNSUPPORTED then it's not supported and the PF will
+ * reject any VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2 or
+ * VIRTCHNL_OP_DISABLE_VLAN_STRIPPING_V2 messages using the unsupported fields.
+ *
+ * Also, a VF is only allowed to toggle its VLAN offload setting if the
+ * VIRTCHNL_VLAN_TOGGLE_ALLOWED bit is set.
+ *
+ * The VF driver needs to be aware of how the tags are stripped by hardware and
+ * inserted by the VF driver based on the level of offload support. The PF will
+ * populate these fields based on where the VLAN tags are expected to be
+ * offloaded via the VIRTHCNL_VLAN_TAG_LOCATION_* bits. The VF will need to
+ * interpret these fields. See the definition of the
+ * VIRTCHNL_VLAN_TAG_LOCATION_* bits above the virtchnl_vlan_support
+ * enumeration.
+ */
+struct virtchnl_vlan_offload_caps {
+       struct virtchnl_vlan_supported_caps stripping_support;
+       struct virtchnl_vlan_supported_caps insertion_support;
+       u32 ethertype_init;
+       u8 ethertype_match;
+       u8 pad[3];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(24, virtchnl_vlan_offload_caps);
+
+/* VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS
+ * VF sends this message to determine its VLAN capabilities.
+ *
+ * PF will mark which capabilities it supports based on hardware support and
+ * current configuration. For example, if a port VLAN is configured the PF will
+ * not allow outer VLAN filtering, stripping, or insertion to be configured so
+ * it will block these features from the VF.
+ *
+ * The VF will need to cross reference its capabilities with the PFs
+ * capabilities in the response message from the PF to determine the VLAN
+ * support.
+ */
+struct virtchnl_vlan_caps {
+       struct virtchnl_vlan_filtering_caps filtering;
+       struct virtchnl_vlan_offload_caps offloads;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(40, virtchnl_vlan_caps);
+
+struct virtchnl_vlan {
+       u16 tci;        /* tci[15:13] = PCP and tci[11:0] = VID */
+       u16 tci_mask;   /* only valid if VIRTCHNL_VLAN_FILTER_MASK set in
+                        * filtering caps
+                        */
+       u16 tpid;       /* 0x8100, 0x88a8, etc. and only type(s) set in
+                        * filtering caps. Note that tpid here does not refer to
+                        * VIRTCHNL_VLAN_ETHERTYPE_*, but it refers to the
+                        * actual 2-byte VLAN TPID
+                        */
+       u8 pad[2];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(8, virtchnl_vlan);
+
+struct virtchnl_vlan_filter {
+       struct virtchnl_vlan inner;
+       struct virtchnl_vlan outer;
+       u8 pad[16];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(32, virtchnl_vlan_filter);
+
+/* VIRTCHNL_OP_ADD_VLAN_V2
+ * VIRTCHNL_OP_DEL_VLAN_V2
+ *
+ * VF sends these messages to add/del one or more VLAN tag filters for Rx
+ * traffic.
+ *
+ * The PF attempts to add the filters and returns status.
+ *
+ * The VF should only ever attempt to add/del virtchnl_vlan_filter(s) using the
+ * supported fields negotiated via VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS.
+ */
+struct virtchnl_vlan_filter_list_v2 {
+       u16 vport_id;
+       u16 num_elements;
+       u8 pad[4];
+       struct virtchnl_vlan_filter filters[1];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(40, virtchnl_vlan_filter_list_v2);
+
+/* VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2
+ * VIRTCHNL_OP_DISABLE_VLAN_STRIPPING_V2
+ * VIRTCHNL_OP_ENABLE_VLAN_INSERTION_V2
+ * VIRTCHNL_OP_DISABLE_VLAN_INSERTION_V2
+ *
+ * VF sends this message to enable or disable VLAN stripping or insertion. It
+ * also needs to specify an ethertype. The VF knows which VLAN ethertypes are
+ * allowed and whether or not it's allowed to enable/disable the specific
+ * offload via the VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS message. The VF needs to
+ * parse the virtchnl_vlan_caps.offloads fields to determine which offload
+ * messages are allowed.
+ *
+ * For example, if the PF populates the virtchnl_vlan_caps.offloads in the
+ * following manner the VF will be allowed to enable and/or disable 0x8100 inner
+ * VLAN insertion and/or stripping via the opcodes listed above. Inner in this
+ * case means the outer most or single VLAN from the VF's perspective. This is
+ * because no outer offloads are supported. See the comments above the
+ * virtchnl_vlan_supported_caps structure for more details.
+ *
+ * virtchnl_vlan_caps.offloads.stripping_support.inner =
+ *                     VIRTCHNL_VLAN_TOGGLE |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100;
+ *
+ * virtchnl_vlan_caps.offloads.insertion_support.inner =
+ *                     VIRTCHNL_VLAN_TOGGLE |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100;
+ *
+ * In order to enable inner (again note that in this case inner is the outer
+ * most or single VLAN from the VF's perspective) VLAN stripping for 0x8100
+ * VLANs, the VF would populate the virtchnl_vlan_setting structure in the
+ * following manner and send the VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2 message.
+ *
+ * virtchnl_vlan_setting.inner_ethertype_setting =
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100;
+ *
+ * virtchnl_vlan_setting.vport_id = vport_id or vsi_id assigned to the VF on
+ * initialization.
+ *
+ * The reason that VLAN TPID(s) are not being used for the
+ * outer_ethertype_setting and inner_ethertype_setting fields is because it's
+ * possible a device could support VLAN insertion and/or stripping offload on
+ * multiple ethertypes concurrently, so this method allows a VF to request
+ * multiple ethertypes in one message using the virtchnl_vlan_support
+ * enumeration.
+ *
+ * For example, if the PF populates the virtchnl_vlan_caps.offloads in the
+ * following manner the VF will be allowed to enable 0x8100 and 0x88a8 outer
+ * VLAN insertion and stripping simultaneously. The
+ * virtchnl_vlan_caps.offloads.ethertype_match field will also have to be
+ * populated based on what the PF can support.
+ *
+ * virtchnl_vlan_caps.offloads.stripping_support.outer =
+ *                     VIRTCHNL_VLAN_TOGGLE |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_88A8 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_AND;
+ *
+ * virtchnl_vlan_caps.offloads.insertion_support.outer =
+ *                     VIRTCHNL_VLAN_TOGGLE |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_88A8 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_AND;
+ *
+ * In order to enable outer VLAN stripping for 0x8100 and 0x88a8 VLANs, the VF
+ * would populate the virthcnl_vlan_offload_structure in the following manner
+ * and send the VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2 message.
+ *
+ * virtchnl_vlan_setting.outer_ethertype_setting =
+ *                     VIRTHCNL_VLAN_ETHERTYPE_8100 |
+ *                     VIRTHCNL_VLAN_ETHERTYPE_88A8;
+ *
+ * virtchnl_vlan_setting.vport_id = vport_id or vsi_id assigned to the VF on
+ * initialization.
+ *
+ * There is also the case where a PF and the underlying hardware can support
+ * VLAN offloads on multiple ethertypes, but not concurrently. For example, if
+ * the PF populates the virtchnl_vlan_caps.offloads in the following manner the
+ * VF will be allowed to enable and/or disable 0x8100 XOR 0x88a8 outer VLAN
+ * offloads. The ethertypes must match for stripping and insertion.
+ *
+ * virtchnl_vlan_caps.offloads.stripping_support.outer =
+ *                     VIRTCHNL_VLAN_TOGGLE |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_88A8 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_XOR;
+ *
+ * virtchnl_vlan_caps.offloads.insertion_support.outer =
+ *                     VIRTCHNL_VLAN_TOGGLE |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_88A8 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_XOR;
+ *
+ * virtchnl_vlan_caps.offloads.ethertype_match =
+ *                     VIRTCHNL_ETHERTYPE_STRIPPING_MATCHES_INSERTION;
+ *
+ * In order to enable outer VLAN stripping for 0x88a8 VLANs, the VF would
+ * populate the virtchnl_vlan_setting structure in the following manner and send
+ * the VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2. Also, this will change the
+ * ethertype for VLAN insertion if it's enabled. So, for completeness, a
+ * VIRTCHNL_OP_ENABLE_VLAN_INSERTION_V2 with the same ethertype should be sent.
+ *
+ * virtchnl_vlan_setting.outer_ethertype_setting = VIRTHCNL_VLAN_ETHERTYPE_88A8;
+ *
+ * virtchnl_vlan_setting.vport_id = vport_id or vsi_id assigned to the VF on
+ * initialization.
+ *
+ * VIRTCHNL_OP_ENABLE_VLAN_FILTERING_V2
+ * VIRTCHNL_OP_DISABLE_VLAN_FILTERING_V2
+ *
+ * VF sends this message to enable or disable VLAN filtering. It also needs to
+ * specify an ethertype. The VF knows which VLAN ethertypes are allowed and
+ * whether or not it's allowed to enable/disable filtering via the
+ * VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS message. The VF needs to
+ * parse the virtchnl_vlan_caps.filtering fields to determine which, if any,
+ * filtering messages are allowed.
+ *
+ * For example, if the PF populates the virtchnl_vlan_caps.filtering in the
+ * following manner the VF will be allowed to enable/disable 0x8100 and 0x88a8
+ * outer VLAN filtering together. Note, that the VIRTCHNL_VLAN_ETHERTYPE_AND
+ * means that all filtering ethertypes will to be enabled and disabled together
+ * regardless of the request from the VF. This means that the underlying
+ * hardware only supports VLAN filtering for all VLAN the specified ethertypes
+ * or none of them.
+ *
+ * virtchnl_vlan_caps.filtering.filtering_support.outer =
+ *                     VIRTCHNL_VLAN_TOGGLE |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100 |
+ *                     VIRTHCNL_VLAN_ETHERTYPE_88A8 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_9100 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_AND;
+ *
+ * In order to enable outer VLAN filtering for 0x88a8 and 0x8100 VLANs (0x9100
+ * VLANs aren't supported by the VF driver), the VF would populate the
+ * virtchnl_vlan_setting structure in the following manner and send the
+ * VIRTCHNL_OP_ENABLE_VLAN_FILTERING_V2. The same message format would be used
+ * to disable outer VLAN filtering for 0x88a8 and 0x8100 VLANs, but the
+ * VIRTCHNL_OP_DISABLE_VLAN_FILTERING_V2 opcode is used.
+ *
+ * virtchnl_vlan_setting.outer_ethertype_setting =
+ *                     VIRTCHNL_VLAN_ETHERTYPE_8100 |
+ *                     VIRTCHNL_VLAN_ETHERTYPE_88A8;
+ *
+ */
+struct virtchnl_vlan_setting {
+       u32 outer_ethertype_setting;
+       u32 inner_ethertype_setting;
+       u16 vport_id;
+       u8 pad[6];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_vlan_setting);
+
 /* VIRTCHNL_OP_CONFIG_PROMISCUOUS_MODE
  * VF sends VSI id and flags.
  * PF returns status code in retval.
@@ -531,6 +1119,14 @@ struct virtchnl_rss_hena {
 
 VIRTCHNL_CHECK_STRUCT_LEN(8, virtchnl_rss_hena);
 
+/* Type of RSS algorithm */
+enum virtchnl_rss_algorithm {
+       VIRTCHNL_RSS_ALG_TOEPLITZ_ASYMMETRIC    = 0,
+       VIRTCHNL_RSS_ALG_XOR_ASYMMETRIC         = 1,
+       VIRTCHNL_RSS_ALG_TOEPLITZ_SYMMETRIC     = 2,
+       VIRTCHNL_RSS_ALG_XOR_SYMMETRIC          = 3,
+};
+
 /* This is used by PF driver to enforce how many channels can be supported.
  * When ADQ_V2 capability is negotiated, it will allow 16 channels otherwise
  * PF driver will allow only max 4 channels
@@ -571,8 +1167,8 @@ VIRTCHNL_CHECK_STRUCT_LEN(24, virtchnl_tc_info);
  */
 
 struct virtchnl_l4_spec {
-       u8      src_mac[ETH_ALEN];
-       u8      dst_mac[ETH_ALEN];
+       u8      src_mac[VIRTCHNL_ETH_LENGTH_OF_ADDRESS];
+       u8      dst_mac[VIRTCHNL_ETH_LENGTH_OF_ADDRESS];
        /* vlan_prio is part of this 16 bit field even from OS perspective
         * vlan_id:12 is actual vlan_id, then vlanid:bit14..12 is vlan_prio
         * in future, when decided to offload vlan_prio, pass that information
@@ -599,6 +1195,11 @@ enum virtchnl_action {
        /* action types */
        VIRTCHNL_ACTION_DROP = 0,
        VIRTCHNL_ACTION_TC_REDIRECT,
+       VIRTCHNL_ACTION_PASSTHRU,
+       VIRTCHNL_ACTION_QUEUE,
+       VIRTCHNL_ACTION_Q_REGION,
+       VIRTCHNL_ACTION_MARK,
+       VIRTCHNL_ACTION_COUNT,
 };
 
 enum virtchnl_flow_type {
@@ -620,6 +1221,84 @@ struct virtchnl_filter {
 
 VIRTCHNL_CHECK_STRUCT_LEN(272, virtchnl_filter);
 
+/* VIRTCHNL_OP_DCF_GET_VSI_MAP
+ * VF sends this message to get VSI mapping table.
+ * PF responds with an indirect message containing VF's
+ * HW VSI IDs.
+ * The index of vf_vsi array is the logical VF ID, the
+ * value of vf_vsi array is the VF's HW VSI ID with its
+ * valid configuration.
+ */
+struct virtchnl_dcf_vsi_map {
+       u16 pf_vsi;     /* PF's HW VSI ID */
+       u16 num_vfs;    /* The actual number of VFs allocated */
+#define VIRTCHNL_DCF_VF_VSI_ID_S       0
+#define VIRTCHNL_DCF_VF_VSI_ID_M       (0xFFF << VIRTCHNL_DCF_VF_VSI_ID_S)
+#define VIRTCHNL_DCF_VF_VSI_VALID      BIT(15)
+       u16 vf_vsi[1];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(6, virtchnl_dcf_vsi_map);
+
+#define PKG_NAME_SIZE  32
+#define DSN_SIZE       8
+
+struct pkg_version {
+       u8 major;
+       u8 minor;
+       u8 update;
+       u8 draft;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(4, pkg_version);
+
+struct virtchnl_pkg_info {
+       struct pkg_version pkg_ver;
+       u32 track_id;
+       char pkg_name[PKG_NAME_SIZE];
+       u8 dsn[DSN_SIZE];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(48, virtchnl_pkg_info);
+
+/* VIRTCHNL_OP_DCF_VLAN_OFFLOAD
+ * DCF negotiates the VIRTCHNL_VF_OFFLOAD_VLAN_V2 capability firstly to get
+ * the double VLAN configuration, then DCF sends this message to configure the
+ * outer or inner VLAN offloads (insertion and strip) for the target VF.
+ */
+struct virtchnl_dcf_vlan_offload {
+       u16 vf_id;
+       u16 tpid;
+       u16 vlan_flags;
+#define VIRTCHNL_DCF_VLAN_TYPE_S               0
+#define VIRTCHNL_DCF_VLAN_TYPE_M               \
+                       (0x1 << VIRTCHNL_DCF_VLAN_TYPE_S)
+#define VIRTCHNL_DCF_VLAN_TYPE_INNER           0x0
+#define VIRTCHNL_DCF_VLAN_TYPE_OUTER           0x1
+#define VIRTCHNL_DCF_VLAN_INSERT_MODE_S                1
+#define VIRTCHNL_DCF_VLAN_INSERT_MODE_M        \
+                       (0x7 << VIRTCHNL_DCF_VLAN_INSERT_MODE_S)
+#define VIRTCHNL_DCF_VLAN_INSERT_DISABLE       0x1
+#define VIRTCHNL_DCF_VLAN_INSERT_PORT_BASED    0x2
+#define VIRTCHNL_DCF_VLAN_INSERT_VIA_TX_DESC   0x3
+#define VIRTCHNL_DCF_VLAN_STRIP_MODE_S         4
+#define VIRTCHNL_DCF_VLAN_STRIP_MODE_M         \
+                       (0x7 << VIRTCHNL_DCF_VLAN_STRIP_MODE_S)
+#define VIRTCHNL_DCF_VLAN_STRIP_DISABLE                0x1
+#define VIRTCHNL_DCF_VLAN_STRIP_ONLY           0x2
+#define VIRTCHNL_DCF_VLAN_STRIP_INTO_RX_DESC   0x3
+       u16 vlan_id;
+       u16 pad[4];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_dcf_vlan_offload);
+
+struct virtchnl_supported_rxdids {
+       u64 supported_rxdids;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(8, virtchnl_supported_rxdids);
+
 /* VIRTCHNL_OP_EVENT
  * PF sends this message to inform the VF driver of events that may affect it.
  * No direct response is expected from the VF, though it may generate other
@@ -630,6 +1309,7 @@ enum virtchnl_event_codes {
        VIRTCHNL_EVENT_LINK_CHANGE,
        VIRTCHNL_EVENT_RESET_IMPENDING,
        VIRTCHNL_EVENT_PF_DRIVER_CLOSE,
+       VIRTCHNL_EVENT_DCF_VSI_MAP_UPDATE,
 };
 
 #define PF_EVENT_SEVERITY_INFO         0
@@ -657,6 +1337,10 @@ struct virtchnl_pf_event {
                        u32 link_speed;
                        u8 link_status;
                } link_event_adv;
+               struct {
+                       u16 vf_id;
+                       u16 vsi_id;
+               } vf_vsi_map;
        } event_data;
 
        int severity;
@@ -665,6 +1349,454 @@ struct virtchnl_pf_event {
 VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_pf_event);
 
 
+/* VF reset states - these are written into the RSTAT register:
+ * VFGEN_RSTAT on the VF
+ * When the PF initiates a reset, it writes 0
+ * When the reset is complete, it writes 1
+ * When the PF detects that the VF has recovered, it writes 2
+ * VF checks this register periodically to determine if a reset has occurred,
+ * then polls it to know when the reset is complete.
+ * If either the PF or VF reads the register while the hardware
+ * is in a reset state, it will return DEADBEEF, which, when masked
+ * will result in 3.
+ */
+enum virtchnl_vfr_states {
+       VIRTCHNL_VFR_INPROGRESS = 0,
+       VIRTCHNL_VFR_COMPLETED,
+       VIRTCHNL_VFR_VFACTIVE,
+};
+
+#define VIRTCHNL_MAX_NUM_PROTO_HDRS    32
+#define PROTO_HDR_SHIFT                        5
+#define PROTO_HDR_FIELD_START(proto_hdr_type) \
+                                       (proto_hdr_type << PROTO_HDR_SHIFT)
+#define PROTO_HDR_FIELD_MASK ((1UL << PROTO_HDR_SHIFT) - 1)
+
+/* VF use these macros to configure each protocol header.
+ * Specify which protocol headers and protocol header fields base on
+ * virtchnl_proto_hdr_type and virtchnl_proto_hdr_field.
+ * @param hdr: a struct of virtchnl_proto_hdr
+ * @param hdr_type: ETH/IPV4/TCP, etc
+ * @param field: SRC/DST/TEID/SPI, etc
+ */
+#define VIRTCHNL_ADD_PROTO_HDR_FIELD(hdr, field) \
+       ((hdr)->field_selector |= BIT((field) & PROTO_HDR_FIELD_MASK))
+#define VIRTCHNL_DEL_PROTO_HDR_FIELD(hdr, field) \
+       ((hdr)->field_selector &= ~BIT((field) & PROTO_HDR_FIELD_MASK))
+#define VIRTCHNL_TEST_PROTO_HDR_FIELD(hdr, val) \
+       ((hdr)->field_selector & BIT((val) & PROTO_HDR_FIELD_MASK))
+#define VIRTCHNL_GET_PROTO_HDR_FIELD(hdr)      ((hdr)->field_selector)
+
+#define VIRTCHNL_ADD_PROTO_HDR_FIELD_BIT(hdr, hdr_type, field) \
+       (VIRTCHNL_ADD_PROTO_HDR_FIELD(hdr, \
+               VIRTCHNL_PROTO_HDR_ ## hdr_type ## _ ## field))
+#define VIRTCHNL_DEL_PROTO_HDR_FIELD_BIT(hdr, hdr_type, field) \
+       (VIRTCHNL_DEL_PROTO_HDR_FIELD(hdr, \
+               VIRTCHNL_PROTO_HDR_ ## hdr_type ## _ ## field))
+
+#define VIRTCHNL_SET_PROTO_HDR_TYPE(hdr, hdr_type) \
+       ((hdr)->type = VIRTCHNL_PROTO_HDR_ ## hdr_type)
+#define VIRTCHNL_GET_PROTO_HDR_TYPE(hdr) \
+       (((hdr)->type) >> PROTO_HDR_SHIFT)
+#define VIRTCHNL_TEST_PROTO_HDR_TYPE(hdr, val) \
+       ((hdr)->type == ((val) >> PROTO_HDR_SHIFT))
+#define VIRTCHNL_TEST_PROTO_HDR(hdr, val) \
+       (VIRTCHNL_TEST_PROTO_HDR_TYPE(hdr, val) && \
+        VIRTCHNL_TEST_PROTO_HDR_FIELD(hdr, val))
+
+/* Protocol header type within a packet segment. A segment consists of one or
+ * more protocol headers that make up a logical group of protocol headers. Each
+ * logical group of protocol headers encapsulates or is encapsulated using/by
+ * tunneling or encapsulation protocols for network virtualization.
+ */
+enum virtchnl_proto_hdr_type {
+       VIRTCHNL_PROTO_HDR_NONE,
+       VIRTCHNL_PROTO_HDR_ETH,
+       VIRTCHNL_PROTO_HDR_S_VLAN,
+       VIRTCHNL_PROTO_HDR_C_VLAN,
+       VIRTCHNL_PROTO_HDR_IPV4,
+       VIRTCHNL_PROTO_HDR_IPV6,
+       VIRTCHNL_PROTO_HDR_TCP,
+       VIRTCHNL_PROTO_HDR_UDP,
+       VIRTCHNL_PROTO_HDR_SCTP,
+       VIRTCHNL_PROTO_HDR_GTPU_IP,
+       VIRTCHNL_PROTO_HDR_GTPU_EH,
+       VIRTCHNL_PROTO_HDR_GTPU_EH_PDU_DWN,
+       VIRTCHNL_PROTO_HDR_GTPU_EH_PDU_UP,
+       VIRTCHNL_PROTO_HDR_PPPOE,
+       VIRTCHNL_PROTO_HDR_L2TPV3,
+       VIRTCHNL_PROTO_HDR_ESP,
+       VIRTCHNL_PROTO_HDR_AH,
+       VIRTCHNL_PROTO_HDR_PFCP,
+       VIRTCHNL_PROTO_HDR_GTPC,
+       VIRTCHNL_PROTO_HDR_ECPRI,
+};
+
+/* Protocol header field within a protocol header. */
+enum virtchnl_proto_hdr_field {
+       /* ETHER */
+       VIRTCHNL_PROTO_HDR_ETH_SRC =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_ETH),
+       VIRTCHNL_PROTO_HDR_ETH_DST,
+       VIRTCHNL_PROTO_HDR_ETH_ETHERTYPE,
+       /* S-VLAN */
+       VIRTCHNL_PROTO_HDR_S_VLAN_ID =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_S_VLAN),
+       /* C-VLAN */
+       VIRTCHNL_PROTO_HDR_C_VLAN_ID =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_C_VLAN),
+       /* IPV4 */
+       VIRTCHNL_PROTO_HDR_IPV4_SRC =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_IPV4),
+       VIRTCHNL_PROTO_HDR_IPV4_DST,
+       VIRTCHNL_PROTO_HDR_IPV4_DSCP,
+       VIRTCHNL_PROTO_HDR_IPV4_TTL,
+       VIRTCHNL_PROTO_HDR_IPV4_PROT,
+       /* IPV6 */
+       VIRTCHNL_PROTO_HDR_IPV6_SRC =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_IPV6),
+       VIRTCHNL_PROTO_HDR_IPV6_DST,
+       VIRTCHNL_PROTO_HDR_IPV6_TC,
+       VIRTCHNL_PROTO_HDR_IPV6_HOP_LIMIT,
+       VIRTCHNL_PROTO_HDR_IPV6_PROT,
+       /* IPV6 Prefix */
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX32_SRC,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX32_DST,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX40_SRC,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX40_DST,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX48_SRC,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX48_DST,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX56_SRC,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX56_DST,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX64_SRC,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX64_DST,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX96_SRC,
+       VIRTCHNL_PROTO_HDR_IPV6_PREFIX96_DST,
+       /* TCP */
+       VIRTCHNL_PROTO_HDR_TCP_SRC_PORT =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_TCP),
+       VIRTCHNL_PROTO_HDR_TCP_DST_PORT,
+       /* UDP */
+       VIRTCHNL_PROTO_HDR_UDP_SRC_PORT =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_UDP),
+       VIRTCHNL_PROTO_HDR_UDP_DST_PORT,
+       /* SCTP */
+       VIRTCHNL_PROTO_HDR_SCTP_SRC_PORT =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_SCTP),
+       VIRTCHNL_PROTO_HDR_SCTP_DST_PORT,
+       /* GTPU_IP */
+       VIRTCHNL_PROTO_HDR_GTPU_IP_TEID =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_GTPU_IP),
+       /* GTPU_EH */
+       VIRTCHNL_PROTO_HDR_GTPU_EH_PDU =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_GTPU_EH),
+       VIRTCHNL_PROTO_HDR_GTPU_EH_QFI,
+       /* PPPOE */
+       VIRTCHNL_PROTO_HDR_PPPOE_SESS_ID =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_PPPOE),
+       /* L2TPV3 */
+       VIRTCHNL_PROTO_HDR_L2TPV3_SESS_ID =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_L2TPV3),
+       /* ESP */
+       VIRTCHNL_PROTO_HDR_ESP_SPI =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_ESP),
+       /* AH */
+       VIRTCHNL_PROTO_HDR_AH_SPI =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_AH),
+       /* PFCP */
+       VIRTCHNL_PROTO_HDR_PFCP_S_FIELD =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_PFCP),
+       VIRTCHNL_PROTO_HDR_PFCP_SEID,
+       /* GTPC */
+       VIRTCHNL_PROTO_HDR_GTPC_TEID =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_GTPC),
+       /* ECPRI */
+       VIRTCHNL_PROTO_HDR_ECPRI_MSG_TYPE =
+               PROTO_HDR_FIELD_START(VIRTCHNL_PROTO_HDR_ECPRI),
+       VIRTCHNL_PROTO_HDR_ECPRI_PC_RTC_ID,
+};
+
+struct virtchnl_proto_hdr {
+       enum virtchnl_proto_hdr_type type;
+       u32 field_selector; /* a bit mask to select field for header type */
+       u8 buffer[64];
+       /**
+        * binary buffer in network order for specific header type.
+        * For example, if type = VIRTCHNL_PROTO_HDR_IPV4, a IPv4
+        * header is expected to be copied into the buffer.
+        */
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(72, virtchnl_proto_hdr);
+
+struct virtchnl_proto_hdrs {
+       u8 tunnel_level;
+       /**
+        * specify where protocol header start from.
+        * 0 - from the outer layer
+        * 1 - from the first inner layer
+        * 2 - from the second inner layer
+        * ....
+        **/
+       int count; /* the proto layers must < VIRTCHNL_MAX_NUM_PROTO_HDRS */
+       struct virtchnl_proto_hdr proto_hdr[VIRTCHNL_MAX_NUM_PROTO_HDRS];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(2312, virtchnl_proto_hdrs);
+
+struct virtchnl_rss_cfg {
+       struct virtchnl_proto_hdrs proto_hdrs;     /* protocol headers */
+       enum virtchnl_rss_algorithm rss_algorithm; /* rss algorithm type */
+       u8 reserved[128];                          /* reserve for future */
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(2444, virtchnl_rss_cfg);
+
+/* action configuration for FDIR */
+struct virtchnl_filter_action {
+       enum virtchnl_action type;
+       union {
+               /* used for queue and qgroup action */
+               struct {
+                       u16 index;
+                       u8 region;
+               } queue;
+               /* used for count action */
+               struct {
+                       /* share counter ID with other flow rules */
+                       u8 shared;
+                       u32 id; /* counter ID */
+               } count;
+               /* used for mark action */
+               u32 mark_id;
+               u8 reserve[32];
+       } act_conf;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(36, virtchnl_filter_action);
+
+#define VIRTCHNL_MAX_NUM_ACTIONS  8
+
+struct virtchnl_filter_action_set {
+       /* action number must be less then VIRTCHNL_MAX_NUM_ACTIONS */
+       int count;
+       struct virtchnl_filter_action actions[VIRTCHNL_MAX_NUM_ACTIONS];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(292, virtchnl_filter_action_set);
+
+/* pattern and action for FDIR rule */
+struct virtchnl_fdir_rule {
+       struct virtchnl_proto_hdrs proto_hdrs;
+       struct virtchnl_filter_action_set action_set;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(2604, virtchnl_fdir_rule);
+
+/* query information to retrieve fdir rule counters.
+ * PF will fill out this structure to reset counter.
+ */
+struct virtchnl_fdir_query_info {
+       u32 match_packets_valid:1;
+       u32 match_bytes_valid:1;
+       u32 reserved:30;  /* Reserved, must be zero. */
+       u32 pad;
+       u64 matched_packets; /* Number of packets for this rule. */
+       u64 matched_bytes;   /* Number of bytes through this rule. */
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(24, virtchnl_fdir_query_info);
+
+/* Status returned to VF after VF requests FDIR commands
+ * VIRTCHNL_FDIR_SUCCESS
+ * VF FDIR related request is successfully done by PF
+ * The request can be OP_ADD/DEL/QUERY_FDIR_FILTER.
+ *
+ * VIRTCHNL_FDIR_FAILURE_RULE_NORESOURCE
+ * OP_ADD_FDIR_FILTER request is failed due to no Hardware resource.
+ *
+ * VIRTCHNL_FDIR_FAILURE_RULE_EXIST
+ * OP_ADD_FDIR_FILTER request is failed due to the rule is already existed.
+ *
+ * VIRTCHNL_FDIR_FAILURE_RULE_CONFLICT
+ * OP_ADD_FDIR_FILTER request is failed due to conflict with existing rule.
+ *
+ * VIRTCHNL_FDIR_FAILURE_RULE_NONEXIST
+ * OP_DEL_FDIR_FILTER request is failed due to this rule doesn't exist.
+ *
+ * VIRTCHNL_FDIR_FAILURE_RULE_INVALID
+ * OP_ADD_FDIR_FILTER request is failed due to parameters validation
+ * or HW doesn't support.
+ *
+ * VIRTCHNL_FDIR_FAILURE_RULE_TIMEOUT
+ * OP_ADD/DEL_FDIR_FILTER request is failed due to timing out
+ * for programming.
+ *
+ * VIRTCHNL_FDIR_FAILURE_QUERY_INVALID
+ * OP_QUERY_FDIR_FILTER request is failed due to parameters validation,
+ * for example, VF query counter of a rule who has no counter action.
+ */
+enum virtchnl_fdir_prgm_status {
+       VIRTCHNL_FDIR_SUCCESS = 0,
+       VIRTCHNL_FDIR_FAILURE_RULE_NORESOURCE,
+       VIRTCHNL_FDIR_FAILURE_RULE_EXIST,
+       VIRTCHNL_FDIR_FAILURE_RULE_CONFLICT,
+       VIRTCHNL_FDIR_FAILURE_RULE_NONEXIST,
+       VIRTCHNL_FDIR_FAILURE_RULE_INVALID,
+       VIRTCHNL_FDIR_FAILURE_RULE_TIMEOUT,
+       VIRTCHNL_FDIR_FAILURE_QUERY_INVALID,
+};
+
+/* VIRTCHNL_OP_ADD_FDIR_FILTER
+ * VF sends this request to PF by filling out vsi_id,
+ * validate_only and rule_cfg. PF will return flow_id
+ * if the request is successfully done and return add_status to VF.
+ */
+struct virtchnl_fdir_add {
+       u16 vsi_id;  /* INPUT */
+       /*
+        * 1 for validating a fdir rule, 0 for creating a fdir rule.
+        * Validate and create share one ops: VIRTCHNL_OP_ADD_FDIR_FILTER.
+        */
+       u16 validate_only; /* INPUT */
+       u32 flow_id;       /* OUTPUT */
+       struct virtchnl_fdir_rule rule_cfg; /* INPUT */
+       enum virtchnl_fdir_prgm_status status; /* OUTPUT */
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(2616, virtchnl_fdir_add);
+
+/* VIRTCHNL_OP_DEL_FDIR_FILTER
+ * VF sends this request to PF by filling out vsi_id
+ * and flow_id. PF will return del_status to VF.
+ */
+struct virtchnl_fdir_del {
+       u16 vsi_id;  /* INPUT */
+       u16 pad;
+       u32 flow_id; /* INPUT */
+       enum virtchnl_fdir_prgm_status status; /* OUTPUT */
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(12, virtchnl_fdir_del);
+
+/* VIRTCHNL_OP_QUERY_FDIR_FILTER
+ * VF sends this request to PF by filling out vsi_id,
+ * flow_id and reset_counter. PF will return query_info
+ * and query_status to VF.
+ */
+struct virtchnl_fdir_query {
+       u16 vsi_id;   /* INPUT */
+       u16 pad1[3];
+       u32 flow_id;  /* INPUT */
+       u32 reset_counter:1; /* INPUT */
+       struct virtchnl_fdir_query_info query_info; /* OUTPUT */
+       enum virtchnl_fdir_prgm_status status;  /* OUTPUT */
+       u32 pad2;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(48, virtchnl_fdir_query);
+
+/* TX and RX queue types are valid in legacy as well as split queue models.
+ * With Split Queue model, 2 additional types are introduced - TX_COMPLETION
+ * and RX_BUFFER. In split queue model, RX corresponds to the queue where HW
+ * posts completions.
+ */
+enum virtchnl_queue_type {
+       VIRTCHNL_QUEUE_TYPE_TX                  = 0,
+       VIRTCHNL_QUEUE_TYPE_RX                  = 1,
+       VIRTCHNL_QUEUE_TYPE_TX_COMPLETION       = 2,
+       VIRTCHNL_QUEUE_TYPE_RX_BUFFER           = 3,
+       VIRTCHNL_QUEUE_TYPE_CONFIG_TX           = 4,
+       VIRTCHNL_QUEUE_TYPE_CONFIG_RX           = 5
+};
+
+
+/* structure to specify a chunk of contiguous queues */
+struct virtchnl_queue_chunk {
+       enum virtchnl_queue_type type;
+       u16 start_queue_id;
+       u16 num_queues;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(8, virtchnl_queue_chunk);
+
+/* structure to specify several chunks of contiguous queues */
+struct virtchnl_queue_chunks {
+       u16 num_chunks;
+       u16 rsvd;
+       struct virtchnl_queue_chunk chunks[1];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(12, virtchnl_queue_chunks);
+
+
+/* VIRTCHNL_OP_ENABLE_QUEUES_V2
+ * VIRTCHNL_OP_DISABLE_QUEUES_V2
+ * VIRTCHNL_OP_DEL_QUEUES
+ *
+ * If VIRTCHNL_CAP_EXT_FEATURES was negotiated in VIRTCHNL_OP_GET_VF_RESOURCES
+ * then all of these ops are available.
+ *
+ * If VIRTCHNL_VF_LARGE_NUM_QPAIRS was negotiated in VIRTCHNL_OP_GET_VF_RESOURCES
+ * then VIRTCHNL_OP_ENABLE_QUEUES_V2 and VIRTCHNL_OP_DISABLE_QUEUES_V2 are
+ * available.
+ *
+ * PF sends these messages to enable, disable or delete queues specified in
+ * chunks. PF sends virtchnl_del_ena_dis_queues struct to specify the queues
+ * to be enabled/disabled/deleted. Also applicable to single queue RX or
+ * TX. CP performs requested action and returns status.
+ */
+struct virtchnl_del_ena_dis_queues {
+       u16 vport_id;
+       u16 pad;
+       struct virtchnl_queue_chunks chunks;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_del_ena_dis_queues);
+
+/* Virtchannel interrupt throttling rate index */
+enum virtchnl_itr_idx {
+       VIRTCHNL_ITR_IDX_0      = 0,
+       VIRTCHNL_ITR_IDX_1      = 1,
+       VIRTCHNL_ITR_IDX_NO_ITR = 3,
+};
+
+/* Queue to vector mapping */
+struct virtchnl_queue_vector {
+       u16 queue_id;
+       u16 vector_id;
+       u8 pad[4];
+       enum virtchnl_itr_idx itr_idx;
+       enum virtchnl_queue_type queue_type;
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(16, virtchnl_queue_vector);
+
+/* VIRTCHNL_OP_MAP_QUEUE_VECTOR
+ * VIRTCHNL_OP_UNMAP_QUEUE_VECTOR
+ *
+ * If VIRTCHNL_CAP_EXT_FEATURES was negotiated in VIRTCHNL_OP_GET_VF_RESOURCES
+ * then all of these ops are available.
+ *
+ * If VIRTCHNL_VF_LARGE_NUM_QPAIRS was negotiated in VIRTCHNL_OP_GET_VF_RESOURCES
+ * then only VIRTCHNL_OP_MAP_QUEUE_VECTOR is available.
+ *
+ * PF sends this message to map or unmap queues to vectors and ITR index
+ * registers. External data buffer contains virtchnl_queue_vector_maps structure
+ * that contains num_qv_maps of virtchnl_queue_vector structures.
+ * CP maps the requested queue vector maps after validating the queue and vector
+ * ids and returns a status code.
+ */
+struct virtchnl_queue_vector_maps {
+       u16 vport_id;
+       u16 num_qv_maps;
+       u8 pad[4];
+       struct virtchnl_queue_vector qv_maps[1];
+};
+
+VIRTCHNL_CHECK_STRUCT_LEN(24, virtchnl_queue_vector_maps);
+
+
 /* Since VF messages are limited by u16 size, precalculate the maximum possible
  * values of nested elements in virtchnl structures that virtual channel can
  * possibly handle in a single message.
@@ -690,23 +1822,18 @@ enum virtchnl_vector_limits {
        VIRTCHNL_OP_ENABLE_CHANNELS_MAX         =
                ((u16)(~0) - sizeof(struct virtchnl_tc_info)) /
                sizeof(struct virtchnl_channel_info),
-};
 
-/* VF reset states - these are written into the RSTAT register:
- * VFGEN_RSTAT on the VF
- * When the PF initiates a reset, it writes 0
- * When the reset is complete, it writes 1
- * When the PF detects that the VF has recovered, it writes 2
- * VF checks this register periodically to determine if a reset has occurred,
- * then polls it to know when the reset is complete.
- * If either the PF or VF reads the register while the hardware
- * is in a reset state, it will return DEADBEEF, which, when masked
- * will result in 3.
- */
-enum virtchnl_vfr_states {
-       VIRTCHNL_VFR_INPROGRESS = 0,
-       VIRTCHNL_VFR_COMPLETED,
-       VIRTCHNL_VFR_VFACTIVE,
+       VIRTCHNL_OP_ENABLE_DISABLE_DEL_QUEUES_V2_MAX    =
+               ((u16)(~0) - sizeof(struct virtchnl_del_ena_dis_queues)) /
+               sizeof(struct virtchnl_queue_chunk),
+
+       VIRTCHNL_OP_MAP_UNMAP_QUEUE_VECTOR_MAX  =
+               ((u16)(~0) - sizeof(struct virtchnl_queue_vector_maps)) /
+               sizeof(struct virtchnl_queue_vector),
+
+       VIRTCHNL_OP_ADD_DEL_VLAN_V2_MAX         =
+               ((u16)(~0) - sizeof(struct virtchnl_vlan_filter_list_v2)) /
+               sizeof(struct virtchnl_vlan_filter),
 };
 
 /**
@@ -723,7 +1850,7 @@ virtchnl_vc_validate_vf_msg(struct virtchnl_version_info *ver, u32 v_opcode,
                            u8 *msg, u16 msglen)
 {
        bool err_msg_format = false;
-       int valid_len = 0;
+       u32 valid_len = 0;
 
        /* Validate message length. */
        switch (v_opcode) {
@@ -779,6 +1906,8 @@ virtchnl_vc_validate_vf_msg(struct virtchnl_version_info *ver, u32 v_opcode,
        case VIRTCHNL_OP_DISABLE_QUEUES:
                valid_len = sizeof(struct virtchnl_queue_select);
                break;
+       case VIRTCHNL_OP_GET_MAX_RSS_QREGION:
+               break;
        case VIRTCHNL_OP_ADD_ETH_ADDR:
        case VIRTCHNL_OP_DEL_ETH_ADDR:
                valid_len = sizeof(struct virtchnl_ether_addr_list);
@@ -879,6 +2008,91 @@ virtchnl_vc_validate_vf_msg(struct virtchnl_version_info *ver, u32 v_opcode,
        case VIRTCHNL_OP_DEL_CLOUD_FILTER:
                valid_len = sizeof(struct virtchnl_filter);
                break;
+       case VIRTCHNL_OP_DCF_VLAN_OFFLOAD:
+               valid_len = sizeof(struct virtchnl_dcf_vlan_offload);
+               break;
+       case VIRTCHNL_OP_DCF_CMD_DESC:
+       case VIRTCHNL_OP_DCF_CMD_BUFF:
+               /* These two opcodes are specific to handle the AdminQ command,
+                * so the validation needs to be done in PF's context.
+                */
+               valid_len = msglen;
+               break;
+       case VIRTCHNL_OP_DCF_DISABLE:
+       case VIRTCHNL_OP_DCF_GET_VSI_MAP:
+       case VIRTCHNL_OP_DCF_GET_PKG_INFO:
+               break;
+       case VIRTCHNL_OP_GET_SUPPORTED_RXDIDS:
+               break;
+       case VIRTCHNL_OP_ADD_RSS_CFG:
+       case VIRTCHNL_OP_DEL_RSS_CFG:
+               valid_len = sizeof(struct virtchnl_rss_cfg);
+               break;
+       case VIRTCHNL_OP_ADD_FDIR_FILTER:
+               valid_len = sizeof(struct virtchnl_fdir_add);
+               break;
+       case VIRTCHNL_OP_DEL_FDIR_FILTER:
+               valid_len = sizeof(struct virtchnl_fdir_del);
+               break;
+       case VIRTCHNL_OP_QUERY_FDIR_FILTER:
+               valid_len = sizeof(struct virtchnl_fdir_query);
+               break;
+       case VIRTCHNL_OP_GET_OFFLOAD_VLAN_V2_CAPS:
+               break;
+       case VIRTCHNL_OP_ADD_VLAN_V2:
+       case VIRTCHNL_OP_DEL_VLAN_V2:
+               valid_len = sizeof(struct virtchnl_vlan_filter_list_v2);
+               if (msglen >= valid_len) {
+                       struct virtchnl_vlan_filter_list_v2 *vfl =
+                           (struct virtchnl_vlan_filter_list_v2 *)msg;
+
+                       if (vfl->num_elements == 0 || vfl->num_elements >
+                           VIRTCHNL_OP_ADD_DEL_VLAN_V2_MAX) {
+                               err_msg_format = true;
+                               break;
+                       }
+
+                       valid_len += (vfl->num_elements - 1) *
+                               sizeof(struct virtchnl_vlan_filter);
+               }
+               break;
+       case VIRTCHNL_OP_ENABLE_VLAN_STRIPPING_V2:
+       case VIRTCHNL_OP_DISABLE_VLAN_STRIPPING_V2:
+       case VIRTCHNL_OP_ENABLE_VLAN_INSERTION_V2:
+       case VIRTCHNL_OP_DISABLE_VLAN_INSERTION_V2:
+       case VIRTCHNL_OP_ENABLE_VLAN_FILTERING_V2:
+       case VIRTCHNL_OP_DISABLE_VLAN_FILTERING_V2:
+               valid_len = sizeof(struct virtchnl_vlan_setting);
+               break;
+       case VIRTCHNL_OP_ENABLE_QUEUES_V2:
+       case VIRTCHNL_OP_DISABLE_QUEUES_V2:
+               valid_len = sizeof(struct virtchnl_del_ena_dis_queues);
+               if (msglen >= valid_len) {
+                       struct virtchnl_del_ena_dis_queues *qs =
+                               (struct virtchnl_del_ena_dis_queues *)msg;
+                       if (qs->chunks.num_chunks == 0 ||
+                           qs->chunks.num_chunks > VIRTCHNL_OP_ENABLE_DISABLE_DEL_QUEUES_V2_MAX) {
+                               err_msg_format = true;
+                               break;
+                       }
+                       valid_len += (qs->chunks.num_chunks - 1) *
+                                     sizeof(struct virtchnl_queue_chunk);
+               }
+               break;
+       case VIRTCHNL_OP_MAP_QUEUE_VECTOR:
+               valid_len = sizeof(struct virtchnl_queue_vector_maps);
+               if (msglen >= valid_len) {
+                       struct virtchnl_queue_vector_maps *v_qp =
+                               (struct virtchnl_queue_vector_maps *)msg;
+                       if (v_qp->num_qv_maps == 0 ||
+                           v_qp->num_qv_maps > VIRTCHNL_OP_MAP_UNMAP_QUEUE_VECTOR_MAX) {
+                               err_msg_format = true;
+                               break;
+                       }
+                       valid_len += (v_qp->num_qv_maps - 1) *
+                                     sizeof(struct virtchnl_queue_vector);
+               }
+               break;
        /* These are always errors coming from the VF. */
        case VIRTCHNL_OP_EVENT:
        case VIRTCHNL_OP_UNKNOWN: