i40e: enlarge the number of supported queues
[dpdk.git] / doc / guides / rel_notes / release_2_2.rst
index 116162e..e04c23c 100644 (file)
@@ -4,6 +4,28 @@ DPDK Release 2.2
 New Features
 ------------
 
+* **Extended Statistics**
+
+  Define extended statistics naming scheme to store metadata in the name
+  string name of each statistic, refer to the Extended Statistics section
+  of the programmers guide. Implemented the extended stats API for these
+  PMDs:
+
+  * igb
+  * igbvf
+  * i40e
+  * i40evf
+  * fm10k
+  * virtio
+
+* **Added API in ethdev to retrieve RX/TX queue information.**
+
+  *  Add the ability for the upper layer to query RX/TX queue information.
+  *  Add into rte_eth_dev_info new fields to represent information about
+     RX/TX descriptors min/max/align numbers per queue for the device.
+
+* **Added RSS dynamic configuration to bonding.**
+
 * **Added e1000 Rx interrupt support.**
 
 * **Added igb TSO support for both PF and VF.**
@@ -22,8 +44,14 @@ New Features
 
 * **Added i40e flow control support.**
 
+* **Added DCB support to i40e PF driver.**
+
+* **Added fm10k vector RX/TX.**
+
 * **Added fm10k TSO support for both PF and VF.**
 
+* **Added fm10k VMDQ support.**
+
 * **New NIC Boulder Rapid support.**
 
   Boulder Rapid is a new NIC of Intel's fm10k family.
@@ -41,8 +69,16 @@ New Features
   Like mlx4, this PMD is only available for Linux and is disabled by default
   due to external dependencies (libibverbs and libmlx5).
 
+* **Enhanced support for virtio driver.**
+
+  * Virtio ring layout optimization (fixed avail ring)
+  * Vector RX
+  * Simple TX
+
 * **Added vhost-user multiple queue support.**
 
+* **Added port hotplug support to vmxnet3.**
+
 * **Added port hotplug support to xenvirt.**
 
 
@@ -82,6 +118,13 @@ Drivers
   Fixed i40e issue that occurred when a DPDK application didn't initialize
   ports if memory wasn't available on socket 0.
 
+* **i40e: Fixed maximum of 64 queues per port.**
+
+  Fixed the issue in i40e of cannot supporting more than 64 queues per port,
+  though hardware actually supports that. The real number of queues may vary,
+  as long as the total number of queues used in PF, VFs, VMDq and FD does not
+  exceeds the hardware maximum.
+
 * **vhost: Fixed Qemu shutdown.**
 
   Fixed issue with libvirt ``virsh destroy`` not killing the VM.
@@ -122,6 +165,10 @@ API Changes
 * The deprecated flow director API is removed.
   It was replaced by rte_eth_dev_filter_ctrl().
 
+* The dcb_queue is renamed to dcb_tc in following dcb configuration
+  structures: rte_eth_dcb_rx_conf, rte_eth_dcb_tx_conf,
+  rte_eth_vmdq_dcb_conf, rte_eth_vmdq_dcb_tx_conf.
+
 * The function rte_eal_pci_close_one() is removed.
   It was replaced by rte_eal_pci_detach().
 
@@ -148,6 +195,12 @@ ABI Changes
 * The ethdev flow director entries for SCTP were changed.
   It was already done in 2.1 for CONFIG_RTE_NEXT_ABI.
 
+* The new fields rx_desc_lim and tx_desc_lim are added into rte_eth_dev_info
+  structure.
+
+* The maximum number of queues per port CONFIG_RTE_MAX_QUEUES_PER_PORT is
+  increased to 1024.
+
 * The mbuf structure was changed to support unified packet type.
   It was already done in 2.1 for CONFIG_RTE_NEXT_ABI.