doc: show how to include code in guides
[dpdk.git] / doc / guides / nics / enic.rst
1 ..  SPDX-License-Identifier: BSD-3-Clause
2     Copyright (c) 2017, Cisco Systems, Inc.
3     All rights reserved.
4
5 ENIC Poll Mode Driver
6 =====================
7
8 ENIC PMD is the DPDK poll-mode driver for the Cisco System Inc. VIC Ethernet
9 NICs. These adapters are also referred to as vNICs below. If you are running
10 or would like to run DPDK software applications on Cisco UCS servers using
11 Cisco VIC adapters the following documentation is relevant.
12
13 How to obtain ENIC PMD integrated DPDK
14 --------------------------------------
15
16 ENIC PMD support is integrated into the DPDK suite. dpdk-<version>.tar.gz
17 should be downloaded from https://core.dpdk.org/download/
18
19
20 Configuration information
21 -------------------------
22
23 - **vNIC Configuration Parameters**
24
25   - **Number of Queues**
26
27     The maximum number of receive queues (RQs), work queues (WQs) and
28     completion queues (CQs) are configurable on a per vNIC basis
29     through the Cisco UCS Manager (CIMC or UCSM).
30
31     These values should be configured as follows:
32
33     - The number of WQs should be greater or equal to the value of the
34       expected nb_tx_q parameter in the call to
35       rte_eth_dev_configure()
36
37     - The number of RQs configured in the vNIC should be greater or
38       equal to *twice* the value of the expected nb_rx_q parameter in
39       the call to rte_eth_dev_configure().  With the addition of Rx
40       scatter, a pair of RQs on the vnic is needed for each receive
41       queue used by DPDK, even if Rx scatter is not being used.
42       Having a vNIC with only 1 RQ is not a valid configuration, and
43       will fail with an error message.
44
45     - The number of CQs should set so that there is one CQ for each
46       WQ, and one CQ for each pair of RQs.
47
48     For example: If the application requires 3 Rx queues, and 3 Tx
49     queues, the vNIC should be configured to have at least 3 WQs, 6
50     RQs (3 pairs), and 6 CQs (3 for use by WQs + 3 for use by the 3
51     pairs of RQs).
52
53   - **Size of Queues**
54
55     Likewise, the number of receive and transmit descriptors are configurable on
56     a per-vNIC basis via the UCS Manager and should be greater than or equal to
57     the nb_rx_desc and   nb_tx_desc parameters expected to be used in the calls
58     to rte_eth_rx_queue_setup() and rte_eth_tx_queue_setup() respectively.
59     An application requesting more than the set size will be limited to that
60     size.
61
62     Unless there is a lack of resources due to creating many vNICs, it
63     is recommended that the WQ and RQ sizes be set to the maximum.  This
64     gives the application the greatest amount of flexibility in its
65     queue configuration.
66
67     - *Note*: Since the introduction of Rx scatter, for performance
68       reasons, this PMD uses two RQs on the vNIC per receive queue in
69       DPDK.  One RQ holds descriptors for the start of a packet, and the
70       second RQ holds the descriptors for the rest of the fragments of
71       a packet.  This means that the nb_rx_desc parameter to
72       rte_eth_rx_queue_setup() can be a greater than 4096.  The exact
73       amount will depend on the size of the mbufs being used for
74       receives, and the MTU size.
75
76       For example: If the mbuf size is 2048, and the MTU is 9000, then
77       receiving a full size packet will take 5 descriptors, 1 from the
78       start-of-packet queue, and 4 from the second queue.  Assuming
79       that the RQ size was set to the maximum of 4096, then the
80       application can specify up to 1024 + 4096 as the nb_rx_desc
81       parameter to rte_eth_rx_queue_setup().
82
83   - **Interrupts**
84
85     At least one interrupt per vNIC interface should be configured in the UCS
86     manager regardless of the number receive/transmit queues. The ENIC PMD
87     uses this interrupt to get information about link status and errors
88     in the fast path.
89
90     In addition to the interrupt for link status and errors, when using Rx queue
91     interrupts, increase the number of configured interrupts so that there is at
92     least one interrupt for each Rx queue. For example, if the app uses 3 Rx
93     queues and wants to use per-queue interrupts, configure 4 (3 + 1) interrupts.
94
95   - **Receive Side Scaling**
96
97     In order to fully utilize RSS in DPDK, enable all RSS related settings in
98     CIMC or UCSM. These include the following items listed under
99     Receive Side Scaling:
100     TCP, IPv4, TCP-IPv4, IPv6, TCP-IPv6, IPv6 Extension, TCP-IPv6 Extension.
101
102
103 SR-IOV mode utilization
104 -----------------------
105
106 UCS blade servers configured with dynamic vNIC connection policies in UCSM
107 are capable of supporting SR-IOV. SR-IOV virtual functions (VFs) are
108 specialized vNICs, distinct from regular Ethernet vNICs. These VFs can be
109 directly assigned to virtual machines (VMs) as 'passthrough' devices.
110
111 In UCS, SR-IOV VFs require the use of the Cisco Virtual Machine Fabric Extender
112 (VM-FEX), which gives the VM a dedicated
113 interface on the Fabric Interconnect (FI). Layer 2 switching is done at
114 the FI. This may eliminate the requirement for software switching on the
115 host to route intra-host VM traffic.
116
117 Please refer to `Creating a Dynamic vNIC Connection Policy
118 <http://www.cisco.com/c/en/us/td/docs/unified_computing/ucs/sw/vm_fex/vmware/gui/config_guide/b_GUI_VMware_VM-FEX_UCSM_Configuration_Guide/b_GUI_VMware_VM-FEX_UCSM_Configuration_Guide_chapter_010.html#task_433E01651F69464783A68E66DA8A47A5>`_
119 for information on configuring SR-IOV adapter policies and port profiles
120 using UCSM.
121
122 Once the policies are in place and the host OS is rebooted, VFs should be
123 visible on the host, E.g.:
124
125 .. code-block:: console
126
127      # lspci | grep Cisco | grep Ethernet
128      0d:00.0 Ethernet controller: Cisco Systems Inc VIC Ethernet NIC (rev a2)
129      0d:00.1 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
130      0d:00.2 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
131      0d:00.3 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
132      0d:00.4 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
133      0d:00.5 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
134      0d:00.6 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
135      0d:00.7 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
136
137 Enable Intel IOMMU on the host and install KVM and libvirt, and reboot again as
138 required. Then, using libvirt, create a VM instance with an assigned device.
139 Below is an example ``interface`` block (part of the domain configuration XML)
140 that adds the host VF 0d:00:01 to the VM. ``profileid='pp-vlan-25'`` indicates
141 the port profile that has been configured in UCSM.
142
143 .. code-block:: console
144
145     <interface type='hostdev' managed='yes'>
146       <mac address='52:54:00:ac:ff:b6'/>
147       <driver name='vfio'/>
148       <source>
149         <address type='pci' domain='0x0000' bus='0x0d' slot='0x00' function='0x1'/>
150       </source>
151       <virtualport type='802.1Qbh'>
152         <parameters profileid='pp-vlan-25'/>
153       </virtualport>
154     </interface>
155
156
157 Alternatively, the configuration can be done in a separate file using the
158 ``network`` keyword. These methods are described in the libvirt documentation for
159 `Network XML format <https://libvirt.org/formatnetwork.html>`_.
160
161 When the VM instance is started, libvirt will bind the host VF to
162 vfio, complete provisioning on the FI and bring up the link.
163
164 .. note::
165
166     It is not possible to use a VF directly from the host because it is not
167     fully provisioned until libvirt brings up the VM that it is assigned
168     to.
169
170 In the VM instance, the VF will now be visible. E.g., here the VF 00:04.0 is
171 seen on the VM instance and should be available for binding to a DPDK.
172
173 .. code-block:: console
174
175      # lspci | grep Ether
176      00:04.0 Ethernet controller: Cisco Systems Inc VIC SR-IOV VF (rev a2)
177
178 Follow the normal DPDK install procedure, binding the VF to either ``igb_uio``
179 or ``vfio`` in non-IOMMU mode.
180
181 In the VM, the kernel enic driver may be automatically bound to the VF during
182 boot. Unbinding it currently hangs due to a known issue with the driver. To
183 work around the issue, block the enic module as follows.
184 Please see :ref:`Limitations <enic_limitations>` for limitations in
185 the use of SR-IOV.
186
187 .. code-block:: console
188
189      # cat /etc/modprobe.d/enic.conf
190      blacklist enic
191
192      # dracut --force
193
194 .. note::
195
196     Passthrough does not require SR-IOV. If VM-FEX is not desired, the user
197     may create as many regular vNICs as necessary and assign them to VMs as
198     passthrough devices. Since these vNICs are not SR-IOV VFs, using them as
199     passthrough devices do not require libvirt, port profiles, and VM-FEX.
200
201
202 .. _enic-generic-flow-api:
203
204 Generic Flow API support
205 ------------------------
206
207 Generic Flow API (also called "rte_flow" API) is supported. More advanced
208 capabilities are available when "Advanced Filtering" is enabled on the adapter.
209 Advanced filtering was added to 1300 series VIC firmware starting with version
210 2.0.13 for C-series UCS servers and version 3.1.2 for UCSM managed blade
211 servers. Advanced filtering is available on 1400 series adapters and beyond.
212 To enable advanced filtering, the 'Advanced filter' radio button should be
213 selected via CIMC or UCSM followed by a reboot of the server.
214
215 - **1200 series VICs**
216
217   5-tuple exact flow support for 1200 series adapters. This allows:
218
219   - Attributes: ingress
220   - Items: ipv4, ipv6, udp, tcp (must exactly match src/dst IP
221     addresses and ports and all must be specified)
222   - Actions: queue and void
223   - Selectors: 'is'
224
225 - **1300 and later series VICS with advanced filters disabled**
226
227   With advanced filters disabled, an IPv4 or IPv6 item must be specified
228   in the pattern.
229
230   - Attributes: ingress
231   - Items: eth, vlan, ipv4, ipv6, udp, tcp, vxlan, inner eth, vlan, ipv4, ipv6, udp, tcp
232   - Actions: queue and void
233   - Selectors: 'is', 'spec' and 'mask'. 'last' is not supported
234   - In total, up to 64 bytes of mask is allowed across all headers
235
236 - **1300 and later series VICS with advanced filters enabled**
237
238   - Attributes: ingress
239   - Items: eth, vlan, ipv4, ipv6, udp, tcp, vxlan, raw, inner eth, vlan, ipv4, ipv6, udp, tcp
240   - Actions: queue, mark, drop, flag, rss, passthru, and void
241   - Selectors: 'is', 'spec' and 'mask'. 'last' is not supported
242   - In total, up to 64 bytes of mask is allowed across all headers
243
244 - **1400 and later series VICs with Flow Manager API enabled**
245
246   - Attributes: ingress, egress
247   - Items: eth, vlan, ipv4, ipv6, sctp, udp, tcp, vxlan, raw, inner eth, vlan, ipv4, ipv6, sctp, udp, tcp
248   - Ingress Actions: count, drop, flag, jump, mark, port_id, passthru, queue, rss, vxlan_decap, vxlan_encap, and void
249   - Egress Actions: count, drop, jump, passthru, vxlan_encap, and void
250   - Selectors: 'is', 'spec' and 'mask'. 'last' is not supported
251   - In total, up to 64 bytes of mask is allowed across all headers
252
253 The VIC performs packet matching after applying VLAN strip. If VLAN
254 stripping is enabled, EtherType in the ETH item corresponds to the
255 stripped VLAN header's EtherType. Stripping does not affect the VLAN
256 item. TCI and EtherType in the VLAN item are matched against those in
257 the (stripped) VLAN header whether stripping is enabled or disabled.
258
259 More features may be added in future firmware and new versions of the VIC.
260 Please refer to the release notes.
261
262 .. _overlay_offload:
263
264 Overlay Offload
265 ---------------
266
267 Recent hardware models support overlay offload. When enabled, the NIC performs
268 the following operations for VXLAN, NVGRE, and GENEVE packets. In all cases,
269 inner and outer packets can be IPv4 or IPv6.
270
271 - TSO for VXLAN and GENEVE packets.
272
273   Hardware supports NVGRE TSO, but DPDK currently has no NVGRE offload flags.
274
275 - Tx checksum offloads.
276
277   The NIC fills in IPv4/UDP/TCP checksums for both inner and outer packets.
278
279 - Rx checksum offloads.
280
281   The NIC validates IPv4/UDP/TCP checksums of both inner and outer packets.
282   Good checksum flags (e.g. ``PKT_RX_L4_CKSUM_GOOD``) indicate that the inner
283   packet has the correct checksum, and if applicable, the outer packet also
284   has the correct checksum. Bad checksum flags (e.g. ``PKT_RX_L4_CKSUM_BAD``)
285   indicate that the inner and/or outer packets have invalid checksum values.
286
287 - Inner Rx packet type classification
288
289   PMD sets inner L3/L4 packet types (e.g. ``RTE_PTYPE_INNER_L4_TCP``), and
290   ``RTE_PTYPE_TUNNEL_GRENAT`` to indicate that the packet is tunneled.
291   PMD does not set L3/L4 packet types for outer packets.
292
293 - Inner RSS
294
295   RSS hash calculation, therefore queue selection, is done on inner packets.
296
297 In order to enable overlay offload, enable VXLAN and/or Geneve on vNIC
298 via CIMC or UCSM followed by a reboot of the server. When PMD successfully
299 enables overlay offload, it prints one of the following messages on the console.
300
301 .. code-block:: console
302
303     Overlay offload is enabled (VxLAN)
304     Overlay offload is enabled (Geneve)
305     Overlay offload is enabled (VxLAN, Geneve)
306
307 By default, PMD enables overlay offload if hardware supports it. To disable
308 it, set ``devargs`` parameter ``disable-overlay=1``. For example::
309
310     -a 12:00.0,disable-overlay=1
311
312 By default, the NIC uses 4789 and 6081 as the VXLAN and Geneve ports,
313 respectively. The user may change them through
314 ``rte_eth_dev_udp_tunnel_port_{add,delete}``. However, as the current
315 NIC has a single VXLAN port number and a single Geneve port number,
316 the user cannot configure multiple port numbers for each tunnel type.
317
318 Geneve offload support has evolved over VIC models. On older models,
319 Geneve offload and advanced filters are mutually exclusive.  This is
320 enforced by UCSM and CIMC, which only allow one of the two features
321 to be selected at one time. Newer VIC models do not have this restriction.
322
323 Ingress VLAN Rewrite
324 --------------------
325
326 VIC adapters can tag, untag, or modify the VLAN headers of ingress
327 packets. The ingress VLAN rewrite mode controls this behavior. By
328 default, it is set to pass-through, where the NIC does not modify the
329 VLAN header in any way so that the application can see the original
330 header. This mode is sufficient for many applications, but may not be
331 suitable for others. Such applications may change the mode by setting
332 ``devargs`` parameter ``ig-vlan-rewrite`` to one of the following.
333
334 - ``pass``: Pass-through mode. The NIC does not modify the VLAN
335   header. This is the default mode.
336
337 - ``priority``: Priority-tag default VLAN mode. If the ingress packet
338   is tagged with the default VLAN, the NIC replaces its VLAN header
339   with the priority tag (VLAN ID 0).
340
341 - ``trunk``: Default trunk mode. The NIC tags untagged ingress packets
342   with the default VLAN. Tagged ingress packets are not modified. To
343   the application, every packet appears as tagged.
344
345 - ``untag``: Untag default VLAN mode. If the ingress packet is tagged
346   with the default VLAN, the NIC removes or untags its VLAN header so
347   that the application sees an untagged packet. As a result, the
348   default VLAN becomes `untagged`. This mode can be useful for
349   applications such as OVS-DPDK performance benchmarks that utilize
350   only the default VLAN and want to see only untagged packets.
351
352
353 Vectorized Rx Handler
354 ---------------------
355
356 ENIC PMD includes a version of the receive handler that is vectorized using
357 AVX2 SIMD instructions. It is meant for bulk, throughput oriented workloads
358 where reducing cycles/packet in PMD is a priority. In order to use the
359 vectorized handler, take the following steps.
360
361 - Use a recent version of gcc, icc, or clang and build 64-bit DPDK. If
362   the compiler is known to support AVX2, DPDK build system
363   automatically compiles the vectorized handler. Otherwise, the
364   handler is not available.
365
366 - Set ``devargs`` parameter ``enable-avx2-rx=1`` to explicitly request that
367   PMD consider the vectorized handler when selecting the receive handler.
368   For example::
369
370     -a 12:00.0,enable-avx2-rx=1
371
372   As the current implementation is intended for field trials, by default, the
373   vectorized handler is not considered (``enable-avx2-rx=0``).
374
375 - Run on a UCS M4 or later server with CPUs that support AVX2.
376
377 PMD selects the vectorized handler when the handler is compiled into
378 the driver, the user requests its use via ``enable-avx2-rx=1``, CPU
379 supports AVX2, and scatter Rx is not used. To verify that the
380 vectorized handler is selected, enable debug logging
381 (``--log-level=pmd,debug``) and check the following message.
382
383 .. code-block:: console
384
385     enic_use_vector_rx_handler use the non-scatter avx2 Rx handler
386
387 64B Completion Queue Entry
388 --------------------------
389
390 Recent VIC adapters support 64B completion queue entries, as well as
391 16B entries that are available on all adapter models. ENIC PMD enables
392 and uses 64B entries by default, if available. 64B entries generally
393 lower CPU cycles per Rx packet, as they avoid partial DMA writes and
394 reduce cache contention between DMA and polling CPU. The effect is
395 most pronounced when multiple Rx queues are used on Intel platforms
396 with Data Direct I/O Technology (DDIO).
397
398 If 64B entries are not available, PMD uses 16B entries. The user may
399 explicitly disable 64B entries and use 16B entries by setting
400 ``devarg`` parameter ``cq64=0``. For example::
401
402     -a 12:00.0,cq64=0
403
404 To verify the selected entry size, enable debug logging
405 (``--log-level=enic,debug``) and check the following messages.
406
407 .. code-block:: console
408
409     PMD: rte_enic_pmd: Supported CQ entry sizes: 16 32
410     PMD: rte_enic_pmd: Using 16B CQ entry size
411
412 .. _enic_limitations:
413
414 Limitations
415 -----------
416
417 - **VLAN 0 Priority Tagging**
418
419   If a vNIC is configured in TRUNK mode by the UCS manager, the adapter will
420   priority tag egress packets according to 802.1Q if they were not already
421   VLAN tagged by software. If the adapter is connected to a properly configured
422   switch, there will be no unexpected behavior.
423
424   In test setups where an Ethernet port of a Cisco adapter in TRUNK mode is
425   connected point-to-point to another adapter port or connected though a router
426   instead of a switch, all ingress packets will be VLAN tagged. Programs such
427   as l3fwd may not account for VLAN tags in packets and may misbehave. One
428   solution is to enable VLAN stripping on ingress so the VLAN tag is removed
429   from the packet and put into the mbuf->vlan_tci field. Here is an example
430   of how to accomplish this:
431
432 .. code-block:: console
433
434      vlan_offload = rte_eth_dev_get_vlan_offload(port);
435      vlan_offload |= ETH_VLAN_STRIP_OFFLOAD;
436      rte_eth_dev_set_vlan_offload(port, vlan_offload);
437
438 Another alternative is modify the adapter's ingress VLAN rewrite mode so that
439 packets with the default VLAN tag are stripped by the adapter and presented to
440 DPDK as untagged packets. In this case mbuf->vlan_tci and the PKT_RX_VLAN and
441 PKT_RX_VLAN_STRIPPED mbuf flags would not be set. This mode is enabled with the
442 ``devargs`` parameter ``ig-vlan-rewrite=untag``. For example::
443
444     -a 12:00.0,ig-vlan-rewrite=untag
445
446 - **SR-IOV**
447
448   - KVM hypervisor support only. VMware has not been tested.
449   - Requires VM-FEX, and so is only available on UCS managed servers connected
450     to Fabric Interconnects. It is not on standalone C-Series servers.
451   - VF devices are not usable directly from the host. They can  only be used
452     as assigned devices on VM instances.
453   - Currently, unbind of the ENIC kernel mode driver 'enic.ko' on the VM
454     instance may hang. As a workaround, enic.ko should be blocked or removed
455     from the boot process.
456   - pci_generic cannot be used as the uio module in the VM. igb_uio or
457     vfio in non-IOMMU mode can be used.
458   - The number of RQs in UCSM dynamic vNIC configurations must be at least 2.
459   - The number of SR-IOV devices is limited to 256. Components on target system
460     might limit this number to fewer than 256.
461
462 - **Flow API**
463
464   - The number of filters that can be specified with the Generic Flow API is
465     dependent on how many header fields are being masked. Use 'flow create' in
466     a loop to determine how many filters your VIC will support (not more than
467     1000 for 1300 series VICs). Filters are checked for matching in the order they
468     were added. Since there currently is no grouping or priority support,
469     'catch-all' filters should be added last.
470   - The supported range of IDs for the 'MARK' action is 0 - 0xFFFD.
471   - RSS and PASSTHRU actions only support "receive normally". They are limited
472     to supporting MARK + RSS and PASSTHRU + MARK to allow the application to mark
473     packets and then receive them normally. These require 1400 series VIC adapters
474     and latest firmware.
475   - RAW items are limited to matching UDP tunnel headers like VXLAN.
476   - For 1400 VICs, all flows using the RSS action on a port use same hash
477     configuration. The RETA is ignored. The queues used in the RSS group must be
478     sequential. There is a performance hit if the number of queues is not a power of 2.
479     Only level 0 (outer header) RSS is allowed.
480
481 - **Statistics**
482
483   - ``rx_good_bytes`` (ibytes) always includes VLAN header (4B) and CRC bytes (4B).
484     This behavior applies to 1300 and older series VIC adapters.
485     1400 series VICs do not count CRC bytes, and count VLAN header only when VLAN
486     stripping is disabled.
487   - When the NIC drops a packet because the Rx queue has no free buffers,
488     ``rx_good_bytes`` still increments by 4B if the packet is not VLAN tagged or
489     VLAN stripping is disabled, or by 8B if the packet is VLAN tagged and stripping
490     is enabled.
491     This behavior applies to 1300 and older series VIC adapters. 1400 series VICs
492     do not increment this byte counter when packets are dropped.
493
494 - **RSS Hashing**
495
496   - Hardware enables and disables UDP and TCP RSS hashing together. The driver
497     cannot control UDP and TCP hashing individually.
498
499 How to build the suite
500 ----------------------
501
502 The build instructions for the DPDK suite should be followed. By default
503 the ENIC PMD library will be built into the DPDK library.
504
505 Refer to the document :ref:`compiling and testing a PMD for a NIC
506 <pmd_build_and_test>` for details.
507
508 For configuring and using UIO and VFIO frameworks, please refer to the
509 documentation that comes with DPDK suite.
510
511 Supported Cisco VIC adapters
512 ----------------------------
513
514 ENIC PMD supports all recent generations of Cisco VIC adapters including:
515
516 - VIC 1200 series
517 - VIC 1300 series
518 - VIC 1400 series
519
520 Supported Operating Systems
521 ---------------------------
522
523 Any Linux distribution fulfilling the conditions described in Dependencies
524 section of DPDK documentation.
525
526 Supported features
527 ------------------
528
529 - Unicast, multicast and broadcast transmission and reception
530 - Receive queue polling
531 - Port Hardware Statistics
532 - Hardware VLAN acceleration
533 - IP checksum offload
534 - Receive side VLAN stripping
535 - Multiple receive and transmit queues
536 - Promiscuous mode
537 - Setting RX VLAN (supported via UCSM/CIMC only)
538 - VLAN filtering (supported via UCSM/CIMC only)
539 - Execution of application by unprivileged system users
540 - IPV4, IPV6 and TCP RSS hashing
541 - UDP RSS hashing (1400 series and later adapters)
542 - Scattered Rx
543 - MTU update
544 - SR-IOV on UCS managed servers connected to Fabric Interconnects
545 - Flow API
546 - Overlay offload
547
548   - Rx/Tx checksum offloads for VXLAN, NVGRE, GENEVE
549   - TSO for VXLAN and GENEVE packets
550   - Inner RSS
551
552 Known bugs and unsupported features in this release
553 ---------------------------------------------------
554
555 - Signature or flex byte based flow direction
556 - Drop feature of flow direction
557 - VLAN based flow direction
558 - Non-IPV4 flow direction
559 - Setting of extended VLAN
560 - MTU update only works if Scattered Rx mode is disabled
561 - Maximum receive packet length is ignored if Scattered Rx mode is used
562
563 Prerequisites
564 -------------
565
566 - Prepare the system as recommended by DPDK suite.  This includes environment
567   variables, hugepages configuration, tool-chains and configuration.
568 - Insert vfio-pci kernel module using the command 'modprobe vfio-pci' if the
569   user wants to use VFIO framework.
570 - Insert uio kernel module using the command 'modprobe uio' if the user wants
571   to use UIO framework.
572 - DPDK suite should be configured based on the user's decision to use VFIO or
573   UIO framework.
574 - If the vNIC device(s) to be used is bound to the kernel mode Ethernet driver
575   use 'ip' to bring the interface down. The dpdk-devbind.py tool can
576   then be used to unbind the device's bus id from the ENIC kernel mode driver.
577 - Bind the intended vNIC to vfio-pci in case the user wants ENIC PMD to use
578   VFIO framework using dpdk-devbind.py.
579 - Bind the intended vNIC to igb_uio in case the user wants ENIC PMD to use
580   UIO framework using dpdk-devbind.py.
581
582 At this point the system should be ready to run DPDK applications. Once the
583 application runs to completion, the vNIC can be detached from vfio-pci or
584 igb_uio if necessary.
585
586 Root privilege is required to bind and unbind vNICs to/from VFIO/UIO.
587 VFIO framework helps an unprivileged user to run the applications.
588 For an unprivileged user to run the applications on DPDK and ENIC PMD,
589 it may be necessary to increase the maximum locked memory of the user.
590 The following command could be used to do this.
591
592 .. code-block:: console
593
594     sudo sh -c "ulimit -l <value in Kilo Bytes>"
595
596 The value depends on the memory configuration of the application, DPDK and
597 PMD.  Typically, the limit has to be raised to higher than 2GB.
598 e.g., 2621440
599
600 Additional Reference
601 --------------------
602
603 - https://www.cisco.com/c/en/us/products/servers-unified-computing/index.html
604 - https://www.cisco.com/c/en/us/products/interfaces-modules/unified-computing-system-adapters/index.html
605
606 Contact Information
607 -------------------
608
609 Any questions or bugs should be reported to DPDK community and to the ENIC PMD
610 maintainers:
611
612 - John Daley <johndale@cisco.com>
613 - Hyong Youb Kim <hyonkim@cisco.com>