net/mlx5: introduce VXLAN-GPE tunnel type
[dpdk.git] / doc / guides / nics / mlx5.rst
1 ..  SPDX-License-Identifier: BSD-3-Clause
2     Copyright 2015 6WIND S.A.
3     Copyright 2015 Mellanox Technologies, Ltd
4
5 MLX5 poll mode driver
6 =====================
7
8 The MLX5 poll mode driver library (**librte_pmd_mlx5**) provides support
9 for **Mellanox ConnectX-4**, **Mellanox ConnectX-4 Lx** and **Mellanox
10 ConnectX-5** families of 10/25/40/50/100 Gb/s adapters as well as their
11 virtual functions (VF) in SR-IOV context.
12
13 Information and documentation about these adapters can be found on the
14 `Mellanox website <http://www.mellanox.com>`__. Help is also provided by the
15 `Mellanox community <http://community.mellanox.com/welcome>`__.
16
17 There is also a `section dedicated to this poll mode driver
18 <http://www.mellanox.com/page/products_dyn?product_family=209&mtag=pmd_for_dpdk>`__.
19
20 .. note::
21
22    Due to external dependencies, this driver is disabled by default. It must
23    be enabled manually by setting ``CONFIG_RTE_LIBRTE_MLX5_PMD=y`` and
24    recompiling DPDK.
25
26 Implementation details
27 ----------------------
28
29 Besides its dependency on libibverbs (that implies libmlx5 and associated
30 kernel support), librte_pmd_mlx5 relies heavily on system calls for control
31 operations such as querying/updating the MTU and flow control parameters.
32
33 For security reasons and robustness, this driver only deals with virtual
34 memory addresses. The way resources allocations are handled by the kernel
35 combined with hardware specifications that allow it to handle virtual memory
36 addresses directly ensure that DPDK applications cannot access random
37 physical memory (or memory that does not belong to the current process).
38
39 This capability allows the PMD to coexist with kernel network interfaces
40 which remain functional, although they stop receiving unicast packets as
41 long as they share the same MAC address.
42 This means legacy linux control tools (for example: ethtool, ifconfig and
43 more) can operate on the same network interfaces that owned by the DPDK
44 application.
45
46 Enabling librte_pmd_mlx5 causes DPDK applications to be linked against
47 libibverbs.
48
49 Features
50 --------
51
52 - Multi arch support: x86_64, POWER8, ARMv8.
53 - Multiple TX and RX queues.
54 - Support for scattered TX and RX frames.
55 - IPv4, IPv6, TCPv4, TCPv6, UDPv4 and UDPv6 RSS on any number of queues.
56 - Several RSS hash keys, one for each flow type.
57 - Configurable RETA table.
58 - Support for multiple MAC addresses.
59 - VLAN filtering.
60 - RX VLAN stripping.
61 - TX VLAN insertion.
62 - RX CRC stripping configuration.
63 - Promiscuous mode.
64 - Multicast promiscuous mode.
65 - Hardware checksum offloads.
66 - Flow director (RTE_FDIR_MODE_PERFECT, RTE_FDIR_MODE_PERFECT_MAC_VLAN and
67   RTE_ETH_FDIR_REJECT).
68 - Flow API.
69 - Multiple process.
70 - KVM and VMware ESX SR-IOV modes are supported.
71 - RSS hash result is supported.
72 - Hardware TSO.
73 - Hardware checksum TX offload for VXLAN and GRE.
74 - RX interrupts.
75 - Statistics query including Basic, Extended and per queue.
76 - Rx HW timestamp.
77
78 Limitations
79 -----------
80
81 - Inner RSS for VXLAN frames is not supported yet.
82 - Hardware checksum RX offloads for VXLAN inner header are not supported yet.
83 - For secondary process:
84
85   - Forked secondary process not supported.
86   - All mempools must be initialized before rte_eth_dev_start().
87
88 - Flow pattern without any specific vlan will match for vlan packets as well:
89
90   When VLAN spec is not specified in the pattern, the matching rule will be created with VLAN as a wild card.
91   Meaning, the flow rule::
92
93         flow create 0 ingress pattern eth / vlan vid is 3 / ipv4 / end ...
94
95   Will only match vlan packets with vid=3. and the flow rules::
96
97         flow create 0 ingress pattern eth / ipv4 / end ...
98
99   Or::
100
101         flow create 0 ingress pattern eth / vlan / ipv4 / end ...
102
103   Will match any ipv4 packet (VLAN included).
104
105 - A multi segment packet must have less than 6 segments in case the Tx burst function
106   is set to multi-packet send or Enhanced multi-packet send. Otherwise it must have
107   less than 50 segments.
108 - Count action for RTE flow is **only supported in Mellanox OFED**.
109 - Flows with a VXLAN Network Identifier equal (or ends to be equal)
110   to 0 are not supported.
111 - VXLAN TSO and checksum offloads are not supported on VM.
112 - VF: flow rules created on VF devices can only match traffic targeted at the
113   configured MAC addresses (see ``rte_eth_dev_mac_addr_add()``).
114
115 .. note::
116
117    MAC addresses not already present in the bridge table of the associated
118    kernel network device will be added and cleaned up by the PMD when closing
119    the device. In case of ungraceful program termination, some entries may
120    remain present and should be removed manually by other means.
121
122 Statistics
123 ----------
124
125 MLX5 supports various of methods to report statistics:
126
127 Port statistics can be queried using ``rte_eth_stats_get()``. The port statistics are through SW only and counts the number of packets received or sent successfully by the PMD.
128
129 Extended statistics can be queried using ``rte_eth_xstats_get()``. The extended statistics expose a wider set of counters counted by the device. The extended port statistics counts the number of packets received or sent successfully by the port. As Mellanox NICs are using the :ref:`Bifurcated Linux Driver <linux_gsg_linux_drivers>` those counters counts also packet received or sent by the Linux kernel. The counters with ``_phy`` suffix counts the total events on the physical port, therefore not valid for VF.
130
131 Finally per-flow statistics can by queried using ``rte_flow_query`` when attaching a count action for specific flow. The flow counter counts the number of packets received successfully by the port and match the specific flow.
132
133 Configuration
134 -------------
135
136 Compilation options
137 ~~~~~~~~~~~~~~~~~~~
138
139 These options can be modified in the ``.config`` file.
140
141 - ``CONFIG_RTE_LIBRTE_MLX5_PMD`` (default **n**)
142
143   Toggle compilation of librte_pmd_mlx5 itself.
144
145 - ``CONFIG_RTE_LIBRTE_MLX5_DLOPEN_DEPS`` (default **n**)
146
147   Build PMD with additional code to make it loadable without hard
148   dependencies on **libibverbs** nor **libmlx5**, which may not be installed
149   on the target system.
150
151   In this mode, their presence is still required for it to run properly,
152   however their absence won't prevent a DPDK application from starting (with
153   ``CONFIG_RTE_BUILD_SHARED_LIB`` disabled) and they won't show up as
154   missing with ``ldd(1)``.
155
156   It works by moving these dependencies to a purpose-built rdma-core "glue"
157   plug-in which must either be installed in a directory whose name is based
158   on ``CONFIG_RTE_EAL_PMD_PATH`` suffixed with ``-glue`` if set, or in a
159   standard location for the dynamic linker (e.g. ``/lib``) if left to the
160   default empty string (``""``).
161
162   This option has no performance impact.
163
164 - ``CONFIG_RTE_LIBRTE_MLX5_DEBUG`` (default **n**)
165
166   Toggle debugging code and stricter compilation flags. Enabling this option
167   adds additional run-time checks and debugging messages at the cost of
168   lower performance.
169
170 - ``CONFIG_RTE_LIBRTE_MLX5_TX_MP_CACHE`` (default **8**)
171
172   Maximum number of cached memory pools (MPs) per TX queue. Each MP from
173   which buffers are to be transmitted must be associated to memory regions
174   (MRs). This is a slow operation that must be cached.
175
176   This value is always 1 for RX queues since they use a single MP.
177
178 Environment variables
179 ~~~~~~~~~~~~~~~~~~~~~
180
181 - ``MLX5_GLUE_PATH``
182
183   A list of directories in which to search for the rdma-core "glue" plug-in,
184   separated by colons or semi-colons.
185
186   Only matters when compiled with ``CONFIG_RTE_LIBRTE_MLX5_DLOPEN_DEPS``
187   enabled and most useful when ``CONFIG_RTE_EAL_PMD_PATH`` is also set,
188   since ``LD_LIBRARY_PATH`` has no effect in this case.
189
190 - ``MLX5_PMD_ENABLE_PADDING``
191
192   Enables HW packet padding in PCI bus transactions.
193
194   When packet size is cache aligned and CRC stripping is enabled, 4 fewer
195   bytes are written to the PCI bus. Enabling padding makes such packets
196   aligned again.
197
198   In cases where PCI bandwidth is the bottleneck, padding can improve
199   performance by 10%.
200
201   This is disabled by default since this can also decrease performance for
202   unaligned packet sizes.
203
204 - ``MLX5_SHUT_UP_BF``
205
206   Configures HW Tx doorbell register as IO-mapped.
207
208   By default, the HW Tx doorbell is configured as a write-combining register.
209   The register would be flushed to HW usually when the write-combining buffer
210   becomes full, but it depends on CPU design.
211
212   Except for vectorized Tx burst routines, a write memory barrier is enforced
213   after updating the register so that the update can be immediately visible to
214   HW.
215
216   When vectorized Tx burst is called, the barrier is set only if the burst size
217   is not aligned to MLX5_VPMD_TX_MAX_BURST. However, setting this environmental
218   variable will bring better latency even though the maximum throughput can
219   slightly decline.
220
221 Run-time configuration
222 ~~~~~~~~~~~~~~~~~~~~~~
223
224 - librte_pmd_mlx5 brings kernel network interfaces up during initialization
225   because it is affected by their state. Forcing them down prevents packets
226   reception.
227
228 - **ethtool** operations on related kernel interfaces also affect the PMD.
229
230 - ``rxq_cqe_comp_en`` parameter [int]
231
232   A nonzero value enables the compression of CQE on RX side. This feature
233   allows to save PCI bandwidth and improve performance. Enabled by default.
234
235   Supported on:
236
237   - x86_64 with ConnectX-4, ConnectX-4 LX and ConnectX-5.
238   - POWER8 and ARMv8 with ConnectX-4 LX and ConnectX-5.
239
240 - ``txq_inline`` parameter [int]
241
242   Amount of data to be inlined during TX operations. Improves latency.
243   Can improve PPS performance when PCI back pressure is detected and may be
244   useful for scenarios involving heavy traffic on many queues.
245
246   Because additional software logic is necessary to handle this mode, this
247   option should be used with care, as it can lower performance when back
248   pressure is not expected.
249
250 - ``txqs_min_inline`` parameter [int]
251
252   Enable inline send only when the number of TX queues is greater or equal
253   to this value.
254
255   This option should be used in combination with ``txq_inline`` above.
256
257   On ConnectX-4, ConnectX-4 LX and ConnectX-5 without Enhanced MPW:
258
259         - Disabled by default.
260         - In case ``txq_inline`` is set recommendation is 4.
261
262   On ConnectX-5 with Enhanced MPW:
263
264         - Set to 8 by default.
265
266 - ``txq_mpw_en`` parameter [int]
267
268   A nonzero value enables multi-packet send (MPS) for ConnectX-4 Lx and
269   enhanced multi-packet send (Enhanced MPS) for ConnectX-5. MPS allows the
270   TX burst function to pack up multiple packets in a single descriptor
271   session in order to save PCI bandwidth and improve performance at the
272   cost of a slightly higher CPU usage. When ``txq_inline`` is set along
273   with ``txq_mpw_en``, TX burst function tries to copy entire packet data
274   on to TX descriptor instead of including pointer of packet only if there
275   is enough room remained in the descriptor. ``txq_inline`` sets
276   per-descriptor space for either pointers or inlined packets. In addition,
277   Enhanced MPS supports hybrid mode - mixing inlined packets and pointers
278   in the same descriptor.
279
280   This option cannot be used with certain offloads such as ``DEV_TX_OFFLOAD_TCP_TSO,
281   DEV_TX_OFFLOAD_VXLAN_TNL_TSO, DEV_TX_OFFLOAD_GRE_TNL_TSO, DEV_TX_OFFLOAD_VLAN_INSERT``.
282   When those offloads are requested the MPS send function will not be used.
283
284   It is currently only supported on the ConnectX-4 Lx and ConnectX-5
285   families of adapters. Enabled by default.
286
287 - ``txq_mpw_hdr_dseg_en`` parameter [int]
288
289   A nonzero value enables including two pointers in the first block of TX
290   descriptor. This can be used to lessen CPU load for memory copy.
291
292   Effective only when Enhanced MPS is supported. Disabled by default.
293
294 - ``txq_max_inline_len`` parameter [int]
295
296   Maximum size of packet to be inlined. This limits the size of packet to
297   be inlined. If the size of a packet is larger than configured value, the
298   packet isn't inlined even though there's enough space remained in the
299   descriptor. Instead, the packet is included with pointer.
300
301   Effective only when Enhanced MPS is supported. The default value is 256.
302
303 - ``tx_vec_en`` parameter [int]
304
305   A nonzero value enables Tx vector on ConnectX-5 only NIC if the number of
306   global Tx queues on the port is lesser than MLX5_VPMD_MIN_TXQS.
307
308   This option cannot be used with certain offloads such as ``DEV_TX_OFFLOAD_TCP_TSO,
309   DEV_TX_OFFLOAD_VXLAN_TNL_TSO, DEV_TX_OFFLOAD_GRE_TNL_TSO, DEV_TX_OFFLOAD_VLAN_INSERT``.
310   When those offloads are requested the MPS send function will not be used.
311
312   Enabled by default on ConnectX-5.
313
314 - ``rx_vec_en`` parameter [int]
315
316   A nonzero value enables Rx vector if the port is not configured in
317   multi-segment otherwise this parameter is ignored.
318
319   Enabled by default.
320
321 - ``vf_nl_en`` parameter [int]
322
323   A nonzero value enables Netlink requests from the VF to add/remove MAC
324   addresses or/and enable/disable promiscuous/all multicast on the Netdevice.
325   Otherwise the relevant configuration must be run with Linux iproute2 tools.
326   This is a prerequisite to receive this kind of traffic.
327
328   Enabled by default, valid only on VF devices ignored otherwise.
329
330 - ``l3_vxlan_en`` parameter [int]
331
332   A nonzero value allows L3 VXLAN and VXLAN-GPE flow creation. To enable
333   L3 VXLAN or VXLAN-GPE, users has to configure firmware and enable this
334   parameter. This is a prerequisite to receive this kind of traffic.
335
336   Disabled by default.
337
338 Firmware configuration
339 ~~~~~~~~~~~~~~~~~~~~~~
340
341 - L3 VXLAN and VXLAN-GPE destination UDP port
342
343    .. code-block:: console
344
345      mlxconfig -d <mst device> set IP_OVER_VXLAN_EN=1
346      mlxconfig -d <mst device> set IP_OVER_VXLAN_PORT=<udp dport>
347
348   Verify configurations are set:
349
350    .. code-block:: console
351
352      mlxconfig -d <mst device> query | grep IP_OVER_VXLAN
353      IP_OVER_VXLAN_EN                    True(1)
354      IP_OVER_VXLAN_PORT                  <udp dport>
355
356 Prerequisites
357 -------------
358
359 This driver relies on external libraries and kernel drivers for resources
360 allocations and initialization. The following dependencies are not part of
361 DPDK and must be installed separately:
362
363 - **libibverbs**
364
365   User space Verbs framework used by librte_pmd_mlx5. This library provides
366   a generic interface between the kernel and low-level user space drivers
367   such as libmlx5.
368
369   It allows slow and privileged operations (context initialization, hardware
370   resources allocations) to be managed by the kernel and fast operations to
371   never leave user space.
372
373 - **libmlx5**
374
375   Low-level user space driver library for Mellanox ConnectX-4/ConnectX-5
376   devices, it is automatically loaded by libibverbs.
377
378   This library basically implements send/receive calls to the hardware
379   queues.
380
381 - **Kernel modules**
382
383   They provide the kernel-side Verbs API and low level device drivers that
384   manage actual hardware initialization and resources sharing with user
385   space processes.
386
387   Unlike most other PMDs, these modules must remain loaded and bound to
388   their devices:
389
390   - mlx5_core: hardware driver managing Mellanox ConnectX-4/ConnectX-5
391     devices and related Ethernet kernel network devices.
392   - mlx5_ib: InifiniBand device driver.
393   - ib_uverbs: user space driver for Verbs (entry point for libibverbs).
394
395 - **Firmware update**
396
397   Mellanox OFED releases include firmware updates for ConnectX-4/ConnectX-5
398   adapters.
399
400   Because each release provides new features, these updates must be applied to
401   match the kernel modules and libraries they come with.
402
403 .. note::
404
405    Both libraries are BSD and GPL licensed. Linux kernel modules are GPL
406    licensed.
407
408 Installation
409 ~~~~~~~~~~~~
410
411 Either RDMA Core library with a recent enough Linux kernel release
412 (recommended) or Mellanox OFED, which provides compatibility with older
413 releases.
414
415 RMDA Core with Linux Kernel
416 ^^^^^^^^^^^^^^^^^^^^^^^^^^^
417
418 - Minimal kernel version : v4.14 or the most recent 4.14-rc (see `Linux installation documentation`_)
419 - Minimal rdma-core version: v15+ commit 0c5f5765213a ("Merge pull request #227 from yishaih/tm")
420   (see `RDMA Core installation documentation`_)
421
422 .. _`Linux installation documentation`: https://git.kernel.org/pub/scm/linux/kernel/git/stable/linux-stable.git/plain/Documentation/admin-guide/README.rst
423 .. _`RDMA Core installation documentation`: https://raw.githubusercontent.com/linux-rdma/rdma-core/master/README.md
424
425 Mellanox OFED
426 ^^^^^^^^^^^^^
427
428 - Mellanox OFED version: **4.2, 4.3**.
429 - firmware version:
430
431   - ConnectX-4: **12.21.1000** and above.
432   - ConnectX-4 Lx: **14.21.1000** and above.
433   - ConnectX-5: **16.21.1000** and above.
434   - ConnectX-5 Ex: **16.21.1000** and above.
435
436 While these libraries and kernel modules are available on OpenFabrics
437 Alliance's `website <https://www.openfabrics.org/>`__ and provided by package
438 managers on most distributions, this PMD requires Ethernet extensions that
439 may not be supported at the moment (this is a work in progress).
440
441 `Mellanox OFED
442 <http://www.mellanox.com/page/products_dyn?product_family=26&mtag=linux>`__
443 includes the necessary support and should be used in the meantime. For DPDK,
444 only libibverbs, libmlx5, mlnx-ofed-kernel packages and firmware updates are
445 required from that distribution.
446
447 .. note::
448
449    Several versions of Mellanox OFED are available. Installing the version
450    this DPDK release was developed and tested against is strongly
451    recommended. Please check the `prerequisites`_.
452
453 Supported NICs
454 --------------
455
456 * Mellanox(R) ConnectX(R)-4 10G MCX4111A-XCAT (1x10G)
457 * Mellanox(R) ConnectX(R)-4 10G MCX4121A-XCAT (2x10G)
458 * Mellanox(R) ConnectX(R)-4 25G MCX4111A-ACAT (1x25G)
459 * Mellanox(R) ConnectX(R)-4 25G MCX4121A-ACAT (2x25G)
460 * Mellanox(R) ConnectX(R)-4 40G MCX4131A-BCAT (1x40G)
461 * Mellanox(R) ConnectX(R)-4 40G MCX413A-BCAT (1x40G)
462 * Mellanox(R) ConnectX(R)-4 40G MCX415A-BCAT (1x40G)
463 * Mellanox(R) ConnectX(R)-4 50G MCX4131A-GCAT (1x50G)
464 * Mellanox(R) ConnectX(R)-4 50G MCX413A-GCAT (1x50G)
465 * Mellanox(R) ConnectX(R)-4 50G MCX414A-BCAT (2x50G)
466 * Mellanox(R) ConnectX(R)-4 50G MCX415A-GCAT (2x50G)
467 * Mellanox(R) ConnectX(R)-4 50G MCX416A-BCAT (2x50G)
468 * Mellanox(R) ConnectX(R)-4 50G MCX416A-GCAT (2x50G)
469 * Mellanox(R) ConnectX(R)-4 50G MCX415A-CCAT (1x100G)
470 * Mellanox(R) ConnectX(R)-4 100G MCX416A-CCAT (2x100G)
471 * Mellanox(R) ConnectX(R)-4 Lx 10G MCX4121A-XCAT (2x10G)
472 * Mellanox(R) ConnectX(R)-4 Lx 25G MCX4121A-ACAT (2x25G)
473 * Mellanox(R) ConnectX(R)-5 100G MCX556A-ECAT (2x100G)
474 * Mellanox(R) ConnectX(R)-5 Ex EN 100G MCX516A-CDAT (2x100G)
475
476 Quick Start Guide on OFED
477 -------------------------
478
479 1. Download latest Mellanox OFED. For more info check the  `prerequisites`_.
480
481
482 2. Install the required libraries and kernel modules either by installing
483    only the required set, or by installing the entire Mellanox OFED:
484
485    .. code-block:: console
486
487         ./mlnxofedinstall --upstream-libs --dpdk
488
489 3. Verify the firmware is the correct one:
490
491    .. code-block:: console
492
493         ibv_devinfo
494
495 4. Verify all ports links are set to Ethernet:
496
497    .. code-block:: console
498
499         mlxconfig -d <mst device> query | grep LINK_TYPE
500         LINK_TYPE_P1                        ETH(2)
501         LINK_TYPE_P2                        ETH(2)
502
503    Link types may have to be configured to Ethernet:
504
505    .. code-block:: console
506
507         mlxconfig -d <mst device> set LINK_TYPE_P1/2=1/2/3
508
509         * LINK_TYPE_P1=<1|2|3> , 1=Infiniband 2=Ethernet 3=VPI(auto-sense)
510
511    For hypervisors verify SR-IOV is enabled on the NIC:
512
513    .. code-block:: console
514
515         mlxconfig -d <mst device> query | grep SRIOV_EN
516         SRIOV_EN                            True(1)
517
518    If needed, set enable the set the relevant fields:
519
520    .. code-block:: console
521
522         mlxconfig -d <mst device> set SRIOV_EN=1 NUM_OF_VFS=16
523         mlxfwreset -d <mst device> reset
524
525 5. Restart the driver:
526
527    .. code-block:: console
528
529         /etc/init.d/openibd restart
530
531    or:
532
533    .. code-block:: console
534
535         service openibd restart
536
537    If link type was changed, firmware must be reset as well:
538
539    .. code-block:: console
540
541         mlxfwreset -d <mst device> reset
542
543    For hypervisors, after reset write the sysfs number of virtual functions
544    needed for the PF.
545
546    To dynamically instantiate a given number of virtual functions (VFs):
547
548    .. code-block:: console
549
550         echo [num_vfs] > /sys/class/infiniband/mlx5_0/device/sriov_numvfs
551
552 6. Compile DPDK and you are ready to go. See instructions on
553    :ref:`Development Kit Build System <Development_Kit_Build_System>`
554
555 Performance tuning
556 ------------------
557
558 1. Configure aggressive CQE Zipping for maximum performance:
559
560   .. code-block:: console
561
562         mlxconfig -d <mst device> s CQE_COMPRESSION=1
563
564   To set it back to the default CQE Zipping mode use:
565
566   .. code-block:: console
567
568         mlxconfig -d <mst device> s CQE_COMPRESSION=0
569
570 2. In case of virtualization:
571
572    - Make sure that hypervisor kernel is 3.16 or newer.
573    - Configure boot with ``iommu=pt``.
574    - Use 1G huge pages.
575    - Make sure to allocate a VM on huge pages.
576    - Make sure to set CPU pinning.
577
578 3. Use the CPU near local NUMA node to which the PCIe adapter is connected,
579    for better performance. For VMs, verify that the right CPU
580    and NUMA node are pinned according to the above. Run:
581
582    .. code-block:: console
583
584         lstopo-no-graphics
585
586    to identify the NUMA node to which the PCIe adapter is connected.
587
588 4. If more than one adapter is used, and root complex capabilities allow
589    to put both adapters on the same NUMA node without PCI bandwidth degradation,
590    it is recommended to locate both adapters on the same NUMA node.
591    This in order to forward packets from one to the other without
592    NUMA performance penalty.
593
594 5. Disable pause frames:
595
596    .. code-block:: console
597
598         ethtool -A <netdev> rx off tx off
599
600 6. Verify IO non-posted prefetch is disabled by default. This can be checked
601    via the BIOS configuration. Please contact you server provider for more
602    information about the settings.
603
604 .. note::
605
606         On some machines, depends on the machine integrator, it is beneficial
607         to set the PCI max read request parameter to 1K. This can be
608         done in the following way:
609
610         To query the read request size use:
611
612         .. code-block:: console
613
614                 setpci -s <NIC PCI address> 68.w
615
616         If the output is different than 3XXX, set it by:
617
618         .. code-block:: console
619
620                 setpci -s <NIC PCI address> 68.w=3XXX
621
622         The XXX can be different on different systems. Make sure to configure
623         according to the setpci output.
624
625 Notes for testpmd
626 -----------------
627
628 Compared to librte_pmd_mlx4 that implements a single RSS configuration per
629 port, librte_pmd_mlx5 supports per-protocol RSS configuration.
630
631 Since ``testpmd`` defaults to IP RSS mode and there is currently no
632 command-line parameter to enable additional protocols (UDP and TCP as well
633 as IP), the following commands must be entered from its CLI to get the same
634 behavior as librte_pmd_mlx4:
635
636 .. code-block:: console
637
638    > port stop all
639    > port config all rss all
640    > port start all
641
642 Usage example
643 -------------
644
645 This section demonstrates how to launch **testpmd** with Mellanox
646 ConnectX-4/ConnectX-5 devices managed by librte_pmd_mlx5.
647
648 #. Load the kernel modules:
649
650    .. code-block:: console
651
652       modprobe -a ib_uverbs mlx5_core mlx5_ib
653
654    Alternatively if MLNX_OFED is fully installed, the following script can
655    be run:
656
657    .. code-block:: console
658
659       /etc/init.d/openibd restart
660
661    .. note::
662
663       User space I/O kernel modules (uio and igb_uio) are not used and do
664       not have to be loaded.
665
666 #. Make sure Ethernet interfaces are in working order and linked to kernel
667    verbs. Related sysfs entries should be present:
668
669    .. code-block:: console
670
671       ls -d /sys/class/net/*/device/infiniband_verbs/uverbs* | cut -d / -f 5
672
673    Example output:
674
675    .. code-block:: console
676
677       eth30
678       eth31
679       eth32
680       eth33
681
682 #. Optionally, retrieve their PCI bus addresses for whitelisting:
683
684    .. code-block:: console
685
686       {
687           for intf in eth2 eth3 eth4 eth5;
688           do
689               (cd "/sys/class/net/${intf}/device/" && pwd -P);
690           done;
691       } |
692       sed -n 's,.*/\(.*\),-w \1,p'
693
694    Example output:
695
696    .. code-block:: console
697
698       -w 0000:05:00.1
699       -w 0000:06:00.0
700       -w 0000:06:00.1
701       -w 0000:05:00.0
702
703 #. Request huge pages:
704
705    .. code-block:: console
706
707       echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages/nr_hugepages
708
709 #. Start testpmd with basic parameters:
710
711    .. code-block:: console
712
713       testpmd -l 8-15 -n 4 -w 05:00.0 -w 05:00.1 -w 06:00.0 -w 06:00.1 -- --rxq=2 --txq=2 -i
714
715    Example output:
716
717    .. code-block:: console
718
719       [...]
720       EAL: PCI device 0000:05:00.0 on NUMA socket 0
721       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
722       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_0" (VF: false)
723       PMD: librte_pmd_mlx5: 1 port(s) detected
724       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fe
725       EAL: PCI device 0000:05:00.1 on NUMA socket 0
726       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
727       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_1" (VF: false)
728       PMD: librte_pmd_mlx5: 1 port(s) detected
729       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:ff
730       EAL: PCI device 0000:06:00.0 on NUMA socket 0
731       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
732       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_2" (VF: false)
733       PMD: librte_pmd_mlx5: 1 port(s) detected
734       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fa
735       EAL: PCI device 0000:06:00.1 on NUMA socket 0
736       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
737       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_3" (VF: false)
738       PMD: librte_pmd_mlx5: 1 port(s) detected
739       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fb
740       Interactive-mode selected
741       Configuring Port 0 (socket 0)
742       PMD: librte_pmd_mlx5: 0x8cba80: TX queues number update: 0 -> 2
743       PMD: librte_pmd_mlx5: 0x8cba80: RX queues number update: 0 -> 2
744       Port 0: E4:1D:2D:E7:0C:FE
745       Configuring Port 1 (socket 0)
746       PMD: librte_pmd_mlx5: 0x8ccac8: TX queues number update: 0 -> 2
747       PMD: librte_pmd_mlx5: 0x8ccac8: RX queues number update: 0 -> 2
748       Port 1: E4:1D:2D:E7:0C:FF
749       Configuring Port 2 (socket 0)
750       PMD: librte_pmd_mlx5: 0x8cdb10: TX queues number update: 0 -> 2
751       PMD: librte_pmd_mlx5: 0x8cdb10: RX queues number update: 0 -> 2
752       Port 2: E4:1D:2D:E7:0C:FA
753       Configuring Port 3 (socket 0)
754       PMD: librte_pmd_mlx5: 0x8ceb58: TX queues number update: 0 -> 2
755       PMD: librte_pmd_mlx5: 0x8ceb58: RX queues number update: 0 -> 2
756       Port 3: E4:1D:2D:E7:0C:FB
757       Checking link statuses...
758       Port 0 Link Up - speed 40000 Mbps - full-duplex
759       Port 1 Link Up - speed 40000 Mbps - full-duplex
760       Port 2 Link Up - speed 10000 Mbps - full-duplex
761       Port 3 Link Up - speed 10000 Mbps - full-duplex
762       Done
763       testpmd>