net/mlx5: fix Rx packet padding
[dpdk.git] / doc / guides / nics / mlx5.rst
1 ..  SPDX-License-Identifier: BSD-3-Clause
2     Copyright 2015 6WIND S.A.
3     Copyright 2015 Mellanox Technologies, Ltd
4
5 MLX5 poll mode driver
6 =====================
7
8 The MLX5 poll mode driver library (**librte_pmd_mlx5**) provides support
9 for **Mellanox ConnectX-4**, **Mellanox ConnectX-4 Lx** , **Mellanox
10 ConnectX-5**, **Mellanox ConnectX-6** and **Mellanox Bluefield** families
11 of 10/25/40/50/100/200 Gb/s adapters as well as their virtual functions (VF)
12 in SR-IOV context.
13
14 Information and documentation about these adapters can be found on the
15 `Mellanox website <http://www.mellanox.com>`__. Help is also provided by the
16 `Mellanox community <http://community.mellanox.com/welcome>`__.
17
18 There is also a `section dedicated to this poll mode driver
19 <http://www.mellanox.com/page/products_dyn?product_family=209&mtag=pmd_for_dpdk>`__.
20
21 .. note::
22
23    Due to external dependencies, this driver is disabled by default. It must
24    be enabled manually by setting ``CONFIG_RTE_LIBRTE_MLX5_PMD=y`` and
25    recompiling DPDK.
26
27 Implementation details
28 ----------------------
29
30 Besides its dependency on libibverbs (that implies libmlx5 and associated
31 kernel support), librte_pmd_mlx5 relies heavily on system calls for control
32 operations such as querying/updating the MTU and flow control parameters.
33
34 For security reasons and robustness, this driver only deals with virtual
35 memory addresses. The way resources allocations are handled by the kernel
36 combined with hardware specifications that allow it to handle virtual memory
37 addresses directly ensure that DPDK applications cannot access random
38 physical memory (or memory that does not belong to the current process).
39
40 This capability allows the PMD to coexist with kernel network interfaces
41 which remain functional, although they stop receiving unicast packets as
42 long as they share the same MAC address.
43 This means legacy linux control tools (for example: ethtool, ifconfig and
44 more) can operate on the same network interfaces that owned by the DPDK
45 application.
46
47 Enabling librte_pmd_mlx5 causes DPDK applications to be linked against
48 libibverbs.
49
50 Features
51 --------
52
53 - Multi arch support: x86_64, POWER8, ARMv8, i686.
54 - Multiple TX and RX queues.
55 - Support for scattered TX and RX frames.
56 - IPv4, IPv6, TCPv4, TCPv6, UDPv4 and UDPv6 RSS on any number of queues.
57 - Several RSS hash keys, one for each flow type.
58 - Default RSS operation with no hash key specification.
59 - Configurable RETA table.
60 - Support for multiple MAC addresses.
61 - VLAN filtering.
62 - RX VLAN stripping.
63 - TX VLAN insertion.
64 - RX CRC stripping configuration.
65 - Promiscuous mode.
66 - Multicast promiscuous mode.
67 - Hardware checksum offloads.
68 - Flow director (RTE_FDIR_MODE_PERFECT, RTE_FDIR_MODE_PERFECT_MAC_VLAN and
69   RTE_ETH_FDIR_REJECT).
70 - Flow API.
71 - Multiple process.
72 - KVM and VMware ESX SR-IOV modes are supported.
73 - RSS hash result is supported.
74 - Hardware TSO for generic IP or UDP tunnel, including VXLAN and GRE.
75 - Hardware checksum Tx offload for generic IP or UDP tunnel, including VXLAN and GRE.
76 - RX interrupts.
77 - Statistics query including Basic, Extended and per queue.
78 - Rx HW timestamp.
79 - Tunnel types: VXLAN, L3 VXLAN, VXLAN-GPE, GRE, MPLSoGRE, MPLSoUDP.
80 - Tunnel HW offloads: packet type, inner/outer RSS, IP and UDP checksum verification.
81
82 Limitations
83 -----------
84
85 - For secondary process:
86
87   - Forked secondary process not supported.
88   - All mempools must be initialized before rte_eth_dev_start().
89
90 - Flow pattern without any specific vlan will match for vlan packets as well:
91
92   When VLAN spec is not specified in the pattern, the matching rule will be created with VLAN as a wild card.
93   Meaning, the flow rule::
94
95         flow create 0 ingress pattern eth / vlan vid is 3 / ipv4 / end ...
96
97   Will only match vlan packets with vid=3. and the flow rules::
98
99         flow create 0 ingress pattern eth / ipv4 / end ...
100
101   Or::
102
103         flow create 0 ingress pattern eth / vlan / ipv4 / end ...
104
105   Will match any ipv4 packet (VLAN included).
106
107 - A multi segment packet must have less than 6 segments in case the Tx burst function
108   is set to multi-packet send or Enhanced multi-packet send. Otherwise it must have
109   less than 50 segments.
110
111 - Count action for RTE flow is **only supported in Mellanox OFED**.
112
113 - Flows with a VXLAN Network Identifier equal (or ends to be equal)
114   to 0 are not supported.
115
116 - VXLAN TSO and checksum offloads are not supported on VM.
117
118 - L3 VXLAN and VXLAN-GPE tunnels cannot be supported together with MPLSoGRE and MPLSoUDP.
119
120 - VF: flow rules created on VF devices can only match traffic targeted at the
121   configured MAC addresses (see ``rte_eth_dev_mac_addr_add()``).
122
123 .. note::
124
125    MAC addresses not already present in the bridge table of the associated
126    kernel network device will be added and cleaned up by the PMD when closing
127    the device. In case of ungraceful program termination, some entries may
128    remain present and should be removed manually by other means.
129
130 - When Multi-Packet Rx queue is configured (``mprq_en``), a Rx packet can be
131   externally attached to a user-provided mbuf with having EXT_ATTACHED_MBUF in
132   ol_flags. As the mempool for the external buffer is managed by PMD, all the
133   Rx mbufs must be freed before the device is closed. Otherwise, the mempool of
134   the external buffers will be freed by PMD and the application which still
135   holds the external buffers may be corrupted.
136
137 - If Multi-Packet Rx queue is configured (``mprq_en``) and Rx CQE compression is
138   enabled (``rxq_cqe_comp_en``) at the same time, RSS hash result is not fully
139   supported. Some Rx packets may not have PKT_RX_RSS_HASH.
140
141 - IPv6 Multicast messages are not supported on VM, while promiscuous mode
142   and allmulticast mode are both set to off.
143   To receive IPv6 Multicast messages on VM, explicitly set the relevant
144   MAC address using rte_eth_dev_mac_addr_add() API.
145
146 - E-Switch VXLAN tunnel is not supported together with outer VLAN.
147
148 - E-Switch Flows with VNI pattern must include the VXLAN decapsulation action.
149
150 - E-Switch VXLAN decapsulation Flow:
151
152   - can be appiled to PF port only.
153   - must specify VF port action (packet redirection from PF to VF).
154   - must specify tunnel outer UDP local (destination) port, wildcards not allowed.
155   - must specify tunnel outer VNI, wildcards not allowed.
156   - must specify tunnel outer local (destination)  IPv4 or IPv6 address, wildcards not allowed.
157   - optionally may specify tunnel outer remote (source) IPv4 or IPv6, wildcards or group IPs allowed.
158   - optionally may specify tunnel inner source and destination MAC addresses.
159
160 - E-Switch VXLAN encapsulation Flow:
161
162   - can be applied to VF ports only.
163   - must specify PF port action (packet redirection from VF to PF).
164   - must specify the VXLAN item with tunnel outer parameters.
165   - must specify the tunnel outer VNI in the VXLAN item.
166   - must specify the tunnel outer remote (destination) UDP port in the VXLAN item.
167   - must specify the tunnel outer local (source) IPv4 or IPv6 in the , this address will locally (with scope link) assigned to the outer network interace, wildcards not allowed.
168   - must specify the tunnel outer remote (destination) IPv4 or IPv6 in the VXLAN item, group IPs allowed.
169   - must specify the tunnel outer destination MAC address in the VXLAN item, this address will be used to create neigh rule.
170
171 Statistics
172 ----------
173
174 MLX5 supports various of methods to report statistics:
175
176 Port statistics can be queried using ``rte_eth_stats_get()``. The received and sent statistics are through SW only and counts the number of packets received or sent successfully by the PMD. The imissed counter is the amount of packets that could not be delivered to SW because a queue was full. Packets not received due to congestion in the bus or on the NIC can be queried via the rx_discards_phy xstats counter.
177
178 Extended statistics can be queried using ``rte_eth_xstats_get()``. The extended statistics expose a wider set of counters counted by the device. The extended port statistics counts the number of packets received or sent successfully by the port. As Mellanox NICs are using the :ref:`Bifurcated Linux Driver <linux_gsg_linux_drivers>` those counters counts also packet received or sent by the Linux kernel. The counters with ``_phy`` suffix counts the total events on the physical port, therefore not valid for VF.
179
180 Finally per-flow statistics can by queried using ``rte_flow_query`` when attaching a count action for specific flow. The flow counter counts the number of packets received successfully by the port and match the specific flow.
181
182 Configuration
183 -------------
184
185 Compilation options
186 ~~~~~~~~~~~~~~~~~~~
187
188 These options can be modified in the ``.config`` file.
189
190 - ``CONFIG_RTE_LIBRTE_MLX5_PMD`` (default **n**)
191
192   Toggle compilation of librte_pmd_mlx5 itself.
193
194 - ``CONFIG_RTE_IBVERBS_LINK_DLOPEN`` (default **n**)
195
196   Build PMD with additional code to make it loadable without hard
197   dependencies on **libibverbs** nor **libmlx5**, which may not be installed
198   on the target system.
199
200   In this mode, their presence is still required for it to run properly,
201   however their absence won't prevent a DPDK application from starting (with
202   ``CONFIG_RTE_BUILD_SHARED_LIB`` disabled) and they won't show up as
203   missing with ``ldd(1)``.
204
205   It works by moving these dependencies to a purpose-built rdma-core "glue"
206   plug-in which must either be installed in a directory whose name is based
207   on ``CONFIG_RTE_EAL_PMD_PATH`` suffixed with ``-glue`` if set, or in a
208   standard location for the dynamic linker (e.g. ``/lib``) if left to the
209   default empty string (``""``).
210
211   This option has no performance impact.
212
213 - ``CONFIG_RTE_IBVERBS_LINK_STATIC`` (default **n**)
214
215   Embed static flavour of the dependencies **libibverbs** and **libmlx5**
216   in the PMD shared library or the executable static binary.
217
218 - ``CONFIG_RTE_LIBRTE_MLX5_DEBUG`` (default **n**)
219
220   Toggle debugging code and stricter compilation flags. Enabling this option
221   adds additional run-time checks and debugging messages at the cost of
222   lower performance.
223
224 Environment variables
225 ~~~~~~~~~~~~~~~~~~~~~
226
227 - ``MLX5_GLUE_PATH``
228
229   A list of directories in which to search for the rdma-core "glue" plug-in,
230   separated by colons or semi-colons.
231
232   Only matters when compiled with ``CONFIG_RTE_IBVERBS_LINK_DLOPEN``
233   enabled and most useful when ``CONFIG_RTE_EAL_PMD_PATH`` is also set,
234   since ``LD_LIBRARY_PATH`` has no effect in this case.
235
236 - ``MLX5_SHUT_UP_BF``
237
238   Configures HW Tx doorbell register as IO-mapped.
239
240   By default, the HW Tx doorbell is configured as a write-combining register.
241   The register would be flushed to HW usually when the write-combining buffer
242   becomes full, but it depends on CPU design.
243
244   Except for vectorized Tx burst routines, a write memory barrier is enforced
245   after updating the register so that the update can be immediately visible to
246   HW.
247
248   When vectorized Tx burst is called, the barrier is set only if the burst size
249   is not aligned to MLX5_VPMD_TX_MAX_BURST. However, setting this environmental
250   variable will bring better latency even though the maximum throughput can
251   slightly decline.
252
253 Run-time configuration
254 ~~~~~~~~~~~~~~~~~~~~~~
255
256 - librte_pmd_mlx5 brings kernel network interfaces up during initialization
257   because it is affected by their state. Forcing them down prevents packets
258   reception.
259
260 - **ethtool** operations on related kernel interfaces also affect the PMD.
261
262 - ``rxq_cqe_comp_en`` parameter [int]
263
264   A nonzero value enables the compression of CQE on RX side. This feature
265   allows to save PCI bandwidth and improve performance. Enabled by default.
266
267   Supported on:
268
269   - x86_64 with ConnectX-4, ConnectX-4 LX, ConnectX-5, ConnectX-6 and Bluefield.
270   - POWER8 and ARMv8 with ConnectX-4 LX, ConnectX-5, ConnectX-6 and Bluefield.
271
272 - ``rxq_cqe_pad_en`` parameter [int]
273
274   A nonzero value enables 128B padding of CQE on RX side. The size of CQE
275   is aligned with the size of a cacheline of the core. If cacheline size is
276   128B, the CQE size is configured to be 128B even though the device writes
277   only 64B data on the cacheline. This is to avoid unnecessary cache
278   invalidation by device's two consecutive writes on to one cacheline.
279   However in some architecture, it is more beneficial to update entire
280   cacheline with padding the rest 64B rather than striding because
281   read-modify-write could drop performance a lot. On the other hand,
282   writing extra data will consume more PCIe bandwidth and could also drop
283   the maximum throughput. It is recommended to empirically set this
284   parameter. Disabled by default.
285
286   Supported on:
287
288   - CPU having 128B cacheline with ConnectX-5 and Bluefield.
289
290 - ``rxq_pkt_pad_en`` parameter [int]
291
292   A nonzero value enables padding Rx packet to the size of cacheline on PCI
293   transaction. This feature would waste PCI bandwidth but could improve
294   performance by avoiding partial cacheline write which may cause costly
295   read-modify-copy in memory transaction on some architectures. Disabled by
296   default.
297
298   Supported on:
299
300   - x86_64 with ConnectX-4, ConnectX-4 LX, ConnectX-5, ConnectX-6 and Bluefield.
301   - POWER8 and ARMv8 with ConnectX-4 LX, ConnectX-5, ConnectX-6 and Bluefield.
302
303 - ``mprq_en`` parameter [int]
304
305   A nonzero value enables configuring Multi-Packet Rx queues. Rx queue is
306   configured as Multi-Packet RQ if the total number of Rx queues is
307   ``rxqs_min_mprq`` or more and Rx scatter isn't configured. Disabled by
308   default.
309
310   Multi-Packet Rx Queue (MPRQ a.k.a Striding RQ) can further save PCIe bandwidth
311   by posting a single large buffer for multiple packets. Instead of posting a
312   buffers per a packet, one large buffer is posted in order to receive multiple
313   packets on the buffer. A MPRQ buffer consists of multiple fixed-size strides
314   and each stride receives one packet. MPRQ can improve throughput for
315   small-packet tarffic.
316
317   When MPRQ is enabled, max_rx_pkt_len can be larger than the size of
318   user-provided mbuf even if DEV_RX_OFFLOAD_SCATTER isn't enabled. PMD will
319   configure large stride size enough to accommodate max_rx_pkt_len as long as
320   device allows. Note that this can waste system memory compared to enabling Rx
321   scatter and multi-segment packet.
322
323 - ``mprq_log_stride_num`` parameter [int]
324
325   Log 2 of the number of strides for Multi-Packet Rx queue. Configuring more
326   strides can reduce PCIe tarffic further. If configured value is not in the
327   range of device capability, the default value will be set with a warning
328   message. The default value is 4 which is 16 strides per a buffer, valid only
329   if ``mprq_en`` is set.
330
331   The size of Rx queue should be bigger than the number of strides.
332
333 - ``mprq_max_memcpy_len`` parameter [int]
334
335   The maximum length of packet to memcpy in case of Multi-Packet Rx queue. Rx
336   packet is mem-copied to a user-provided mbuf if the size of Rx packet is less
337   than or equal to this parameter. Otherwise, PMD will attach the Rx packet to
338   the mbuf by external buffer attachment - ``rte_pktmbuf_attach_extbuf()``.
339   A mempool for external buffers will be allocated and managed by PMD. If Rx
340   packet is externally attached, ol_flags field of the mbuf will have
341   EXT_ATTACHED_MBUF and this flag must be preserved. ``RTE_MBUF_HAS_EXTBUF()``
342   checks the flag. The default value is 128, valid only if ``mprq_en`` is set.
343
344 - ``rxqs_min_mprq`` parameter [int]
345
346   Configure Rx queues as Multi-Packet RQ if the total number of Rx queues is
347   greater or equal to this value. The default value is 12, valid only if
348   ``mprq_en`` is set.
349
350 - ``txq_inline`` parameter [int]
351
352   Amount of data to be inlined during TX operations. Improves latency.
353   Can improve PPS performance when PCI back pressure is detected and may be
354   useful for scenarios involving heavy traffic on many queues.
355
356   Because additional software logic is necessary to handle this mode, this
357   option should be used with care, as it can lower performance when back
358   pressure is not expected.
359
360 - ``txqs_min_inline`` parameter [int]
361
362   Enable inline send only when the number of TX queues is greater or equal
363   to this value.
364
365   This option should be used in combination with ``txq_inline`` above.
366
367   On ConnectX-4, ConnectX-4 LX, ConnectX-5, ConnectX-6 and Bluefield without
368   Enhanced MPW:
369
370         - Disabled by default.
371         - In case ``txq_inline`` is set recommendation is 4.
372
373   On ConnectX-5, ConnectX-6 and Bluefield with Enhanced MPW:
374
375         - Set to 8 by default.
376
377 - ``txqs_max_vec`` parameter [int]
378
379   Enable vectorized Tx only when the number of TX queues is less than or
380   equal to this value. Effective only when ``tx_vec_en`` is enabled.
381
382   On ConnectX-5:
383
384         - Set to 8 by default on ARMv8.
385         - Set to 4 by default otherwise.
386
387   On Bluefield
388
389         - Set to 16 by default.
390
391 - ``txq_mpw_en`` parameter [int]
392
393   A nonzero value enables multi-packet send (MPS) for ConnectX-4 Lx and
394   enhanced multi-packet send (Enhanced MPS) for ConnectX-5, ConnectX-6 and Bluefield.
395   MPS allows the TX burst function to pack up multiple packets in a
396   single descriptor session in order to save PCI bandwidth and improve
397   performance at the cost of a slightly higher CPU usage. When
398   ``txq_inline`` is set along with ``txq_mpw_en``, TX burst function tries
399   to copy entire packet data on to TX descriptor instead of including
400   pointer of packet only if there is enough room remained in the
401   descriptor. ``txq_inline`` sets per-descriptor space for either pointers
402   or inlined packets. In addition, Enhanced MPS supports hybrid mode -
403   mixing inlined packets and pointers in the same descriptor.
404
405   This option cannot be used with certain offloads such as ``DEV_TX_OFFLOAD_TCP_TSO,
406   DEV_TX_OFFLOAD_VXLAN_TNL_TSO, DEV_TX_OFFLOAD_GRE_TNL_TSO, DEV_TX_OFFLOAD_VLAN_INSERT``.
407   When those offloads are requested the MPS send function will not be used.
408
409   It is currently only supported on the ConnectX-4 Lx, ConnectX-5, ConnectX-6 and Bluefield
410   families of adapters.
411   On ConnectX-4 Lx the MPW is considered un-secure hence disabled by default.
412   Users which enable the MPW should be aware that application which provides incorrect
413   mbuf descriptors in the Tx burst can lead to serious errors in the host including, on some cases,
414   NIC to get stuck.
415   On ConnectX-5, ConnectX-6 and Bluefield the MPW is secure and enabled by default.
416
417 - ``txq_mpw_hdr_dseg_en`` parameter [int]
418
419   A nonzero value enables including two pointers in the first block of TX
420   descriptor. This can be used to lessen CPU load for memory copy.
421
422   Effective only when Enhanced MPS is supported. Disabled by default.
423
424 - ``txq_max_inline_len`` parameter [int]
425
426   Maximum size of packet to be inlined. This limits the size of packet to
427   be inlined. If the size of a packet is larger than configured value, the
428   packet isn't inlined even though there's enough space remained in the
429   descriptor. Instead, the packet is included with pointer.
430
431   Effective only when Enhanced MPS is supported. The default value is 256.
432
433 - ``tx_vec_en`` parameter [int]
434
435   A nonzero value enables Tx vector on ConnectX-5, ConnectX-6 and Bluefield NICs if the number of
436   global Tx queues on the port is less than ``txqs_max_vec``.
437
438   This option cannot be used with certain offloads such as ``DEV_TX_OFFLOAD_TCP_TSO,
439   DEV_TX_OFFLOAD_VXLAN_TNL_TSO, DEV_TX_OFFLOAD_GRE_TNL_TSO, DEV_TX_OFFLOAD_VLAN_INSERT``.
440   When those offloads are requested the MPS send function will not be used.
441
442   Enabled by default on ConnectX-5, ConnectX-6 and Bluefield.
443
444 - ``rx_vec_en`` parameter [int]
445
446   A nonzero value enables Rx vector if the port is not configured in
447   multi-segment otherwise this parameter is ignored.
448
449   Enabled by default.
450
451 - ``vf_nl_en`` parameter [int]
452
453   A nonzero value enables Netlink requests from the VF to add/remove MAC
454   addresses or/and enable/disable promiscuous/all multicast on the Netdevice.
455   Otherwise the relevant configuration must be run with Linux iproute2 tools.
456   This is a prerequisite to receive this kind of traffic.
457
458   Enabled by default, valid only on VF devices ignored otherwise.
459
460 - ``l3_vxlan_en`` parameter [int]
461
462   A nonzero value allows L3 VXLAN and VXLAN-GPE flow creation. To enable
463   L3 VXLAN or VXLAN-GPE, users has to configure firmware and enable this
464   parameter. This is a prerequisite to receive this kind of traffic.
465
466   Disabled by default.
467
468 - ``dv_flow_en`` parameter [int]
469
470   A nonzero value enables the DV flow steering assuming it is supported
471   by the driver.
472   The DV flow steering is not supported on switchdev mode.
473
474   Disabled by default.
475
476 - ``representor`` parameter [list]
477
478   This parameter can be used to instantiate DPDK Ethernet devices from
479   existing port (or VF) representors configured on the device.
480
481   It is a standard parameter whose format is described in
482   :ref:`ethernet_device_standard_device_arguments`.
483
484   For instance, to probe port representors 0 through 2::
485
486     representor=[0-2]
487
488 Firmware configuration
489 ~~~~~~~~~~~~~~~~~~~~~~
490
491 - L3 VXLAN and VXLAN-GPE destination UDP port
492
493    .. code-block:: console
494
495      mlxconfig -d <mst device> set IP_OVER_VXLAN_EN=1
496      mlxconfig -d <mst device> set IP_OVER_VXLAN_PORT=<udp dport>
497
498   Verify configurations are set:
499
500    .. code-block:: console
501
502      mlxconfig -d <mst device> query | grep IP_OVER_VXLAN
503      IP_OVER_VXLAN_EN                    True(1)
504      IP_OVER_VXLAN_PORT                  <udp dport>
505
506 Prerequisites
507 -------------
508
509 This driver relies on external libraries and kernel drivers for resources
510 allocations and initialization. The following dependencies are not part of
511 DPDK and must be installed separately:
512
513 - **libibverbs**
514
515   User space Verbs framework used by librte_pmd_mlx5. This library provides
516   a generic interface between the kernel and low-level user space drivers
517   such as libmlx5.
518
519   It allows slow and privileged operations (context initialization, hardware
520   resources allocations) to be managed by the kernel and fast operations to
521   never leave user space.
522
523 - **libmlx5**
524
525   Low-level user space driver library for Mellanox
526   ConnectX-4/ConnectX-5/ConnectX-6/Bluefield devices, it is automatically loaded
527   by libibverbs.
528
529   This library basically implements send/receive calls to the hardware
530   queues.
531
532 - **libmnl**
533
534   Minimalistic Netlink library mainly relied on to manage E-Switch flow
535   rules (i.e. those with the "transfer" attribute and typically involving
536   port representors).
537
538 - **Kernel modules**
539
540   They provide the kernel-side Verbs API and low level device drivers that
541   manage actual hardware initialization and resources sharing with user
542   space processes.
543
544   Unlike most other PMDs, these modules must remain loaded and bound to
545   their devices:
546
547   - mlx5_core: hardware driver managing Mellanox
548     ConnectX-4/ConnectX-5/ConnectX-6/Bluefield devices and related Ethernet kernel
549     network devices.
550   - mlx5_ib: InifiniBand device driver.
551   - ib_uverbs: user space driver for Verbs (entry point for libibverbs).
552
553 - **Firmware update**
554
555   Mellanox OFED releases include firmware updates for
556   ConnectX-4/ConnectX-5/ConnectX-6/Bluefield adapters.
557
558   Because each release provides new features, these updates must be applied to
559   match the kernel modules and libraries they come with.
560
561 .. note::
562
563    Both libraries are BSD and GPL licensed. Linux kernel modules are GPL
564    licensed.
565
566 Installation
567 ~~~~~~~~~~~~
568
569 Either RDMA Core library with a recent enough Linux kernel release
570 (recommended) or Mellanox OFED, which provides compatibility with older
571 releases.
572
573 RMDA Core with Linux Kernel
574 ^^^^^^^^^^^^^^^^^^^^^^^^^^^
575
576 - Minimal kernel version : v4.14 or the most recent 4.14-rc (see `Linux installation documentation`_)
577 - Minimal rdma-core version: v15+ commit 0c5f5765213a ("Merge pull request #227 from yishaih/tm")
578   (see `RDMA Core installation documentation`_)
579 - When building for i686 use:
580
581   - rdma-core version 18.0 or above built with 32bit support.
582   - Kernel version 4.14.41 or above.
583
584 - Starting with rdma-core v21, static libraries can be built::
585
586     cd build
587     CFLAGS=-fPIC cmake -DIN_PLACE=1 -DENABLE_STATIC=1 -GNinja ..
588     ninja
589
590 .. _`Linux installation documentation`: https://git.kernel.org/pub/scm/linux/kernel/git/stable/linux-stable.git/plain/Documentation/admin-guide/README.rst
591 .. _`RDMA Core installation documentation`: https://raw.githubusercontent.com/linux-rdma/rdma-core/master/README.md
592
593 If rdma-core libraries are built but not installed, DPDK makefile can link them,
594 thanks to these environment variables:
595
596    - ``EXTRA_CFLAGS=-I/path/to/rdma-core/build/include``
597    - ``EXTRA_LDFLAGS=-L/path/to/rdma-core/build/lib``
598    - ``PKG_CONFIG_PATH=/path/to/rdma-core/build/lib/pkgconfig``
599
600 Mellanox OFED
601 ^^^^^^^^^^^^^
602
603 - Mellanox OFED version: **4.4, 4.5**.
604 - firmware version:
605
606   - ConnectX-4: **12.21.1000** and above.
607   - ConnectX-4 Lx: **14.21.1000** and above.
608   - ConnectX-5: **16.21.1000** and above.
609   - ConnectX-5 Ex: **16.21.1000** and above.
610   - ConnectX-6: **20.99.5374** and above.
611   - Bluefield: **18.99.3950** and above.
612
613 While these libraries and kernel modules are available on OpenFabrics
614 Alliance's `website <https://www.openfabrics.org/>`__ and provided by package
615 managers on most distributions, this PMD requires Ethernet extensions that
616 may not be supported at the moment (this is a work in progress).
617
618 `Mellanox OFED
619 <http://www.mellanox.com/page/products_dyn?product_family=26&mtag=linux>`__
620 includes the necessary support and should be used in the meantime. For DPDK,
621 only libibverbs, libmlx5, mlnx-ofed-kernel packages and firmware updates are
622 required from that distribution.
623
624 .. note::
625
626    Several versions of Mellanox OFED are available. Installing the version
627    this DPDK release was developed and tested against is strongly
628    recommended. Please check the `prerequisites`_.
629
630 Libmnl
631 ^^^^^^
632
633 Minimal version for libmnl is **1.0.3**.
634
635 As a dependency of the **iproute2** suite, this library is often installed
636 by default. It is otherwise readily available through standard system
637 packages.
638
639 Its development headers must be installed in order to compile this PMD.
640 These packages are usually named **libmnl-dev** or **libmnl-devel**
641 depending on the Linux distribution.
642
643 Supported NICs
644 --------------
645
646 * Mellanox(R) ConnectX(R)-4 10G MCX4111A-XCAT (1x10G)
647 * Mellanox(R) ConnectX(R)-4 10G MCX4121A-XCAT (2x10G)
648 * Mellanox(R) ConnectX(R)-4 25G MCX4111A-ACAT (1x25G)
649 * Mellanox(R) ConnectX(R)-4 25G MCX4121A-ACAT (2x25G)
650 * Mellanox(R) ConnectX(R)-4 40G MCX4131A-BCAT (1x40G)
651 * Mellanox(R) ConnectX(R)-4 40G MCX413A-BCAT (1x40G)
652 * Mellanox(R) ConnectX(R)-4 40G MCX415A-BCAT (1x40G)
653 * Mellanox(R) ConnectX(R)-4 50G MCX4131A-GCAT (1x50G)
654 * Mellanox(R) ConnectX(R)-4 50G MCX413A-GCAT (1x50G)
655 * Mellanox(R) ConnectX(R)-4 50G MCX414A-BCAT (2x50G)
656 * Mellanox(R) ConnectX(R)-4 50G MCX415A-GCAT (2x50G)
657 * Mellanox(R) ConnectX(R)-4 50G MCX416A-BCAT (2x50G)
658 * Mellanox(R) ConnectX(R)-4 50G MCX416A-GCAT (2x50G)
659 * Mellanox(R) ConnectX(R)-4 50G MCX415A-CCAT (1x100G)
660 * Mellanox(R) ConnectX(R)-4 100G MCX416A-CCAT (2x100G)
661 * Mellanox(R) ConnectX(R)-4 Lx 10G MCX4121A-XCAT (2x10G)
662 * Mellanox(R) ConnectX(R)-4 Lx 25G MCX4121A-ACAT (2x25G)
663 * Mellanox(R) ConnectX(R)-5 100G MCX556A-ECAT (2x100G)
664 * Mellanox(R) ConnectX(R)-5 Ex EN 100G MCX516A-CDAT (2x100G)
665
666 Quick Start Guide on OFED
667 -------------------------
668
669 1. Download latest Mellanox OFED. For more info check the  `prerequisites`_.
670
671
672 2. Install the required libraries and kernel modules either by installing
673    only the required set, or by installing the entire Mellanox OFED:
674
675    .. code-block:: console
676
677         ./mlnxofedinstall --upstream-libs --dpdk
678
679 3. Verify the firmware is the correct one:
680
681    .. code-block:: console
682
683         ibv_devinfo
684
685 4. Verify all ports links are set to Ethernet:
686
687    .. code-block:: console
688
689         mlxconfig -d <mst device> query | grep LINK_TYPE
690         LINK_TYPE_P1                        ETH(2)
691         LINK_TYPE_P2                        ETH(2)
692
693    Link types may have to be configured to Ethernet:
694
695    .. code-block:: console
696
697         mlxconfig -d <mst device> set LINK_TYPE_P1/2=1/2/3
698
699         * LINK_TYPE_P1=<1|2|3> , 1=Infiniband 2=Ethernet 3=VPI(auto-sense)
700
701    For hypervisors verify SR-IOV is enabled on the NIC:
702
703    .. code-block:: console
704
705         mlxconfig -d <mst device> query | grep SRIOV_EN
706         SRIOV_EN                            True(1)
707
708    If needed, set enable the set the relevant fields:
709
710    .. code-block:: console
711
712         mlxconfig -d <mst device> set SRIOV_EN=1 NUM_OF_VFS=16
713         mlxfwreset -d <mst device> reset
714
715 5. Restart the driver:
716
717    .. code-block:: console
718
719         /etc/init.d/openibd restart
720
721    or:
722
723    .. code-block:: console
724
725         service openibd restart
726
727    If link type was changed, firmware must be reset as well:
728
729    .. code-block:: console
730
731         mlxfwreset -d <mst device> reset
732
733    For hypervisors, after reset write the sysfs number of virtual functions
734    needed for the PF.
735
736    To dynamically instantiate a given number of virtual functions (VFs):
737
738    .. code-block:: console
739
740         echo [num_vfs] > /sys/class/infiniband/mlx5_0/device/sriov_numvfs
741
742 6. Compile DPDK and you are ready to go. See instructions on
743    :ref:`Development Kit Build System <Development_Kit_Build_System>`
744
745 Performance tuning
746 ------------------
747
748 1. Configure aggressive CQE Zipping for maximum performance:
749
750   .. code-block:: console
751
752         mlxconfig -d <mst device> s CQE_COMPRESSION=1
753
754   To set it back to the default CQE Zipping mode use:
755
756   .. code-block:: console
757
758         mlxconfig -d <mst device> s CQE_COMPRESSION=0
759
760 2. In case of virtualization:
761
762    - Make sure that hypervisor kernel is 3.16 or newer.
763    - Configure boot with ``iommu=pt``.
764    - Use 1G huge pages.
765    - Make sure to allocate a VM on huge pages.
766    - Make sure to set CPU pinning.
767
768 3. Use the CPU near local NUMA node to which the PCIe adapter is connected,
769    for better performance. For VMs, verify that the right CPU
770    and NUMA node are pinned according to the above. Run:
771
772    .. code-block:: console
773
774         lstopo-no-graphics
775
776    to identify the NUMA node to which the PCIe adapter is connected.
777
778 4. If more than one adapter is used, and root complex capabilities allow
779    to put both adapters on the same NUMA node without PCI bandwidth degradation,
780    it is recommended to locate both adapters on the same NUMA node.
781    This in order to forward packets from one to the other without
782    NUMA performance penalty.
783
784 5. Disable pause frames:
785
786    .. code-block:: console
787
788         ethtool -A <netdev> rx off tx off
789
790 6. Verify IO non-posted prefetch is disabled by default. This can be checked
791    via the BIOS configuration. Please contact you server provider for more
792    information about the settings.
793
794 .. note::
795
796         On some machines, depends on the machine integrator, it is beneficial
797         to set the PCI max read request parameter to 1K. This can be
798         done in the following way:
799
800         To query the read request size use:
801
802         .. code-block:: console
803
804                 setpci -s <NIC PCI address> 68.w
805
806         If the output is different than 3XXX, set it by:
807
808         .. code-block:: console
809
810                 setpci -s <NIC PCI address> 68.w=3XXX
811
812         The XXX can be different on different systems. Make sure to configure
813         according to the setpci output.
814
815 7. To minimize overhead of searching Memory Regions:
816
817    - '--socket-mem' is recommended to pin memory by predictable amount.
818    - Configure per-lcore cache when creating Mempools for packet buffer.
819    - Refrain from dynamically allocating/freeing memory in run-time.
820
821 Notes for testpmd
822 -----------------
823
824 Compared to librte_pmd_mlx4 that implements a single RSS configuration per
825 port, librte_pmd_mlx5 supports per-protocol RSS configuration.
826
827 Since ``testpmd`` defaults to IP RSS mode and there is currently no
828 command-line parameter to enable additional protocols (UDP and TCP as well
829 as IP), the following commands must be entered from its CLI to get the same
830 behavior as librte_pmd_mlx4:
831
832 .. code-block:: console
833
834    > port stop all
835    > port config all rss all
836    > port start all
837
838 Usage example
839 -------------
840
841 This section demonstrates how to launch **testpmd** with Mellanox
842 ConnectX-4/ConnectX-5/ConnectX-6/Bluefield devices managed by librte_pmd_mlx5.
843
844 #. Load the kernel modules:
845
846    .. code-block:: console
847
848       modprobe -a ib_uverbs mlx5_core mlx5_ib
849
850    Alternatively if MLNX_OFED is fully installed, the following script can
851    be run:
852
853    .. code-block:: console
854
855       /etc/init.d/openibd restart
856
857    .. note::
858
859       User space I/O kernel modules (uio and igb_uio) are not used and do
860       not have to be loaded.
861
862 #. Make sure Ethernet interfaces are in working order and linked to kernel
863    verbs. Related sysfs entries should be present:
864
865    .. code-block:: console
866
867       ls -d /sys/class/net/*/device/infiniband_verbs/uverbs* | cut -d / -f 5
868
869    Example output:
870
871    .. code-block:: console
872
873       eth30
874       eth31
875       eth32
876       eth33
877
878 #. Optionally, retrieve their PCI bus addresses for whitelisting:
879
880    .. code-block:: console
881
882       {
883           for intf in eth2 eth3 eth4 eth5;
884           do
885               (cd "/sys/class/net/${intf}/device/" && pwd -P);
886           done;
887       } |
888       sed -n 's,.*/\(.*\),-w \1,p'
889
890    Example output:
891
892    .. code-block:: console
893
894       -w 0000:05:00.1
895       -w 0000:06:00.0
896       -w 0000:06:00.1
897       -w 0000:05:00.0
898
899 #. Request huge pages:
900
901    .. code-block:: console
902
903       echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages/nr_hugepages
904
905 #. Start testpmd with basic parameters:
906
907    .. code-block:: console
908
909       testpmd -l 8-15 -n 4 -w 05:00.0 -w 05:00.1 -w 06:00.0 -w 06:00.1 -- --rxq=2 --txq=2 -i
910
911    Example output:
912
913    .. code-block:: console
914
915       [...]
916       EAL: PCI device 0000:05:00.0 on NUMA socket 0
917       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
918       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_0" (VF: false)
919       PMD: librte_pmd_mlx5: 1 port(s) detected
920       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fe
921       EAL: PCI device 0000:05:00.1 on NUMA socket 0
922       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
923       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_1" (VF: false)
924       PMD: librte_pmd_mlx5: 1 port(s) detected
925       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:ff
926       EAL: PCI device 0000:06:00.0 on NUMA socket 0
927       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
928       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_2" (VF: false)
929       PMD: librte_pmd_mlx5: 1 port(s) detected
930       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fa
931       EAL: PCI device 0000:06:00.1 on NUMA socket 0
932       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
933       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_3" (VF: false)
934       PMD: librte_pmd_mlx5: 1 port(s) detected
935       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fb
936       Interactive-mode selected
937       Configuring Port 0 (socket 0)
938       PMD: librte_pmd_mlx5: 0x8cba80: TX queues number update: 0 -> 2
939       PMD: librte_pmd_mlx5: 0x8cba80: RX queues number update: 0 -> 2
940       Port 0: E4:1D:2D:E7:0C:FE
941       Configuring Port 1 (socket 0)
942       PMD: librte_pmd_mlx5: 0x8ccac8: TX queues number update: 0 -> 2
943       PMD: librte_pmd_mlx5: 0x8ccac8: RX queues number update: 0 -> 2
944       Port 1: E4:1D:2D:E7:0C:FF
945       Configuring Port 2 (socket 0)
946       PMD: librte_pmd_mlx5: 0x8cdb10: TX queues number update: 0 -> 2
947       PMD: librte_pmd_mlx5: 0x8cdb10: RX queues number update: 0 -> 2
948       Port 2: E4:1D:2D:E7:0C:FA
949       Configuring Port 3 (socket 0)
950       PMD: librte_pmd_mlx5: 0x8ceb58: TX queues number update: 0 -> 2
951       PMD: librte_pmd_mlx5: 0x8ceb58: RX queues number update: 0 -> 2
952       Port 3: E4:1D:2D:E7:0C:FB
953       Checking link statuses...
954       Port 0 Link Up - speed 40000 Mbps - full-duplex
955       Port 1 Link Up - speed 40000 Mbps - full-duplex
956       Port 2 Link Up - speed 10000 Mbps - full-duplex
957       Port 3 Link Up - speed 10000 Mbps - full-duplex
958       Done
959       testpmd>