net/mlx5: use Netlink to add/remove MAC addresses
[dpdk.git] / doc / guides / nics / mlx5.rst
1 ..  SPDX-License-Identifier: BSD-3-Clause
2     Copyright 2015 6WIND S.A.
3     Copyright 2015 Mellanox Technologies, Ltd
4
5 MLX5 poll mode driver
6 =====================
7
8 The MLX5 poll mode driver library (**librte_pmd_mlx5**) provides support
9 for **Mellanox ConnectX-4**, **Mellanox ConnectX-4 Lx** and **Mellanox
10 ConnectX-5** families of 10/25/40/50/100 Gb/s adapters as well as their
11 virtual functions (VF) in SR-IOV context.
12
13 Information and documentation about these adapters can be found on the
14 `Mellanox website <http://www.mellanox.com>`__. Help is also provided by the
15 `Mellanox community <http://community.mellanox.com/welcome>`__.
16
17 There is also a `section dedicated to this poll mode driver
18 <http://www.mellanox.com/page/products_dyn?product_family=209&mtag=pmd_for_dpdk>`__.
19
20 .. note::
21
22    Due to external dependencies, this driver is disabled by default. It must
23    be enabled manually by setting ``CONFIG_RTE_LIBRTE_MLX5_PMD=y`` and
24    recompiling DPDK.
25
26 Implementation details
27 ----------------------
28
29 Besides its dependency on libibverbs (that implies libmlx5 and associated
30 kernel support), librte_pmd_mlx5 relies heavily on system calls for control
31 operations such as querying/updating the MTU and flow control parameters.
32
33 For security reasons and robustness, this driver only deals with virtual
34 memory addresses. The way resources allocations are handled by the kernel
35 combined with hardware specifications that allow it to handle virtual memory
36 addresses directly ensure that DPDK applications cannot access random
37 physical memory (or memory that does not belong to the current process).
38
39 This capability allows the PMD to coexist with kernel network interfaces
40 which remain functional, although they stop receiving unicast packets as
41 long as they share the same MAC address.
42 This means legacy linux control tools (for example: ethtool, ifconfig and
43 more) can operate on the same network interfaces that owned by the DPDK
44 application.
45
46 Enabling librte_pmd_mlx5 causes DPDK applications to be linked against
47 libibverbs.
48
49 Features
50 --------
51
52 - Multi arch support: x86_64, POWER8, ARMv8.
53 - Multiple TX and RX queues.
54 - Support for scattered TX and RX frames.
55 - IPv4, IPv6, TCPv4, TCPv6, UDPv4 and UDPv6 RSS on any number of queues.
56 - Several RSS hash keys, one for each flow type.
57 - Configurable RETA table.
58 - Support for multiple MAC addresses.
59 - VLAN filtering.
60 - RX VLAN stripping.
61 - TX VLAN insertion.
62 - RX CRC stripping configuration.
63 - Promiscuous mode.
64 - Multicast promiscuous mode.
65 - Hardware checksum offloads.
66 - Flow director (RTE_FDIR_MODE_PERFECT, RTE_FDIR_MODE_PERFECT_MAC_VLAN and
67   RTE_ETH_FDIR_REJECT).
68 - Flow API.
69 - Multiple process.
70 - KVM and VMware ESX SR-IOV modes are supported.
71 - RSS hash result is supported.
72 - Hardware TSO.
73 - Hardware checksum TX offload for VXLAN and GRE.
74 - RX interrupts.
75 - Statistics query including Basic, Extended and per queue.
76 - Rx HW timestamp.
77
78 Limitations
79 -----------
80
81 - Inner RSS for VXLAN frames is not supported yet.
82 - Hardware checksum RX offloads for VXLAN inner header are not supported yet.
83 - For secondary process:
84
85   - Forked secondary process not supported.
86   - All mempools must be initialized before rte_eth_dev_start().
87
88 - Flow pattern without any specific vlan will match for vlan packets as well:
89
90   When VLAN spec is not specified in the pattern, the matching rule will be created with VLAN as a wild card.
91   Meaning, the flow rule::
92
93         flow create 0 ingress pattern eth / vlan vid is 3 / ipv4 / end ...
94
95   Will only match vlan packets with vid=3. and the flow rules::
96
97         flow create 0 ingress pattern eth / ipv4 / end ...
98
99   Or::
100
101         flow create 0 ingress pattern eth / vlan / ipv4 / end ...
102
103   Will match any ipv4 packet (VLAN included).
104
105 - A multi segment packet must have less than 6 segments in case the Tx burst function
106   is set to multi-packet send or Enhanced multi-packet send. Otherwise it must have
107   less than 50 segments.
108 - Count action for RTE flow is **only supported in Mellanox OFED**.
109 - Flows with a VXLAN Network Identifier equal (or ends to be equal)
110   to 0 are not supported.
111 - VXLAN TSO and checksum offloads are not supported on VM.
112 - VF: flow rules created on VF devices can only match traffic targeted at the
113   configured MAC addresses (see ``rte_eth_dev_mac_addr_add()``).
114
115 .. note::
116
117    MAC addresses not already present in the bridge table of the associated
118    kernel network device will be added and cleaned up by the PMD when closing
119    the device. In case of ungraceful program termination, some entries may
120    remain present and should be removed manually by other means.
121
122 Statistics
123 ----------
124
125 MLX5 supports various of methods to report statistics:
126
127 Port statistics can be queried using ``rte_eth_stats_get()``. The port statistics are through SW only and counts the number of packets received or sent successfully by the PMD.
128
129 Extended statistics can be queried using ``rte_eth_xstats_get()``. The extended statistics expose a wider set of counters counted by the device. The extended port statistics counts the number of packets received or sent successfully by the port. As Mellanox NICs are using the :ref:`Bifurcated Linux Driver <linux_gsg_linux_drivers>` those counters counts also packet received or sent by the Linux kernel. The counters with ``_phy`` suffix counts the total events on the physical port, therefore not valid for VF.
130
131 Finally per-flow statistics can by queried using ``rte_flow_query`` when attaching a count action for specific flow. The flow counter counts the number of packets received successfully by the port and match the specific flow.
132
133 Configuration
134 -------------
135
136 Compilation options
137 ~~~~~~~~~~~~~~~~~~~
138
139 These options can be modified in the ``.config`` file.
140
141 - ``CONFIG_RTE_LIBRTE_MLX5_PMD`` (default **n**)
142
143   Toggle compilation of librte_pmd_mlx5 itself.
144
145 - ``CONFIG_RTE_LIBRTE_MLX5_DLOPEN_DEPS`` (default **n**)
146
147   Build PMD with additional code to make it loadable without hard
148   dependencies on **libibverbs** nor **libmlx5**, which may not be installed
149   on the target system.
150
151   In this mode, their presence is still required for it to run properly,
152   however their absence won't prevent a DPDK application from starting (with
153   ``CONFIG_RTE_BUILD_SHARED_LIB`` disabled) and they won't show up as
154   missing with ``ldd(1)``.
155
156   It works by moving these dependencies to a purpose-built rdma-core "glue"
157   plug-in which must either be installed in a directory whose name is based
158   on ``CONFIG_RTE_EAL_PMD_PATH`` suffixed with ``-glue`` if set, or in a
159   standard location for the dynamic linker (e.g. ``/lib``) if left to the
160   default empty string (``""``).
161
162   This option has no performance impact.
163
164 - ``CONFIG_RTE_LIBRTE_MLX5_DEBUG`` (default **n**)
165
166   Toggle debugging code and stricter compilation flags. Enabling this option
167   adds additional run-time checks and debugging messages at the cost of
168   lower performance.
169
170 - ``CONFIG_RTE_LIBRTE_MLX5_TX_MP_CACHE`` (default **8**)
171
172   Maximum number of cached memory pools (MPs) per TX queue. Each MP from
173   which buffers are to be transmitted must be associated to memory regions
174   (MRs). This is a slow operation that must be cached.
175
176   This value is always 1 for RX queues since they use a single MP.
177
178 Environment variables
179 ~~~~~~~~~~~~~~~~~~~~~
180
181 - ``MLX5_GLUE_PATH``
182
183   A list of directories in which to search for the rdma-core "glue" plug-in,
184   separated by colons or semi-colons.
185
186   Only matters when compiled with ``CONFIG_RTE_LIBRTE_MLX5_DLOPEN_DEPS``
187   enabled and most useful when ``CONFIG_RTE_EAL_PMD_PATH`` is also set,
188   since ``LD_LIBRARY_PATH`` has no effect in this case.
189
190 - ``MLX5_PMD_ENABLE_PADDING``
191
192   Enables HW packet padding in PCI bus transactions.
193
194   When packet size is cache aligned and CRC stripping is enabled, 4 fewer
195   bytes are written to the PCI bus. Enabling padding makes such packets
196   aligned again.
197
198   In cases where PCI bandwidth is the bottleneck, padding can improve
199   performance by 10%.
200
201   This is disabled by default since this can also decrease performance for
202   unaligned packet sizes.
203
204 - ``MLX5_SHUT_UP_BF``
205
206   Configures HW Tx doorbell register as IO-mapped.
207
208   By default, the HW Tx doorbell is configured as a write-combining register.
209   The register would be flushed to HW usually when the write-combining buffer
210   becomes full, but it depends on CPU design.
211
212   Except for vectorized Tx burst routines, a write memory barrier is enforced
213   after updating the register so that the update can be immediately visible to
214   HW.
215
216   When vectorized Tx burst is called, the barrier is set only if the burst size
217   is not aligned to MLX5_VPMD_TX_MAX_BURST. However, setting this environmental
218   variable will bring better latency even though the maximum throughput can
219   slightly decline.
220
221 Run-time configuration
222 ~~~~~~~~~~~~~~~~~~~~~~
223
224 - librte_pmd_mlx5 brings kernel network interfaces up during initialization
225   because it is affected by their state. Forcing them down prevents packets
226   reception.
227
228 - **ethtool** operations on related kernel interfaces also affect the PMD.
229
230 - ``rxq_cqe_comp_en`` parameter [int]
231
232   A nonzero value enables the compression of CQE on RX side. This feature
233   allows to save PCI bandwidth and improve performance. Enabled by default.
234
235   Supported on:
236
237   - x86_64 with ConnectX-4, ConnectX-4 LX and ConnectX-5.
238   - POWER8 and ARMv8 with ConnectX-4 LX and ConnectX-5.
239
240 - ``txq_inline`` parameter [int]
241
242   Amount of data to be inlined during TX operations. Improves latency.
243   Can improve PPS performance when PCI back pressure is detected and may be
244   useful for scenarios involving heavy traffic on many queues.
245
246   Because additional software logic is necessary to handle this mode, this
247   option should be used with care, as it can lower performance when back
248   pressure is not expected.
249
250 - ``txqs_min_inline`` parameter [int]
251
252   Enable inline send only when the number of TX queues is greater or equal
253   to this value.
254
255   This option should be used in combination with ``txq_inline`` above.
256
257   On ConnectX-4, ConnectX-4 LX and ConnectX-5 without Enhanced MPW:
258
259         - Disabled by default.
260         - In case ``txq_inline`` is set recommendation is 4.
261
262   On ConnectX-5 with Enhanced MPW:
263
264         - Set to 8 by default.
265
266 - ``txq_mpw_en`` parameter [int]
267
268   A nonzero value enables multi-packet send (MPS) for ConnectX-4 Lx and
269   enhanced multi-packet send (Enhanced MPS) for ConnectX-5. MPS allows the
270   TX burst function to pack up multiple packets in a single descriptor
271   session in order to save PCI bandwidth and improve performance at the
272   cost of a slightly higher CPU usage. When ``txq_inline`` is set along
273   with ``txq_mpw_en``, TX burst function tries to copy entire packet data
274   on to TX descriptor instead of including pointer of packet only if there
275   is enough room remained in the descriptor. ``txq_inline`` sets
276   per-descriptor space for either pointers or inlined packets. In addition,
277   Enhanced MPS supports hybrid mode - mixing inlined packets and pointers
278   in the same descriptor.
279
280   This option cannot be used with certain offloads such as ``DEV_TX_OFFLOAD_TCP_TSO,
281   DEV_TX_OFFLOAD_VXLAN_TNL_TSO, DEV_TX_OFFLOAD_GRE_TNL_TSO, DEV_TX_OFFLOAD_VLAN_INSERT``.
282   When those offloads are requested the MPS send function will not be used.
283
284   It is currently only supported on the ConnectX-4 Lx and ConnectX-5
285   families of adapters. Enabled by default.
286
287 - ``txq_mpw_hdr_dseg_en`` parameter [int]
288
289   A nonzero value enables including two pointers in the first block of TX
290   descriptor. This can be used to lessen CPU load for memory copy.
291
292   Effective only when Enhanced MPS is supported. Disabled by default.
293
294 - ``txq_max_inline_len`` parameter [int]
295
296   Maximum size of packet to be inlined. This limits the size of packet to
297   be inlined. If the size of a packet is larger than configured value, the
298   packet isn't inlined even though there's enough space remained in the
299   descriptor. Instead, the packet is included with pointer.
300
301   Effective only when Enhanced MPS is supported. The default value is 256.
302
303 - ``tx_vec_en`` parameter [int]
304
305   A nonzero value enables Tx vector on ConnectX-5 only NIC if the number of
306   global Tx queues on the port is lesser than MLX5_VPMD_MIN_TXQS.
307
308   This option cannot be used with certain offloads such as ``DEV_TX_OFFLOAD_TCP_TSO,
309   DEV_TX_OFFLOAD_VXLAN_TNL_TSO, DEV_TX_OFFLOAD_GRE_TNL_TSO, DEV_TX_OFFLOAD_VLAN_INSERT``.
310   When those offloads are requested the MPS send function will not be used.
311
312   Enabled by default on ConnectX-5.
313
314 - ``rx_vec_en`` parameter [int]
315
316   A nonzero value enables Rx vector if the port is not configured in
317   multi-segment otherwise this parameter is ignored.
318
319   Enabled by default.
320
321 Prerequisites
322 -------------
323
324 This driver relies on external libraries and kernel drivers for resources
325 allocations and initialization. The following dependencies are not part of
326 DPDK and must be installed separately:
327
328 - **libibverbs**
329
330   User space Verbs framework used by librte_pmd_mlx5. This library provides
331   a generic interface between the kernel and low-level user space drivers
332   such as libmlx5.
333
334   It allows slow and privileged operations (context initialization, hardware
335   resources allocations) to be managed by the kernel and fast operations to
336   never leave user space.
337
338 - **libmlx5**
339
340   Low-level user space driver library for Mellanox ConnectX-4/ConnectX-5
341   devices, it is automatically loaded by libibverbs.
342
343   This library basically implements send/receive calls to the hardware
344   queues.
345
346 - **Kernel modules**
347
348   They provide the kernel-side Verbs API and low level device drivers that
349   manage actual hardware initialization and resources sharing with user
350   space processes.
351
352   Unlike most other PMDs, these modules must remain loaded and bound to
353   their devices:
354
355   - mlx5_core: hardware driver managing Mellanox ConnectX-4/ConnectX-5
356     devices and related Ethernet kernel network devices.
357   - mlx5_ib: InifiniBand device driver.
358   - ib_uverbs: user space driver for Verbs (entry point for libibverbs).
359
360 - **Firmware update**
361
362   Mellanox OFED releases include firmware updates for ConnectX-4/ConnectX-5
363   adapters.
364
365   Because each release provides new features, these updates must be applied to
366   match the kernel modules and libraries they come with.
367
368 .. note::
369
370    Both libraries are BSD and GPL licensed. Linux kernel modules are GPL
371    licensed.
372
373 Installation
374 ~~~~~~~~~~~~
375
376 Either RDMA Core library with a recent enough Linux kernel release
377 (recommended) or Mellanox OFED, which provides compatibility with older
378 releases.
379
380 RMDA Core with Linux Kernel
381 ^^^^^^^^^^^^^^^^^^^^^^^^^^^
382
383 - Minimal kernel version : v4.14 or the most recent 4.14-rc (see `Linux installation documentation`_)
384 - Minimal rdma-core version: v15+ commit 0c5f5765213a ("Merge pull request #227 from yishaih/tm")
385   (see `RDMA Core installation documentation`_)
386
387 .. _`Linux installation documentation`: https://git.kernel.org/pub/scm/linux/kernel/git/stable/linux-stable.git/plain/Documentation/admin-guide/README.rst
388 .. _`RDMA Core installation documentation`: https://raw.githubusercontent.com/linux-rdma/rdma-core/master/README.md
389
390 Mellanox OFED
391 ^^^^^^^^^^^^^
392
393 - Mellanox OFED version: **4.2, 4.3**.
394 - firmware version:
395
396   - ConnectX-4: **12.21.1000** and above.
397   - ConnectX-4 Lx: **14.21.1000** and above.
398   - ConnectX-5: **16.21.1000** and above.
399   - ConnectX-5 Ex: **16.21.1000** and above.
400
401 While these libraries and kernel modules are available on OpenFabrics
402 Alliance's `website <https://www.openfabrics.org/>`__ and provided by package
403 managers on most distributions, this PMD requires Ethernet extensions that
404 may not be supported at the moment (this is a work in progress).
405
406 `Mellanox OFED
407 <http://www.mellanox.com/page/products_dyn?product_family=26&mtag=linux>`__
408 includes the necessary support and should be used in the meantime. For DPDK,
409 only libibverbs, libmlx5, mlnx-ofed-kernel packages and firmware updates are
410 required from that distribution.
411
412 .. note::
413
414    Several versions of Mellanox OFED are available. Installing the version
415    this DPDK release was developed and tested against is strongly
416    recommended. Please check the `prerequisites`_.
417
418 Supported NICs
419 --------------
420
421 * Mellanox(R) ConnectX(R)-4 10G MCX4111A-XCAT (1x10G)
422 * Mellanox(R) ConnectX(R)-4 10G MCX4121A-XCAT (2x10G)
423 * Mellanox(R) ConnectX(R)-4 25G MCX4111A-ACAT (1x25G)
424 * Mellanox(R) ConnectX(R)-4 25G MCX4121A-ACAT (2x25G)
425 * Mellanox(R) ConnectX(R)-4 40G MCX4131A-BCAT (1x40G)
426 * Mellanox(R) ConnectX(R)-4 40G MCX413A-BCAT (1x40G)
427 * Mellanox(R) ConnectX(R)-4 40G MCX415A-BCAT (1x40G)
428 * Mellanox(R) ConnectX(R)-4 50G MCX4131A-GCAT (1x50G)
429 * Mellanox(R) ConnectX(R)-4 50G MCX413A-GCAT (1x50G)
430 * Mellanox(R) ConnectX(R)-4 50G MCX414A-BCAT (2x50G)
431 * Mellanox(R) ConnectX(R)-4 50G MCX415A-GCAT (2x50G)
432 * Mellanox(R) ConnectX(R)-4 50G MCX416A-BCAT (2x50G)
433 * Mellanox(R) ConnectX(R)-4 50G MCX416A-GCAT (2x50G)
434 * Mellanox(R) ConnectX(R)-4 50G MCX415A-CCAT (1x100G)
435 * Mellanox(R) ConnectX(R)-4 100G MCX416A-CCAT (2x100G)
436 * Mellanox(R) ConnectX(R)-4 Lx 10G MCX4121A-XCAT (2x10G)
437 * Mellanox(R) ConnectX(R)-4 Lx 25G MCX4121A-ACAT (2x25G)
438 * Mellanox(R) ConnectX(R)-5 100G MCX556A-ECAT (2x100G)
439 * Mellanox(R) ConnectX(R)-5 Ex EN 100G MCX516A-CDAT (2x100G)
440
441 Quick Start Guide on OFED
442 -------------------------
443
444 1. Download latest Mellanox OFED. For more info check the  `prerequisites`_.
445
446
447 2. Install the required libraries and kernel modules either by installing
448    only the required set, or by installing the entire Mellanox OFED:
449
450    .. code-block:: console
451
452         ./mlnxofedinstall --upstream-libs --dpdk
453
454 3. Verify the firmware is the correct one:
455
456    .. code-block:: console
457
458         ibv_devinfo
459
460 4. Verify all ports links are set to Ethernet:
461
462    .. code-block:: console
463
464         mlxconfig -d <mst device> query | grep LINK_TYPE
465         LINK_TYPE_P1                        ETH(2)
466         LINK_TYPE_P2                        ETH(2)
467
468    Link types may have to be configured to Ethernet:
469
470    .. code-block:: console
471
472         mlxconfig -d <mst device> set LINK_TYPE_P1/2=1/2/3
473
474         * LINK_TYPE_P1=<1|2|3> , 1=Infiniband 2=Ethernet 3=VPI(auto-sense)
475
476    For hypervisors verify SR-IOV is enabled on the NIC:
477
478    .. code-block:: console
479
480         mlxconfig -d <mst device> query | grep SRIOV_EN
481         SRIOV_EN                            True(1)
482
483    If needed, set enable the set the relevant fields:
484
485    .. code-block:: console
486
487         mlxconfig -d <mst device> set SRIOV_EN=1 NUM_OF_VFS=16
488         mlxfwreset -d <mst device> reset
489
490 5. Restart the driver:
491
492    .. code-block:: console
493
494         /etc/init.d/openibd restart
495
496    or:
497
498    .. code-block:: console
499
500         service openibd restart
501
502    If link type was changed, firmware must be reset as well:
503
504    .. code-block:: console
505
506         mlxfwreset -d <mst device> reset
507
508    For hypervisors, after reset write the sysfs number of virtual functions
509    needed for the PF.
510
511    To dynamically instantiate a given number of virtual functions (VFs):
512
513    .. code-block:: console
514
515         echo [num_vfs] > /sys/class/infiniband/mlx5_0/device/sriov_numvfs
516
517 6. Compile DPDK and you are ready to go. See instructions on
518    :ref:`Development Kit Build System <Development_Kit_Build_System>`
519
520 Performance tuning
521 ------------------
522
523 1. Configure aggressive CQE Zipping for maximum performance:
524
525   .. code-block:: console
526
527         mlxconfig -d <mst device> s CQE_COMPRESSION=1
528
529   To set it back to the default CQE Zipping mode use:
530
531   .. code-block:: console
532
533         mlxconfig -d <mst device> s CQE_COMPRESSION=0
534
535 2. In case of virtualization:
536
537    - Make sure that hypervisor kernel is 3.16 or newer.
538    - Configure boot with ``iommu=pt``.
539    - Use 1G huge pages.
540    - Make sure to allocate a VM on huge pages.
541    - Make sure to set CPU pinning.
542
543 3. Use the CPU near local NUMA node to which the PCIe adapter is connected,
544    for better performance. For VMs, verify that the right CPU
545    and NUMA node are pinned according to the above. Run:
546
547    .. code-block:: console
548
549         lstopo-no-graphics
550
551    to identify the NUMA node to which the PCIe adapter is connected.
552
553 4. If more than one adapter is used, and root complex capabilities allow
554    to put both adapters on the same NUMA node without PCI bandwidth degradation,
555    it is recommended to locate both adapters on the same NUMA node.
556    This in order to forward packets from one to the other without
557    NUMA performance penalty.
558
559 5. Disable pause frames:
560
561    .. code-block:: console
562
563         ethtool -A <netdev> rx off tx off
564
565 6. Verify IO non-posted prefetch is disabled by default. This can be checked
566    via the BIOS configuration. Please contact you server provider for more
567    information about the settings.
568
569 .. note::
570
571         On some machines, depends on the machine integrator, it is beneficial
572         to set the PCI max read request parameter to 1K. This can be
573         done in the following way:
574
575         To query the read request size use:
576
577         .. code-block:: console
578
579                 setpci -s <NIC PCI address> 68.w
580
581         If the output is different than 3XXX, set it by:
582
583         .. code-block:: console
584
585                 setpci -s <NIC PCI address> 68.w=3XXX
586
587         The XXX can be different on different systems. Make sure to configure
588         according to the setpci output.
589
590 Notes for testpmd
591 -----------------
592
593 Compared to librte_pmd_mlx4 that implements a single RSS configuration per
594 port, librte_pmd_mlx5 supports per-protocol RSS configuration.
595
596 Since ``testpmd`` defaults to IP RSS mode and there is currently no
597 command-line parameter to enable additional protocols (UDP and TCP as well
598 as IP), the following commands must be entered from its CLI to get the same
599 behavior as librte_pmd_mlx4:
600
601 .. code-block:: console
602
603    > port stop all
604    > port config all rss all
605    > port start all
606
607 Usage example
608 -------------
609
610 This section demonstrates how to launch **testpmd** with Mellanox
611 ConnectX-4/ConnectX-5 devices managed by librte_pmd_mlx5.
612
613 #. Load the kernel modules:
614
615    .. code-block:: console
616
617       modprobe -a ib_uverbs mlx5_core mlx5_ib
618
619    Alternatively if MLNX_OFED is fully installed, the following script can
620    be run:
621
622    .. code-block:: console
623
624       /etc/init.d/openibd restart
625
626    .. note::
627
628       User space I/O kernel modules (uio and igb_uio) are not used and do
629       not have to be loaded.
630
631 #. Make sure Ethernet interfaces are in working order and linked to kernel
632    verbs. Related sysfs entries should be present:
633
634    .. code-block:: console
635
636       ls -d /sys/class/net/*/device/infiniband_verbs/uverbs* | cut -d / -f 5
637
638    Example output:
639
640    .. code-block:: console
641
642       eth30
643       eth31
644       eth32
645       eth33
646
647 #. Optionally, retrieve their PCI bus addresses for whitelisting:
648
649    .. code-block:: console
650
651       {
652           for intf in eth2 eth3 eth4 eth5;
653           do
654               (cd "/sys/class/net/${intf}/device/" && pwd -P);
655           done;
656       } |
657       sed -n 's,.*/\(.*\),-w \1,p'
658
659    Example output:
660
661    .. code-block:: console
662
663       -w 0000:05:00.1
664       -w 0000:06:00.0
665       -w 0000:06:00.1
666       -w 0000:05:00.0
667
668 #. Request huge pages:
669
670    .. code-block:: console
671
672       echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages/nr_hugepages
673
674 #. Start testpmd with basic parameters:
675
676    .. code-block:: console
677
678       testpmd -l 8-15 -n 4 -w 05:00.0 -w 05:00.1 -w 06:00.0 -w 06:00.1 -- --rxq=2 --txq=2 -i
679
680    Example output:
681
682    .. code-block:: console
683
684       [...]
685       EAL: PCI device 0000:05:00.0 on NUMA socket 0
686       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
687       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_0" (VF: false)
688       PMD: librte_pmd_mlx5: 1 port(s) detected
689       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fe
690       EAL: PCI device 0000:05:00.1 on NUMA socket 0
691       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
692       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_1" (VF: false)
693       PMD: librte_pmd_mlx5: 1 port(s) detected
694       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:ff
695       EAL: PCI device 0000:06:00.0 on NUMA socket 0
696       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
697       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_2" (VF: false)
698       PMD: librte_pmd_mlx5: 1 port(s) detected
699       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fa
700       EAL: PCI device 0000:06:00.1 on NUMA socket 0
701       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
702       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_3" (VF: false)
703       PMD: librte_pmd_mlx5: 1 port(s) detected
704       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fb
705       Interactive-mode selected
706       Configuring Port 0 (socket 0)
707       PMD: librte_pmd_mlx5: 0x8cba80: TX queues number update: 0 -> 2
708       PMD: librte_pmd_mlx5: 0x8cba80: RX queues number update: 0 -> 2
709       Port 0: E4:1D:2D:E7:0C:FE
710       Configuring Port 1 (socket 0)
711       PMD: librte_pmd_mlx5: 0x8ccac8: TX queues number update: 0 -> 2
712       PMD: librte_pmd_mlx5: 0x8ccac8: RX queues number update: 0 -> 2
713       Port 1: E4:1D:2D:E7:0C:FF
714       Configuring Port 2 (socket 0)
715       PMD: librte_pmd_mlx5: 0x8cdb10: TX queues number update: 0 -> 2
716       PMD: librte_pmd_mlx5: 0x8cdb10: RX queues number update: 0 -> 2
717       Port 2: E4:1D:2D:E7:0C:FA
718       Configuring Port 3 (socket 0)
719       PMD: librte_pmd_mlx5: 0x8ceb58: TX queues number update: 0 -> 2
720       PMD: librte_pmd_mlx5: 0x8ceb58: RX queues number update: 0 -> 2
721       Port 3: E4:1D:2D:E7:0C:FB
722       Checking link statuses...
723       Port 0 Link Up - speed 40000 Mbps - full-duplex
724       Port 1 Link Up - speed 40000 Mbps - full-duplex
725       Port 2 Link Up - speed 10000 Mbps - full-duplex
726       Port 3 Link Up - speed 10000 Mbps - full-duplex
727       Done
728       testpmd>