net/mlx5: support ConnectX-5 devices
[dpdk.git] / doc / guides / nics / mlx5.rst
1 ..  BSD LICENSE
2     Copyright 2015 6WIND S.A.
3
4     Redistribution and use in source and binary forms, with or without
5     modification, are permitted provided that the following conditions
6     are met:
7
8     * Redistributions of source code must retain the above copyright
9     notice, this list of conditions and the following disclaimer.
10     * Redistributions in binary form must reproduce the above copyright
11     notice, this list of conditions and the following disclaimer in
12     the documentation and/or other materials provided with the
13     distribution.
14     * Neither the name of 6WIND S.A. nor the names of its
15     contributors may be used to endorse or promote products derived
16     from this software without specific prior written permission.
17
18     THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
19     "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
20     LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
21     A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
22     OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
23     SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
24     LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
25     DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
26     THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
27     (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
28     OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
29
30 MLX5 poll mode driver
31 =====================
32
33 The MLX5 poll mode driver library (**librte_pmd_mlx5**) provides support
34 for **Mellanox ConnectX-4**, **Mellanox ConnectX-4 Lx** and **Mellanox
35 ConnectX-5** families of 10/25/40/50/100 Gb/s adapters as well as their
36 virtual functions (VF) in SR-IOV context.
37
38 Information and documentation about these adapters can be found on the
39 `Mellanox website <http://www.mellanox.com>`__. Help is also provided by the
40 `Mellanox community <http://community.mellanox.com/welcome>`__.
41
42 There is also a `section dedicated to this poll mode driver
43 <http://www.mellanox.com/page/products_dyn?product_family=209&mtag=pmd_for_dpdk>`__.
44
45 .. note::
46
47    Due to external dependencies, this driver is disabled by default. It must
48    be enabled manually by setting ``CONFIG_RTE_LIBRTE_MLX5_PMD=y`` and
49    recompiling DPDK.
50
51 Implementation details
52 ----------------------
53
54 Besides its dependency on libibverbs (that implies libmlx5 and associated
55 kernel support), librte_pmd_mlx5 relies heavily on system calls for control
56 operations such as querying/updating the MTU and flow control parameters.
57
58 For security reasons and robustness, this driver only deals with virtual
59 memory addresses. The way resources allocations are handled by the kernel
60 combined with hardware specifications that allow it to handle virtual memory
61 addresses directly ensure that DPDK applications cannot access random
62 physical memory (or memory that does not belong to the current process).
63
64 This capability allows the PMD to coexist with kernel network interfaces
65 which remain functional, although they stop receiving unicast packets as
66 long as they share the same MAC address.
67
68 Enabling librte_pmd_mlx5 causes DPDK applications to be linked against
69 libibverbs.
70
71 Features
72 --------
73
74 - Multiple TX and RX queues.
75 - Support for scattered TX and RX frames.
76 - IPv4, IPv6, TCPv4, TCPv6, UDPv4 and UDPv6 RSS on any number of queues.
77 - Several RSS hash keys, one for each flow type.
78 - Configurable RETA table.
79 - Support for multiple MAC addresses.
80 - VLAN filtering.
81 - RX VLAN stripping.
82 - TX VLAN insertion.
83 - RX CRC stripping configuration.
84 - Promiscuous mode.
85 - Multicast promiscuous mode.
86 - Hardware checksum offloads.
87 - Flow director (RTE_FDIR_MODE_PERFECT, RTE_FDIR_MODE_PERFECT_MAC_VLAN and
88   RTE_ETH_FDIR_REJECT).
89 - Secondary process TX is supported.
90 - KVM and VMware ESX SR-IOV modes are supported.
91 - RSS hash result is supported.
92
93 Limitations
94 -----------
95
96 - Inner RSS for VXLAN frames is not supported yet.
97 - Port statistics through software counters only.
98 - Hardware checksum offloads for VXLAN inner header are not supported yet.
99 - Secondary process RX is not supported.
100
101 Configuration
102 -------------
103
104 Compilation options
105 ~~~~~~~~~~~~~~~~~~~
106
107 These options can be modified in the ``.config`` file.
108
109 - ``CONFIG_RTE_LIBRTE_MLX5_PMD`` (default **n**)
110
111   Toggle compilation of librte_pmd_mlx5 itself.
112
113 - ``CONFIG_RTE_LIBRTE_MLX5_DEBUG`` (default **n**)
114
115   Toggle debugging code and stricter compilation flags. Enabling this option
116   adds additional run-time checks and debugging messages at the cost of
117   lower performance.
118
119 - ``CONFIG_RTE_LIBRTE_MLX5_TX_MP_CACHE`` (default **8**)
120
121   Maximum number of cached memory pools (MPs) per TX queue. Each MP from
122   which buffers are to be transmitted must be associated to memory regions
123   (MRs). This is a slow operation that must be cached.
124
125   This value is always 1 for RX queues since they use a single MP.
126
127 Environment variables
128 ~~~~~~~~~~~~~~~~~~~~~
129
130 - ``MLX5_PMD_ENABLE_PADDING``
131
132   Enables HW packet padding in PCI bus transactions.
133
134   When packet size is cache aligned and CRC stripping is enabled, 4 fewer
135   bytes are written to the PCI bus. Enabling padding makes such packets
136   aligned again.
137
138   In cases where PCI bandwidth is the bottleneck, padding can improve
139   performance by 10%.
140
141   This is disabled by default since this can also decrease performance for
142   unaligned packet sizes.
143
144 Run-time configuration
145 ~~~~~~~~~~~~~~~~~~~~~~
146
147 - librte_pmd_mlx5 brings kernel network interfaces up during initialization
148   because it is affected by their state. Forcing them down prevents packets
149   reception.
150
151 - **ethtool** operations on related kernel interfaces also affect the PMD.
152
153 - ``rxq_cqe_comp_en`` parameter [int]
154
155   A nonzero value enables the compression of CQE on RX side. This feature
156   allows to save PCI bandwidth and improve performance at the cost of a
157   slightly higher CPU usage.  Enabled by default.
158
159   Supported on:
160
161   - x86_64 with ConnectX4 and ConnectX4 LX
162   - Power8 with ConnectX4 LX
163
164 - ``txq_inline`` parameter [int]
165
166   Amount of data to be inlined during TX operations. Improves latency.
167   Can improve PPS performance when PCI back pressure is detected and may be
168   useful for scenarios involving heavy traffic on many queues.
169
170   It is not enabled by default (set to 0) since the additional software
171   logic necessary to handle this mode can lower performance when back
172   pressure is not expected.
173
174 - ``txqs_min_inline`` parameter [int]
175
176   Enable inline send only when the number of TX queues is greater or equal
177   to this value.
178
179   This option should be used in combination with ``txq_inline`` above.
180
181 - ``txq_mpw_en`` parameter [int]
182
183   A nonzero value enables multi-packet send. This feature allows the TX
184   burst function to pack up to five packets in two descriptors in order to
185   save PCI bandwidth and improve performance at the cost of a slightly
186   higher CPU usage.
187
188   It is currently only supported on the ConnectX-4 Lx and ConnectX-5
189   families of adapters. Enabled by default.
190
191 Prerequisites
192 -------------
193
194 This driver relies on external libraries and kernel drivers for resources
195 allocations and initialization. The following dependencies are not part of
196 DPDK and must be installed separately:
197
198 - **libibverbs**
199
200   User space Verbs framework used by librte_pmd_mlx5. This library provides
201   a generic interface between the kernel and low-level user space drivers
202   such as libmlx5.
203
204   It allows slow and privileged operations (context initialization, hardware
205   resources allocations) to be managed by the kernel and fast operations to
206   never leave user space.
207
208 - **libmlx5**
209
210   Low-level user space driver library for Mellanox ConnectX-4/ConnectX-5
211   devices, it is automatically loaded by libibverbs.
212
213   This library basically implements send/receive calls to the hardware
214   queues.
215
216 - **Kernel modules** (mlnx-ofed-kernel)
217
218   They provide the kernel-side Verbs API and low level device drivers that
219   manage actual hardware initialization and resources sharing with user
220   space processes.
221
222   Unlike most other PMDs, these modules must remain loaded and bound to
223   their devices:
224
225   - mlx5_core: hardware driver managing Mellanox ConnectX-4/ConnectX-5
226     devices and related Ethernet kernel network devices.
227   - mlx5_ib: InifiniBand device driver.
228   - ib_uverbs: user space driver for Verbs (entry point for libibverbs).
229
230 - **Firmware update**
231
232   Mellanox OFED releases include firmware updates for ConnectX-4/ConnectX-5
233   adapters.
234
235   Because each release provides new features, these updates must be applied to
236   match the kernel modules and libraries they come with.
237
238 .. note::
239
240    Both libraries are BSD and GPL licensed. Linux kernel modules are GPL
241    licensed.
242
243 Currently supported by DPDK:
244
245 - Mellanox OFED version:
246
247   - ConnectX-4: **3.4-1.0.0.0**
248   - ConnectX-4 Lx: **3.4-1.0.0.0**
249   - ConnectX-5: **4.0-0.0.8.1**
250
251 - firmware version:
252
253   - ConnectX-4: **12.17.1010**
254   - ConnectX-4 Lx: **14.17.1010**
255   - ConnectX-5: **16.18.0296**
256
257 Getting Mellanox OFED
258 ~~~~~~~~~~~~~~~~~~~~~
259
260 While these libraries and kernel modules are available on OpenFabrics
261 Alliance's `website <https://www.openfabrics.org/>`__ and provided by package
262 managers on most distributions, this PMD requires Ethernet extensions that
263 may not be supported at the moment (this is a work in progress).
264
265 `Mellanox OFED
266 <http://www.mellanox.com/page/products_dyn?product_family=26&mtag=linux>`__
267 includes the necessary support and should be used in the meantime. For DPDK,
268 only libibverbs, libmlx5, mlnx-ofed-kernel packages and firmware updates are
269 required from that distribution.
270
271 .. note::
272
273    Several versions of Mellanox OFED are available. Installing the version
274    this DPDK release was developed and tested against is strongly
275    recommended. Please check the `prerequisites`_.
276
277 Notes for testpmd
278 -----------------
279
280 Compared to librte_pmd_mlx4 that implements a single RSS configuration per
281 port, librte_pmd_mlx5 supports per-protocol RSS configuration.
282
283 Since ``testpmd`` defaults to IP RSS mode and there is currently no
284 command-line parameter to enable additional protocols (UDP and TCP as well
285 as IP), the following commands must be entered from its CLI to get the same
286 behavior as librte_pmd_mlx4:
287
288 .. code-block:: console
289
290    > port stop all
291    > port config all rss all
292    > port start all
293
294 Usage example
295 -------------
296
297 This section demonstrates how to launch **testpmd** with Mellanox
298 ConnectX-4/ConnectX-5 devices managed by librte_pmd_mlx5.
299
300 #. Load the kernel modules:
301
302    .. code-block:: console
303
304       modprobe -a ib_uverbs mlx5_core mlx5_ib
305
306    Alternatively if MLNX_OFED is fully installed, the following script can
307    be run:
308
309    .. code-block:: console
310
311       /etc/init.d/openibd restart
312
313    .. note::
314
315       User space I/O kernel modules (uio and igb_uio) are not used and do
316       not have to be loaded.
317
318 #. Make sure Ethernet interfaces are in working order and linked to kernel
319    verbs. Related sysfs entries should be present:
320
321    .. code-block:: console
322
323       ls -d /sys/class/net/*/device/infiniband_verbs/uverbs* | cut -d / -f 5
324
325    Example output:
326
327    .. code-block:: console
328
329       eth30
330       eth31
331       eth32
332       eth33
333
334 #. Optionally, retrieve their PCI bus addresses for whitelisting:
335
336    .. code-block:: console
337
338       {
339           for intf in eth2 eth3 eth4 eth5;
340           do
341               (cd "/sys/class/net/${intf}/device/" && pwd -P);
342           done;
343       } |
344       sed -n 's,.*/\(.*\),-w \1,p'
345
346    Example output:
347
348    .. code-block:: console
349
350       -w 0000:05:00.1
351       -w 0000:06:00.0
352       -w 0000:06:00.1
353       -w 0000:05:00.0
354
355 #. Request huge pages:
356
357    .. code-block:: console
358
359       echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages/nr_hugepages
360
361 #. Start testpmd with basic parameters:
362
363    .. code-block:: console
364
365       testpmd -c 0xff00 -n 4 -w 05:00.0 -w 05:00.1 -w 06:00.0 -w 06:00.1 -- --rxq=2 --txq=2 -i
366
367    Example output:
368
369    .. code-block:: console
370
371       [...]
372       EAL: PCI device 0000:05:00.0 on NUMA socket 0
373       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
374       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_0" (VF: false)
375       PMD: librte_pmd_mlx5: 1 port(s) detected
376       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fe
377       EAL: PCI device 0000:05:00.1 on NUMA socket 0
378       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
379       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_1" (VF: false)
380       PMD: librte_pmd_mlx5: 1 port(s) detected
381       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:ff
382       EAL: PCI device 0000:06:00.0 on NUMA socket 0
383       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
384       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_2" (VF: false)
385       PMD: librte_pmd_mlx5: 1 port(s) detected
386       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fa
387       EAL: PCI device 0000:06:00.1 on NUMA socket 0
388       EAL:   probe driver: 15b3:1013 librte_pmd_mlx5
389       PMD: librte_pmd_mlx5: PCI information matches, using device "mlx5_3" (VF: false)
390       PMD: librte_pmd_mlx5: 1 port(s) detected
391       PMD: librte_pmd_mlx5: port 1 MAC address is e4:1d:2d:e7:0c:fb
392       Interactive-mode selected
393       Configuring Port 0 (socket 0)
394       PMD: librte_pmd_mlx5: 0x8cba80: TX queues number update: 0 -> 2
395       PMD: librte_pmd_mlx5: 0x8cba80: RX queues number update: 0 -> 2
396       Port 0: E4:1D:2D:E7:0C:FE
397       Configuring Port 1 (socket 0)
398       PMD: librte_pmd_mlx5: 0x8ccac8: TX queues number update: 0 -> 2
399       PMD: librte_pmd_mlx5: 0x8ccac8: RX queues number update: 0 -> 2
400       Port 1: E4:1D:2D:E7:0C:FF
401       Configuring Port 2 (socket 0)
402       PMD: librte_pmd_mlx5: 0x8cdb10: TX queues number update: 0 -> 2
403       PMD: librte_pmd_mlx5: 0x8cdb10: RX queues number update: 0 -> 2
404       Port 2: E4:1D:2D:E7:0C:FA
405       Configuring Port 3 (socket 0)
406       PMD: librte_pmd_mlx5: 0x8ceb58: TX queues number update: 0 -> 2
407       PMD: librte_pmd_mlx5: 0x8ceb58: RX queues number update: 0 -> 2
408       Port 3: E4:1D:2D:E7:0C:FB
409       Checking link statuses...
410       Port 0 Link Up - speed 40000 Mbps - full-duplex
411       Port 1 Link Up - speed 40000 Mbps - full-duplex
412       Port 2 Link Up - speed 10000 Mbps - full-duplex
413       Port 3 Link Up - speed 10000 Mbps - full-duplex
414       Done
415       testpmd>