e09130ce0474e04ae597ad9065c11ecc69484027
[dpdk.git] / doc / guides / nics / ice.rst
1 ..  SPDX-License-Identifier: BSD-3-Clause
2     Copyright(c) 2018 Intel Corporation.
3
4 ICE Poll Mode Driver
5 ======================
6
7 The ice PMD (librte_pmd_ice) provides poll mode driver support for
8 10/25 Gbps IntelĀ® Ethernet 810 Series Network Adapters based on
9 the Intel Ethernet Controller E810.
10
11
12 Prerequisites
13 -------------
14
15 - Identifying your adapter using `Intel Support
16   <http://www.intel.com/support>`_ and get the latest NVM/FW images.
17
18 - Follow the DPDK :ref:`Getting Started Guide for Linux <linux_gsg>` to setup the basic DPDK environment.
19
20 - To get better performance on Intel platforms, please follow the "How to get best performance with NICs on Intel platforms"
21   section of the :ref:`Getting Started Guide for Linux <linux_gsg>`.
22
23 Recommended Matching List
24 -------------------------
25
26 It is highly recommended to upgrade the ice kernel driver and firmware and
27 DDP packages to avoid the compatibility issues with ice PMD. Here is the
28 suggested matching list.
29
30    +----------------------+-----------------------+------------------+----------------+-------------------+
31    |     DPDK version     | Kernel driver version | Firmware version | DDP OS Package | DDP COMMS Package |
32    +======================+=======================+==================+================+===================+
33    |        19.11         |        0.12.25        |     1.1.16.39    |      1.3.4     |       1.3.10      |
34    +----------------------+-----------------------+------------------+----------------+-------------------+
35    | 19.08 (experimental) |        0.10.1         |     1.1.12.7     |      1.2.0     |        N/A        |
36    +----------------------+-----------------------+------------------+----------------+-------------------+
37    | 19.05 (experimental) |        0.9.4          |     1.1.10.16    |      1.1.0     |        N/A        |
38    +----------------------+-----------------------+------------------+----------------+-------------------+
39
40 Pre-Installation Configuration
41 ------------------------------
42
43 Config File Options
44 ~~~~~~~~~~~~~~~~~~~
45
46 The following options can be modified in the ``config`` file.
47 Please note that enabling debugging options may affect system performance.
48
49 - ``CONFIG_RTE_LIBRTE_ICE_PMD`` (default ``y``)
50
51   Toggle compilation of the ``librte_pmd_ice`` driver.
52
53 - ``CONFIG_RTE_LIBRTE_ICE_DEBUG_*`` (default ``n``)
54
55   Toggle display of generic debugging messages.
56
57 - ``CONFIG_RTE_LIBRTE_ICE_RX_ALLOW_BULK_ALLOC`` (default ``y``)
58
59   Toggle bulk allocation for RX.
60
61 - ``CONFIG_RTE_LIBRTE_ICE_16BYTE_RX_DESC`` (default ``n``)
62
63   Toggle to use a 16-byte RX descriptor, by default the RX descriptor is 32 byte.
64
65 Runtime Config Options
66 ~~~~~~~~~~~~~~~~~~~~~~
67
68 - ``Safe Mode Support`` (default ``0``)
69
70   If driver failed to load OS package, by default driver's initialization failed.
71   But if user intend to use the device without OS package, user can take ``devargs``
72   parameter ``safe-mode-support``, for example::
73
74     -w 80:00.0,safe-mode-support=1
75
76   Then the driver will be initialized successfully and the device will enter Safe Mode.
77   NOTE: In Safe mode, only very limited features are available, features like RSS,
78   checksum, fdir, tunneling ... are all disabled.
79
80 - ``Generic Flow Pipeline Mode Support`` (default ``0``)
81
82   In pipeline mode, a flow can be set at one specific stage by setting parameter
83   ``priority``. Currently, we support two stages: priority = 0 or !0. Flows with
84   priority 0 located at the first pipeline stage which typically be used as a firewall
85   to drop the packet on a blacklist(we called it permission stage). At this stage,
86   flow rules are created for the device's exact match engine: switch. Flows with priority
87   !0 located at the second stage, typically packets are classified here and be steered to
88   specific queue or queue group (we called it distribution stage), At this stage, flow
89   rules are created for device's flow director engine.
90   For none-pipeline mode, ``priority`` is ignored, a flow rule can be created as a flow director
91   rule or a switch rule depends on its pattern/action and the resource allocation situation,
92   all flows are virtually at the same pipeline stage.
93   By default, generic flow API is enabled in none-pipeline mode, user can choose to
94   use pipeline mode by setting ``devargs`` parameter ``pipeline-mode-support``,
95   for example::
96
97     -w 80:00.0,pipeline-mode-support=1
98
99 - ``Protocol extraction for per queue``
100
101   Configure the RX queues to do protocol extraction into mbuf for protocol
102   handling acceleration, like checking the TCP SYN packets quickly.
103
104   The argument format is::
105
106       -w 18:00.0,proto_xtr=<queues:protocol>[<queues:protocol>...]
107       -w 18:00.0,proto_xtr=<protocol>
108
109   Queues are grouped by ``(`` and ``)`` within the group. The ``-`` character
110   is used as a range separator and ``,`` is used as a single number separator.
111   The grouping ``()`` can be omitted for single element group. If no queues are
112   specified, PMD will use this protocol extraction type for all queues.
113
114   Protocol is : ``vlan, ipv4, ipv6, ipv6_flow, tcp``.
115
116   .. code-block:: console
117
118     testpmd -w 18:00.0,proto_xtr='[(1,2-3,8-9):tcp,10-13:vlan]'
119
120   This setting means queues 1, 2-3, 8-9 are TCP extraction, queues 10-13 are
121   VLAN extraction, other queues run with no protocol extraction.
122
123   .. code-block:: console
124
125     testpmd -w 18:00.0,proto_xtr=vlan,proto_xtr='[(1,2-3,8-9):tcp,10-23:ipv6]'
126
127   This setting means queues 1, 2-3, 8-9 are TCP extraction, queues 10-23 are
128   IPv6 extraction, other queues use the default VLAN extraction.
129
130   The extraction metadata is copied into the registered dynamic mbuf field, and
131   the related dynamic mbuf flags is set.
132
133   .. table:: Protocol extraction : ``vlan``
134
135    +----------------------------+----------------------------+
136    |           VLAN2            |           VLAN1            |
137    +======+===+=================+======+===+=================+
138    |  PCP | D |       VID       |  PCP | D |       VID       |
139    +------+---+-----------------+------+---+-----------------+
140
141   VLAN1 - single or EVLAN (first for QinQ).
142
143   VLAN2 - C-VLAN (second for QinQ).
144
145   .. table:: Protocol extraction : ``ipv4``
146
147    +----------------------------+----------------------------+
148    |           IPHDR2           |           IPHDR1           |
149    +======+=======+=============+==============+=============+
150    |  Ver |Hdr Len|    ToS      |      TTL     |  Protocol   |
151    +------+-------+-------------+--------------+-------------+
152
153   IPHDR1 - IPv4 header word 4, "TTL" and "Protocol" fields.
154
155   IPHDR2 - IPv4 header word 0, "Ver", "Hdr Len" and "Type of Service" fields.
156
157   .. table:: Protocol extraction : ``ipv6``
158
159    +----------------------------+----------------------------+
160    |           IPHDR2           |           IPHDR1           |
161    +=====+=============+========+=============+==============+
162    | Ver |Traffic class|  Flow  | Next Header |   Hop Limit  |
163    +-----+-------------+--------+-------------+--------------+
164
165   IPHDR1 - IPv6 header word 3, "Next Header" and "Hop Limit" fields.
166
167   IPHDR2 - IPv6 header word 0, "Ver", "Traffic class" and high 4 bits of
168   "Flow Label" fields.
169
170   .. table:: Protocol extraction : ``ipv6_flow``
171
172    +----------------------------+----------------------------+
173    |           IPHDR2           |           IPHDR1           |
174    +=====+=============+========+============================+
175    | Ver |Traffic class|            Flow Label               |
176    +-----+-------------+-------------------------------------+
177
178   IPHDR1 - IPv6 header word 1, 16 low bits of the "Flow Label" field.
179
180   IPHDR2 - IPv6 header word 0, "Ver", "Traffic class" and high 4 bits of
181   "Flow Label" fields.
182
183   .. table:: Protocol extraction : ``tcp``
184
185    +----------------------------+----------------------------+
186    |           TCPHDR2          |           TCPHDR1          |
187    +============================+======+======+==============+
188    |          Reserved          |Offset|  RSV |     Flags    |
189    +----------------------------+------+------+--------------+
190
191   TCPHDR1 - TCP header word 6, "Data Offset" and "Flags" fields.
192
193   TCPHDR2 - Reserved
194
195   Use ``rte_net_ice_dynf_proto_xtr_metadata_get`` to access the protocol
196   extraction metadata, and use ``RTE_PKT_RX_DYNF_PROTO_XTR_*`` to get the
197   metadata type of ``struct rte_mbuf::ol_flags``.
198
199   The ``rte_net_ice_dump_proto_xtr_metadata`` routine shows how to
200   access the protocol extraction result in ``struct rte_mbuf``.
201
202 Driver compilation and testing
203 ------------------------------
204
205 Refer to the document :ref:`compiling and testing a PMD for a NIC <pmd_build_and_test>`
206 for details.
207
208 Features
209 --------
210
211 Vector PMD
212 ~~~~~~~~~~
213
214 Vector PMD for RX and TX path are selected automatically. The paths
215 are chosen based on 2 conditions.
216
217 - ``CPU``
218   On the X86 platform, the driver checks if the CPU supports AVX2.
219   If it's supported, AVX2 paths will be chosen. If not, SSE is chosen.
220
221 - ``Offload features``
222   The supported HW offload features are described in the document ice_vec.ini.
223   If any not supported features are used, ICE vector PMD is disabled and the
224   normal paths are chosen.
225
226 Malicious driver detection (MDD)
227 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
228
229 It's not appropriate to send a packet, if this packet's destination MAC address
230 is just this port's MAC address. If SW tries to send such packets, HW will
231 report a MDD event and drop the packets.
232
233 The APPs based on DPDK should avoid providing such packets.
234
235 Sample Application Notes
236 ------------------------
237
238 Vlan filter
239 ~~~~~~~~~~~
240
241 Vlan filter only works when Promiscuous mode is off.
242
243 To start ``testpmd``, and add vlan 10 to port 0:
244
245 .. code-block:: console
246
247     ./app/testpmd -l 0-15 -n 4 -- -i
248     ...
249
250     testpmd> rx_vlan add 10 0
251
252 Limitations or Known issues
253 ---------------------------
254
255 The Intel E810 requires a programmable pipeline package be downloaded
256 by the driver to support normal operations. The E810 has a limited
257 functionality built in to allow PXE boot and other use cases, but the
258 driver must download a package file during the driver initialization
259 stage.
260
261 The default DDP package file name is ice.pkg. For a specific NIC, the
262 DDP package supposed to be loaded can have a filename: ice-xxxxxx.pkg,
263 where 'xxxxxx' is the 64-bit PCIe Device Serial Number of the NIC. For
264 example, if the NIC's device serial number is 00-CC-BB-FF-FF-AA-05-68,
265 the device-specific DDP package filename is ice-00ccbbffffaa0568.pkg
266 (in hex and all low case). During initialization, the driver searches
267 in the following paths in order: /lib/firmware/updates/intel/ice/ddp
268 and /lib/firmware/intel/ice/ddp. The corresponding device-specific DDP
269 package will be downloaded first if the file exists. If not, then the
270 driver tries to load the default package. The type of loaded package
271 is stored in ``ice_adapter->active_pkg_type``.
272
273 A symbolic link to the DDP package file is also ok. The same package
274 file is used by both the kernel driver and the DPDK PMD.
275
276 19.02 limitation
277 ~~~~~~~~~~~~~~~~
278
279 Ice code released in 19.02 is for evaluation only.