net/hns3: support PF device with copper PHYs
[dpdk.git] / doc / guides / sample_app_ug / multi_process.rst
1 ..  SPDX-License-Identifier: BSD-3-Clause
2     Copyright(c) 2010-2014 Intel Corporation.
3
4 .. _multi_process_app:
5
6 Multi-process Sample Application
7 ================================
8
9 This chapter describes the example applications for multi-processing that are included in the DPDK.
10
11 Example Applications
12 --------------------
13
14 Building the Sample Applications
15 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
16 The multi-process example applications are built in the same way as other sample applications,
17 and as documented in the *DPDK Getting Started Guide*.
18
19
20 To compile the sample application see :doc:`compiling`.
21
22 The applications are located in the ``multi_process`` sub-directory.
23
24 .. note::
25
26     If just a specific multi-process application needs to be built,
27     the final make command can be run just in that application's directory,
28     rather than at the top-level multi-process directory.
29
30 Basic Multi-process Example
31 ~~~~~~~~~~~~~~~~~~~~~~~~~~~
32
33 The examples/simple_mp folder in the DPDK release contains a basic example application to demonstrate how
34 two DPDK processes can work together using queues and memory pools to share information.
35
36 Running the Application
37 ^^^^^^^^^^^^^^^^^^^^^^^
38
39 To run the application, start one copy of the simple_mp binary in one terminal,
40 passing at least two cores in the coremask/corelist, as follows:
41
42 .. code-block:: console
43
44     ./<build_dir>/examples/dpdk-simple_mp -l 0-1 -n 4 --proc-type=primary
45
46 For the first DPDK process run, the proc-type flag can be omitted or set to auto,
47 since all DPDK processes will default to being a primary instance,
48 meaning they have control over the hugepage shared memory regions.
49 The process should start successfully and display a command prompt as follows:
50
51 .. code-block:: console
52
53     $ ./<build_dir>/examples/dpdk-simple_mp -l 0-1 -n 4 --proc-type=primary
54     EAL: coremask set to 3
55     EAL: Detected lcore 0 on socket 0
56     EAL: Detected lcore 1 on socket 0
57     EAL: Detected lcore 2 on socket 0
58     EAL: Detected lcore 3 on socket 0
59     ...
60
61     EAL: Requesting 2 pages of size 1073741824
62     EAL: Requesting 768 pages of size 2097152
63     EAL: Ask a virtual area of 0x40000000 bytes
64     EAL: Virtual area found at 0x7ff200000000 (size = 0x40000000)
65     ...
66
67     EAL: check module finished
68     EAL: Main core 0 is ready (tid=54e41820)
69     EAL: Core 1 is ready (tid=53b32700)
70
71     Starting core 1
72
73     simple_mp >
74
75 To run the secondary process to communicate with the primary process,
76 again run the same binary setting at least two cores in the coremask/corelist:
77
78 .. code-block:: console
79
80     ./<build_dir>/examples/dpdk-simple_mp -l 2-3 -n 4 --proc-type=secondary
81
82 When running a secondary process such as that shown above, the proc-type parameter can again be specified as auto.
83 However, omitting the parameter altogether will cause the process to try and start as a primary rather than secondary process.
84
85 Once the process type is specified correctly,
86 the process starts up, displaying largely similar status messages to the primary instance as it initializes.
87 Once again, you will be presented with a command prompt.
88
89 Once both processes are running, messages can be sent between them using the send command.
90 At any stage, either process can be terminated using the quit command.
91
92 .. code-block:: console
93
94    EAL: Main core 10 is ready (tid=b5f89820)             EAL: Main core 8 is ready (tid=864a3820)
95    EAL: Core 11 is ready (tid=84ffe700)                  EAL: Core 9 is ready (tid=85995700)
96    Starting core 11                                      Starting core 9
97    simple_mp > send hello_secondary                      simple_mp > core 9: Received 'hello_secondary'
98    simple_mp > core 11: Received 'hello_primary'         simple_mp > send hello_primary
99    simple_mp > quit                                      simple_mp > quit
100
101 .. note::
102
103     If the primary instance is terminated, the secondary instance must also be shut-down and restarted after the primary.
104     This is necessary because the primary instance will clear and reset the shared memory regions on startup,
105     invalidating the secondary process's pointers.
106     The secondary process can be stopped and restarted without affecting the primary process.
107
108 How the Application Works
109 ^^^^^^^^^^^^^^^^^^^^^^^^^
110
111 The core of this example application is based on using two queues and a single memory pool in shared memory.
112 These three objects are created at startup by the primary process,
113 since the secondary process cannot create objects in memory as it cannot reserve memory zones,
114 and the secondary process then uses lookup functions to attach to these objects as it starts up.
115
116 .. code-block:: c
117
118     if (rte_eal_process_type() == RTE_PROC_PRIMARY){
119         send_ring = rte_ring_create(_PRI_2_SEC, ring_size, SOCKET0, flags);
120         recv_ring = rte_ring_create(_SEC_2_PRI, ring_size, SOCKET0, flags);
121         message_pool = rte_mempool_create(_MSG_POOL, pool_size, string_size, pool_cache, priv_data_sz, NULL, NULL, NULL, NULL, SOCKET0, flags);
122     } else {
123         recv_ring = rte_ring_lookup(_PRI_2_SEC);
124         send_ring = rte_ring_lookup(_SEC_2_PRI);
125         message_pool = rte_mempool_lookup(_MSG_POOL);
126     }
127
128 Note, however, that the named ring structure used as send_ring in the primary process is the recv_ring in the secondary process.
129
130 Once the rings and memory pools are all available in both the primary and secondary processes,
131 the application simply dedicates two threads to sending and receiving messages respectively.
132 The receive thread simply dequeues any messages on the receive ring, prints them,
133 and frees the buffer space used by the messages back to the memory pool.
134 The send thread makes use of the command-prompt library to interactively request user input for messages to send.
135 Once a send command is issued by the user, a buffer is allocated from the memory pool, filled in with the message contents,
136 then enqueued on the appropriate rte_ring.
137
138 Symmetric Multi-process Example
139 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
140
141 The second example of DPDK multi-process support demonstrates how a set of processes can run in parallel,
142 with each process performing the same set of packet- processing operations.
143 (Since each process is identical in functionality to the others,
144 we refer to this as symmetric multi-processing, to differentiate it from asymmetric multi- processing -
145 such as a client-server mode of operation seen in the next example,
146 where different processes perform different tasks, yet co-operate to form a packet-processing system.)
147 The following diagram shows the data-flow through the application, using two processes.
148
149 .. _figure_sym_multi_proc_app:
150
151 .. figure:: img/sym_multi_proc_app.*
152
153    Example Data Flow in a Symmetric Multi-process Application
154
155
156 As the diagram shows, each process reads packets from each of the network ports in use.
157 RSS is used to distribute incoming packets on each port to different hardware RX queues.
158 Each process reads a different RX queue on each port and so does not contend with any other process for that queue access.
159 Similarly, each process writes outgoing packets to a different TX queue on each port.
160
161 Running the Application
162 ^^^^^^^^^^^^^^^^^^^^^^^
163
164 As with the simple_mp example, the first instance of the symmetric_mp process must be run as the primary instance,
165 though with a number of other application- specific parameters also provided after the EAL arguments.
166 These additional parameters are:
167
168 *   -p <portmask>, where portmask is a hexadecimal bitmask of what ports on the system are to be used.
169     For example: -p 3 to use ports 0 and 1 only.
170
171 *   --num-procs <N>, where N is the total number of symmetric_mp instances that will be run side-by-side to perform packet processing.
172     This parameter is used to configure the appropriate number of receive queues on each network port.
173
174 *   --proc-id <n>, where n is a numeric value in the range 0 <= n < N (number of processes, specified above).
175     This identifies which symmetric_mp instance is being run, so that each process can read a unique receive queue on each network port.
176
177 The secondary symmetric_mp instances must also have these parameters specified,
178 and the first two must be the same as those passed to the primary instance, or errors result.
179
180 For example, to run a set of four symmetric_mp instances, running on lcores 1-4,
181 all performing level-2 forwarding of packets between ports 0 and 1,
182 the following commands can be used (assuming run as root):
183
184 .. code-block:: console
185
186     # ./<build_dir>/examples/dpdk-symmetric_mp -l 1 -n 4 --proc-type=auto -- -p 3 --num-procs=4 --proc-id=0
187     # ./<build_dir>/examples/dpdk-symmetric_mp -l 2 -n 4 --proc-type=auto -- -p 3 --num-procs=4 --proc-id=1
188     # ./<build_dir>/examples/dpdk-symmetric_mp -l 3 -n 4 --proc-type=auto -- -p 3 --num-procs=4 --proc-id=2
189     # ./<build_dir>/examples/dpdk-symmetric_mp -l 4 -n 4 --proc-type=auto -- -p 3 --num-procs=4 --proc-id=3
190
191 .. note::
192
193     In the above example, the process type can be explicitly specified as primary or secondary, rather than auto.
194     When using auto, the first process run creates all the memory structures needed for all processes -
195     irrespective of whether it has a proc-id of 0, 1, 2 or 3.
196
197 .. note::
198
199     For the symmetric multi-process example, since all processes work in the same manner,
200     once the hugepage shared memory and the network ports are initialized,
201     it is not necessary to restart all processes if the primary instance dies.
202     Instead, that process can be restarted as a secondary,
203     by explicitly setting the proc-type to secondary on the command line.
204     (All subsequent instances launched will also need this explicitly specified,
205     as auto-detection will detect no primary processes running and therefore attempt to re-initialize shared memory.)
206
207 How the Application Works
208 ^^^^^^^^^^^^^^^^^^^^^^^^^
209
210 The initialization calls in both the primary and secondary instances are the same for the most part,
211 calling the rte_eal_init(), 1 G and 10 G driver initialization and then probing devices.
212 Thereafter, the initialization done depends on whether the process is configured as a primary or secondary instance.
213
214 In the primary instance, a memory pool is created for the packet mbufs and the network ports to be used are initialized -
215 the number of RX and TX queues per port being determined by the num-procs parameter passed on the command-line.
216 The structures for the initialized network ports are stored in shared memory and
217 therefore will be accessible by the secondary process as it initializes.
218
219 .. code-block:: c
220
221     if (num_ports & 1)
222        rte_exit(EXIT_FAILURE, "Application must use an even number of ports\n");
223
224     for(i = 0; i < num_ports; i++){
225         if(proc_type == RTE_PROC_PRIMARY)
226             if (smp_port_init(ports[i], mp, (uint16_t)num_procs) < 0)
227                 rte_exit(EXIT_FAILURE, "Error initializing ports\n");
228     }
229
230 In the secondary instance, rather than initializing the network ports, the port information exported by the primary process is used,
231 giving the secondary process access to the hardware and software rings for each network port.
232 Similarly, the memory pool of mbufs is accessed by doing a lookup for it by name:
233
234 .. code-block:: c
235
236     mp = (proc_type == RTE_PROC_SECONDARY) ? rte_mempool_lookup(_SMP_MBUF_POOL) : rte_mempool_create(_SMP_MBUF_POOL, NB_MBUFS, MBUF_SIZE, ... )
237
238 Once this initialization is complete, the main loop of each process, both primary and secondary,
239 is exactly the same - each process reads from each port using the queue corresponding to its proc-id parameter,
240 and writes to the corresponding transmit queue on the output port.
241
242 Client-Server Multi-process Example
243 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
244
245 The third example multi-process application included with the DPDK shows how one can
246 use a client-server type multi-process design to do packet processing.
247 In this example, a single server process performs the packet reception from the ports being used and
248 distributes these packets using round-robin ordering among a set of client  processes,
249 which perform the actual packet processing.
250 In this case, the client applications just perform level-2 forwarding of packets by sending each packet out on a different network port.
251
252 The following diagram shows the data-flow through the application, using two client processes.
253
254 .. _figure_client_svr_sym_multi_proc_app:
255
256 .. figure:: img/client_svr_sym_multi_proc_app.*
257
258    Example Data Flow in a Client-Server Symmetric Multi-process Application
259
260
261 Running the Application
262 ^^^^^^^^^^^^^^^^^^^^^^^
263
264 The server process must be run initially as the primary process to set up all memory structures for use by the clients.
265 In addition to the EAL parameters, the application- specific parameters are:
266
267 *   -p <portmask >, where portmask is a hexadecimal bitmask of what ports on the system are to be used.
268     For example: -p 3 to use ports 0 and 1 only.
269
270 *   -n <num-clients>, where the num-clients parameter is the number of client processes that will process the packets received
271     by the server application.
272
273 .. note::
274
275     In the server process, a single thread, the main thread, that is, the lowest numbered lcore in the coremask/corelist, performs all packet I/O.
276     If a coremask/corelist is specified with more than a single lcore bit set in it,
277     an additional lcore will be used for a thread to periodically print packet count statistics.
278
279 Since the server application stores configuration data in shared memory, including the network ports to be used,
280 the only application parameter needed by a client process is its client instance ID.
281 Therefore, to run a server application on lcore 1 (with lcore 2 printing statistics) along with two client processes running on lcores 3 and 4,
282 the following commands could be used:
283
284 .. code-block:: console
285
286     # ./<build_dir>/examples/dpdk-mp_server -l 1-2 -n 4 -- -p 3 -n 2
287     # ./<build_dir>/examples/dpdk-mp_client -l 3 -n 4 --proc-type=auto -- -n 0
288     # ./<build_dir>/examples/dpdk-mp_client -l 4 -n 4 --proc-type=auto -- -n 1
289
290 .. note::
291
292     If the server application dies and needs to be restarted, all client applications also need to be restarted,
293     as there is no support in the server application for it to run as a secondary process.
294     Any client processes that need restarting can be restarted without affecting the server process.
295
296 How the Application Works
297 ^^^^^^^^^^^^^^^^^^^^^^^^^
298
299 The server process performs the network port and data structure initialization much as the symmetric multi-process application does when run as primary.
300 One additional enhancement in this sample application is that the server process stores its port configuration data in a memory zone in hugepage shared memory.
301 This eliminates the need for the client processes to have the portmask parameter passed into them on the command line,
302 as is done for the symmetric multi-process application, and therefore eliminates mismatched parameters as a potential source of errors.
303
304 In the same way that the server process is designed to be run as a primary process instance only,
305 the client processes are designed to be run as secondary instances only.
306 They have no code to attempt to create shared memory objects.
307 Instead, handles to all needed rings and memory pools are obtained via calls to rte_ring_lookup() and rte_mempool_lookup().
308 The network ports for use by the processes are obtained by loading the network port drivers and probing the PCI bus,
309 which will, as in the symmetric multi-process example,
310 automatically get access to the network ports using the settings already configured by the primary/server process.
311
312 Once all applications are initialized, the server operates by reading packets from each network port in turn and
313 distributing those packets to the client queues (software rings, one for each client process) in round-robin order.
314 On the client side, the packets are read from the rings in as big of bursts as possible, then routed out to a different network port.
315 The routing used is very simple. All packets received on the first NIC port are transmitted back out on the second port and vice versa.
316 Similarly, packets are routed between the 3rd and 4th network ports and so on.
317 The sending of packets is done by writing the packets directly to the network ports; they are not transferred back via the server process.
318
319 In both the server and the client processes, outgoing packets are buffered before being sent,
320 so as to allow the sending of multiple packets in a single burst to improve efficiency.
321 For example, the client process will buffer packets to send,
322 until either the buffer is full or until we receive no further packets from the server.