examples/ipsec-secgw: get security context from lcore conf
[dpdk.git] / examples / ipsec-secgw / ipsec_worker.h
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright (C) 2020 Marvell International Ltd.
3  */
4 #ifndef _IPSEC_WORKER_H_
5 #define _IPSEC_WORKER_H_
6
7 #include <rte_acl.h>
8 #include <rte_ethdev.h>
9 #include <rte_lpm.h>
10 #include <rte_lpm6.h>
11
12 #include "ipsec.h"
13
14 /* Configure how many packets ahead to prefetch, when reading packets */
15 #define PREFETCH_OFFSET 3
16 enum pkt_type {
17         PKT_TYPE_PLAIN_IPV4 = 1,
18         PKT_TYPE_IPSEC_IPV4,
19         PKT_TYPE_PLAIN_IPV6,
20         PKT_TYPE_IPSEC_IPV6,
21         PKT_TYPE_INVALID
22 };
23
24 enum {
25         PKT_DROPPED = 0,
26         PKT_FORWARDED,
27         PKT_POSTED      /* for lookaside case */
28 };
29
30 struct route_table {
31         struct rt_ctx *rt4_ctx;
32         struct rt_ctx *rt6_ctx;
33 };
34
35 /*
36  * Conf required by event mode worker with tx internal port
37  */
38 struct lcore_conf_ev_tx_int_port_wrkr {
39         struct ipsec_ctx inbound;
40         struct ipsec_ctx outbound;
41         struct route_table rt;
42 } __rte_cache_aligned;
43
44 void ipsec_poll_mode_worker(void);
45
46 int ipsec_launch_one_lcore(void *args);
47
48 /*
49  * helper routine for inline and cpu(synchronous) processing
50  * this is just to satisfy inbound_sa_check() and get_hop_for_offload_pkt().
51  * Should be removed in future.
52  */
53 static inline void
54 prep_process_group(void *sa, struct rte_mbuf *mb[], uint32_t cnt)
55 {
56         uint32_t j;
57         struct ipsec_mbuf_metadata *priv;
58
59         for (j = 0; j != cnt; j++) {
60                 priv = get_priv(mb[j]);
61                 priv->sa = sa;
62                 /* setup TSO related fields if TSO enabled*/
63                 if (priv->sa->mss) {
64                         uint32_t ptype = mb[j]->packet_type;
65                         /* only TCP is supported */
66                         if ((ptype & RTE_PTYPE_L4_MASK) == RTE_PTYPE_L4_TCP) {
67                                 mb[j]->tso_segsz = priv->sa->mss;
68                                 if ((IS_TUNNEL(priv->sa->flags))) {
69                                         mb[j]->outer_l3_len = mb[j]->l3_len;
70                                         mb[j]->outer_l2_len = mb[j]->l2_len;
71                                         mb[j]->ol_flags |=
72                                                 RTE_MBUF_F_TX_TUNNEL_ESP;
73                                         if (RTE_ETH_IS_IPV4_HDR(ptype))
74                                                 mb[j]->ol_flags |=
75                                                 RTE_MBUF_F_TX_OUTER_IP_CKSUM;
76                                 }
77                                 mb[j]->l4_len = sizeof(struct rte_tcp_hdr);
78                                 mb[j]->ol_flags |= (RTE_MBUF_F_TX_TCP_SEG |
79                                                 RTE_MBUF_F_TX_TCP_CKSUM);
80                                 if (RTE_ETH_IS_IPV4_HDR(ptype))
81                                         mb[j]->ol_flags |=
82                                                 RTE_MBUF_F_TX_OUTER_IPV4;
83                                 else
84                                         mb[j]->ol_flags |=
85                                                 RTE_MBUF_F_TX_OUTER_IPV6;
86                         }
87                 }
88         }
89 }
90
91 static __rte_always_inline void
92 adjust_ipv4_pktlen(struct rte_mbuf *m, const struct rte_ipv4_hdr *iph,
93         uint32_t l2_len)
94 {
95         uint32_t plen, trim;
96
97         plen = rte_be_to_cpu_16(iph->total_length) + l2_len;
98         if (plen < m->pkt_len) {
99                 trim = m->pkt_len - plen;
100                 rte_pktmbuf_trim(m, trim);
101         }
102 }
103
104 static __rte_always_inline void
105 adjust_ipv6_pktlen(struct rte_mbuf *m, const struct rte_ipv6_hdr *iph,
106         uint32_t l2_len)
107 {
108         uint32_t plen, trim;
109
110         plen = rte_be_to_cpu_16(iph->payload_len) + sizeof(*iph) + l2_len;
111         if (plen < m->pkt_len) {
112                 trim = m->pkt_len - plen;
113                 rte_pktmbuf_trim(m, trim);
114         }
115 }
116
117 static __rte_always_inline void
118 prepare_one_packet(struct rte_security_ctx *ctx, struct rte_mbuf *pkt,
119                    struct ipsec_traffic *t)
120 {
121         uint32_t ptype = pkt->packet_type;
122         const struct rte_ether_hdr *eth;
123         const struct rte_ipv4_hdr *iph4;
124         const struct rte_ipv6_hdr *iph6;
125         uint32_t tun_type, l3_type;
126         uint64_t tx_offload;
127         uint16_t l3len;
128
129         tun_type = ptype & RTE_PTYPE_TUNNEL_MASK;
130         l3_type = ptype & RTE_PTYPE_L3_MASK;
131
132         eth = rte_pktmbuf_mtod(pkt, const struct rte_ether_hdr *);
133         if (RTE_ETH_IS_IPV4_HDR(l3_type)) {
134                 iph4 = (const struct rte_ipv4_hdr *)rte_pktmbuf_adj(pkt,
135                         RTE_ETHER_HDR_LEN);
136                 adjust_ipv4_pktlen(pkt, iph4, 0);
137
138                 if (tun_type == RTE_PTYPE_TUNNEL_ESP) {
139                         t->ipsec.pkts[(t->ipsec.num)++] = pkt;
140                 } else {
141                         t->ip4.data[t->ip4.num] = &iph4->next_proto_id;
142                         t->ip4.pkts[(t->ip4.num)++] = pkt;
143                 }
144                 tx_offload = sizeof(*iph4) << RTE_MBUF_L2_LEN_BITS;
145         } else if (RTE_ETH_IS_IPV6_HDR(l3_type)) {
146                 int next_proto;
147                 size_t ext_len;
148                 uint8_t *p;
149
150                 /* get protocol type */
151                 iph6 = (const struct rte_ipv6_hdr *)rte_pktmbuf_adj(pkt,
152                         RTE_ETHER_HDR_LEN);
153                 adjust_ipv6_pktlen(pkt, iph6, 0);
154
155                 l3len = sizeof(struct ip6_hdr);
156
157                 if (tun_type == RTE_PTYPE_TUNNEL_ESP) {
158                         t->ipsec.pkts[(t->ipsec.num)++] = pkt;
159                 } else {
160                         t->ip6.data[t->ip6.num] = &iph6->proto;
161                         t->ip6.pkts[(t->ip6.num)++] = pkt;
162                 }
163
164                 /* Determine l3 header size up to ESP extension by walking
165                  * through extension headers.
166                  */
167                 if (l3_type == RTE_PTYPE_L3_IPV6_EXT ||
168                      l3_type == RTE_PTYPE_L3_IPV6_EXT_UNKNOWN) {
169                         p = rte_pktmbuf_mtod(pkt, uint8_t *);
170                         next_proto = iph6->proto;
171                         while (next_proto != IPPROTO_ESP &&
172                                l3len < pkt->data_len &&
173                                (next_proto = rte_ipv6_get_next_ext(p + l3len,
174                                                 next_proto, &ext_len)) >= 0)
175                                 l3len += ext_len;
176
177                         /* Drop pkt when IPv6 header exceeds first seg size */
178                         if (unlikely(l3len > pkt->data_len)) {
179                                 free_pkts(&pkt, 1);
180                                 return;
181                         }
182                 }
183                 tx_offload = l3len << RTE_MBUF_L2_LEN_BITS;
184         } else {
185                 /* Unknown/Unsupported type, drop the packet */
186                 RTE_LOG(ERR, IPSEC, "Unsupported packet type 0x%x\n",
187                         rte_be_to_cpu_16(eth->ether_type));
188                 free_pkts(&pkt, 1);
189                 return;
190         }
191
192         if  ((ptype & RTE_PTYPE_L4_MASK) == RTE_PTYPE_L4_TCP)
193                 tx_offload |= (sizeof(struct rte_tcp_hdr) <<
194                                (RTE_MBUF_L2_LEN_BITS + RTE_MBUF_L3_LEN_BITS));
195         else if ((ptype & RTE_PTYPE_L4_MASK) == RTE_PTYPE_L4_UDP)
196                 tx_offload |= (sizeof(struct rte_udp_hdr) <<
197                                (RTE_MBUF_L2_LEN_BITS + RTE_MBUF_L3_LEN_BITS));
198         pkt->tx_offload = tx_offload;
199
200         /* Check if the packet has been processed inline. For inline protocol
201          * processed packets, the metadata in the mbuf can be used to identify
202          * the security processing done on the packet. The metadata will be
203          * used to retrieve the application registered userdata associated
204          * with the security session.
205          */
206
207         if (ctx && pkt->ol_flags & RTE_MBUF_F_RX_SEC_OFFLOAD) {
208                 struct ipsec_sa *sa;
209                 struct ipsec_mbuf_metadata *priv;
210
211                 /* Retrieve the userdata registered. Here, the userdata
212                  * registered is the SA pointer.
213                  */
214                 sa = (struct ipsec_sa *)rte_security_get_userdata(ctx,
215                                 *rte_security_dynfield(pkt));
216                 if (sa == NULL) {
217                         /* userdata could not be retrieved */
218                         return;
219                 }
220
221                 /* Save SA as priv member in mbuf. This will be used in the
222                  * IPsec selector(SP-SA) check.
223                  */
224
225                 priv = get_priv(pkt);
226                 priv->sa = sa;
227         }
228 }
229
230 static __rte_always_inline void
231 prepare_traffic(struct rte_security_ctx *ctx, struct rte_mbuf **pkts,
232                 struct ipsec_traffic *t, uint16_t nb_pkts)
233 {
234         int32_t i;
235
236         t->ipsec.num = 0;
237         t->ip4.num = 0;
238         t->ip6.num = 0;
239
240         for (i = 0; i < (nb_pkts - PREFETCH_OFFSET); i++) {
241                 rte_prefetch0(rte_pktmbuf_mtod(pkts[i + PREFETCH_OFFSET],
242                                         void *));
243                 prepare_one_packet(ctx, pkts[i], t);
244         }
245         /* Process left packets */
246         for (; i < nb_pkts; i++)
247                 prepare_one_packet(ctx, pkts[i], t);
248 }
249
250 static inline void
251 prepare_tx_pkt(struct rte_mbuf *pkt, uint16_t port,
252                 const struct lcore_conf *qconf)
253 {
254         struct ip *ip;
255         struct rte_ether_hdr *ethhdr;
256
257         ip = rte_pktmbuf_mtod(pkt, struct ip *);
258
259         ethhdr = (struct rte_ether_hdr *)
260                 rte_pktmbuf_prepend(pkt, RTE_ETHER_HDR_LEN);
261
262         if (ip->ip_v == IPVERSION) {
263                 pkt->ol_flags |= qconf->outbound.ipv4_offloads;
264                 pkt->l3_len = sizeof(struct ip);
265                 pkt->l2_len = RTE_ETHER_HDR_LEN;
266
267                 ip->ip_sum = 0;
268
269                 /* calculate IPv4 cksum in SW */
270                 if ((pkt->ol_flags & RTE_MBUF_F_TX_IP_CKSUM) == 0)
271                         ip->ip_sum = rte_ipv4_cksum((struct rte_ipv4_hdr *)ip);
272
273                 ethhdr->ether_type = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4);
274         } else {
275                 pkt->ol_flags |= qconf->outbound.ipv6_offloads;
276                 pkt->l3_len = sizeof(struct ip6_hdr);
277                 pkt->l2_len = RTE_ETHER_HDR_LEN;
278
279                 ethhdr->ether_type = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV6);
280         }
281
282         memcpy(&ethhdr->src_addr, &ethaddr_tbl[port].src,
283                         sizeof(struct rte_ether_addr));
284         memcpy(&ethhdr->dst_addr, &ethaddr_tbl[port].dst,
285                         sizeof(struct rte_ether_addr));
286 }
287
288 static inline void
289 prepare_tx_burst(struct rte_mbuf *pkts[], uint16_t nb_pkts, uint16_t port,
290                 const struct lcore_conf *qconf)
291 {
292         int32_t i;
293         const int32_t prefetch_offset = 2;
294
295         for (i = 0; i < (nb_pkts - prefetch_offset); i++) {
296                 rte_mbuf_prefetch_part2(pkts[i + prefetch_offset]);
297                 prepare_tx_pkt(pkts[i], port, qconf);
298         }
299         /* Process left packets */
300         for (; i < nb_pkts; i++)
301                 prepare_tx_pkt(pkts[i], port, qconf);
302 }
303
304 /* Send burst of packets on an output interface */
305 static __rte_always_inline int32_t
306 send_burst(struct lcore_conf *qconf, uint16_t n, uint16_t port)
307 {
308         struct rte_mbuf **m_table;
309         int32_t ret;
310         uint16_t queueid;
311
312         queueid = qconf->tx_queue_id[port];
313         m_table = (struct rte_mbuf **)qconf->tx_mbufs[port].m_table;
314
315         prepare_tx_burst(m_table, n, port, qconf);
316
317         ret = rte_eth_tx_burst(port, queueid, m_table, n);
318
319         core_stats_update_tx(ret);
320
321         if (unlikely(ret < n)) {
322                 do {
323                         free_pkts(&m_table[ret], 1);
324                 } while (++ret < n);
325         }
326
327         return 0;
328 }
329
330 /*
331  * Helper function to fragment and queue for TX one packet.
332  */
333 static __rte_always_inline uint32_t
334 send_fragment_packet(struct lcore_conf *qconf, struct rte_mbuf *m,
335         uint16_t port, uint8_t proto)
336 {
337         struct buffer *tbl;
338         uint32_t len, n;
339         int32_t rc;
340
341         tbl =  qconf->tx_mbufs + port;
342         len = tbl->len;
343
344         /* free space for new fragments */
345         if (len + RTE_LIBRTE_IP_FRAG_MAX_FRAG >=  RTE_DIM(tbl->m_table)) {
346                 send_burst(qconf, len, port);
347                 len = 0;
348         }
349
350         n = RTE_DIM(tbl->m_table) - len;
351
352         if (proto == IPPROTO_IP)
353                 rc = rte_ipv4_fragment_packet(m, tbl->m_table + len,
354                         n, mtu_size, m->pool, qconf->frag.pool_indir);
355         else
356                 rc = rte_ipv6_fragment_packet(m, tbl->m_table + len,
357                         n, mtu_size, m->pool, qconf->frag.pool_indir);
358
359         if (rc >= 0)
360                 len += rc;
361         else
362                 RTE_LOG(ERR, IPSEC,
363                         "%s: failed to fragment packet with size %u, "
364                         "error code: %d\n",
365                         __func__, m->pkt_len, rte_errno);
366
367         free_pkts(&m, 1);
368         return len;
369 }
370
371 /* Enqueue a single packet, and send burst if queue is filled */
372 static __rte_always_inline int32_t
373 send_single_packet(struct rte_mbuf *m, uint16_t port, uint8_t proto)
374 {
375         uint32_t lcore_id;
376         uint16_t len;
377         struct lcore_conf *qconf;
378
379         lcore_id = rte_lcore_id();
380
381         qconf = &lcore_conf[lcore_id];
382         len = qconf->tx_mbufs[port].len;
383
384         if (m->pkt_len <= mtu_size) {
385                 qconf->tx_mbufs[port].m_table[len] = m;
386                 len++;
387
388         /* need to fragment the packet */
389         } else if (frag_tbl_sz > 0)
390                 len = send_fragment_packet(qconf, m, port, proto);
391         else
392                 free_pkts(&m, 1);
393
394         /* enough pkts to be sent */
395         if (unlikely(len == MAX_PKT_BURST)) {
396                 send_burst(qconf, MAX_PKT_BURST, port);
397                 len = 0;
398         }
399
400         qconf->tx_mbufs[port].len = len;
401         return 0;
402 }
403
404 static __rte_always_inline void
405 inbound_sp_sa(struct sp_ctx *sp, struct sa_ctx *sa, struct traffic_type *ip,
406                 uint16_t lim, struct ipsec_spd_stats *stats)
407 {
408         struct rte_mbuf *m;
409         uint32_t i, j, res, sa_idx;
410
411         if (ip->num == 0 || sp == NULL)
412                 return;
413
414         rte_acl_classify((struct rte_acl_ctx *)sp, ip->data, ip->res,
415                         ip->num, DEFAULT_MAX_CATEGORIES);
416
417         j = 0;
418         for (i = 0; i < ip->num; i++) {
419                 m = ip->pkts[i];
420                 res = ip->res[i];
421                 if (res == BYPASS) {
422                         ip->pkts[j++] = m;
423                         stats->bypass++;
424                         continue;
425                 }
426                 if (res == DISCARD) {
427                         free_pkts(&m, 1);
428                         stats->discard++;
429                         continue;
430                 }
431
432                 /* Only check SPI match for processed IPSec packets */
433                 if (i < lim && ((m->ol_flags & RTE_MBUF_F_RX_SEC_OFFLOAD) == 0)) {
434                         stats->discard++;
435                         free_pkts(&m, 1);
436                         continue;
437                 }
438
439                 sa_idx = res - 1;
440                 if (!inbound_sa_check(sa, m, sa_idx)) {
441                         stats->discard++;
442                         free_pkts(&m, 1);
443                         continue;
444                 }
445                 ip->pkts[j++] = m;
446                 stats->protect++;
447         }
448         ip->num = j;
449 }
450
451 static __rte_always_inline int32_t
452 get_hop_for_offload_pkt(struct rte_mbuf *pkt, int is_ipv6)
453 {
454         struct ipsec_mbuf_metadata *priv;
455         struct ipsec_sa *sa;
456
457         priv = get_priv(pkt);
458
459         sa = priv->sa;
460         if (unlikely(sa == NULL)) {
461                 RTE_LOG(ERR, IPSEC, "SA not saved in private data\n");
462                 goto fail;
463         }
464
465         if (is_ipv6)
466                 return sa->portid;
467
468         /* else */
469         return (sa->portid | RTE_LPM_LOOKUP_SUCCESS);
470
471 fail:
472         if (is_ipv6)
473                 return -1;
474
475         /* else */
476         return 0;
477 }
478
479 static inline void
480 route4_pkts(struct rt_ctx *rt_ctx, struct rte_mbuf *pkts[], uint8_t nb_pkts)
481 {
482         uint32_t hop[MAX_PKT_BURST * 2];
483         uint32_t dst_ip[MAX_PKT_BURST * 2];
484         int32_t pkt_hop = 0;
485         uint16_t i, offset;
486         uint16_t lpm_pkts = 0;
487         unsigned int lcoreid = rte_lcore_id();
488
489         if (nb_pkts == 0)
490                 return;
491
492         /* Need to do an LPM lookup for non-inline packets. Inline packets will
493          * have port ID in the SA
494          */
495
496         for (i = 0; i < nb_pkts; i++) {
497                 if (!(pkts[i]->ol_flags & RTE_MBUF_F_TX_SEC_OFFLOAD)) {
498                         /* Security offload not enabled. So an LPM lookup is
499                          * required to get the hop
500                          */
501                         offset = offsetof(struct ip, ip_dst);
502                         dst_ip[lpm_pkts] = *rte_pktmbuf_mtod_offset(pkts[i],
503                                         uint32_t *, offset);
504                         dst_ip[lpm_pkts] = rte_be_to_cpu_32(dst_ip[lpm_pkts]);
505                         lpm_pkts++;
506                 }
507         }
508
509         rte_lpm_lookup_bulk((struct rte_lpm *)rt_ctx, dst_ip, hop, lpm_pkts);
510
511         lpm_pkts = 0;
512
513         for (i = 0; i < nb_pkts; i++) {
514                 if (pkts[i]->ol_flags & RTE_MBUF_F_TX_SEC_OFFLOAD) {
515                         /* Read hop from the SA */
516                         pkt_hop = get_hop_for_offload_pkt(pkts[i], 0);
517                 } else {
518                         /* Need to use hop returned by lookup */
519                         pkt_hop = hop[lpm_pkts++];
520                 }
521
522                 if ((pkt_hop & RTE_LPM_LOOKUP_SUCCESS) == 0) {
523                         core_statistics[lcoreid].lpm4.miss++;
524                         free_pkts(&pkts[i], 1);
525                         continue;
526                 }
527                 send_single_packet(pkts[i], pkt_hop & 0xff, IPPROTO_IP);
528         }
529 }
530
531 static __rte_always_inline void
532 route6_pkts(struct rt_ctx *rt_ctx, struct rte_mbuf *pkts[], uint8_t nb_pkts)
533 {
534         int32_t hop[MAX_PKT_BURST * 2];
535         uint8_t dst_ip[MAX_PKT_BURST * 2][16];
536         uint8_t *ip6_dst;
537         int32_t pkt_hop = 0;
538         uint16_t i, offset;
539         uint16_t lpm_pkts = 0;
540         unsigned int lcoreid = rte_lcore_id();
541
542         if (nb_pkts == 0)
543                 return;
544
545         /* Need to do an LPM lookup for non-inline packets. Inline packets will
546          * have port ID in the SA
547          */
548
549         for (i = 0; i < nb_pkts; i++) {
550                 if (!(pkts[i]->ol_flags & RTE_MBUF_F_TX_SEC_OFFLOAD)) {
551                         /* Security offload not enabled. So an LPM lookup is
552                          * required to get the hop
553                          */
554                         offset = offsetof(struct ip6_hdr, ip6_dst);
555                         ip6_dst = rte_pktmbuf_mtod_offset(pkts[i], uint8_t *,
556                                         offset);
557                         memcpy(&dst_ip[lpm_pkts][0], ip6_dst, 16);
558                         lpm_pkts++;
559                 }
560         }
561
562         rte_lpm6_lookup_bulk_func((struct rte_lpm6 *)rt_ctx, dst_ip, hop,
563                         lpm_pkts);
564
565         lpm_pkts = 0;
566
567         for (i = 0; i < nb_pkts; i++) {
568                 if (pkts[i]->ol_flags & RTE_MBUF_F_TX_SEC_OFFLOAD) {
569                         /* Read hop from the SA */
570                         pkt_hop = get_hop_for_offload_pkt(pkts[i], 1);
571                 } else {
572                         /* Need to use hop returned by lookup */
573                         pkt_hop = hop[lpm_pkts++];
574                 }
575
576                 if (pkt_hop == -1) {
577                         core_statistics[lcoreid].lpm6.miss++;
578                         free_pkts(&pkts[i], 1);
579                         continue;
580                 }
581                 send_single_packet(pkts[i], pkt_hop & 0xff, IPPROTO_IPV6);
582         }
583 }
584
585 static __rte_always_inline void
586 drain_tx_buffers(struct lcore_conf *qconf)
587 {
588         struct buffer *buf;
589         uint32_t portid;
590
591         for (portid = 0; portid < RTE_MAX_ETHPORTS; portid++) {
592                 buf = &qconf->tx_mbufs[portid];
593                 if (buf->len == 0)
594                         continue;
595                 send_burst(qconf, buf->len, portid);
596                 buf->len = 0;
597         }
598 }
599
600 #endif /* _IPSEC_WORKER_H_ */