X-Git-Url: http://git.droids-corp.org/?a=blobdiff_plain;f=lib%2Flibrte_net%2Frte_net.c;h=6f45b1339e91e29de2e3a60c80b85e8116016e11;hb=c5a4428a783d173721ad0ed5486d058976737af8;hp=268892cc9afd0e2e24b729f4eddee5086f5bbe5c;hpb=f41b5156feb575b9cfeb177974c8e625e09b480f;p=dpdk.git diff --git a/lib/librte_net/rte_net.c b/lib/librte_net/rte_net.c index 268892cc9a..6f45b1339e 100644 --- a/lib/librte_net/rte_net.c +++ b/lib/librte_net/rte_net.c @@ -161,10 +161,10 @@ ptype_tunnel(uint16_t *proto, const struct rte_mbuf *m, return RTE_PTYPE_TUNNEL_GRE; } case IPPROTO_IPIP: - *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4); + *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4); return RTE_PTYPE_TUNNEL_IP; case IPPROTO_IPV6: - *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv6); + *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV6); return RTE_PTYPE_TUNNEL_IP; /* IP is also valid for IPv6 */ default: return 0; @@ -179,7 +179,7 @@ ip4_hlen(const struct rte_ipv4_hdr *hdr) } /* parse ipv6 extended headers, update offset and return next proto */ -int __rte_experimental +int rte_net_skip_ip6_ext(uint16_t proto, const struct rte_mbuf *m, uint32_t *off, int *frag) { @@ -249,7 +249,7 @@ uint32_t rte_net_get_ptype(const struct rte_mbuf *m, if ((layers & RTE_PTYPE_L2_MASK) == 0) return 0; - if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4)) + if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) goto l3; /* fast path if packet is IPv4 */ if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_VLAN)) { @@ -278,8 +278,8 @@ uint32_t rte_net_get_ptype(const struct rte_mbuf *m, } else if ((proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_MPLS)) || (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_MPLSM))) { unsigned int i; - const struct mpls_hdr *mh; - struct mpls_hdr mh_copy; + const struct rte_mpls_hdr *mh; + struct rte_mpls_hdr mh_copy; #define MAX_MPLS_HDR 5 for (i = 0; i < MAX_MPLS_HDR; i++) { @@ -299,7 +299,7 @@ l3: if ((layers & RTE_PTYPE_L3_MASK) == 0) return pkt_type; - if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4)) { + if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) { const struct rte_ipv4_hdr *ip4h; struct rte_ipv4_hdr ip4h_copy; @@ -322,7 +322,7 @@ l3: } proto = ip4h->next_proto_id; pkt_type |= ptype_l4(proto); - } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv6)) { + } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV6)) { const struct rte_ipv6_hdr *ip6h; struct rte_ipv6_hdr ip6h_copy; int frag = 0; @@ -357,7 +357,7 @@ l3: } if ((pkt_type & RTE_PTYPE_L4_MASK) == RTE_PTYPE_L4_UDP) { - hdr_lens->l4_len = sizeof(struct udp_hdr); + hdr_lens->l4_len = sizeof(struct rte_udp_hdr); return pkt_type; } else if ((pkt_type & RTE_PTYPE_L4_MASK) == RTE_PTYPE_L4_TCP) { const struct rte_tcp_hdr *th; @@ -431,7 +431,7 @@ l3: if ((layers & RTE_PTYPE_INNER_L3_MASK) == 0) return pkt_type; - if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4)) { + if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) { const struct rte_ipv4_hdr *ip4h; struct rte_ipv4_hdr ip4h_copy; @@ -454,7 +454,7 @@ l3: } proto = ip4h->next_proto_id; pkt_type |= ptype_inner_l4(proto); - } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv6)) { + } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV6)) { const struct rte_ipv6_hdr *ip6h; struct rte_ipv6_hdr ip6h_copy; int frag = 0; @@ -493,7 +493,7 @@ l3: } if ((pkt_type & RTE_PTYPE_INNER_L4_MASK) == RTE_PTYPE_INNER_L4_UDP) { - hdr_lens->inner_l4_len = sizeof(struct udp_hdr); + hdr_lens->inner_l4_len = sizeof(struct rte_udp_hdr); } else if ((pkt_type & RTE_PTYPE_INNER_L4_MASK) == RTE_PTYPE_INNER_L4_TCP) { const struct rte_tcp_hdr *th;