X-Git-Url: http://git.droids-corp.org/?a=blobdiff_plain;f=lib%2Flibrte_net%2Frte_net.c;h=6f45b1339e91e29de2e3a60c80b85e8116016e11;hb=699a225b3861bd1a02872ed389a317f2d18c8f3a;hp=e1868f7dab43fc1fc8deae7d25fe3bda451e25d6;hpb=e73e3547ce54d7ae48dff82d87efac0b7a30692a;p=dpdk.git diff --git a/lib/librte_net/rte_net.c b/lib/librte_net/rte_net.c index e1868f7dab..6f45b1339e 100644 --- a/lib/librte_net/rte_net.c +++ b/lib/librte_net/rte_net.c @@ -161,10 +161,10 @@ ptype_tunnel(uint16_t *proto, const struct rte_mbuf *m, return RTE_PTYPE_TUNNEL_GRE; } case IPPROTO_IPIP: - *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4); + *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4); return RTE_PTYPE_TUNNEL_IP; case IPPROTO_IPV6: - *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv6); + *proto = rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV6); return RTE_PTYPE_TUNNEL_IP; /* IP is also valid for IPv6 */ default: return 0; @@ -179,7 +179,7 @@ ip4_hlen(const struct rte_ipv4_hdr *hdr) } /* parse ipv6 extended headers, update offset and return next proto */ -int __rte_experimental +int rte_net_skip_ip6_ext(uint16_t proto, const struct rte_mbuf *m, uint32_t *off, int *frag) { @@ -249,7 +249,7 @@ uint32_t rte_net_get_ptype(const struct rte_mbuf *m, if ((layers & RTE_PTYPE_L2_MASK) == 0) return 0; - if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4)) + if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) goto l3; /* fast path if packet is IPv4 */ if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_VLAN)) { @@ -278,8 +278,8 @@ uint32_t rte_net_get_ptype(const struct rte_mbuf *m, } else if ((proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_MPLS)) || (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_MPLSM))) { unsigned int i; - const struct mpls_hdr *mh; - struct mpls_hdr mh_copy; + const struct rte_mpls_hdr *mh; + struct rte_mpls_hdr mh_copy; #define MAX_MPLS_HDR 5 for (i = 0; i < MAX_MPLS_HDR; i++) { @@ -299,7 +299,7 @@ l3: if ((layers & RTE_PTYPE_L3_MASK) == 0) return pkt_type; - if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4)) { + if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) { const struct rte_ipv4_hdr *ip4h; struct rte_ipv4_hdr ip4h_copy; @@ -322,7 +322,7 @@ l3: } proto = ip4h->next_proto_id; pkt_type |= ptype_l4(proto); - } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv6)) { + } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV6)) { const struct rte_ipv6_hdr *ip6h; struct rte_ipv6_hdr ip6h_copy; int frag = 0; @@ -431,7 +431,7 @@ l3: if ((layers & RTE_PTYPE_INNER_L3_MASK) == 0) return pkt_type; - if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv4)) { + if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV4)) { const struct rte_ipv4_hdr *ip4h; struct rte_ipv4_hdr ip4h_copy; @@ -454,7 +454,7 @@ l3: } proto = ip4h->next_proto_id; pkt_type |= ptype_inner_l4(proto); - } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPv6)) { + } else if (proto == rte_cpu_to_be_16(RTE_ETHER_TYPE_IPV6)) { const struct rte_ipv6_hdr *ip6h; struct rte_ipv6_hdr ip6h_copy; int frag = 0;