kni: prefer uint32_t to unsigned int
[dpdk.git] / lib / librte_eal / linuxapp / kni / kni_vhost.c
index 7bcc985..3ba0c57 100644 (file)
 #include <linux/sched.h>
 #include <linux/if_tun.h>
 #include <linux/version.h>
+#include <linux/file.h>
 
+#include "compat.h"
 #include "kni_dev.h"
 #include "kni_fifo.h"
 
 #define RX_BURST_SZ 4
 
-extern void put_unused_fd(unsigned int fd);
-
-#if LINUX_VERSION_CODE >= KERNEL_VERSION(3,7,0)
-extern struct file*
-sock_alloc_file(struct socket *sock,
-               int flags, const char *dname);
-
-extern int get_unused_fd_flags(unsigned flags);
-
-extern void fd_install(unsigned int fd, struct file *file);
-
+#if LINUX_VERSION_CODE >= KERNEL_VERSION(3, 7, 0)
 static int kni_sock_map_fd(struct socket *sock)
 {
        struct file *file;
        int fd = get_unused_fd_flags(0);
+
        if (fd < 0)
                return fd;
 
@@ -75,15 +68,19 @@ static struct proto kni_raw_proto = {
 };
 
 static inline int
-kni_vhost_net_tx(struct kni_dev *kni, struct iovec *iov,
-                unsigned offset, unsigned len)
+kni_vhost_net_tx(struct kni_dev *kni, struct msghdr *m,
+                uint32_t offset, uint32_t len)
 {
        struct rte_kni_mbuf *pkt_kva = NULL;
        struct rte_kni_mbuf *pkt_va = NULL;
        int ret;
 
-       KNI_DBG_TX("tx offset=%d, len=%d, iovlen=%d\n",
-                  offset, len, (int)iov->iov_len);
+       pr_debug("tx offset=%d, len=%d, iovlen=%d\n",
+#ifdef HAVE_IOV_ITER_MSGHDR
+                  offset, len, (int)m->msg_iter.iov->iov_len);
+#else
+                  offset, len, (int)m->msg_iov->iov_len);
+#endif
 
        /**
         * Check if it has at least one free entry in tx_q and
@@ -105,9 +102,14 @@ kni_vhost_net_tx(struct kni_dev *kni, struct iovec *iov,
 
                pkt_kva = (void *)pkt_va - kni->mbuf_va + kni->mbuf_kva;
                data_kva = pkt_kva->buf_addr + pkt_kva->data_off
-                          - kni->mbuf_va + kni->mbuf_kva;
+                       - kni->mbuf_va + kni->mbuf_kva;
+
+#ifdef HAVE_IOV_ITER_MSGHDR
+               copy_from_iter(data_kva, len, &m->msg_iter);
+#else
+               memcpy_fromiovecend(data_kva, m->msg_iov, offset, len);
+#endif
 
-               memcpy_fromiovecend(data_kva, iov, offset, len);
                if (unlikely(len < ETH_ZLEN)) {
                        memset(data_kva + len, 0, ETH_ZLEN - len);
                        len = ETH_ZLEN;
@@ -119,12 +121,12 @@ kni_vhost_net_tx(struct kni_dev *kni, struct iovec *iov,
                ret = kni_fifo_put(kni->tx_q, (void **)&pkt_va, 1);
                if (unlikely(ret != 1)) {
                        /* Failing should not happen */
-                       KNI_ERR("Fail to enqueue mbuf into tx_q\n");
+                       pr_err("Fail to enqueue mbuf into tx_q\n");
                        goto drop;
                }
        } else {
                /* Failing should not happen */
-               KNI_ERR("Fail to dequeue mbuf from alloc_q\n");
+               pr_err("Fail to dequeue mbuf from alloc_q\n");
                goto drop;
        }
 
@@ -142,13 +144,13 @@ drop:
 }
 
 static inline int
-kni_vhost_net_rx(struct kni_dev *kni, struct iovec *iov,
-                unsigned offset, unsigned len)
+kni_vhost_net_rx(struct kni_dev *kni, struct msghdr *m,
+                uint32_t offset, uint32_t len)
 {
        uint32_t pkt_len;
        struct rte_kni_mbuf *kva;
        struct rte_kni_mbuf *va;
-       void * data_kva;
+       void *data_kva;
        struct sk_buff *skb;
        struct kni_vhost_queue *q = kni->vhost_queue;
 
@@ -163,23 +165,31 @@ kni_vhost_net_rx(struct kni_dev *kni, struct iovec *iov,
        if (unlikely(skb == NULL))
                return 0;
 
-       kva = (struct rte_kni_mbuf*)skb->data;
+       kva = (struct rte_kni_mbuf *)skb->data;
 
        /* free skb to cache */
        skb->data = NULL;
-       if (unlikely(1 != kni_fifo_put(q->fifo, (void **)&skb, 1)))
+       if (unlikely(kni_fifo_put(q->fifo, (void **)&skb, 1) != 1))
                /* Failing should not happen */
-               KNI_ERR("Fail to enqueue entries into rx cache fifo\n");
+               pr_err("Fail to enqueue entries into rx cache fifo\n");
 
        pkt_len = kva->data_len;
        if (unlikely(pkt_len > len))
                goto drop;
 
-       KNI_DBG_RX("rx offset=%d, len=%d, pkt_len=%d, iovlen=%d\n",
-                  offset, len, pkt_len, (int)iov->iov_len);
+       pr_debug("rx offset=%d, len=%d, pkt_len=%d, iovlen=%d\n",
+#ifdef HAVE_IOV_ITER_MSGHDR
+                  offset, len, pkt_len, (int)m->msg_iter.iov->iov_len);
+#else
+                  offset, len, pkt_len, (int)m->msg_iov->iov_len);
+#endif
 
        data_kva = kva->buf_addr + kva->data_off - kni->mbuf_va + kni->mbuf_kva;
-       if (unlikely(memcpy_toiovecend(iov, data_kva, offset, pkt_len)))
+#ifdef HAVE_IOV_ITER_MSGHDR
+       if (unlikely(copy_to_iter(data_kva, pkt_len, &m->msg_iter)))
+#else
+       if (unlikely(memcpy_toiovecend(m->msg_iov, data_kva, offset, pkt_len)))
+#endif
                goto drop;
 
        /* Update statistics */
@@ -187,12 +197,12 @@ kni_vhost_net_rx(struct kni_dev *kni, struct iovec *iov,
        kni->stats.rx_packets++;
 
        /* enqueue mbufs into free_q */
-       va = (void*)kva - kni->mbuf_kva + kni->mbuf_va;
-       if (unlikely(1 != kni_fifo_put(kni->free_q, (void **)&va, 1)))
+       va = (void *)kva - kni->mbuf_kva + kni->mbuf_va;
+       if (unlikely(kni_fifo_put(kni->free_q, (void **)&va, 1) != 1))
                /* Failing should not happen */
-               KNI_ERR("Fail to enqueue entries into free_q\n");
+               pr_err("Fail to enqueue entries into free_q\n");
 
-       KNI_DBG_RX("receive done %d\n", pkt_len);
+       pr_debug("receive done %d\n", pkt_len);
 
        return pkt_len;
 
@@ -203,29 +213,43 @@ drop:
        return 0;
 }
 
-static unsigned int
-kni_sock_poll(struct file *file, struct socket *sock, poll_table * wait)
+static uint32_t
+kni_sock_poll(struct file *file, struct socket *sock, poll_table *wait)
 {
        struct kni_vhost_queue *q =
                container_of(sock->sk, struct kni_vhost_queue, sk);
        struct kni_dev *kni;
-       unsigned int mask = 0;
+       uint32_t mask = 0;
 
        if (unlikely(q == NULL || q->kni == NULL))
                return POLLERR;
 
        kni = q->kni;
-       KNI_DBG("start kni_poll on group %d, wq 0x%16llx\n",
+#if LINUX_VERSION_CODE >= KERNEL_VERSION(2, 6, 35)
+       pr_debug("start kni_poll on group %d, wq 0x%16llx\n",
                  kni->group_id, (uint64_t)sock->wq);
+#else
+       pr_debug("start kni_poll on group %d, wait at 0x%16llx\n",
+                 kni->group_id, (uint64_t)&sock->wait);
+#endif
 
+#if LINUX_VERSION_CODE >= KERNEL_VERSION(2, 6, 35)
        poll_wait(file, &sock->wq->wait, wait);
+#else
+       poll_wait(file, &sock->wait, wait);
+#endif
 
        if (kni_fifo_count(kni->rx_q) > 0)
                mask |= POLLIN | POLLRDNORM;
 
        if (sock_writeable(&q->sk) ||
-           (!test_and_set_bit(SOCK_ASYNC_NOSPACE, &q->sock->flags) &&
-            sock_writeable(&q->sk)))
+#ifdef SOCKWQ_ASYNC_NOSPACE
+               (!test_and_set_bit(SOCKWQ_ASYNC_NOSPACE, &q->sock->flags) &&
+                       sock_writeable(&q->sk)))
+#else
+               (!test_and_set_bit(SOCK_ASYNC_NOSPACE, &q->sock->flags) &&
+                       sock_writeable(&q->sk)))
+#endif
                mask |= POLLOUT | POLLWRNORM;
 
        return mask;
@@ -238,7 +262,7 @@ kni_vhost_enqueue(struct kni_dev *kni, struct kni_vhost_queue *q,
        struct rte_kni_mbuf *kva;
 
        kva = (void *)(va) - kni->mbuf_va + kni->mbuf_kva;
-       (skb)->data = (unsigned char*)kva;
+       (skb)->data = (unsigned char *)kva;
        (skb)->len = kva->data_len;
        skb_queue_tail(&q->sk.sk_receive_queue, skb);
 }
@@ -248,6 +272,7 @@ kni_vhost_enqueue_burst(struct kni_dev *kni, struct kni_vhost_queue *q,
          struct sk_buff **skb, struct rte_kni_mbuf **va)
 {
        int i;
+
        for (i = 0; i < RX_BURST_SZ; skb++, va++, i++)
                kni_vhost_enqueue(kni, q, *skb, *va);
 }
@@ -256,9 +281,9 @@ int
 kni_chk_vhost_rx(struct kni_dev *kni)
 {
        struct kni_vhost_queue *q = kni->vhost_queue;
-       unsigned nb_in, nb_mbuf, nb_skb;
-       const unsigned BURST_MASK = RX_BURST_SZ - 1;
-       unsigned nb_burst, nb_backlog, i;
+       uint32_t nb_in, nb_mbuf, nb_skb;
+       const uint32_t BURST_MASK = RX_BURST_SZ - 1;
+       uint32_t nb_burst, nb_backlog, i;
        struct sk_buff *skb[RX_BURST_SZ];
        struct rte_kni_mbuf *va[RX_BURST_SZ];
 
@@ -274,20 +299,18 @@ kni_chk_vhost_rx(struct kni_dev *kni)
        nb_mbuf = kni_fifo_count(kni->rx_q);
 
        nb_in = min(nb_mbuf, nb_skb);
-       nb_in = min(nb_in, (unsigned)RX_BURST_SZ);
+       nb_in = min_t(uint32_t, nb_in, RX_BURST_SZ);
        nb_burst   = (nb_in & ~BURST_MASK);
        nb_backlog = (nb_in & BURST_MASK);
 
        /* enqueue skb_queue per BURST_SIZE bulk */
-       if (0 != nb_burst) {
-               if (unlikely(RX_BURST_SZ != kni_fifo_get(
-                                    kni->rx_q, (void **)&va,
-                                    RX_BURST_SZ)))
+       if (nb_burst != 0) {
+               if (unlikely(kni_fifo_get(kni->rx_q, (void **)&va, RX_BURST_SZ)
+                               != RX_BURST_SZ))
                        goto except;
 
-               if (unlikely(RX_BURST_SZ != kni_fifo_get(
-                                    q->fifo, (void **)&skb,
-                                    RX_BURST_SZ)))
+               if (unlikely(kni_fifo_get(q->fifo, (void **)&skb, RX_BURST_SZ)
+                               != RX_BURST_SZ))
                        goto except;
 
                kni_vhost_enqueue_burst(kni, q, skb, va);
@@ -295,12 +318,10 @@ kni_chk_vhost_rx(struct kni_dev *kni)
 
        /* all leftover, do one by one */
        for (i = 0; i < nb_backlog; ++i) {
-               if (unlikely(1 != kni_fifo_get(
-                                    kni->rx_q,(void **)&va, 1)))
+               if (unlikely(kni_fifo_get(kni->rx_q, (void **)&va, 1) != 1))
                        goto except;
 
-               if (unlikely(1 != kni_fifo_get(
-                                    q->fifo, (void **)&skb, 1)))
+               if (unlikely(kni_fifo_get(q->fifo, (void **)&skb, 1) != 1))
                        goto except;
 
                kni_vhost_enqueue(kni, q, *skb, *va);
@@ -311,7 +332,7 @@ kni_chk_vhost_rx(struct kni_dev *kni)
            ((nb_mbuf < RX_BURST_SZ) && (nb_mbuf != 0))) {
                wake_up_interruptible_poll(sk_sleep(&q->sk),
                                   POLLIN | POLLRDNORM | POLLRDBAND);
-               KNI_DBG_RX("RX CHK KICK nb_mbuf %d, nb_skb %d, nb_in %d\n",
+               pr_debug("RX CHK KICK nb_mbuf %d, nb_skb %d, nb_in %d\n",
                           nb_mbuf, nb_skb, nb_in);
        }
 
@@ -319,17 +340,22 @@ kni_chk_vhost_rx(struct kni_dev *kni)
 
 except:
        /* Failing should not happen */
-       KNI_ERR("Fail to enqueue fifo, it shouldn't happen \n");
+       pr_err("Fail to enqueue fifo, it shouldn't happen\n");
        BUG_ON(1);
 
        return 0;
 }
 
 static int
+#ifdef HAVE_KIOCB_MSG_PARAM
 kni_sock_sndmsg(struct kiocb *iocb, struct socket *sock,
           struct msghdr *m, size_t total_len)
+#else
+kni_sock_sndmsg(struct socket *sock,
+          struct msghdr *m, size_t total_len)
+#endif /* HAVE_KIOCB_MSG_PARAM */
 {
-       struct kni_vhost_queue *q =
+       struct kni_vhost_queue *q =
                container_of(sock->sk, struct kni_vhost_queue, sk);
        int vnet_hdr_len = 0;
        unsigned long len = total_len;
@@ -337,8 +363,12 @@ kni_sock_sndmsg(struct kiocb *iocb, struct socket *sock,
        if (unlikely(q == NULL || q->kni == NULL))
                return 0;
 
-       KNI_DBG_TX("kni_sndmsg len %ld, flags 0x%08x, nb_iov %d\n",
+       pr_debug("kni_sndmsg len %ld, flags 0x%08x, nb_iov %d\n",
+#ifdef HAVE_IOV_ITER_MSGHDR
+                  len, q->flags, (int)m->msg_iter.iov->iov_len);
+#else
                   len, q->flags, (int)m->msg_iovlen);
+#endif
 
 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
        if (likely(q->flags & IFF_VNET_HDR)) {
@@ -352,12 +382,17 @@ kni_sock_sndmsg(struct kiocb *iocb, struct socket *sock,
        if (unlikely(len < ETH_HLEN + q->vnet_hdr_sz))
                return -EINVAL;
 
-       return kni_vhost_net_tx(q->kni, m->msg_iov, vnet_hdr_len, len);
+       return kni_vhost_net_tx(q->kni, m, vnet_hdr_len, len);
 }
 
 static int
+#ifdef HAVE_KIOCB_MSG_PARAM
 kni_sock_rcvmsg(struct kiocb *iocb, struct socket *sock,
           struct msghdr *m, size_t len, int flags)
+#else
+kni_sock_rcvmsg(struct socket *sock,
+          struct msghdr *m, size_t len, int flags)
+#endif /* HAVE_KIOCB_MSG_PARAM */
 {
        int vnet_hdr_len = 0;
        int pkt_len = 0;
@@ -375,48 +410,53 @@ kni_sock_rcvmsg(struct kiocb *iocb, struct socket *sock,
 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
        if (likely(q->flags & IFF_VNET_HDR)) {
                vnet_hdr_len = q->vnet_hdr_sz;
-               if ((len -= vnet_hdr_len) < 0)
+               len -= vnet_hdr_len;
+               if (len < 0)
                        return -EINVAL;
        }
 #endif
 
-       if (unlikely(0 == (pkt_len = kni_vhost_net_rx(q->kni,
-               m->msg_iov, vnet_hdr_len, len))))
+       pkt_len = kni_vhost_net_rx(q->kni, m, vnet_hdr_len, len);
+       if (unlikely(pkt_len == 0))
                return 0;
 
 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
        /* no need to copy hdr when no pkt received */
+#ifdef HAVE_IOV_ITER_MSGHDR
+       if (unlikely(copy_to_iter((void *)&vnet_hdr, vnet_hdr_len,
+               &m->msg_iter)))
+#else
        if (unlikely(memcpy_toiovecend(m->msg_iov,
                (void *)&vnet_hdr, 0, vnet_hdr_len)))
+#endif /* HAVE_IOV_ITER_MSGHDR */
                return -EFAULT;
-#endif
-       KNI_DBG_RX("kni_rcvmsg expect_len %ld, flags 0x%08x, pkt_len %d\n",
+#endif /* RTE_KNI_VHOST_VNET_HDR_EN */
+       pr_debug("kni_rcvmsg expect_len %ld, flags 0x%08x, pkt_len %d\n",
                   (unsigned long)len, q->flags, pkt_len);
 
-       return (pkt_len + vnet_hdr_len);
+       return pkt_len + vnet_hdr_len;
 }
 
 /* dummy tap like ioctl */
 static int
-kni_sock_ioctl(struct socket *sock, unsigned int cmd,
-             unsigned long arg)
+kni_sock_ioctl(struct socket *sock, uint32_t cmd, unsigned long arg)
 {
        void __user *argp = (void __user *)arg;
        struct ifreq __user *ifr = argp;
-       unsigned int __user *up = argp;
+       uint32_t __user *up = argp;
        struct kni_vhost_queue *q =
                container_of(sock->sk, struct kni_vhost_queue, sk);
        struct kni_dev *kni;
-       unsigned int u;
+       uint32_t u;
        int __user *sp = argp;
        int s;
        int ret;
 
-       KNI_DBG("tap ioctl cmd 0x%08x\n", cmd);
+       pr_debug("tap ioctl cmd 0x%08x\n", cmd);
 
        switch (cmd) {
        case TUNSETIFF:
-               KNI_DBG("TUNSETIFF\n");
+               pr_debug("TUNSETIFF\n");
                /* ignore the name, just look at flags */
                if (get_user(u, &ifr->ifr_flags))
                        return -EFAULT;
@@ -430,7 +470,7 @@ kni_sock_ioctl(struct socket *sock, unsigned int cmd,
                return ret;
 
        case TUNGETIFF:
-               KNI_DBG("TUNGETIFF\n");
+               pr_debug("TUNGETIFF\n");
                rcu_read_lock_bh();
                kni = rcu_dereference_bh(q->kni);
                if (kni)
@@ -441,14 +481,14 @@ kni_sock_ioctl(struct socket *sock, unsigned int cmd,
                        return -ENOLINK;
 
                ret = 0;
-               if (copy_to_user(&ifr->ifr_name, kni->net_dev->name, IFNAMSIZ) ||
-                   put_user(q->flags, &ifr->ifr_flags))
+               if (copy_to_user(&ifr->ifr_name, kni->net_dev->name, IFNAMSIZ)
+                               || put_user(q->flags, &ifr->ifr_flags))
                        ret = -EFAULT;
                dev_put(kni->net_dev);
                return ret;
 
        case TUNGETFEATURES:
-               KNI_DBG("TUNGETFEATURES\n");
+               pr_debug("TUNGETFEATURES\n");
                u = IFF_TAP | IFF_NO_PI;
 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
                u |= IFF_VNET_HDR;
@@ -458,7 +498,7 @@ kni_sock_ioctl(struct socket *sock, unsigned int cmd,
                return 0;
 
        case TUNSETSNDBUF:
-               KNI_DBG("TUNSETSNDBUF\n");
+               pr_debug("TUNSETSNDBUF\n");
                if (get_user(u, up))
                        return -EFAULT;
 
@@ -469,7 +509,7 @@ kni_sock_ioctl(struct socket *sock, unsigned int cmd,
                s = q->vnet_hdr_sz;
                if (put_user(s, sp))
                        return -EFAULT;
-               KNI_DBG("TUNGETVNETHDRSZ %d\n", s);
+               pr_debug("TUNGETVNETHDRSZ %d\n", s);
                return 0;
 
        case TUNSETVNETHDRSZ:
@@ -478,12 +518,12 @@ kni_sock_ioctl(struct socket *sock, unsigned int cmd,
                if (s < (int)sizeof(struct virtio_net_hdr))
                        return -EINVAL;
 
-               KNI_DBG("TUNSETVNETHDRSZ %d\n", s);
+               pr_debug("TUNSETVNETHDRSZ %d\n", s);
                q->vnet_hdr_sz = s;
                return 0;
 
        case TUNSETOFFLOAD:
-               KNI_DBG("TUNSETOFFLOAD %lx\n", arg);
+               pr_debug("TUNSETOFFLOAD %lx\n", arg);
 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
                /* not support any offload yet */
                if (!(q->flags & IFF_VNET_HDR))
@@ -495,26 +535,26 @@ kni_sock_ioctl(struct socket *sock, unsigned int cmd,
 #endif
 
        default:
-               KNI_DBG("NOT SUPPORT\n");
+               pr_debug("NOT SUPPORT\n");
                return -EINVAL;
        }
 }
 
 static int
-kni_sock_compat_ioctl(struct socket *sock, unsigned int cmd,
+kni_sock_compat_ioctl(struct socket *sock, uint32_t cmd,
                     unsigned long arg)
 {
        /* 32 bits app on 64 bits OS to be supported later */
-       KNI_PRINT("Not implemented.\n");
+       pr_debug("Not implemented.\n");
 
        return -EINVAL;
 }
 
 #define KNI_VHOST_WAIT_WQ_SAFE()                        \
-do {                                                   \
+do {                                                   \
        while ((BE_FINISH | BE_STOP) == kni->vq_status) \
-               msleep(1);                              \
-}while(0)                                               \
+               msleep(1);                              \
+} while (0)                                            \
 
 
 static int
@@ -527,7 +567,8 @@ kni_sock_release(struct socket *sock)
        if (q == NULL)
                return 0;
 
-       if (NULL != (kni = q->kni)) {
+       kni = q->kni;
+       if (kni != NULL) {
                kni->vq_status = BE_STOP;
                KNI_VHOST_WAIT_WQ_SAFE();
                kni->vhost_queue = NULL;
@@ -542,18 +583,17 @@ kni_sock_release(struct socket *sock)
 
        sock_put(&q->sk);
 
-       KNI_DBG("dummy sock release done\n");
+       pr_debug("dummy sock release done\n");
 
        return 0;
 }
 
 int
-kni_sock_getname (struct socket *sock,
-                 struct sockaddr *addr,
-                 int *sockaddr_len, int peer)
+kni_sock_getname(struct socket *sock, struct sockaddr *addr,
+               int *sockaddr_len, int peer)
 {
-       KNI_DBG("dummy sock getname\n");
-       ((struct sockaddr_ll*)addr)->sll_family = AF_PACKET;
+       pr_debug("dummy sock getname\n");
+       ((struct sockaddr_ll *)addr)->sll_family = AF_PACKET;
        return 0;
 }
 
@@ -573,8 +613,11 @@ kni_sk_write_space(struct sock *sk)
        wait_queue_head_t *wqueue;
 
        if (!sock_writeable(sk) ||
-           !test_and_clear_bit(SOCK_ASYNC_NOSPACE,
-                               &sk->sk_socket->flags))
+#ifdef SOCKWQ_ASYNC_NOSPACE
+           !test_and_clear_bit(SOCKWQ_ASYNC_NOSPACE, &sk->sk_socket->flags))
+#else
+           !test_and_clear_bit(SOCK_ASYNC_NOSPACE, &sk->sk_socket->flags))
+#endif
                return;
        wqueue = sk_sleep(sk);
        if (wqueue && waitqueue_active(wqueue))
@@ -593,7 +636,7 @@ kni_sk_destruct(struct sock *sk)
 
        /* make sure there's no packet in buffer */
        while (skb_dequeue(&sk->sk_receive_queue) != NULL)
-              ;
+               ;
 
        mb();
 
@@ -620,8 +663,14 @@ kni_vhost_backend_init(struct kni_dev *kni)
        if (kni->vhost_queue != NULL)
                return -1;
 
-       if (!(q = (struct kni_vhost_queue *)sk_alloc(
-                     net, AF_UNSPEC, GFP_KERNEL, &kni_raw_proto)))
+#if LINUX_VERSION_CODE >= KERNEL_VERSION(4, 2, 0)
+       q = (struct kni_vhost_queue *)sk_alloc(net, AF_UNSPEC, GFP_KERNEL,
+                       &kni_raw_proto, 0);
+#else
+       q = (struct kni_vhost_queue *)sk_alloc(net, AF_UNSPEC, GFP_KERNEL,
+                       &kni_raw_proto);
+#endif
+       if (!q)
                return -ENOMEM;
 
        err = sock_create_lite(AF_UNSPEC, SOCK_RAW, IPPROTO_RAW, &q->sock);
@@ -635,14 +684,13 @@ kni_vhost_backend_init(struct kni_dev *kni)
        }
 
        /* cache init */
-       q->cache = (struct sk_buff*)
-               kzalloc(RTE_KNI_VHOST_MAX_CACHE_SIZE * sizeof(struct sk_buff),
-                       GFP_KERNEL);
+       q->cache = kzalloc(
+               RTE_KNI_VHOST_MAX_CACHE_SIZE * sizeof(struct sk_buff),
+               GFP_KERNEL);
        if (!q->cache)
                goto free_fd;
 
-       fifo = (struct rte_kni_fifo*)
-               kzalloc(RTE_KNI_VHOST_MAX_CACHE_SIZE * sizeof(void *)
+       fifo = kzalloc(RTE_KNI_VHOST_MAX_CACHE_SIZE * sizeof(void *)
                        + sizeof(struct rte_kni_fifo), GFP_KERNEL);
        if (!fifo)
                goto free_cache;
@@ -651,7 +699,7 @@ kni_vhost_backend_init(struct kni_dev *kni)
 
        for (i = 0; i < RTE_KNI_VHOST_MAX_CACHE_SIZE; i++) {
                elem = &q->cache[i];
-               kni_fifo_put(fifo, (void**)&elem, 1);
+               kni_fifo_put(fifo, (void **)&elem, 1);
        }
        q->fifo = fifo;
 
@@ -681,10 +729,15 @@ kni_vhost_backend_init(struct kni_dev *kni)
 
        kni->vq_status = BE_START;
 
-       KNI_DBG("backend init sockfd=%d, sock->wq=0x%16llx,"
-                 "sk->sk_wq=0x%16llx",
+#if LINUX_VERSION_CODE >= KERNEL_VERSION(2, 6, 35)
+       pr_debug("backend init sockfd=%d, sock->wq=0x%16llx,sk->sk_wq=0x%16llx",
                  q->sockfd, (uint64_t)q->sock->wq,
                  (uint64_t)q->sk.sk_wq);
+#else
+       pr_debug("backend init sockfd=%d, sock->wait at 0x%16llx,sk->sk_sleep=0x%16llx",
+                 q->sockfd, (uint64_t)&q->sock->wait,
+                 (uint64_t)q->sk.sk_sleep);
+#endif
 
        return 0;
 
@@ -704,7 +757,7 @@ free_sock:
        q->sock = NULL;
 
 free_sk:
-       sk_free((struct sock*)q);
+       sk_free((struct sock *)q);
 
        return err;
 }
@@ -717,6 +770,7 @@ show_sock_fd(struct device *dev, struct device_attribute *attr,
        struct net_device *net_dev = container_of(dev, struct net_device, dev);
        struct kni_dev *kni = netdev_priv(net_dev);
        int sockfd = -1;
+
        if (kni->vhost_queue != NULL)
                sockfd = kni->vhost_queue->sockfd;
        return snprintf(buf, 10, "%d\n", sockfd);
@@ -728,6 +782,7 @@ show_sock_en(struct device *dev, struct device_attribute *attr,
 {
        struct net_device *net_dev = container_of(dev, struct net_device, dev);
        struct kni_dev *kni = netdev_priv(net_dev);
+
        return snprintf(buf, 10, "%u\n", (kni->vhost_queue == NULL ? 0 : 1));
 }
 
@@ -740,7 +795,7 @@ set_sock_en(struct device *dev, struct device_attribute *attr,
        unsigned long en;
        int err = 0;
 
-       if (0 != strict_strtoul(buf, 0, &en))
+       if (kstrtoul(buf, 0, &en) != 0)
                return -EINVAL;
 
        if (en)
@@ -754,7 +809,7 @@ static DEVICE_ATTR(sock_en, S_IRUGO | S_IWUSR, show_sock_en, set_sock_en);
 static struct attribute *dev_attrs[] = {
        &dev_attr_sock_fd.attr,
        &dev_attr_sock_en.attr,
-        NULL,
+       NULL,
 };
 
 static const struct attribute_group dev_attr_grp = {
@@ -772,7 +827,7 @@ kni_vhost_backend_release(struct kni_dev *kni)
        /* dettach from kni */
        q->kni = NULL;
 
-       KNI_DBG("release backend done\n");
+       pr_debug("release backend done\n");
 
        return 0;
 }
@@ -787,8 +842,7 @@ kni_vhost_init(struct kni_dev *kni)
 
        kni->vq_status = BE_STOP;
 
-       KNI_DBG("kni_vhost_init done\n");
+       pr_debug("kni_vhost_init done\n");
 
        return 0;
 }
-