update Intel copyright years to 2014
[dpdk.git] / lib / librte_eal / linuxapp / kni / kni_vhost.c
1 /*-
2  * GPL LICENSE SUMMARY
3  * 
4  *   Copyright(c) 2010-2014 Intel Corporation. All rights reserved.
5  * 
6  *   This program is free software; you can redistribute it and/or modify
7  *   it under the terms of version 2 of the GNU General Public License as
8  *   published by the Free Software Foundation.
9  * 
10  *   This program is distributed in the hope that it will be useful, but
11  *   WITHOUT ANY WARRANTY; without even the implied warranty of
12  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  *   General Public License for more details.
14  * 
15  *   You should have received a copy of the GNU General Public License
16  *   along with this program; if not, write to the Free Software
17  *   Foundation, Inc., 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
18  *   The full GNU General Public License is included in this distribution
19  *   in the file called LICENSE.GPL.
20  * 
21  *   Contact Information:
22  *   Intel Corporation
23  */
24
25 #include <linux/module.h>
26 #include <linux/net.h>
27 #include <net/sock.h>
28 #include <linux/virtio_net.h>
29 #include <linux/wait.h>
30 #include <linux/mm.h>
31 #include <linux/nsproxy.h>
32 #include <linux/sched.h>
33 #include <linux/if_tun.h>
34 #include <linux/version.h>
35
36 #include "kni_dev.h" 
37 #include "kni_fifo.h"
38
39 #define RX_BURST_SZ 4
40
41 extern void put_unused_fd(unsigned int fd);
42
43 #if LINUX_VERSION_CODE >= KERNEL_VERSION(3,7,0)
44 extern struct file*
45 sock_alloc_file(struct socket *sock, 
46                 int flags, const char *dname);
47
48 extern int get_unused_fd_flags(unsigned flags);
49
50 extern void fd_install(unsigned int fd, struct file *file);
51
52 static int kni_sock_map_fd(struct socket *sock)
53 {
54         struct file *file;
55         int fd = get_unused_fd_flags(0);
56         if (fd < 0)
57                 return fd;
58
59         file = sock_alloc_file(sock, 0, NULL);
60         if (IS_ERR(file)) {
61                 put_unused_fd(fd);
62                 return PTR_ERR(file);
63         }
64         fd_install(fd, file);
65         return fd;
66 }
67 #else
68 #define kni_sock_map_fd(s)             sock_map_fd(s, 0)
69 #endif
70
71 static struct proto kni_raw_proto = {
72         .name = "kni_vhost",
73         .owner = THIS_MODULE,
74         .obj_size = sizeof(struct kni_vhost_queue),
75 };
76
77 static inline int
78 kni_vhost_net_tx(struct kni_dev *kni, struct iovec *iov, 
79                  unsigned offset, unsigned len)
80 {
81         struct rte_kni_mbuf *pkt_kva = NULL;
82         struct rte_kni_mbuf *pkt_va = NULL;
83         int ret;
84
85         KNI_DBG_TX("tx offset=%d, len=%d, iovlen=%d\n", 
86                    offset, len, (int)iov->iov_len);
87
88         /**
89          * Check if it has at least one free entry in tx_q and
90          * one entry in alloc_q.
91          */
92         if (kni_fifo_free_count(kni->tx_q) == 0 ||
93             kni_fifo_count(kni->alloc_q) == 0) {
94                 /**
95                  * If no free entry in tx_q or no entry in alloc_q,
96                  * drops skb and goes out.
97                  */
98                 goto drop;
99         }
100
101         /* dequeue a mbuf from alloc_q */
102         ret = kni_fifo_get(kni->alloc_q, (void **)&pkt_va, 1);
103         if (likely(ret == 1)) {
104                 void *data_kva;
105
106                 pkt_kva = (void *)pkt_va - kni->mbuf_va + kni->mbuf_kva;
107                 data_kva = pkt_kva->data - kni->mbuf_va + kni->mbuf_kva;
108
109                 memcpy_fromiovecend(data_kva, iov, offset, len);
110                 if (unlikely(len < ETH_ZLEN)) {
111                         memset(data_kva + len, 0, ETH_ZLEN - len);
112                         len = ETH_ZLEN;
113                 }
114                 pkt_kva->pkt_len = len;
115                 pkt_kva->data_len = len;
116
117                 /* enqueue mbuf into tx_q */
118                 ret = kni_fifo_put(kni->tx_q, (void **)&pkt_va, 1);
119                 if (unlikely(ret != 1)) {
120                         /* Failing should not happen */
121                         KNI_ERR("Fail to enqueue mbuf into tx_q\n");
122                         goto drop;
123                 }
124         } else {
125                 /* Failing should not happen */
126                 KNI_ERR("Fail to dequeue mbuf from alloc_q\n");
127                 goto drop;
128         }
129
130         /* update statistics */
131         kni->stats.tx_bytes += len;
132         kni->stats.tx_packets++;
133
134         return 0;
135
136 drop:
137         /* update statistics */
138         kni->stats.tx_dropped++;
139
140         return 0;
141 }
142
143 static inline int
144 kni_vhost_net_rx(struct kni_dev *kni, struct iovec *iov, 
145                  unsigned offset, unsigned len)
146 {
147         uint32_t pkt_len;
148         struct rte_kni_mbuf *kva;
149         struct rte_kni_mbuf *va;
150         void * data_kva;
151         struct sk_buff *skb;
152         struct kni_vhost_queue *q = kni->vhost_queue;
153
154         if (unlikely(q == NULL))
155                 return 0;
156
157         /* ensure at least one entry in free_q */
158         if (unlikely(kni_fifo_free_count(kni->free_q) == 0))
159                 return 0;
160
161         skb = skb_dequeue(&q->sk.sk_receive_queue);
162         if (unlikely(skb == NULL))
163                 return 0;
164
165         kva = (struct rte_kni_mbuf*)skb->data;
166         
167         /* free skb to cache */
168         skb->data = NULL;
169         if (unlikely(1 != kni_fifo_put(q->fifo, (void **)&skb, 1)))
170                 /* Failing should not happen */
171                 KNI_ERR("Fail to enqueue entries into rx cache fifo\n");
172
173         pkt_len = kva->data_len;
174         if (unlikely(pkt_len > len))
175                 goto drop;
176
177         KNI_DBG_RX("rx offset=%d, len=%d, pkt_len=%d, iovlen=%d\n", 
178                    offset, len, pkt_len, (int)iov->iov_len);
179
180         data_kva = kva->data - kni->mbuf_va + kni->mbuf_kva;            
181         if (unlikely(memcpy_toiovecend(iov, data_kva, offset, pkt_len)))
182                 goto drop;
183
184         /* Update statistics */
185         kni->stats.rx_bytes += pkt_len;
186         kni->stats.rx_packets++;        
187
188         /* enqueue mbufs into free_q */
189         va = (void*)kva - kni->mbuf_kva + kni->mbuf_va;
190         if (unlikely(1 != kni_fifo_put(kni->free_q, (void **)&va, 1)))
191                 /* Failing should not happen */
192                 KNI_ERR("Fail to enqueue entries into free_q\n");
193
194         KNI_DBG_RX("receive done %d\n", pkt_len);
195
196         return pkt_len;
197
198 drop:
199         /* Update drop statistics */
200         kni->stats.rx_dropped++;
201
202         return 0;
203 }
204
205 static unsigned int 
206 kni_sock_poll(struct file *file, struct socket *sock, poll_table * wait)
207 {
208         struct kni_vhost_queue *q = 
209                 container_of(sock->sk, struct kni_vhost_queue, sk);
210         struct kni_dev *kni;
211         unsigned int mask = 0;
212
213         if (unlikely(q == NULL || q->kni == NULL))
214                 return POLLERR;
215
216         kni = q->kni;
217         KNI_DBG("start kni_poll on group %d, wq 0x%16llx\n", 
218                   kni->group_id, (uint64_t)sock->wq);
219
220         poll_wait(file, &sock->wq->wait, wait);
221
222         if (kni_fifo_count(kni->rx_q) > 0)
223                 mask |= POLLIN | POLLRDNORM;
224
225         if (sock_writeable(&q->sk) ||
226             (!test_and_set_bit(SOCK_ASYNC_NOSPACE, &q->sock->flags) &&
227              sock_writeable(&q->sk)))
228                 mask |= POLLOUT | POLLWRNORM;
229
230         return mask;
231 }
232
233 static inline void
234 kni_vhost_enqueue(struct kni_dev *kni, struct kni_vhost_queue *q, 
235                   struct sk_buff *skb, struct rte_kni_mbuf *va)
236 {
237         struct rte_kni_mbuf *kva;
238
239         kva = (void *)(va) - kni->mbuf_va + kni->mbuf_kva;             
240         (skb)->data = (unsigned char*)kva;
241         (skb)->len = kva->data_len;
242         skb_queue_tail(&q->sk.sk_receive_queue, skb);   
243 }
244
245 static inline void 
246 kni_vhost_enqueue_burst(struct kni_dev *kni, struct kni_vhost_queue *q, 
247           struct sk_buff **skb, struct rte_kni_mbuf **va)
248 {
249         int i;
250         for (i = 0; i < RX_BURST_SZ; skb++, va++, i++)
251                 kni_vhost_enqueue(kni, q, *skb, *va);
252 }
253
254 int 
255 kni_chk_vhost_rx(struct kni_dev *kni)
256 {
257         struct kni_vhost_queue *q = kni->vhost_queue;
258         unsigned nb_in, nb_mbuf, nb_skb;
259         const unsigned BURST_MASK = RX_BURST_SZ - 1;
260         unsigned nb_burst, nb_backlog, i;
261         struct sk_buff *skb[RX_BURST_SZ];
262         struct rte_kni_mbuf *va[RX_BURST_SZ];
263         
264         if (unlikely(BE_STOP & kni->vq_status)) {
265                 kni->vq_status |= BE_FINISH;
266                 return 0;
267         }
268
269         if (unlikely(q == NULL))
270                 return 0;
271
272         nb_skb = kni_fifo_count(q->fifo);
273         nb_mbuf = kni_fifo_count(kni->rx_q);
274         
275         nb_in = min(nb_mbuf, nb_skb);
276         nb_in = min(nb_in, (unsigned)RX_BURST_SZ);
277         nb_burst   = (nb_in & ~BURST_MASK);
278         nb_backlog = (nb_in & BURST_MASK);
279         
280         /* enqueue skb_queue per BURST_SIZE bulk */
281         if (0 != nb_burst) {
282                 if (unlikely(RX_BURST_SZ != kni_fifo_get(
283                                      kni->rx_q, (void **)&va, 
284                                      RX_BURST_SZ)))
285                         goto except;
286
287                 if (unlikely(RX_BURST_SZ != kni_fifo_get(
288                                      q->fifo, (void **)&skb, 
289                                      RX_BURST_SZ)))
290                         goto except;
291
292                 kni_vhost_enqueue_burst(kni, q, skb, va);
293         }
294
295         /* all leftover, do one by one */
296         for (i = 0; i < nb_backlog; ++i) {
297                 if (unlikely(1 != kni_fifo_get(
298                                      kni->rx_q,(void **)&va, 1)))
299                         goto except;
300
301                 if (unlikely(1 != kni_fifo_get(
302                                      q->fifo, (void **)&skb, 1)))
303                         goto except;
304
305                 kni_vhost_enqueue(kni, q, *skb, *va);
306         }
307
308         /* Ondemand wake up */
309         if ((nb_in == RX_BURST_SZ) || (nb_skb == 0) || 
310             ((nb_mbuf < RX_BURST_SZ) && (nb_mbuf != 0))) { 
311                 wake_up_interruptible_poll(sk_sleep(&q->sk), 
312                                    POLLIN | POLLRDNORM | POLLRDBAND);
313                 KNI_DBG_RX("RX CHK KICK nb_mbuf %d, nb_skb %d, nb_in %d\n", 
314                            nb_mbuf, nb_skb, nb_in);
315         }
316
317         return 0;
318
319 except:
320         /* Failing should not happen */
321         KNI_ERR("Fail to enqueue fifo, it shouldn't happen \n");
322         BUG_ON(1);
323
324         return 0;
325 }
326
327 static int 
328 kni_sock_sndmsg(struct kiocb *iocb, struct socket *sock,
329            struct msghdr *m, size_t total_len)
330 {
331         struct kni_vhost_queue *q = 
332                 container_of(sock->sk, struct kni_vhost_queue, sk);
333         int vnet_hdr_len = 0;
334         unsigned long len = total_len;
335
336         if (unlikely(q == NULL || q->kni == NULL))
337                 return 0;
338
339         KNI_DBG_TX("kni_sndmsg len %ld, flags 0x%08x, nb_iov %d\n", 
340                    len, q->flags, (int)m->msg_iovlen);
341
342 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
343         if (likely(q->flags & IFF_VNET_HDR)) {
344                 vnet_hdr_len = q->vnet_hdr_sz;
345                 if (unlikely(len < vnet_hdr_len))
346                         return -EINVAL;
347                 len -= vnet_hdr_len;
348         }
349 #endif
350
351         if (unlikely(len < ETH_HLEN + q->vnet_hdr_sz))
352                 return -EINVAL;
353
354         return kni_vhost_net_tx(q->kni, m->msg_iov, vnet_hdr_len, len);
355 }
356
357 static int 
358 kni_sock_rcvmsg(struct kiocb *iocb, struct socket *sock,
359            struct msghdr *m, size_t len, int flags)
360 {
361         int vnet_hdr_len = 0;
362         int pkt_len = 0; 
363         struct kni_vhost_queue *q = 
364                 container_of(sock->sk, struct kni_vhost_queue, sk);
365         static struct virtio_net_hdr 
366                 __attribute__ ((unused)) vnet_hdr = {
367                 .flags = 0,
368                 .gso_type = VIRTIO_NET_HDR_GSO_NONE
369         };
370
371         if (unlikely(q == NULL || q->kni == NULL))
372                 return 0;
373
374 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
375         if (likely(q->flags & IFF_VNET_HDR)) {
376                 vnet_hdr_len = q->vnet_hdr_sz;
377                 if ((len -= vnet_hdr_len) < 0)
378                         return -EINVAL;
379         }
380 #endif
381
382         if (unlikely(0 == (pkt_len = kni_vhost_net_rx(q->kni, 
383                 m->msg_iov, vnet_hdr_len, len))))
384                 return 0;
385
386 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
387         /* no need to copy hdr when no pkt received */
388         if (unlikely(memcpy_toiovecend(m->msg_iov, 
389                 (void *)&vnet_hdr, 0, vnet_hdr_len)))
390                 return -EFAULT;
391 #endif
392         KNI_DBG_RX("kni_rcvmsg expect_len %ld, flags 0x%08x, pkt_len %d\n", 
393                    (unsigned long)len, q->flags, pkt_len);
394
395         return (pkt_len + vnet_hdr_len); 
396 }
397
398 /* dummy tap like ioctl */
399 static int 
400 kni_sock_ioctl(struct socket *sock, unsigned int cmd,
401               unsigned long arg)
402 {
403         void __user *argp = (void __user *)arg;
404         struct ifreq __user *ifr = argp;
405         unsigned int __user *up = argp;
406         struct kni_vhost_queue *q = 
407                 container_of(sock->sk, struct kni_vhost_queue, sk);
408         struct kni_dev *kni;
409         unsigned int u;
410         int __user *sp = argp;
411         int s;
412         int ret;
413
414         KNI_DBG("tap ioctl cmd 0x%08x\n", cmd);
415
416         switch (cmd) {
417         case TUNSETIFF:
418                 KNI_DBG("TUNSETIFF\n");
419                 /* ignore the name, just look at flags */
420                 if (get_user(u, &ifr->ifr_flags))
421                         return -EFAULT;
422
423                 ret = 0;
424                 if ((u & ~IFF_VNET_HDR) != (IFF_NO_PI | IFF_TAP))
425                         ret = -EINVAL;
426                 else
427                         q->flags = u;
428
429                 return ret;
430
431         case TUNGETIFF:
432                 KNI_DBG("TUNGETIFF\n");
433                 rcu_read_lock_bh();
434                 kni = rcu_dereference_bh(q->kni);
435                 if (kni)
436                         dev_hold(kni->net_dev);
437                 rcu_read_unlock_bh();
438
439                 if (!kni)
440                         return -ENOLINK;
441
442                 ret = 0;
443                 if (copy_to_user(&ifr->ifr_name, kni->net_dev->name, IFNAMSIZ) ||
444                     put_user(q->flags, &ifr->ifr_flags))
445                         ret = -EFAULT;
446                 dev_put(kni->net_dev);
447                 return ret;
448
449         case TUNGETFEATURES:
450                 KNI_DBG("TUNGETFEATURES\n");
451                 u = IFF_TAP | IFF_NO_PI;
452 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
453                 u |= IFF_VNET_HDR;
454 #endif
455                 if (put_user(u, up))  
456                         return -EFAULT;
457                 return 0;
458
459         case TUNSETSNDBUF:
460                 KNI_DBG("TUNSETSNDBUF\n");
461                 if (get_user(u, up))
462                         return -EFAULT;
463
464                 q->sk.sk_sndbuf = u;
465                 return 0;
466
467         case TUNGETVNETHDRSZ:
468                 s = q->vnet_hdr_sz;
469                 if (put_user(s, sp))
470                         return -EFAULT;
471                 KNI_DBG("TUNGETVNETHDRSZ %d\n", s);
472                 return 0;
473
474         case TUNSETVNETHDRSZ:
475                 if (get_user(s, sp))
476                         return -EFAULT;
477                 if (s < (int)sizeof(struct virtio_net_hdr))
478                         return -EINVAL;
479
480                 KNI_DBG("TUNSETVNETHDRSZ %d\n", s);
481                 q->vnet_hdr_sz = s;
482                 return 0;
483
484         case TUNSETOFFLOAD:
485                 KNI_DBG("TUNSETOFFLOAD %lx\n", arg);
486 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
487                 /* not support any offload yet */
488                 if (!(q->flags & IFF_VNET_HDR))
489                         return  -EINVAL;
490
491                 return 0;
492 #else
493                 return -EINVAL;
494 #endif
495
496         default:
497                 KNI_DBG("NOT SUPPORT\n");
498                 return -EINVAL;
499         }
500 }
501
502 static int 
503 kni_sock_compat_ioctl(struct socket *sock, unsigned int cmd,
504                      unsigned long arg)
505 {
506         /* 32 bits app on 64 bits OS to be supported later */
507         KNI_PRINT("Not implemented.\n");
508
509         return -EINVAL;
510 }
511
512 #define KNI_VHOST_WAIT_WQ_SAFE()                        \
513 do {                                                    \
514         while ((BE_FINISH | BE_STOP) == kni->vq_status) \
515                 msleep(1);                              \
516 }while(0)                                               \
517
518
519 static int 
520 kni_sock_release(struct socket *sock)
521 {
522         struct kni_vhost_queue *q = 
523                 container_of(sock->sk, struct kni_vhost_queue, sk);
524         struct kni_dev *kni;
525
526         if (q == NULL)
527                 return 0;
528
529         if (NULL != (kni = q->kni)) {
530                 kni->vq_status = BE_STOP;
531                 KNI_VHOST_WAIT_WQ_SAFE();
532                 kni->vhost_queue = NULL;
533                 q->kni = NULL;
534         }
535
536         if (q->sockfd != -1)
537                 q->sockfd = -1;
538
539         sk_set_socket(&q->sk, NULL);
540         sock->sk = NULL;
541
542         sock_put(&q->sk);
543         
544         KNI_DBG("dummy sock release done\n");
545
546         return 0;
547 }
548
549 int 
550 kni_sock_getname (struct socket *sock,
551                   struct sockaddr *addr,
552                   int *sockaddr_len, int peer)
553 {
554         KNI_DBG("dummy sock getname\n");
555         ((struct sockaddr_ll*)addr)->sll_family = AF_PACKET;
556         return 0;
557 }
558
559 static const struct proto_ops kni_socket_ops = {
560         .getname = kni_sock_getname,
561         .sendmsg = kni_sock_sndmsg,
562         .recvmsg = kni_sock_rcvmsg,
563         .release = kni_sock_release,
564         .poll    = kni_sock_poll,
565         .ioctl   = kni_sock_ioctl,
566         .compat_ioctl = kni_sock_compat_ioctl,
567 };
568
569 static void 
570 kni_sk_write_space(struct sock *sk)
571 {
572         wait_queue_head_t *wqueue;
573
574         if (!sock_writeable(sk) || 
575             !test_and_clear_bit(SOCK_ASYNC_NOSPACE, 
576                                 &sk->sk_socket->flags))
577                 return;
578         wqueue = sk_sleep(sk);
579         if (wqueue && waitqueue_active(wqueue))
580                 wake_up_interruptible_poll(
581                         wqueue, POLLOUT | POLLWRNORM | POLLWRBAND);
582 }
583
584 static void 
585 kni_sk_destruct(struct sock *sk)
586 {
587         struct kni_vhost_queue *q = 
588                 container_of(sk, struct kni_vhost_queue, sk);
589
590         if (!q)
591                 return;
592
593         /* make sure there's no packet in buffer */
594         while (skb_dequeue(&sk->sk_receive_queue) != NULL)
595                ;
596
597         mb();
598
599         if (q->fifo != NULL) {
600                 kfree(q->fifo);
601                 q->fifo = NULL;
602         }
603
604         if (q->cache != NULL) {
605                 kfree(q->cache);
606                 q->cache = NULL;
607         }
608 }
609
610 static int 
611 kni_vhost_backend_init(struct kni_dev *kni)
612 {
613         struct kni_vhost_queue *q;
614         struct net *net = current->nsproxy->net_ns;
615         int err, i, sockfd;
616         struct rte_kni_fifo *fifo;
617         struct sk_buff *elem;
618
619         if (kni->vhost_queue != NULL)
620                 return -1;
621
622         if (!(q = (struct kni_vhost_queue *)sk_alloc(
623                       net, AF_UNSPEC, GFP_KERNEL, &kni_raw_proto)))
624                 return -ENOMEM;
625
626         err = sock_create_lite(AF_UNSPEC, SOCK_RAW, IPPROTO_RAW, &q->sock);
627         if (err)
628                 goto free_sk;
629
630         sockfd = kni_sock_map_fd(q->sock);
631         if (sockfd < 0) {
632                 err = sockfd;
633                 goto free_sock;
634         }
635
636         /* cache init */
637         q->cache = (struct sk_buff*)
638                 kzalloc(RTE_KNI_VHOST_MAX_CACHE_SIZE * sizeof(struct sk_buff), 
639                         GFP_KERNEL);
640         if (!q->cache)
641                 goto free_fd;
642
643         fifo = (struct rte_kni_fifo*)
644                 kzalloc(RTE_KNI_VHOST_MAX_CACHE_SIZE * sizeof(void *)
645                         + sizeof(struct rte_kni_fifo), GFP_KERNEL);
646         if (!fifo)
647                 goto free_cache;
648
649         kni_fifo_init(fifo, RTE_KNI_VHOST_MAX_CACHE_SIZE);
650
651         for (i = 0; i < RTE_KNI_VHOST_MAX_CACHE_SIZE; i++) {
652                 elem = &q->cache[i];
653                 kni_fifo_put(fifo, (void**)&elem, 1);
654         }
655         q->fifo = fifo;
656         
657         /* store sockfd in vhost_queue */
658         q->sockfd = sockfd;
659
660         /* init socket */
661         q->sock->type = SOCK_RAW;
662         q->sock->state = SS_CONNECTED;
663         q->sock->ops = &kni_socket_ops;
664         sock_init_data(q->sock, &q->sk);
665
666         /* init sock data */
667         q->sk.sk_write_space = kni_sk_write_space;
668         q->sk.sk_destruct = kni_sk_destruct;
669         q->flags = IFF_NO_PI | IFF_TAP;
670         q->vnet_hdr_sz = sizeof(struct virtio_net_hdr);
671 #ifdef RTE_KNI_VHOST_VNET_HDR_EN
672         q->flags |= IFF_VNET_HDR;
673 #endif
674         
675         /* bind kni_dev with vhost_queue */
676         q->kni = kni;
677         kni->vhost_queue = q;
678         
679         wmb();
680
681         kni->vq_status = BE_START;
682
683         KNI_DBG("backend init sockfd=%d, sock->wq=0x%16llx,"
684                   "sk->sk_wq=0x%16llx", 
685                   q->sockfd, (uint64_t)q->sock->wq, 
686                   (uint64_t)q->sk.sk_wq);
687
688         return 0;
689
690 free_cache:
691         kfree(q->cache);
692         q->cache = NULL;
693
694 free_fd:
695         put_unused_fd(sockfd);
696
697 free_sock:
698         q->kni = NULL;
699         kni->vhost_queue = NULL;
700         kni->vq_status |= BE_FINISH;
701         sock_release(q->sock);
702         q->sock->ops = NULL;
703         q->sock = NULL;
704
705 free_sk:
706         sk_free((struct sock*)q);
707
708         return err;
709 }
710
711 /* kni vhost sock sysfs */
712 static ssize_t
713 show_sock_fd(struct device *dev, struct device_attribute *attr,
714              char *buf)
715 {
716         struct net_device *net_dev = container_of(dev, struct net_device, dev);
717         struct kni_dev *kni = netdev_priv(net_dev);
718         int sockfd = -1;
719         if (kni->vhost_queue != NULL)
720                 sockfd = kni->vhost_queue->sockfd;
721         return snprintf(buf, 10, "%d\n", sockfd);
722 }
723
724 static ssize_t
725 show_sock_en(struct device *dev, struct device_attribute *attr,
726              char *buf)
727 {
728         struct net_device *net_dev = container_of(dev, struct net_device, dev);
729         struct kni_dev *kni = netdev_priv(net_dev);
730         return snprintf(buf, 10, "%u\n", (kni->vhost_queue == NULL ? 0 : 1));
731 }
732
733 static ssize_t
734 set_sock_en(struct device *dev, struct device_attribute *attr,
735               const char *buf, size_t count)
736 {
737         struct net_device *net_dev = container_of(dev, struct net_device, dev);
738         struct kni_dev *kni = netdev_priv(net_dev);
739         unsigned long en;
740         int err = 0;
741
742         if (0 != strict_strtoul(buf, 0, &en))
743                 return -EINVAL;
744
745         if (en) 
746                 err = kni_vhost_backend_init(kni);
747
748         return err ? err : count;
749 }
750
751 static DEVICE_ATTR(sock_fd, S_IRUGO | S_IRUSR, show_sock_fd, NULL);
752 static DEVICE_ATTR(sock_en, S_IRUGO | S_IWUSR, show_sock_en, set_sock_en);
753 static struct attribute *dev_attrs[] = {
754         &dev_attr_sock_fd.attr,
755         &dev_attr_sock_en.attr,
756         NULL,
757 };
758
759 static const struct attribute_group dev_attr_grp = {
760         .attrs = dev_attrs,
761 };
762
763 int 
764 kni_vhost_backend_release(struct kni_dev *kni)
765 {
766         struct kni_vhost_queue *q = kni->vhost_queue; 
767         
768         if (q == NULL)
769                 return 0;
770
771         /* dettach from kni */
772         q->kni = NULL;
773
774         KNI_DBG("release backend done\n");
775
776         return 0;
777 }
778
779 int 
780 kni_vhost_init(struct kni_dev *kni)
781 {
782         struct net_device *dev = kni->net_dev;
783
784         if (sysfs_create_group(&dev->dev.kobj, &dev_attr_grp))
785                 sysfs_remove_group(&dev->dev.kobj, &dev_attr_grp);
786
787         kni->vq_status = BE_STOP;
788
789         KNI_DBG("kni_vhost_init done\n");
790
791         return 0;
792 }
793