net/sfc/base: clarify meaning of Rx desc lbits in PS mode
[dpdk.git] / drivers / net / sfc / base / ef10_ev.c
1 /*
2  * Copyright (c) 2012-2016 Solarflare Communications Inc.
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions are met:
7  *
8  * 1. Redistributions of source code must retain the above copyright notice,
9  *    this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright notice,
11  *    this list of conditions and the following disclaimer in the documentation
12  *    and/or other materials provided with the distribution.
13  *
14  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
15  * AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO,
16  * THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
18  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
19  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
20  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
21  * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
22  * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
23  * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE,
24  * EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
25  *
26  * The views and conclusions contained in the software and documentation are
27  * those of the authors and should not be interpreted as representing official
28  * policies, either expressed or implied, of the FreeBSD Project.
29  */
30
31 #include "efx.h"
32 #include "efx_impl.h"
33 #if EFSYS_OPT_MON_STATS
34 #include "mcdi_mon.h"
35 #endif
36
37 #if EFSYS_OPT_HUNTINGTON || EFSYS_OPT_MEDFORD
38
39 #if EFSYS_OPT_QSTATS
40 #define EFX_EV_QSTAT_INCR(_eep, _stat)                                  \
41         do {                                                            \
42                 (_eep)->ee_stat[_stat]++;                               \
43         _NOTE(CONSTANTCONDITION)                                        \
44         } while (B_FALSE)
45 #else
46 #define EFX_EV_QSTAT_INCR(_eep, _stat)
47 #endif
48
49 /*
50  * Non-interrupting event queue requires interrrupting event queue to
51  * refer to for wake-up events even if wake ups are never used.
52  * It could be even non-allocated event queue.
53  */
54 #define EFX_EF10_ALWAYS_INTERRUPTING_EVQ_INDEX  (0)
55
56 static  __checkReturn   boolean_t
57 ef10_ev_rx(
58         __in            efx_evq_t *eep,
59         __in            efx_qword_t *eqp,
60         __in            const efx_ev_callbacks_t *eecp,
61         __in_opt        void *arg);
62
63 static  __checkReturn   boolean_t
64 ef10_ev_tx(
65         __in            efx_evq_t *eep,
66         __in            efx_qword_t *eqp,
67         __in            const efx_ev_callbacks_t *eecp,
68         __in_opt        void *arg);
69
70 static  __checkReturn   boolean_t
71 ef10_ev_driver(
72         __in            efx_evq_t *eep,
73         __in            efx_qword_t *eqp,
74         __in            const efx_ev_callbacks_t *eecp,
75         __in_opt        void *arg);
76
77 static  __checkReturn   boolean_t
78 ef10_ev_drv_gen(
79         __in            efx_evq_t *eep,
80         __in            efx_qword_t *eqp,
81         __in            const efx_ev_callbacks_t *eecp,
82         __in_opt        void *arg);
83
84 static  __checkReturn   boolean_t
85 ef10_ev_mcdi(
86         __in            efx_evq_t *eep,
87         __in            efx_qword_t *eqp,
88         __in            const efx_ev_callbacks_t *eecp,
89         __in_opt        void *arg);
90
91
92 static  __checkReturn   efx_rc_t
93 efx_mcdi_set_evq_tmr(
94         __in            efx_nic_t *enp,
95         __in            uint32_t instance,
96         __in            uint32_t mode,
97         __in            uint32_t timer_ns)
98 {
99         efx_mcdi_req_t req;
100         uint8_t payload[MAX(MC_CMD_SET_EVQ_TMR_IN_LEN,
101                             MC_CMD_SET_EVQ_TMR_OUT_LEN)];
102         efx_rc_t rc;
103
104         (void) memset(payload, 0, sizeof (payload));
105         req.emr_cmd = MC_CMD_SET_EVQ_TMR;
106         req.emr_in_buf = payload;
107         req.emr_in_length = MC_CMD_SET_EVQ_TMR_IN_LEN;
108         req.emr_out_buf = payload;
109         req.emr_out_length = MC_CMD_SET_EVQ_TMR_OUT_LEN;
110
111         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_INSTANCE, instance);
112         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_TMR_LOAD_REQ_NS, timer_ns);
113         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_TMR_RELOAD_REQ_NS, timer_ns);
114         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_TMR_MODE, mode);
115
116         efx_mcdi_execute(enp, &req);
117
118         if (req.emr_rc != 0) {
119                 rc = req.emr_rc;
120                 goto fail1;
121         }
122
123         if (req.emr_out_length_used < MC_CMD_SET_EVQ_TMR_OUT_LEN) {
124                 rc = EMSGSIZE;
125                 goto fail2;
126         }
127
128         return (0);
129
130 fail2:
131         EFSYS_PROBE(fail2);
132 fail1:
133         EFSYS_PROBE1(fail1, efx_rc_t, rc);
134
135         return (rc);
136 }
137
138 static  __checkReturn   efx_rc_t
139 efx_mcdi_init_evq(
140         __in            efx_nic_t *enp,
141         __in            unsigned int instance,
142         __in            efsys_mem_t *esmp,
143         __in            size_t nevs,
144         __in            uint32_t irq,
145         __in            uint32_t us,
146         __in            uint32_t flags,
147         __in            boolean_t low_latency)
148 {
149         efx_mcdi_req_t req;
150         uint8_t payload[
151             MAX(MC_CMD_INIT_EVQ_IN_LEN(EFX_EVQ_NBUFS(EFX_EVQ_MAXNEVS)),
152                 MC_CMD_INIT_EVQ_OUT_LEN)];
153         efx_qword_t *dma_addr;
154         uint64_t addr;
155         int npages;
156         int i;
157         boolean_t interrupting;
158         int ev_cut_through;
159         efx_rc_t rc;
160
161         npages = EFX_EVQ_NBUFS(nevs);
162         if (MC_CMD_INIT_EVQ_IN_LEN(npages) > MC_CMD_INIT_EVQ_IN_LENMAX) {
163                 rc = EINVAL;
164                 goto fail1;
165         }
166
167         (void) memset(payload, 0, sizeof (payload));
168         req.emr_cmd = MC_CMD_INIT_EVQ;
169         req.emr_in_buf = payload;
170         req.emr_in_length = MC_CMD_INIT_EVQ_IN_LEN(npages);
171         req.emr_out_buf = payload;
172         req.emr_out_length = MC_CMD_INIT_EVQ_OUT_LEN;
173
174         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_SIZE, nevs);
175         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_INSTANCE, instance);
176         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_IRQ_NUM, irq);
177
178         interrupting = ((flags & EFX_EVQ_FLAGS_NOTIFY_MASK) ==
179             EFX_EVQ_FLAGS_NOTIFY_INTERRUPT);
180
181         /*
182          * On Huntington RX and TX event batching can only be requested together
183          * (even if the datapath firmware doesn't actually support RX
184          * batching). If event cut through is enabled no RX batching will occur.
185          *
186          * So always enable RX and TX event batching, and enable event cut
187          * through if we want low latency operation.
188          */
189         switch (flags & EFX_EVQ_FLAGS_TYPE_MASK) {
190         case EFX_EVQ_FLAGS_TYPE_AUTO:
191                 ev_cut_through = low_latency ? 1 : 0;
192                 break;
193         case EFX_EVQ_FLAGS_TYPE_THROUGHPUT:
194                 ev_cut_through = 0;
195                 break;
196         case EFX_EVQ_FLAGS_TYPE_LOW_LATENCY:
197                 ev_cut_through = 1;
198                 break;
199         default:
200                 rc = EINVAL;
201                 goto fail2;
202         }
203         MCDI_IN_POPULATE_DWORD_6(req, INIT_EVQ_IN_FLAGS,
204             INIT_EVQ_IN_FLAG_INTERRUPTING, interrupting,
205             INIT_EVQ_IN_FLAG_RPTR_DOS, 0,
206             INIT_EVQ_IN_FLAG_INT_ARMD, 0,
207             INIT_EVQ_IN_FLAG_CUT_THRU, ev_cut_through,
208             INIT_EVQ_IN_FLAG_RX_MERGE, 1,
209             INIT_EVQ_IN_FLAG_TX_MERGE, 1);
210
211         /* If the value is zero then disable the timer */
212         if (us == 0) {
213                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_MODE,
214                     MC_CMD_INIT_EVQ_IN_TMR_MODE_DIS);
215                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_LOAD, 0);
216                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_RELOAD, 0);
217         } else {
218                 unsigned int ticks;
219
220                 if ((rc = efx_ev_usecs_to_ticks(enp, us, &ticks)) != 0)
221                         goto fail3;
222
223                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_MODE,
224                     MC_CMD_INIT_EVQ_IN_TMR_INT_HLDOFF);
225                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_LOAD, ticks);
226                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_RELOAD, ticks);
227         }
228
229         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_COUNT_MODE,
230             MC_CMD_INIT_EVQ_IN_COUNT_MODE_DIS);
231         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_COUNT_THRSHLD, 0);
232
233         dma_addr = MCDI_IN2(req, efx_qword_t, INIT_EVQ_IN_DMA_ADDR);
234         addr = EFSYS_MEM_ADDR(esmp);
235
236         for (i = 0; i < npages; i++) {
237                 EFX_POPULATE_QWORD_2(*dma_addr,
238                     EFX_DWORD_1, (uint32_t)(addr >> 32),
239                     EFX_DWORD_0, (uint32_t)(addr & 0xffffffff));
240
241                 dma_addr++;
242                 addr += EFX_BUF_SIZE;
243         }
244
245         efx_mcdi_execute(enp, &req);
246
247         if (req.emr_rc != 0) {
248                 rc = req.emr_rc;
249                 goto fail4;
250         }
251
252         if (req.emr_out_length_used < MC_CMD_INIT_EVQ_OUT_LEN) {
253                 rc = EMSGSIZE;
254                 goto fail5;
255         }
256
257         /* NOTE: ignore the returned IRQ param as firmware does not set it. */
258
259         return (0);
260
261 fail5:
262         EFSYS_PROBE(fail5);
263 fail4:
264         EFSYS_PROBE(fail4);
265 fail3:
266         EFSYS_PROBE(fail3);
267 fail2:
268         EFSYS_PROBE(fail2);
269 fail1:
270         EFSYS_PROBE1(fail1, efx_rc_t, rc);
271
272         return (rc);
273 }
274
275
276 static  __checkReturn   efx_rc_t
277 efx_mcdi_init_evq_v2(
278         __in            efx_nic_t *enp,
279         __in            unsigned int instance,
280         __in            efsys_mem_t *esmp,
281         __in            size_t nevs,
282         __in            uint32_t irq,
283         __in            uint32_t us,
284         __in            uint32_t flags)
285 {
286         efx_mcdi_req_t req;
287         uint8_t payload[
288                 MAX(MC_CMD_INIT_EVQ_V2_IN_LEN(EFX_EVQ_NBUFS(EFX_EVQ_MAXNEVS)),
289                     MC_CMD_INIT_EVQ_V2_OUT_LEN)];
290         boolean_t interrupting;
291         unsigned int evq_type;
292         efx_qword_t *dma_addr;
293         uint64_t addr;
294         int npages;
295         int i;
296         efx_rc_t rc;
297
298         npages = EFX_EVQ_NBUFS(nevs);
299         if (MC_CMD_INIT_EVQ_V2_IN_LEN(npages) > MC_CMD_INIT_EVQ_V2_IN_LENMAX) {
300                 rc = EINVAL;
301                 goto fail1;
302         }
303
304         (void) memset(payload, 0, sizeof (payload));
305         req.emr_cmd = MC_CMD_INIT_EVQ;
306         req.emr_in_buf = payload;
307         req.emr_in_length = MC_CMD_INIT_EVQ_V2_IN_LEN(npages);
308         req.emr_out_buf = payload;
309         req.emr_out_length = MC_CMD_INIT_EVQ_V2_OUT_LEN;
310
311         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_SIZE, nevs);
312         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_INSTANCE, instance);
313         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_IRQ_NUM, irq);
314
315         interrupting = ((flags & EFX_EVQ_FLAGS_NOTIFY_MASK) ==
316             EFX_EVQ_FLAGS_NOTIFY_INTERRUPT);
317
318         switch (flags & EFX_EVQ_FLAGS_TYPE_MASK) {
319         case EFX_EVQ_FLAGS_TYPE_AUTO:
320                 evq_type = MC_CMD_INIT_EVQ_V2_IN_FLAG_TYPE_AUTO;
321                 break;
322         case EFX_EVQ_FLAGS_TYPE_THROUGHPUT:
323                 evq_type = MC_CMD_INIT_EVQ_V2_IN_FLAG_TYPE_THROUGHPUT;
324                 break;
325         case EFX_EVQ_FLAGS_TYPE_LOW_LATENCY:
326                 evq_type = MC_CMD_INIT_EVQ_V2_IN_FLAG_TYPE_LOW_LATENCY;
327                 break;
328         default:
329                 rc = EINVAL;
330                 goto fail2;
331         }
332         MCDI_IN_POPULATE_DWORD_4(req, INIT_EVQ_V2_IN_FLAGS,
333             INIT_EVQ_V2_IN_FLAG_INTERRUPTING, interrupting,
334             INIT_EVQ_V2_IN_FLAG_RPTR_DOS, 0,
335             INIT_EVQ_V2_IN_FLAG_INT_ARMD, 0,
336             INIT_EVQ_V2_IN_FLAG_TYPE, evq_type);
337
338         /* If the value is zero then disable the timer */
339         if (us == 0) {
340                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_MODE,
341                     MC_CMD_INIT_EVQ_V2_IN_TMR_MODE_DIS);
342                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_LOAD, 0);
343                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_RELOAD, 0);
344         } else {
345                 unsigned int ticks;
346
347                 if ((rc = efx_ev_usecs_to_ticks(enp, us, &ticks)) != 0)
348                         goto fail3;
349
350                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_MODE,
351                     MC_CMD_INIT_EVQ_V2_IN_TMR_INT_HLDOFF);
352                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_LOAD, ticks);
353                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_RELOAD, ticks);
354         }
355
356         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_COUNT_MODE,
357             MC_CMD_INIT_EVQ_V2_IN_COUNT_MODE_DIS);
358         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_COUNT_THRSHLD, 0);
359
360         dma_addr = MCDI_IN2(req, efx_qword_t, INIT_EVQ_V2_IN_DMA_ADDR);
361         addr = EFSYS_MEM_ADDR(esmp);
362
363         for (i = 0; i < npages; i++) {
364                 EFX_POPULATE_QWORD_2(*dma_addr,
365                     EFX_DWORD_1, (uint32_t)(addr >> 32),
366                     EFX_DWORD_0, (uint32_t)(addr & 0xffffffff));
367
368                 dma_addr++;
369                 addr += EFX_BUF_SIZE;
370         }
371
372         efx_mcdi_execute(enp, &req);
373
374         if (req.emr_rc != 0) {
375                 rc = req.emr_rc;
376                 goto fail4;
377         }
378
379         if (req.emr_out_length_used < MC_CMD_INIT_EVQ_V2_OUT_LEN) {
380                 rc = EMSGSIZE;
381                 goto fail5;
382         }
383
384         /* NOTE: ignore the returned IRQ param as firmware does not set it. */
385
386         EFSYS_PROBE1(mcdi_evq_flags, uint32_t,
387                     MCDI_OUT_DWORD(req, INIT_EVQ_V2_OUT_FLAGS));
388
389         return (0);
390
391 fail5:
392         EFSYS_PROBE(fail5);
393 fail4:
394         EFSYS_PROBE(fail4);
395 fail3:
396         EFSYS_PROBE(fail3);
397 fail2:
398         EFSYS_PROBE(fail2);
399 fail1:
400         EFSYS_PROBE1(fail1, efx_rc_t, rc);
401
402         return (rc);
403 }
404
405 static  __checkReturn   efx_rc_t
406 efx_mcdi_fini_evq(
407         __in            efx_nic_t *enp,
408         __in            uint32_t instance)
409 {
410         efx_mcdi_req_t req;
411         uint8_t payload[MAX(MC_CMD_FINI_EVQ_IN_LEN,
412                             MC_CMD_FINI_EVQ_OUT_LEN)];
413         efx_rc_t rc;
414
415         (void) memset(payload, 0, sizeof (payload));
416         req.emr_cmd = MC_CMD_FINI_EVQ;
417         req.emr_in_buf = payload;
418         req.emr_in_length = MC_CMD_FINI_EVQ_IN_LEN;
419         req.emr_out_buf = payload;
420         req.emr_out_length = MC_CMD_FINI_EVQ_OUT_LEN;
421
422         MCDI_IN_SET_DWORD(req, FINI_EVQ_IN_INSTANCE, instance);
423
424         efx_mcdi_execute_quiet(enp, &req);
425
426         if (req.emr_rc != 0) {
427                 rc = req.emr_rc;
428                 goto fail1;
429         }
430
431         return (0);
432
433 fail1:
434         /*
435          * EALREADY is not an error, but indicates that the MC has rebooted and
436          * that the EVQ has already been destroyed.
437          */
438         if (rc != EALREADY)
439                 EFSYS_PROBE1(fail1, efx_rc_t, rc);
440
441         return (rc);
442 }
443
444
445
446         __checkReturn   efx_rc_t
447 ef10_ev_init(
448         __in            efx_nic_t *enp)
449 {
450         _NOTE(ARGUNUSED(enp))
451         return (0);
452 }
453
454                         void
455 ef10_ev_fini(
456         __in            efx_nic_t *enp)
457 {
458         _NOTE(ARGUNUSED(enp))
459 }
460
461         __checkReturn   efx_rc_t
462 ef10_ev_qcreate(
463         __in            efx_nic_t *enp,
464         __in            unsigned int index,
465         __in            efsys_mem_t *esmp,
466         __in            size_t n,
467         __in            uint32_t id,
468         __in            uint32_t us,
469         __in            uint32_t flags,
470         __in            efx_evq_t *eep)
471 {
472         efx_nic_cfg_t *encp = &(enp->en_nic_cfg);
473         uint32_t irq;
474         efx_rc_t rc;
475
476         _NOTE(ARGUNUSED(id))    /* buftbl id managed by MC */
477         EFX_STATIC_ASSERT(ISP2(EFX_EVQ_MAXNEVS));
478         EFX_STATIC_ASSERT(ISP2(EFX_EVQ_MINNEVS));
479
480         if (!ISP2(n) || (n < EFX_EVQ_MINNEVS) || (n > EFX_EVQ_MAXNEVS)) {
481                 rc = EINVAL;
482                 goto fail1;
483         }
484
485         if (index >= encp->enc_evq_limit) {
486                 rc = EINVAL;
487                 goto fail2;
488         }
489
490         if (us > encp->enc_evq_timer_max_us) {
491                 rc = EINVAL;
492                 goto fail3;
493         }
494
495         /* Set up the handler table */
496         eep->ee_rx      = ef10_ev_rx;
497         eep->ee_tx      = ef10_ev_tx;
498         eep->ee_driver  = ef10_ev_driver;
499         eep->ee_drv_gen = ef10_ev_drv_gen;
500         eep->ee_mcdi    = ef10_ev_mcdi;
501
502         /* Set up the event queue */
503         /* INIT_EVQ expects function-relative vector number */
504         if ((flags & EFX_EVQ_FLAGS_NOTIFY_MASK) ==
505             EFX_EVQ_FLAGS_NOTIFY_INTERRUPT) {
506                 irq = index;
507         } else if (index == EFX_EF10_ALWAYS_INTERRUPTING_EVQ_INDEX) {
508                 irq = index;
509                 flags = (flags & ~EFX_EVQ_FLAGS_NOTIFY_MASK) |
510                     EFX_EVQ_FLAGS_NOTIFY_INTERRUPT;
511         } else {
512                 irq = EFX_EF10_ALWAYS_INTERRUPTING_EVQ_INDEX;
513         }
514
515         /*
516          * Interrupts may be raised for events immediately after the queue is
517          * created. See bug58606.
518          */
519
520         if (encp->enc_init_evq_v2_supported) {
521                 /*
522                  * On Medford the low latency license is required to enable RX
523                  * and event cut through and to disable RX batching.  If event
524                  * queue type in flags is auto, we let the firmware decide the
525                  * settings to use. If the adapter has a low latency license,
526                  * it will choose the best settings for low latency, otherwise
527                  * it will choose the best settings for throughput.
528                  */
529                 rc = efx_mcdi_init_evq_v2(enp, index, esmp, n, irq, us, flags);
530                 if (rc != 0)
531                         goto fail4;
532         } else {
533                 /*
534                  * On Huntington we need to specify the settings to use.
535                  * If event queue type in flags is auto, we favour throughput
536                  * if the adapter is running virtualization supporting firmware
537                  * (i.e. the full featured firmware variant)
538                  * and latency otherwise. The Ethernet Virtual Bridging
539                  * capability is used to make this decision. (Note though that
540                  * the low latency firmware variant is also best for
541                  * throughput and corresponding type should be specified
542                  * to choose it.)
543                  */
544                 boolean_t low_latency = encp->enc_datapath_cap_evb ? 0 : 1;
545                 rc = efx_mcdi_init_evq(enp, index, esmp, n, irq, us, flags,
546                     low_latency);
547                 if (rc != 0)
548                         goto fail5;
549         }
550
551         return (0);
552
553 fail5:
554         EFSYS_PROBE(fail5);
555 fail4:
556         EFSYS_PROBE(fail4);
557 fail3:
558         EFSYS_PROBE(fail3);
559 fail2:
560         EFSYS_PROBE(fail2);
561 fail1:
562         EFSYS_PROBE1(fail1, efx_rc_t, rc);
563
564         return (rc);
565 }
566
567                         void
568 ef10_ev_qdestroy(
569         __in            efx_evq_t *eep)
570 {
571         efx_nic_t *enp = eep->ee_enp;
572
573         EFSYS_ASSERT(enp->en_family == EFX_FAMILY_HUNTINGTON ||
574             enp->en_family == EFX_FAMILY_MEDFORD);
575
576         (void) efx_mcdi_fini_evq(eep->ee_enp, eep->ee_index);
577 }
578
579         __checkReturn   efx_rc_t
580 ef10_ev_qprime(
581         __in            efx_evq_t *eep,
582         __in            unsigned int count)
583 {
584         efx_nic_t *enp = eep->ee_enp;
585         uint32_t rptr;
586         efx_dword_t dword;
587
588         rptr = count & eep->ee_mask;
589
590         if (enp->en_nic_cfg.enc_bug35388_workaround) {
591                 EFX_STATIC_ASSERT(EFX_EVQ_MINNEVS >
592                     (1 << ERF_DD_EVQ_IND_RPTR_WIDTH));
593                 EFX_STATIC_ASSERT(EFX_EVQ_MAXNEVS <
594                     (1 << 2 * ERF_DD_EVQ_IND_RPTR_WIDTH));
595
596                 EFX_POPULATE_DWORD_2(dword,
597                     ERF_DD_EVQ_IND_RPTR_FLAGS,
598                     EFE_DD_EVQ_IND_RPTR_FLAGS_HIGH,
599                     ERF_DD_EVQ_IND_RPTR,
600                     (rptr >> ERF_DD_EVQ_IND_RPTR_WIDTH));
601                 EFX_BAR_TBL_WRITED(enp, ER_DD_EVQ_INDIRECT, eep->ee_index,
602                     &dword, B_FALSE);
603
604                 EFX_POPULATE_DWORD_2(dword,
605                     ERF_DD_EVQ_IND_RPTR_FLAGS,
606                     EFE_DD_EVQ_IND_RPTR_FLAGS_LOW,
607                     ERF_DD_EVQ_IND_RPTR,
608                     rptr & ((1 << ERF_DD_EVQ_IND_RPTR_WIDTH) - 1));
609                 EFX_BAR_TBL_WRITED(enp, ER_DD_EVQ_INDIRECT, eep->ee_index,
610                     &dword, B_FALSE);
611         } else {
612                 EFX_POPULATE_DWORD_1(dword, ERF_DZ_EVQ_RPTR, rptr);
613                 EFX_BAR_TBL_WRITED(enp, ER_DZ_EVQ_RPTR_REG, eep->ee_index,
614                     &dword, B_FALSE);
615         }
616
617         return (0);
618 }
619
620 static  __checkReturn   efx_rc_t
621 efx_mcdi_driver_event(
622         __in            efx_nic_t *enp,
623         __in            uint32_t evq,
624         __in            efx_qword_t data)
625 {
626         efx_mcdi_req_t req;
627         uint8_t payload[MAX(MC_CMD_DRIVER_EVENT_IN_LEN,
628                             MC_CMD_DRIVER_EVENT_OUT_LEN)];
629         efx_rc_t rc;
630
631         req.emr_cmd = MC_CMD_DRIVER_EVENT;
632         req.emr_in_buf = payload;
633         req.emr_in_length = MC_CMD_DRIVER_EVENT_IN_LEN;
634         req.emr_out_buf = payload;
635         req.emr_out_length = MC_CMD_DRIVER_EVENT_OUT_LEN;
636
637         MCDI_IN_SET_DWORD(req, DRIVER_EVENT_IN_EVQ, evq);
638
639         MCDI_IN_SET_DWORD(req, DRIVER_EVENT_IN_DATA_LO,
640             EFX_QWORD_FIELD(data, EFX_DWORD_0));
641         MCDI_IN_SET_DWORD(req, DRIVER_EVENT_IN_DATA_HI,
642             EFX_QWORD_FIELD(data, EFX_DWORD_1));
643
644         efx_mcdi_execute(enp, &req);
645
646         if (req.emr_rc != 0) {
647                 rc = req.emr_rc;
648                 goto fail1;
649         }
650
651         return (0);
652
653 fail1:
654         EFSYS_PROBE1(fail1, efx_rc_t, rc);
655
656         return (rc);
657 }
658
659                         void
660 ef10_ev_qpost(
661         __in    efx_evq_t *eep,
662         __in    uint16_t data)
663 {
664         efx_nic_t *enp = eep->ee_enp;
665         efx_qword_t event;
666
667         EFX_POPULATE_QWORD_3(event,
668             ESF_DZ_DRV_CODE, ESE_DZ_EV_CODE_DRV_GEN_EV,
669             ESF_DZ_DRV_SUB_CODE, 0,
670             ESF_DZ_DRV_SUB_DATA_DW0, (uint32_t)data);
671
672         (void) efx_mcdi_driver_event(enp, eep->ee_index, event);
673 }
674
675         __checkReturn   efx_rc_t
676 ef10_ev_qmoderate(
677         __in            efx_evq_t *eep,
678         __in            unsigned int us)
679 {
680         efx_nic_t *enp = eep->ee_enp;
681         efx_nic_cfg_t *encp = &(enp->en_nic_cfg);
682         efx_dword_t dword;
683         uint32_t mode;
684         efx_rc_t rc;
685
686         /* Check that hardware and MCDI use the same timer MODE values */
687         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_DIS ==
688             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_DIS);
689         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_IMMED_START ==
690             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_IMMED_START);
691         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_TRIG_START ==
692             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_TRIG_START);
693         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_INT_HLDOFF ==
694             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_INT_HLDOFF);
695
696         if (us > encp->enc_evq_timer_max_us) {
697                 rc = EINVAL;
698                 goto fail1;
699         }
700
701         /* If the value is zero then disable the timer */
702         if (us == 0) {
703                 mode = FFE_CZ_TIMER_MODE_DIS;
704         } else {
705                 mode = FFE_CZ_TIMER_MODE_INT_HLDOFF;
706         }
707
708         if (encp->enc_bug61265_workaround) {
709                 uint32_t ns = us * 1000;
710
711                 rc = efx_mcdi_set_evq_tmr(enp, eep->ee_index, mode, ns);
712                 if (rc != 0)
713                         goto fail2;
714         } else {
715                 unsigned int ticks;
716
717                 if ((rc = efx_ev_usecs_to_ticks(enp, us, &ticks)) != 0)
718                         goto fail3;
719
720                 if (encp->enc_bug35388_workaround) {
721                         EFX_POPULATE_DWORD_3(dword,
722                             ERF_DD_EVQ_IND_TIMER_FLAGS,
723                             EFE_DD_EVQ_IND_TIMER_FLAGS,
724                             ERF_DD_EVQ_IND_TIMER_MODE, mode,
725                             ERF_DD_EVQ_IND_TIMER_VAL, ticks);
726                         EFX_BAR_TBL_WRITED(enp, ER_DD_EVQ_INDIRECT,
727                             eep->ee_index, &dword, 0);
728                 } else {
729                         EFX_POPULATE_DWORD_2(dword,
730                             ERF_DZ_TC_TIMER_MODE, mode,
731                             ERF_DZ_TC_TIMER_VAL, ticks);
732                         EFX_BAR_TBL_WRITED(enp, ER_DZ_EVQ_TMR_REG,
733                             eep->ee_index, &dword, 0);
734                 }
735         }
736
737         return (0);
738
739 fail3:
740         EFSYS_PROBE(fail3);
741 fail2:
742         EFSYS_PROBE(fail2);
743 fail1:
744         EFSYS_PROBE1(fail1, efx_rc_t, rc);
745
746         return (rc);
747 }
748
749
750 #if EFSYS_OPT_QSTATS
751                         void
752 ef10_ev_qstats_update(
753         __in                            efx_evq_t *eep,
754         __inout_ecount(EV_NQSTATS)      efsys_stat_t *stat)
755 {
756         unsigned int id;
757
758         for (id = 0; id < EV_NQSTATS; id++) {
759                 efsys_stat_t *essp = &stat[id];
760
761                 EFSYS_STAT_INCR(essp, eep->ee_stat[id]);
762                 eep->ee_stat[id] = 0;
763         }
764 }
765 #endif /* EFSYS_OPT_QSTATS */
766
767 #if EFSYS_OPT_RX_PACKED_STREAM
768
769 static  __checkReturn   boolean_t
770 ef10_ev_rx_packed_stream(
771         __in            efx_evq_t *eep,
772         __in            efx_qword_t *eqp,
773         __in            const efx_ev_callbacks_t *eecp,
774         __in_opt        void *arg)
775 {
776         uint32_t label;
777         uint32_t pkt_count_lbits;
778         uint16_t flags;
779         boolean_t should_abort;
780         efx_evq_rxq_state_t *eersp;
781         unsigned int pkt_count;
782         unsigned int current_id;
783         boolean_t new_buffer;
784
785         pkt_count_lbits = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_DSC_PTR_LBITS);
786         label = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_QLABEL);
787         new_buffer = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_EV_ROTATE);
788
789         flags = 0;
790
791         eersp = &eep->ee_rxq_state[label];
792
793         /*
794          * RX_DSC_PTR_LBITS has least significant bits of the global
795          * (not per-buffer) packet counter. It is guaranteed that
796          * maximum number of completed packets fits in lbits-mask.
797          * So, modulo lbits-mask arithmetic should be used to calculate
798          * packet counter increment.
799          */
800         pkt_count = (pkt_count_lbits - eersp->eers_rx_stream_npackets) &
801             EFX_MASK32(ESF_DZ_RX_DSC_PTR_LBITS);
802         eersp->eers_rx_stream_npackets += pkt_count;
803
804         if (new_buffer) {
805                 flags |= EFX_PKT_PACKED_STREAM_NEW_BUFFER;
806                 if (eersp->eers_rx_packed_stream_credits <
807                     EFX_RX_PACKED_STREAM_MAX_CREDITS)
808                         eersp->eers_rx_packed_stream_credits++;
809                 eersp->eers_rx_read_ptr++;
810         }
811         current_id = eersp->eers_rx_read_ptr & eersp->eers_rx_mask;
812
813         /* Check for errors that invalidate checksum and L3/L4 fields */
814         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECC_ERR) != 0) {
815                 /* RX frame truncated (error flag is misnamed) */
816                 EFX_EV_QSTAT_INCR(eep, EV_RX_FRM_TRUNC);
817                 flags |= EFX_DISCARD;
818                 goto deliver;
819         }
820         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECRC_ERR) != 0) {
821                 /* Bad Ethernet frame CRC */
822                 EFX_EV_QSTAT_INCR(eep, EV_RX_ETH_CRC_ERR);
823                 flags |= EFX_DISCARD;
824                 goto deliver;
825         }
826
827         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_PARSE_INCOMPLETE)) {
828                 flags |= EFX_PKT_PACKED_STREAM_PARSE_INCOMPLETE;
829                 goto deliver;
830         }
831
832         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_IPCKSUM_ERR))
833                 EFX_EV_QSTAT_INCR(eep, EV_RX_IPV4_HDR_CHKSUM_ERR);
834
835         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_TCPUDP_CKSUM_ERR))
836                 EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_UDP_CHKSUM_ERR);
837
838 deliver:
839         /* If we're not discarding the packet then it is ok */
840         if (~flags & EFX_DISCARD)
841                 EFX_EV_QSTAT_INCR(eep, EV_RX_OK);
842
843         EFSYS_ASSERT(eecp->eec_rx_ps != NULL);
844         should_abort = eecp->eec_rx_ps(arg, label, current_id, pkt_count,
845             flags);
846
847         return (should_abort);
848 }
849
850 #endif /* EFSYS_OPT_RX_PACKED_STREAM */
851
852 static  __checkReturn   boolean_t
853 ef10_ev_rx(
854         __in            efx_evq_t *eep,
855         __in            efx_qword_t *eqp,
856         __in            const efx_ev_callbacks_t *eecp,
857         __in_opt        void *arg)
858 {
859         efx_nic_t *enp = eep->ee_enp;
860         uint32_t size;
861         uint32_t label;
862         uint32_t mac_class;
863         uint32_t eth_tag_class;
864         uint32_t l3_class;
865         uint32_t l4_class;
866         uint32_t next_read_lbits;
867         uint16_t flags;
868         boolean_t cont;
869         boolean_t should_abort;
870         efx_evq_rxq_state_t *eersp;
871         unsigned int desc_count;
872         unsigned int last_used_id;
873
874         EFX_EV_QSTAT_INCR(eep, EV_RX);
875
876         /* Discard events after RXQ/TXQ errors */
877         if (enp->en_reset_flags & (EFX_RESET_RXQ_ERR | EFX_RESET_TXQ_ERR))
878                 return (B_FALSE);
879
880         /* Basic packet information */
881         label = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_QLABEL);
882         eersp = &eep->ee_rxq_state[label];
883
884 #if EFSYS_OPT_RX_PACKED_STREAM
885         /*
886          * Packed stream events are very different,
887          * so handle them separately
888          */
889         if (eersp->eers_rx_packed_stream)
890                 return (ef10_ev_rx_packed_stream(eep, eqp, eecp, arg));
891 #endif
892
893         size = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_BYTES);
894         next_read_lbits = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_DSC_PTR_LBITS);
895         eth_tag_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ETH_TAG_CLASS);
896         mac_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_MAC_CLASS);
897         l3_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_L3_CLASS);
898         l4_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_L4_CLASS);
899         cont = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_CONT);
900
901         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_DROP_EVENT) != 0) {
902                 /* Drop this event */
903                 return (B_FALSE);
904         }
905         flags = 0;
906
907         if (cont != 0) {
908                 /*
909                  * This may be part of a scattered frame, or it may be a
910                  * truncated frame if scatter is disabled on this RXQ.
911                  * Overlength frames can be received if e.g. a VF is configured
912                  * for 1500 MTU but connected to a port set to 9000 MTU
913                  * (see bug56567).
914                  * FIXME: There is not yet any driver that supports scatter on
915                  * Huntington.  Scatter support is required for OSX.
916                  */
917                 flags |= EFX_PKT_CONT;
918         }
919
920         if (mac_class == ESE_DZ_MAC_CLASS_UCAST)
921                 flags |= EFX_PKT_UNICAST;
922
923         /* Increment the count of descriptors read */
924         desc_count = (next_read_lbits - eersp->eers_rx_read_ptr) &
925             EFX_MASK32(ESF_DZ_RX_DSC_PTR_LBITS);
926         eersp->eers_rx_read_ptr += desc_count;
927
928         /*
929          * FIXME: add error checking to make sure this a batched event.
930          * This could also be an aborted scatter, see Bug36629.
931          */
932         if (desc_count > 1) {
933                 EFX_EV_QSTAT_INCR(eep, EV_RX_BATCH);
934                 flags |= EFX_PKT_PREFIX_LEN;
935         }
936
937         /* Calculate the index of the last descriptor consumed */
938         last_used_id = (eersp->eers_rx_read_ptr - 1) & eersp->eers_rx_mask;
939
940         /* Check for errors that invalidate checksum and L3/L4 fields */
941         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECC_ERR) != 0) {
942                 /* RX frame truncated (error flag is misnamed) */
943                 EFX_EV_QSTAT_INCR(eep, EV_RX_FRM_TRUNC);
944                 flags |= EFX_DISCARD;
945                 goto deliver;
946         }
947         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECRC_ERR) != 0) {
948                 /* Bad Ethernet frame CRC */
949                 EFX_EV_QSTAT_INCR(eep, EV_RX_ETH_CRC_ERR);
950                 flags |= EFX_DISCARD;
951                 goto deliver;
952         }
953         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_PARSE_INCOMPLETE)) {
954                 /*
955                  * Hardware parse failed, due to malformed headers
956                  * or headers that are too long for the parser.
957                  * Headers and checksums must be validated by the host.
958                  */
959                 /* TODO: EFX_EV_QSTAT_INCR(eep, EV_RX_PARSE_INCOMPLETE); */
960                 goto deliver;
961         }
962
963         if ((eth_tag_class == ESE_DZ_ETH_TAG_CLASS_VLAN1) ||
964             (eth_tag_class == ESE_DZ_ETH_TAG_CLASS_VLAN2)) {
965                 flags |= EFX_PKT_VLAN_TAGGED;
966         }
967
968         switch (l3_class) {
969         case ESE_DZ_L3_CLASS_IP4:
970         case ESE_DZ_L3_CLASS_IP4_FRAG:
971                 flags |= EFX_PKT_IPV4;
972                 if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_IPCKSUM_ERR)) {
973                         EFX_EV_QSTAT_INCR(eep, EV_RX_IPV4_HDR_CHKSUM_ERR);
974                 } else {
975                         flags |= EFX_CKSUM_IPV4;
976                 }
977
978                 if (l4_class == ESE_DZ_L4_CLASS_TCP) {
979                         EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_IPV4);
980                         flags |= EFX_PKT_TCP;
981                 } else if (l4_class == ESE_DZ_L4_CLASS_UDP) {
982                         EFX_EV_QSTAT_INCR(eep, EV_RX_UDP_IPV4);
983                         flags |= EFX_PKT_UDP;
984                 } else {
985                         EFX_EV_QSTAT_INCR(eep, EV_RX_OTHER_IPV4);
986                 }
987                 break;
988
989         case ESE_DZ_L3_CLASS_IP6:
990         case ESE_DZ_L3_CLASS_IP6_FRAG:
991                 flags |= EFX_PKT_IPV6;
992
993                 if (l4_class == ESE_DZ_L4_CLASS_TCP) {
994                         EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_IPV6);
995                         flags |= EFX_PKT_TCP;
996                 } else if (l4_class == ESE_DZ_L4_CLASS_UDP) {
997                         EFX_EV_QSTAT_INCR(eep, EV_RX_UDP_IPV6);
998                         flags |= EFX_PKT_UDP;
999                 } else {
1000                         EFX_EV_QSTAT_INCR(eep, EV_RX_OTHER_IPV6);
1001                 }
1002                 break;
1003
1004         default:
1005                 EFX_EV_QSTAT_INCR(eep, EV_RX_NON_IP);
1006                 break;
1007         }
1008
1009         if (flags & (EFX_PKT_TCP | EFX_PKT_UDP)) {
1010                 if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_TCPUDP_CKSUM_ERR)) {
1011                         EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_UDP_CHKSUM_ERR);
1012                 } else {
1013                         flags |= EFX_CKSUM_TCPUDP;
1014                 }
1015         }
1016
1017 deliver:
1018         /* If we're not discarding the packet then it is ok */
1019         if (~flags & EFX_DISCARD)
1020                 EFX_EV_QSTAT_INCR(eep, EV_RX_OK);
1021
1022         EFSYS_ASSERT(eecp->eec_rx != NULL);
1023         should_abort = eecp->eec_rx(arg, label, last_used_id, size, flags);
1024
1025         return (should_abort);
1026 }
1027
1028 static  __checkReturn   boolean_t
1029 ef10_ev_tx(
1030         __in            efx_evq_t *eep,
1031         __in            efx_qword_t *eqp,
1032         __in            const efx_ev_callbacks_t *eecp,
1033         __in_opt        void *arg)
1034 {
1035         efx_nic_t *enp = eep->ee_enp;
1036         uint32_t id;
1037         uint32_t label;
1038         boolean_t should_abort;
1039
1040         EFX_EV_QSTAT_INCR(eep, EV_TX);
1041
1042         /* Discard events after RXQ/TXQ errors */
1043         if (enp->en_reset_flags & (EFX_RESET_RXQ_ERR | EFX_RESET_TXQ_ERR))
1044                 return (B_FALSE);
1045
1046         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_TX_DROP_EVENT) != 0) {
1047                 /* Drop this event */
1048                 return (B_FALSE);
1049         }
1050
1051         /* Per-packet TX completion (was per-descriptor for Falcon/Siena) */
1052         id = EFX_QWORD_FIELD(*eqp, ESF_DZ_TX_DESCR_INDX);
1053         label = EFX_QWORD_FIELD(*eqp, ESF_DZ_TX_QLABEL);
1054
1055         EFSYS_PROBE2(tx_complete, uint32_t, label, uint32_t, id);
1056
1057         EFSYS_ASSERT(eecp->eec_tx != NULL);
1058         should_abort = eecp->eec_tx(arg, label, id);
1059
1060         return (should_abort);
1061 }
1062
1063 static  __checkReturn   boolean_t
1064 ef10_ev_driver(
1065         __in            efx_evq_t *eep,
1066         __in            efx_qword_t *eqp,
1067         __in            const efx_ev_callbacks_t *eecp,
1068         __in_opt        void *arg)
1069 {
1070         unsigned int code;
1071         boolean_t should_abort;
1072
1073         EFX_EV_QSTAT_INCR(eep, EV_DRIVER);
1074         should_abort = B_FALSE;
1075
1076         code = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_SUB_CODE);
1077         switch (code) {
1078         case ESE_DZ_DRV_TIMER_EV: {
1079                 uint32_t id;
1080
1081                 id = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_TMR_ID);
1082
1083                 EFSYS_ASSERT(eecp->eec_timer != NULL);
1084                 should_abort = eecp->eec_timer(arg, id);
1085                 break;
1086         }
1087
1088         case ESE_DZ_DRV_WAKE_UP_EV: {
1089                 uint32_t id;
1090
1091                 id = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_EVQ_ID);
1092
1093                 EFSYS_ASSERT(eecp->eec_wake_up != NULL);
1094                 should_abort = eecp->eec_wake_up(arg, id);
1095                 break;
1096         }
1097
1098         case ESE_DZ_DRV_START_UP_EV:
1099                 EFSYS_ASSERT(eecp->eec_initialized != NULL);
1100                 should_abort = eecp->eec_initialized(arg);
1101                 break;
1102
1103         default:
1104                 EFSYS_PROBE3(bad_event, unsigned int, eep->ee_index,
1105                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1106                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1107                 break;
1108         }
1109
1110         return (should_abort);
1111 }
1112
1113 static  __checkReturn   boolean_t
1114 ef10_ev_drv_gen(
1115         __in            efx_evq_t *eep,
1116         __in            efx_qword_t *eqp,
1117         __in            const efx_ev_callbacks_t *eecp,
1118         __in_opt        void *arg)
1119 {
1120         uint32_t data;
1121         boolean_t should_abort;
1122
1123         EFX_EV_QSTAT_INCR(eep, EV_DRV_GEN);
1124         should_abort = B_FALSE;
1125
1126         data = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_SUB_DATA_DW0);
1127         if (data >= ((uint32_t)1 << 16)) {
1128                 EFSYS_PROBE3(bad_event, unsigned int, eep->ee_index,
1129                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1130                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1131
1132                 return (B_TRUE);
1133         }
1134
1135         EFSYS_ASSERT(eecp->eec_software != NULL);
1136         should_abort = eecp->eec_software(arg, (uint16_t)data);
1137
1138         return (should_abort);
1139 }
1140
1141 static  __checkReturn   boolean_t
1142 ef10_ev_mcdi(
1143         __in            efx_evq_t *eep,
1144         __in            efx_qword_t *eqp,
1145         __in            const efx_ev_callbacks_t *eecp,
1146         __in_opt        void *arg)
1147 {
1148         efx_nic_t *enp = eep->ee_enp;
1149         unsigned int code;
1150         boolean_t should_abort = B_FALSE;
1151
1152         EFX_EV_QSTAT_INCR(eep, EV_MCDI_RESPONSE);
1153
1154         code = EFX_QWORD_FIELD(*eqp, MCDI_EVENT_CODE);
1155         switch (code) {
1156         case MCDI_EVENT_CODE_BADSSERT:
1157                 efx_mcdi_ev_death(enp, EINTR);
1158                 break;
1159
1160         case MCDI_EVENT_CODE_CMDDONE:
1161                 efx_mcdi_ev_cpl(enp,
1162                     MCDI_EV_FIELD(eqp, CMDDONE_SEQ),
1163                     MCDI_EV_FIELD(eqp, CMDDONE_DATALEN),
1164                     MCDI_EV_FIELD(eqp, CMDDONE_ERRNO));
1165                 break;
1166
1167 #if EFSYS_OPT_MCDI_PROXY_AUTH
1168         case MCDI_EVENT_CODE_PROXY_RESPONSE:
1169                 /*
1170                  * This event notifies a function that an authorization request
1171                  * has been processed. If the request was authorized then the
1172                  * function can now re-send the original MCDI request.
1173                  * See SF-113652-SW "SR-IOV Proxied Network Access Control".
1174                  */
1175                 efx_mcdi_ev_proxy_response(enp,
1176                     MCDI_EV_FIELD(eqp, PROXY_RESPONSE_HANDLE),
1177                     MCDI_EV_FIELD(eqp, PROXY_RESPONSE_RC));
1178                 break;
1179 #endif /* EFSYS_OPT_MCDI_PROXY_AUTH */
1180
1181         case MCDI_EVENT_CODE_LINKCHANGE: {
1182                 efx_link_mode_t link_mode;
1183
1184                 ef10_phy_link_ev(enp, eqp, &link_mode);
1185                 should_abort = eecp->eec_link_change(arg, link_mode);
1186                 break;
1187         }
1188
1189         case MCDI_EVENT_CODE_SENSOREVT: {
1190 #if EFSYS_OPT_MON_STATS
1191                 efx_mon_stat_t id;
1192                 efx_mon_stat_value_t value;
1193                 efx_rc_t rc;
1194
1195                 /* Decode monitor stat for MCDI sensor (if supported) */
1196                 if ((rc = mcdi_mon_ev(enp, eqp, &id, &value)) == 0) {
1197                         /* Report monitor stat change */
1198                         should_abort = eecp->eec_monitor(arg, id, value);
1199                 } else if (rc == ENOTSUP) {
1200                         should_abort = eecp->eec_exception(arg,
1201                                 EFX_EXCEPTION_UNKNOWN_SENSOREVT,
1202                                 MCDI_EV_FIELD(eqp, DATA));
1203                 } else {
1204                         EFSYS_ASSERT(rc == ENODEV);     /* Wrong port */
1205                 }
1206 #endif
1207                 break;
1208         }
1209
1210         case MCDI_EVENT_CODE_SCHEDERR:
1211                 /* Informational only */
1212                 break;
1213
1214         case MCDI_EVENT_CODE_REBOOT:
1215                 /* Falcon/Siena only (should not been seen with Huntington). */
1216                 efx_mcdi_ev_death(enp, EIO);
1217                 break;
1218
1219         case MCDI_EVENT_CODE_MC_REBOOT:
1220                 /* MC_REBOOT event is used for Huntington (EF10) and later. */
1221                 efx_mcdi_ev_death(enp, EIO);
1222                 break;
1223
1224         case MCDI_EVENT_CODE_MAC_STATS_DMA:
1225 #if EFSYS_OPT_MAC_STATS
1226                 if (eecp->eec_mac_stats != NULL) {
1227                         eecp->eec_mac_stats(arg,
1228                             MCDI_EV_FIELD(eqp, MAC_STATS_DMA_GENERATION));
1229                 }
1230 #endif
1231                 break;
1232
1233         case MCDI_EVENT_CODE_FWALERT: {
1234                 uint32_t reason = MCDI_EV_FIELD(eqp, FWALERT_REASON);
1235
1236                 if (reason == MCDI_EVENT_FWALERT_REASON_SRAM_ACCESS)
1237                         should_abort = eecp->eec_exception(arg,
1238                                 EFX_EXCEPTION_FWALERT_SRAM,
1239                                 MCDI_EV_FIELD(eqp, FWALERT_DATA));
1240                 else
1241                         should_abort = eecp->eec_exception(arg,
1242                                 EFX_EXCEPTION_UNKNOWN_FWALERT,
1243                                 MCDI_EV_FIELD(eqp, DATA));
1244                 break;
1245         }
1246
1247         case MCDI_EVENT_CODE_TX_ERR: {
1248                 /*
1249                  * After a TXQ error is detected, firmware sends a TX_ERR event.
1250                  * This may be followed by TX completions (which we discard),
1251                  * and then finally by a TX_FLUSH event. Firmware destroys the
1252                  * TXQ automatically after sending the TX_FLUSH event.
1253                  */
1254                 enp->en_reset_flags |= EFX_RESET_TXQ_ERR;
1255
1256                 EFSYS_PROBE2(tx_descq_err,
1257                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1258                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1259
1260                 /* Inform the driver that a reset is required. */
1261                 eecp->eec_exception(arg, EFX_EXCEPTION_TX_ERROR,
1262                     MCDI_EV_FIELD(eqp, TX_ERR_DATA));
1263                 break;
1264         }
1265
1266         case MCDI_EVENT_CODE_TX_FLUSH: {
1267                 uint32_t txq_index = MCDI_EV_FIELD(eqp, TX_FLUSH_TXQ);
1268
1269                 /*
1270                  * EF10 firmware sends two TX_FLUSH events: one to the txq's
1271                  * event queue, and one to evq 0 (with TX_FLUSH_TO_DRIVER set).
1272                  * We want to wait for all completions, so ignore the events
1273                  * with TX_FLUSH_TO_DRIVER.
1274                  */
1275                 if (MCDI_EV_FIELD(eqp, TX_FLUSH_TO_DRIVER) != 0) {
1276                         should_abort = B_FALSE;
1277                         break;
1278                 }
1279
1280                 EFX_EV_QSTAT_INCR(eep, EV_DRIVER_TX_DESCQ_FLS_DONE);
1281
1282                 EFSYS_PROBE1(tx_descq_fls_done, uint32_t, txq_index);
1283
1284                 EFSYS_ASSERT(eecp->eec_txq_flush_done != NULL);
1285                 should_abort = eecp->eec_txq_flush_done(arg, txq_index);
1286                 break;
1287         }
1288
1289         case MCDI_EVENT_CODE_RX_ERR: {
1290                 /*
1291                  * After an RXQ error is detected, firmware sends an RX_ERR
1292                  * event. This may be followed by RX events (which we discard),
1293                  * and then finally by an RX_FLUSH event. Firmware destroys the
1294                  * RXQ automatically after sending the RX_FLUSH event.
1295                  */
1296                 enp->en_reset_flags |= EFX_RESET_RXQ_ERR;
1297
1298                 EFSYS_PROBE2(rx_descq_err,
1299                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1300                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1301
1302                 /* Inform the driver that a reset is required. */
1303                 eecp->eec_exception(arg, EFX_EXCEPTION_RX_ERROR,
1304                     MCDI_EV_FIELD(eqp, RX_ERR_DATA));
1305                 break;
1306         }
1307
1308         case MCDI_EVENT_CODE_RX_FLUSH: {
1309                 uint32_t rxq_index = MCDI_EV_FIELD(eqp, RX_FLUSH_RXQ);
1310
1311                 /*
1312                  * EF10 firmware sends two RX_FLUSH events: one to the rxq's
1313                  * event queue, and one to evq 0 (with RX_FLUSH_TO_DRIVER set).
1314                  * We want to wait for all completions, so ignore the events
1315                  * with RX_FLUSH_TO_DRIVER.
1316                  */
1317                 if (MCDI_EV_FIELD(eqp, RX_FLUSH_TO_DRIVER) != 0) {
1318                         should_abort = B_FALSE;
1319                         break;
1320                 }
1321
1322                 EFX_EV_QSTAT_INCR(eep, EV_DRIVER_RX_DESCQ_FLS_DONE);
1323
1324                 EFSYS_PROBE1(rx_descq_fls_done, uint32_t, rxq_index);
1325
1326                 EFSYS_ASSERT(eecp->eec_rxq_flush_done != NULL);
1327                 should_abort = eecp->eec_rxq_flush_done(arg, rxq_index);
1328                 break;
1329         }
1330
1331         default:
1332                 EFSYS_PROBE3(bad_event, unsigned int, eep->ee_index,
1333                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1334                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1335                 break;
1336         }
1337
1338         return (should_abort);
1339 }
1340
1341                 void
1342 ef10_ev_rxlabel_init(
1343         __in            efx_evq_t *eep,
1344         __in            efx_rxq_t *erp,
1345         __in            unsigned int label,
1346         __in            efx_rxq_type_t type)
1347 {
1348         efx_evq_rxq_state_t *eersp;
1349         boolean_t packed_stream = (type >= EFX_RXQ_TYPE_PACKED_STREAM_1M) &&
1350             (type <= EFX_RXQ_TYPE_PACKED_STREAM_64K);
1351
1352         EFSYS_ASSERT3U(label, <, EFX_ARRAY_SIZE(eep->ee_rxq_state));
1353         eersp = &eep->ee_rxq_state[label];
1354
1355         EFSYS_ASSERT3U(eersp->eers_rx_mask, ==, 0);
1356
1357 #if EFSYS_OPT_RX_PACKED_STREAM
1358         /*
1359          * For packed stream modes, the very first event will
1360          * have a new buffer flag set, so it will be incremented,
1361          * yielding the correct pointer. That results in a simpler
1362          * code than trying to detect start-of-the-world condition
1363          * in the event handler.
1364          */
1365         eersp->eers_rx_read_ptr = packed_stream ? ~0 : 0;
1366 #else
1367         eersp->eers_rx_read_ptr = 0;
1368 #endif
1369         eersp->eers_rx_mask = erp->er_mask;
1370 #if EFSYS_OPT_RX_PACKED_STREAM
1371         eersp->eers_rx_stream_npackets = 0;
1372         eersp->eers_rx_packed_stream = packed_stream;
1373         if (packed_stream) {
1374                 eersp->eers_rx_packed_stream_credits = (eep->ee_mask + 1) /
1375                     (EFX_RX_PACKED_STREAM_MEM_PER_CREDIT /
1376                     EFX_RX_PACKED_STREAM_MIN_PACKET_SPACE);
1377                 EFSYS_ASSERT3U(eersp->eers_rx_packed_stream_credits, !=, 0);
1378                 /*
1379                  * A single credit is allocated to the queue when it is started.
1380                  * It is immediately spent by the first packet which has NEW
1381                  * BUFFER flag set, though, but still we shall take into
1382                  * account, as to not wrap around the maximum number of credits
1383                  * accidentally
1384                  */
1385                 eersp->eers_rx_packed_stream_credits--;
1386                 EFSYS_ASSERT3U(eersp->eers_rx_packed_stream_credits, <=,
1387                     EFX_RX_PACKED_STREAM_MAX_CREDITS);
1388         }
1389 #else
1390         EFSYS_ASSERT(!packed_stream);
1391 #endif
1392 }
1393
1394                 void
1395 ef10_ev_rxlabel_fini(
1396         __in            efx_evq_t *eep,
1397         __in            unsigned int label)
1398 {
1399         efx_evq_rxq_state_t *eersp;
1400
1401         EFSYS_ASSERT3U(label, <, EFX_ARRAY_SIZE(eep->ee_rxq_state));
1402         eersp = &eep->ee_rxq_state[label];
1403
1404         EFSYS_ASSERT3U(eersp->eers_rx_mask, !=, 0);
1405
1406         eersp->eers_rx_read_ptr = 0;
1407         eersp->eers_rx_mask = 0;
1408 #if EFSYS_OPT_RX_PACKED_STREAM
1409         eersp->eers_rx_stream_npackets = 0;
1410         eersp->eers_rx_packed_stream = B_FALSE;
1411         eersp->eers_rx_packed_stream_credits = 0;
1412 #endif
1413 }
1414
1415 #endif  /* EFSYS_OPT_HUNTINGTON || EFSYS_OPT_MEDFORD */