crypto/qat: rework asymmetric op build operation
[dpdk.git] / drivers / common / cnxk / roc_nix_tm_utils.c
1 /* SPDX-License-Identifier: BSD-3-Clause
2  * Copyright(C) 2021 Marvell.
3  */
4
5 #include "roc_api.h"
6 #include "roc_priv.h"
7
8 static inline uint64_t
9 nix_tm_shaper2regval(struct nix_tm_shaper_data *shaper)
10 {
11         uint64_t regval;
12
13         if (roc_model_is_cn9k()) {
14                 regval = (shaper->burst_exponent << 37);
15                 regval |= (shaper->burst_mantissa << 29);
16                 regval |= (shaper->div_exp << 13);
17                 regval |= (shaper->exponent << 9);
18                 regval |= (shaper->mantissa << 1);
19                 return regval;
20         }
21
22         regval = (shaper->burst_exponent << 44);
23         regval |= (shaper->burst_mantissa << 29);
24         regval |= (shaper->div_exp << 13);
25         regval |= (shaper->exponent << 9);
26         regval |= (shaper->mantissa << 1);
27         return regval;
28 }
29
30 uint16_t
31 nix_tm_lvl2nix_tl1_root(uint32_t lvl)
32 {
33         switch (lvl) {
34         case ROC_TM_LVL_ROOT:
35                 return NIX_TXSCH_LVL_TL1;
36         case ROC_TM_LVL_SCH1:
37                 return NIX_TXSCH_LVL_TL2;
38         case ROC_TM_LVL_SCH2:
39                 return NIX_TXSCH_LVL_TL3;
40         case ROC_TM_LVL_SCH3:
41                 return NIX_TXSCH_LVL_TL4;
42         case ROC_TM_LVL_SCH4:
43                 return NIX_TXSCH_LVL_SMQ;
44         default:
45                 return NIX_TXSCH_LVL_CNT;
46         }
47 }
48
49 uint16_t
50 nix_tm_lvl2nix_tl2_root(uint32_t lvl)
51 {
52         switch (lvl) {
53         case ROC_TM_LVL_ROOT:
54                 return NIX_TXSCH_LVL_TL2;
55         case ROC_TM_LVL_SCH1:
56                 return NIX_TXSCH_LVL_TL3;
57         case ROC_TM_LVL_SCH2:
58                 return NIX_TXSCH_LVL_TL4;
59         case ROC_TM_LVL_SCH3:
60                 return NIX_TXSCH_LVL_SMQ;
61         default:
62                 return NIX_TXSCH_LVL_CNT;
63         }
64 }
65
66 uint16_t
67 nix_tm_lvl2nix(struct nix *nix, uint32_t lvl)
68 {
69         if (nix_tm_have_tl1_access(nix))
70                 return nix_tm_lvl2nix_tl1_root(lvl);
71         else
72                 return nix_tm_lvl2nix_tl2_root(lvl);
73 }
74
75 static uint8_t
76 nix_tm_relchan_get(struct nix *nix)
77 {
78         return nix->tx_chan_base & 0xff;
79 }
80
81 static int
82 nix_tm_find_prio_anchor(struct nix *nix, uint32_t node_id,
83                         enum roc_nix_tm_tree tree)
84 {
85         struct nix_tm_node *child_node;
86         struct nix_tm_node_list *list;
87
88         list = nix_tm_node_list(nix, tree);
89
90         TAILQ_FOREACH(child_node, list, node) {
91                 if (!child_node->parent)
92                         continue;
93                 if (!(child_node->parent->id == node_id))
94                         continue;
95                 if (child_node->priority == child_node->parent->rr_prio)
96                         continue;
97                 return child_node->hw_id - child_node->priority;
98         }
99         return 0;
100 }
101
102 struct nix_tm_shaper_profile *
103 nix_tm_shaper_profile_search(struct nix *nix, uint32_t id)
104 {
105         struct nix_tm_shaper_profile *profile;
106
107         TAILQ_FOREACH(profile, &nix->shaper_profile_list, shaper) {
108                 if (profile->id == id)
109                         return profile;
110         }
111         return NULL;
112 }
113
114 struct nix_tm_node *
115 nix_tm_node_search(struct nix *nix, uint32_t node_id, enum roc_nix_tm_tree tree)
116 {
117         struct nix_tm_node_list *list;
118         struct nix_tm_node *node;
119
120         list = nix_tm_node_list(nix, tree);
121         TAILQ_FOREACH(node, list, node) {
122                 if (node->id == node_id)
123                         return node;
124         }
125         return NULL;
126 }
127
128 uint64_t
129 nix_tm_shaper_rate_conv(uint64_t value, uint64_t *exponent_p,
130                         uint64_t *mantissa_p, uint64_t *div_exp_p)
131 {
132         uint64_t div_exp, exponent, mantissa;
133
134         /* Boundary checks */
135         if (value < NIX_TM_MIN_SHAPER_RATE || value > NIX_TM_MAX_SHAPER_RATE)
136                 return 0;
137
138         if (value <= NIX_TM_SHAPER_RATE(0, 0, 0)) {
139                 /* Calculate rate div_exp and mantissa using
140                  * the following formula:
141                  *
142                  * value = (2E6 * (256 + mantissa)
143                  *              / ((1 << div_exp) * 256))
144                  */
145                 div_exp = 0;
146                 exponent = 0;
147                 mantissa = NIX_TM_MAX_RATE_MANTISSA;
148
149                 while (value < (NIX_TM_SHAPER_RATE_CONST / (1 << div_exp)))
150                         div_exp += 1;
151
152                 while (value < ((NIX_TM_SHAPER_RATE_CONST * (256 + mantissa)) /
153                                 ((1 << div_exp) * 256)))
154                         mantissa -= 1;
155         } else {
156                 /* Calculate rate exponent and mantissa using
157                  * the following formula:
158                  *
159                  * value = (2E6 * ((256 + mantissa) << exponent)) / 256
160                  *
161                  */
162                 div_exp = 0;
163                 exponent = NIX_TM_MAX_RATE_EXPONENT;
164                 mantissa = NIX_TM_MAX_RATE_MANTISSA;
165
166                 while (value < (NIX_TM_SHAPER_RATE_CONST * (1 << exponent)))
167                         exponent -= 1;
168
169                 while (value < ((NIX_TM_SHAPER_RATE_CONST *
170                                  ((256 + mantissa) << exponent)) /
171                                 256))
172                         mantissa -= 1;
173         }
174
175         if (div_exp > NIX_TM_MAX_RATE_DIV_EXP ||
176             exponent > NIX_TM_MAX_RATE_EXPONENT ||
177             mantissa > NIX_TM_MAX_RATE_MANTISSA)
178                 return 0;
179
180         if (div_exp_p)
181                 *div_exp_p = div_exp;
182         if (exponent_p)
183                 *exponent_p = exponent;
184         if (mantissa_p)
185                 *mantissa_p = mantissa;
186
187         /* Calculate real rate value */
188         return NIX_TM_SHAPER_RATE(exponent, mantissa, div_exp);
189 }
190
191 uint64_t
192 nix_tm_shaper_burst_conv(uint64_t value, uint64_t *exponent_p,
193                          uint64_t *mantissa_p)
194 {
195         uint64_t min_burst, max_burst;
196         uint64_t exponent, mantissa;
197         uint32_t max_mantissa;
198
199         min_burst = NIX_TM_MIN_SHAPER_BURST;
200         max_burst = roc_nix_tm_max_shaper_burst_get();
201
202         if (value < min_burst || value > max_burst)
203                 return 0;
204
205         max_mantissa = (roc_model_is_cn9k() ? NIX_CN9K_TM_MAX_BURST_MANTISSA :
206                                               NIX_TM_MAX_BURST_MANTISSA);
207         /* Calculate burst exponent and mantissa using
208          * the following formula:
209          *
210          * value = (((256 + mantissa) << (exponent + 1) / 256)
211          *
212          */
213         exponent = NIX_TM_MAX_BURST_EXPONENT;
214         mantissa = max_mantissa;
215
216         while (value < (1ull << (exponent + 1)))
217                 exponent -= 1;
218
219         while (value < ((256 + mantissa) << (exponent + 1)) / 256)
220                 mantissa -= 1;
221
222         if (exponent > NIX_TM_MAX_BURST_EXPONENT || mantissa > max_mantissa)
223                 return 0;
224
225         if (exponent_p)
226                 *exponent_p = exponent;
227         if (mantissa_p)
228                 *mantissa_p = mantissa;
229
230         return NIX_TM_SHAPER_BURST(exponent, mantissa);
231 }
232
233 static void
234 nix_tm_shaper_conf_get(struct nix_tm_shaper_profile *profile,
235                        struct nix_tm_shaper_data *cir,
236                        struct nix_tm_shaper_data *pir)
237 {
238         memset(cir, 0, sizeof(*cir));
239         memset(pir, 0, sizeof(*pir));
240
241         if (!profile)
242                 return;
243
244         /* Calculate CIR exponent and mantissa */
245         if (profile->commit.rate)
246                 cir->rate = nix_tm_shaper_rate_conv(
247                         profile->commit.rate, &cir->exponent, &cir->mantissa,
248                         &cir->div_exp);
249
250         /* Calculate PIR exponent and mantissa */
251         if (profile->peak.rate)
252                 pir->rate = nix_tm_shaper_rate_conv(
253                         profile->peak.rate, &pir->exponent, &pir->mantissa,
254                         &pir->div_exp);
255
256         /* Calculate CIR burst exponent and mantissa */
257         if (profile->commit.size)
258                 cir->burst = nix_tm_shaper_burst_conv(profile->commit.size,
259                                                       &cir->burst_exponent,
260                                                       &cir->burst_mantissa);
261
262         /* Calculate PIR burst exponent and mantissa */
263         if (profile->peak.size)
264                 pir->burst = nix_tm_shaper_burst_conv(profile->peak.size,
265                                                       &pir->burst_exponent,
266                                                       &pir->burst_mantissa);
267 }
268
269 uint32_t
270 nix_tm_check_rr(struct nix *nix, uint32_t parent_id, enum roc_nix_tm_tree tree,
271                 uint32_t *rr_prio, uint32_t *max_prio)
272 {
273         uint32_t node_cnt[NIX_TM_TLX_SP_PRIO_MAX];
274         struct nix_tm_node_list *list;
275         struct nix_tm_node *node;
276         uint32_t rr_num = 0, i;
277         uint32_t children = 0;
278         uint32_t priority;
279
280         memset(node_cnt, 0, sizeof(node_cnt));
281         *rr_prio = 0xF;
282         *max_prio = UINT32_MAX;
283
284         list = nix_tm_node_list(nix, tree);
285         TAILQ_FOREACH(node, list, node) {
286                 if (!node->parent)
287                         continue;
288
289                 if (!(node->parent->id == parent_id))
290                         continue;
291
292                 priority = node->priority;
293                 node_cnt[priority]++;
294                 children++;
295         }
296
297         for (i = 0; i < NIX_TM_TLX_SP_PRIO_MAX; i++) {
298                 if (!node_cnt[i])
299                         break;
300
301                 if (node_cnt[i] > rr_num) {
302                         *rr_prio = i;
303                         rr_num = node_cnt[i];
304                 }
305         }
306
307         /* RR group of single RR child is considered as SP */
308         if (rr_num == 1) {
309                 *rr_prio = 0xF;
310                 rr_num = 0;
311         }
312
313         /* Max prio will be returned only when we have non zero prio
314          * or if a parent has single child.
315          */
316         if (i > 1 || (children == 1))
317                 *max_prio = i - 1;
318         return rr_num;
319 }
320
321 static uint16_t
322 nix_tm_max_prio(struct nix *nix, uint16_t hw_lvl)
323 {
324         if (hw_lvl >= NIX_TXSCH_LVL_CNT)
325                 return 0;
326
327         /* MDQ does not support SP */
328         if (hw_lvl == NIX_TXSCH_LVL_MDQ)
329                 return 0;
330
331         /* PF's TL1 with VF's enabled does not support SP */
332         if (hw_lvl == NIX_TXSCH_LVL_TL1 && (!nix_tm_have_tl1_access(nix) ||
333                                             (nix->tm_flags & NIX_TM_TL1_NO_SP)))
334                 return 0;
335
336         return NIX_TM_TLX_SP_PRIO_MAX - 1;
337 }
338
339 int
340 nix_tm_validate_prio(struct nix *nix, uint32_t lvl, uint32_t parent_id,
341                      uint32_t priority, enum roc_nix_tm_tree tree)
342 {
343         uint8_t priorities[NIX_TM_TLX_SP_PRIO_MAX];
344         struct nix_tm_node_list *list;
345         struct nix_tm_node *node;
346         uint32_t rr_num = 0;
347         int i;
348
349         list = nix_tm_node_list(nix, tree);
350         /* Validate priority against max */
351         if (priority > nix_tm_max_prio(nix, nix_tm_lvl2nix(nix, lvl - 1)))
352                 return NIX_ERR_TM_PRIO_EXCEEDED;
353
354         if (parent_id == ROC_NIX_TM_NODE_ID_INVALID)
355                 return 0;
356
357         memset(priorities, 0, sizeof(priorities));
358         priorities[priority] = 1;
359
360         TAILQ_FOREACH(node, list, node) {
361                 if (!node->parent)
362                         continue;
363
364                 if (node->parent->id != parent_id)
365                         continue;
366
367                 priorities[node->priority]++;
368         }
369
370         for (i = 0; i < NIX_TM_TLX_SP_PRIO_MAX; i++)
371                 if (priorities[i] > 1)
372                         rr_num++;
373
374         /* At max, one rr groups per parent */
375         if (rr_num > 1)
376                 return NIX_ERR_TM_MULTIPLE_RR_GROUPS;
377
378         /* Check for previous priority to avoid holes in priorities */
379         if (priority && !priorities[priority - 1])
380                 return NIX_ERR_TM_PRIO_ORDER;
381
382         return 0;
383 }
384
385 bool
386 nix_tm_child_res_valid(struct nix_tm_node_list *list,
387                        struct nix_tm_node *parent)
388 {
389         struct nix_tm_node *child;
390
391         TAILQ_FOREACH(child, list, node) {
392                 if (child->parent != parent)
393                         continue;
394                 if (!(child->flags & NIX_TM_NODE_HWRES))
395                         return false;
396         }
397         return true;
398 }
399
400 uint8_t
401 nix_tm_tl1_default_prep(uint32_t schq, volatile uint64_t *reg,
402                         volatile uint64_t *regval)
403 {
404         uint8_t k = 0;
405
406         /*
407          * Default config for TL1.
408          * For VF this is always ignored.
409          */
410         plt_tm_dbg("Default config for main root %s(%u)",
411                    nix_tm_hwlvl2str(NIX_TXSCH_LVL_TL1), schq);
412
413         /* Set DWRR quantum */
414         reg[k] = NIX_AF_TL1X_SCHEDULE(schq);
415         regval[k] = NIX_TM_TL1_DFLT_RR_QTM;
416         k++;
417
418         reg[k] = NIX_AF_TL1X_TOPOLOGY(schq);
419         regval[k] = (NIX_TM_TL1_DFLT_RR_PRIO << 1);
420         k++;
421
422         reg[k] = NIX_AF_TL1X_CIR(schq);
423         regval[k] = 0;
424         k++;
425
426         return k;
427 }
428
429 uint8_t
430 nix_tm_topology_reg_prep(struct nix *nix, struct nix_tm_node *node,
431                          volatile uint64_t *reg, volatile uint64_t *regval,
432                          volatile uint64_t *regval_mask)
433 {
434         struct roc_nix *roc_nix = nix_priv_to_roc_nix(nix);
435         uint8_t k = 0, hw_lvl, parent_lvl;
436         uint64_t parent = 0, child = 0;
437         enum roc_nix_tm_tree tree;
438         uint32_t rr_prio, schq;
439         uint16_t link, relchan;
440
441         tree = node->tree;
442         schq = node->hw_id;
443         hw_lvl = node->hw_lvl;
444         parent_lvl = hw_lvl + 1;
445         rr_prio = node->rr_prio;
446
447         /* Root node will not have a parent node */
448         if (hw_lvl == nix->tm_root_lvl)
449                 parent = node->parent_hw_id;
450         else
451                 parent = node->parent->hw_id;
452
453         link = nix->tx_link;
454         relchan = nix_tm_relchan_get(nix);
455
456         if (hw_lvl != NIX_TXSCH_LVL_SMQ)
457                 child = nix_tm_find_prio_anchor(nix, node->id, tree);
458
459         /* Override default rr_prio when TL1
460          * Static Priority is disabled
461          */
462         if (hw_lvl == NIX_TXSCH_LVL_TL1 && nix->tm_flags & NIX_TM_TL1_NO_SP) {
463                 rr_prio = NIX_TM_TL1_DFLT_RR_PRIO;
464                 child = 0;
465         }
466
467         plt_tm_dbg("Topology config node %s(%u)->%s(%" PRIu64 ") lvl %u, id %u"
468                    " prio_anchor %" PRIu64 " rr_prio %u (%p)",
469                    nix_tm_hwlvl2str(hw_lvl), schq, nix_tm_hwlvl2str(parent_lvl),
470                    parent, node->lvl, node->id, child, rr_prio, node);
471
472         /* Prepare Topology and Link config */
473         switch (hw_lvl) {
474         case NIX_TXSCH_LVL_SMQ:
475
476                 /* Set xoff which will be cleared later */
477                 reg[k] = NIX_AF_SMQX_CFG(schq);
478                 regval[k] = (BIT_ULL(50) | NIX_MIN_HW_FRS |
479                              ((nix->mtu & 0xFFFF) << 8));
480                 /* Maximum Vtag insertion size as a multiple of four bytes */
481                 if (roc_nix->hw_vlan_ins)
482                         regval[k] |= (0x2ULL << 36);
483                 regval_mask[k] = ~(BIT_ULL(50) | GENMASK_ULL(6, 0) |
484                                    GENMASK_ULL(23, 8) | GENMASK_ULL(38, 36));
485                 k++;
486
487                 /* Parent and schedule conf */
488                 reg[k] = NIX_AF_MDQX_PARENT(schq);
489                 regval[k] = parent << 16;
490                 k++;
491
492                 break;
493         case NIX_TXSCH_LVL_TL4:
494                 /* Parent and schedule conf */
495                 reg[k] = NIX_AF_TL4X_PARENT(schq);
496                 regval[k] = parent << 16;
497                 k++;
498
499                 reg[k] = NIX_AF_TL4X_TOPOLOGY(schq);
500                 regval[k] = (child << 32) | (rr_prio << 1);
501                 k++;
502
503                 /* Configure TL4 to send to SDP channel instead of CGX/LBK */
504                 if (nix->sdp_link) {
505                         reg[k] = NIX_AF_TL4X_SDP_LINK_CFG(schq);
506                         regval[k] = BIT_ULL(12);
507                         k++;
508                 }
509                 break;
510         case NIX_TXSCH_LVL_TL3:
511                 /* Parent and schedule conf */
512                 reg[k] = NIX_AF_TL3X_PARENT(schq);
513                 regval[k] = parent << 16;
514                 k++;
515
516                 reg[k] = NIX_AF_TL3X_TOPOLOGY(schq);
517                 regval[k] = (child << 32) | (rr_prio << 1);
518                 k++;
519
520                 /* Link configuration */
521                 if (!nix->sdp_link &&
522                     nix->tm_link_cfg_lvl == NIX_TXSCH_LVL_TL3) {
523                         reg[k] = NIX_AF_TL3_TL2X_LINKX_CFG(schq, link);
524                         regval[k] = BIT_ULL(12) | relchan;
525                         /* Enable BP if node is BP capable and rx_pause is set
526                          */
527                         if (nix->rx_pause && node->bp_capa)
528                                 regval[k] |= BIT_ULL(13);
529                         k++;
530                 }
531
532                 break;
533         case NIX_TXSCH_LVL_TL2:
534                 /* Parent and schedule conf */
535                 reg[k] = NIX_AF_TL2X_PARENT(schq);
536                 regval[k] = parent << 16;
537                 k++;
538
539                 reg[k] = NIX_AF_TL2X_TOPOLOGY(schq);
540                 regval[k] = (child << 32) | (rr_prio << 1);
541                 k++;
542
543                 /* Link configuration */
544                 if (!nix->sdp_link &&
545                     nix->tm_link_cfg_lvl == NIX_TXSCH_LVL_TL2) {
546                         reg[k] = NIX_AF_TL3_TL2X_LINKX_CFG(schq, link);
547                         regval[k] = BIT_ULL(12) | relchan;
548                         /* Enable BP if node is BP capable and rx_pause is set
549                          */
550                         if (nix->rx_pause && node->bp_capa)
551                                 regval[k] |= BIT_ULL(13);
552                         k++;
553                 }
554
555                 break;
556         case NIX_TXSCH_LVL_TL1:
557                 reg[k] = NIX_AF_TL1X_TOPOLOGY(schq);
558                 regval[k] = (child << 32) | (rr_prio << 1 /*RR_PRIO*/);
559                 k++;
560
561                 break;
562         }
563
564         return k;
565 }
566
567 uint8_t
568 nix_tm_sched_reg_prep(struct nix *nix, struct nix_tm_node *node,
569                       volatile uint64_t *reg, volatile uint64_t *regval)
570 {
571         uint64_t strict_prio = node->priority;
572         uint32_t hw_lvl = node->hw_lvl;
573         uint32_t schq = node->hw_id;
574         uint64_t rr_quantum;
575         uint8_t k = 0;
576
577         /* For CN9K, weight needs to be converted to quantum */
578         rr_quantum = nix_tm_weight_to_rr_quantum(node->weight);
579
580         /* For children to root, strict prio is default if either
581          * device root is TL2 or TL1 Static Priority is disabled.
582          */
583         if (hw_lvl == NIX_TXSCH_LVL_TL2 &&
584             (!nix_tm_have_tl1_access(nix) || nix->tm_flags & NIX_TM_TL1_NO_SP))
585                 strict_prio = NIX_TM_TL1_DFLT_RR_PRIO;
586
587         plt_tm_dbg("Schedule config node %s(%u) lvl %u id %u, "
588                    "prio 0x%" PRIx64 ", rr_quantum/rr_wt 0x%" PRIx64 " (%p)",
589                    nix_tm_hwlvl2str(node->hw_lvl), schq, node->lvl, node->id,
590                    strict_prio, rr_quantum, node);
591
592         switch (hw_lvl) {
593         case NIX_TXSCH_LVL_SMQ:
594                 reg[k] = NIX_AF_MDQX_SCHEDULE(schq);
595                 regval[k] = (strict_prio << 24) | rr_quantum;
596                 k++;
597
598                 break;
599         case NIX_TXSCH_LVL_TL4:
600                 reg[k] = NIX_AF_TL4X_SCHEDULE(schq);
601                 regval[k] = (strict_prio << 24) | rr_quantum;
602                 k++;
603
604                 break;
605         case NIX_TXSCH_LVL_TL3:
606                 reg[k] = NIX_AF_TL3X_SCHEDULE(schq);
607                 regval[k] = (strict_prio << 24) | rr_quantum;
608                 k++;
609
610                 break;
611         case NIX_TXSCH_LVL_TL2:
612                 reg[k] = NIX_AF_TL2X_SCHEDULE(schq);
613                 regval[k] = (strict_prio << 24) | rr_quantum;
614                 k++;
615
616                 break;
617         case NIX_TXSCH_LVL_TL1:
618                 reg[k] = NIX_AF_TL1X_SCHEDULE(schq);
619                 regval[k] = rr_quantum;
620                 k++;
621
622                 break;
623         }
624
625         return k;
626 }
627
628 uint8_t
629 nix_tm_shaper_reg_prep(struct nix_tm_node *node,
630                        struct nix_tm_shaper_profile *profile,
631                        volatile uint64_t *reg, volatile uint64_t *regval)
632 {
633         struct nix_tm_shaper_data cir, pir;
634         uint32_t schq = node->hw_id;
635         uint64_t adjust = 0;
636         uint8_t k = 0;
637
638         nix_tm_shaper_conf_get(profile, &cir, &pir);
639
640         if (profile && node->pkt_mode)
641                 adjust = profile->pkt_mode_adj;
642         else if (profile)
643                 adjust = profile->pkt_len_adj;
644
645         adjust &= 0x1FF;
646         plt_tm_dbg("Shaper config node %s(%u) lvl %u id %u, "
647                    "pir %" PRIu64 "(%" PRIu64 "B),"
648                    " cir %" PRIu64 "(%" PRIu64 "B)"
649                    "adjust 0x%" PRIx64 "(pktmode %u) (%p)",
650                    nix_tm_hwlvl2str(node->hw_lvl), schq, node->lvl, node->id,
651                    pir.rate, pir.burst, cir.rate, cir.burst, adjust,
652                    node->pkt_mode, node);
653
654         switch (node->hw_lvl) {
655         case NIX_TXSCH_LVL_SMQ:
656                 /* Configure PIR, CIR */
657                 reg[k] = NIX_AF_MDQX_PIR(schq);
658                 regval[k] = (pir.rate && pir.burst) ?
659                                           (nix_tm_shaper2regval(&pir) | 1) :
660                                           0;
661                 k++;
662
663                 reg[k] = NIX_AF_MDQX_CIR(schq);
664                 regval[k] = (cir.rate && cir.burst) ?
665                                           (nix_tm_shaper2regval(&cir) | 1) :
666                                           0;
667                 k++;
668
669                 /* Configure RED ALG */
670                 reg[k] = NIX_AF_MDQX_SHAPE(schq);
671                 regval[k] = (adjust | (uint64_t)node->red_algo << 9 |
672                              (uint64_t)node->pkt_mode << 24);
673                 k++;
674                 break;
675         case NIX_TXSCH_LVL_TL4:
676                 /* Configure PIR, CIR */
677                 reg[k] = NIX_AF_TL4X_PIR(schq);
678                 regval[k] = (pir.rate && pir.burst) ?
679                                           (nix_tm_shaper2regval(&pir) | 1) :
680                                           0;
681                 k++;
682
683                 reg[k] = NIX_AF_TL4X_CIR(schq);
684                 regval[k] = (cir.rate && cir.burst) ?
685                                           (nix_tm_shaper2regval(&cir) | 1) :
686                                           0;
687                 k++;
688
689                 /* Configure RED algo */
690                 reg[k] = NIX_AF_TL4X_SHAPE(schq);
691                 regval[k] = (adjust | (uint64_t)node->red_algo << 9 |
692                              (uint64_t)node->pkt_mode << 24);
693                 k++;
694                 break;
695         case NIX_TXSCH_LVL_TL3:
696                 /* Configure PIR, CIR */
697                 reg[k] = NIX_AF_TL3X_PIR(schq);
698                 regval[k] = (pir.rate && pir.burst) ?
699                                           (nix_tm_shaper2regval(&pir) | 1) :
700                                           0;
701                 k++;
702
703                 reg[k] = NIX_AF_TL3X_CIR(schq);
704                 regval[k] = (cir.rate && cir.burst) ?
705                                           (nix_tm_shaper2regval(&cir) | 1) :
706                                           0;
707                 k++;
708
709                 /* Configure RED algo */
710                 reg[k] = NIX_AF_TL3X_SHAPE(schq);
711                 regval[k] = (adjust | (uint64_t)node->red_algo << 9 |
712                              (uint64_t)node->pkt_mode << 24);
713                 k++;
714
715                 break;
716         case NIX_TXSCH_LVL_TL2:
717                 /* Configure PIR, CIR */
718                 reg[k] = NIX_AF_TL2X_PIR(schq);
719                 regval[k] = (pir.rate && pir.burst) ?
720                                           (nix_tm_shaper2regval(&pir) | 1) :
721                                           0;
722                 k++;
723
724                 reg[k] = NIX_AF_TL2X_CIR(schq);
725                 regval[k] = (cir.rate && cir.burst) ?
726                                           (nix_tm_shaper2regval(&cir) | 1) :
727                                           0;
728                 k++;
729
730                 /* Configure RED algo */
731                 reg[k] = NIX_AF_TL2X_SHAPE(schq);
732                 regval[k] = (adjust | (uint64_t)node->red_algo << 9 |
733                              (uint64_t)node->pkt_mode << 24);
734                 k++;
735
736                 break;
737         case NIX_TXSCH_LVL_TL1:
738                 /* Configure CIR */
739                 reg[k] = NIX_AF_TL1X_CIR(schq);
740                 regval[k] = (cir.rate && cir.burst) ?
741                                           (nix_tm_shaper2regval(&cir) | 1) :
742                                           0;
743                 k++;
744
745                 /* Configure length disable and adjust */
746                 reg[k] = NIX_AF_TL1X_SHAPE(schq);
747                 regval[k] = (adjust | (uint64_t)node->pkt_mode << 24);
748                 k++;
749                 break;
750         }
751
752         return k;
753 }
754
755 uint8_t
756 nix_tm_sw_xoff_prep(struct nix_tm_node *node, bool enable,
757                     volatile uint64_t *reg, volatile uint64_t *regval)
758 {
759         uint32_t hw_lvl = node->hw_lvl;
760         uint32_t schq = node->hw_id;
761         uint8_t k = 0;
762
763         plt_tm_dbg("sw xoff config node %s(%u) lvl %u id %u, enable %u (%p)",
764                    nix_tm_hwlvl2str(hw_lvl), schq, node->lvl, node->id, enable,
765                    node);
766
767         regval[k] = enable;
768
769         switch (hw_lvl) {
770         case NIX_TXSCH_LVL_MDQ:
771                 reg[k] = NIX_AF_MDQX_SW_XOFF(schq);
772                 k++;
773                 break;
774         case NIX_TXSCH_LVL_TL4:
775                 reg[k] = NIX_AF_TL4X_SW_XOFF(schq);
776                 k++;
777                 break;
778         case NIX_TXSCH_LVL_TL3:
779                 reg[k] = NIX_AF_TL3X_SW_XOFF(schq);
780                 k++;
781                 break;
782         case NIX_TXSCH_LVL_TL2:
783                 reg[k] = NIX_AF_TL2X_SW_XOFF(schq);
784                 k++;
785                 break;
786         case NIX_TXSCH_LVL_TL1:
787                 reg[k] = NIX_AF_TL1X_SW_XOFF(schq);
788                 k++;
789                 break;
790         default:
791                 break;
792         }
793
794         return k;
795 }
796
797 /* Search for min rate in topology */
798 uint64_t
799 nix_tm_shaper_profile_rate_min(struct nix *nix)
800 {
801         struct nix_tm_shaper_profile *profile;
802         uint64_t rate_min = 1E9; /* 1 Gbps */
803
804         TAILQ_FOREACH(profile, &nix->shaper_profile_list, shaper) {
805                 if (profile->peak.rate && profile->peak.rate < rate_min)
806                         rate_min = profile->peak.rate;
807
808                 if (profile->commit.rate && profile->commit.rate < rate_min)
809                         rate_min = profile->commit.rate;
810         }
811         return rate_min;
812 }
813
814 uint16_t
815 nix_tm_resource_avail(struct nix *nix, uint8_t hw_lvl, bool contig)
816 {
817         uint32_t pos = 0, start_pos = 0;
818         struct plt_bitmap *bmp;
819         uint16_t count = 0;
820         uint64_t slab = 0;
821
822         bmp = contig ? nix->schq_contig_bmp[hw_lvl] : nix->schq_bmp[hw_lvl];
823         plt_bitmap_scan_init(bmp);
824
825         if (!plt_bitmap_scan(bmp, &pos, &slab))
826                 return count;
827
828         /* Count bit set */
829         start_pos = pos;
830         do {
831                 count += __builtin_popcountll(slab);
832                 if (!plt_bitmap_scan(bmp, &pos, &slab))
833                         break;
834         } while (pos != start_pos);
835
836         return count;
837 }
838
839 uint16_t
840 nix_tm_resource_estimate(struct nix *nix, uint16_t *schq_contig, uint16_t *schq,
841                          enum roc_nix_tm_tree tree)
842 {
843         struct nix_tm_node_list *list;
844         uint8_t contig_cnt, hw_lvl;
845         struct nix_tm_node *parent;
846         uint16_t cnt = 0, avail;
847
848         list = nix_tm_node_list(nix, tree);
849         /* Walk through parents from TL1..TL4 */
850         for (hw_lvl = NIX_TXSCH_LVL_TL1; hw_lvl > 0; hw_lvl--) {
851                 TAILQ_FOREACH(parent, list, node) {
852                         if (hw_lvl != parent->hw_lvl)
853                                 continue;
854
855                         /* Skip accounting for children whose
856                          * parent does not indicate so.
857                          */
858                         if (!parent->child_realloc)
859                                 continue;
860
861                         /* Count children needed */
862                         schq[hw_lvl - 1] += parent->rr_num;
863                         if (parent->max_prio != UINT32_MAX) {
864                                 contig_cnt = parent->max_prio + 1;
865                                 schq_contig[hw_lvl - 1] += contig_cnt;
866                                 /* When we have SP + DWRR at a parent,
867                                  * we will always have a spare schq at rr prio
868                                  * location in contiguous queues. Hence reduce
869                                  * discontiguous count by 1.
870                                  */
871                                 if (parent->max_prio > 0 && parent->rr_num)
872                                         schq[hw_lvl - 1] -= 1;
873                         }
874                 }
875         }
876
877         schq[nix->tm_root_lvl] = 1;
878         if (!nix_tm_have_tl1_access(nix))
879                 schq[NIX_TXSCH_LVL_TL1] = 1;
880
881         /* Now check for existing resources */
882         for (hw_lvl = 0; hw_lvl < NIX_TXSCH_LVL_CNT; hw_lvl++) {
883                 avail = nix_tm_resource_avail(nix, hw_lvl, false);
884                 if (schq[hw_lvl] <= avail)
885                         schq[hw_lvl] = 0;
886                 else
887                         schq[hw_lvl] -= avail;
888
889                 /* For contiguous queues, realloc everything */
890                 avail = nix_tm_resource_avail(nix, hw_lvl, true);
891                 if (schq_contig[hw_lvl] <= avail)
892                         schq_contig[hw_lvl] = 0;
893
894                 cnt += schq[hw_lvl];
895                 cnt += schq_contig[hw_lvl];
896
897                 plt_tm_dbg("Estimate resources needed for %s: dis %u cont %u",
898                            nix_tm_hwlvl2str(hw_lvl), schq[hw_lvl],
899                            schq_contig[hw_lvl]);
900         }
901
902         return cnt;
903 }
904
905 uint16_t
906 roc_nix_tm_leaf_cnt(struct roc_nix *roc_nix)
907 {
908         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
909         struct nix_tm_node_list *list;
910         struct nix_tm_node *node;
911         uint16_t leaf_cnt = 0;
912
913         /* Count leafs only in user list */
914         list = nix_tm_node_list(nix, ROC_NIX_TM_USER);
915         TAILQ_FOREACH(node, list, node) {
916                 if (node->id < nix->nb_tx_queues)
917                         leaf_cnt++;
918         }
919
920         return leaf_cnt;
921 }
922
923 int
924 roc_nix_tm_node_lvl(struct roc_nix *roc_nix, uint32_t node_id)
925 {
926         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
927         struct nix_tm_node *node;
928
929         node = nix_tm_node_search(nix, node_id, ROC_NIX_TM_USER);
930         if (!node)
931                 return NIX_ERR_TM_INVALID_NODE;
932
933         return node->lvl;
934 }
935
936 struct roc_nix_tm_node *
937 roc_nix_tm_node_get(struct roc_nix *roc_nix, uint32_t node_id)
938 {
939         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
940         struct nix_tm_node *node;
941
942         node = nix_tm_node_search(nix, node_id, ROC_NIX_TM_USER);
943         return (struct roc_nix_tm_node *)node;
944 }
945
946 struct roc_nix_tm_node *
947 roc_nix_tm_node_next(struct roc_nix *roc_nix, struct roc_nix_tm_node *__prev)
948 {
949         struct nix_tm_node *prev = (struct nix_tm_node *)__prev;
950         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
951         struct nix_tm_node_list *list;
952
953         list = nix_tm_node_list(nix, ROC_NIX_TM_USER);
954
955         /* HEAD of the list */
956         if (!prev)
957                 return (struct roc_nix_tm_node *)TAILQ_FIRST(list);
958
959         /* Next entry */
960         if (prev->tree != ROC_NIX_TM_USER)
961                 return NULL;
962
963         return (struct roc_nix_tm_node *)TAILQ_NEXT(prev, node);
964 }
965
966 struct roc_nix_tm_shaper_profile *
967 roc_nix_tm_shaper_profile_get(struct roc_nix *roc_nix, uint32_t profile_id)
968 {
969         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
970         struct nix_tm_shaper_profile *profile;
971
972         profile = nix_tm_shaper_profile_search(nix, profile_id);
973         return (struct roc_nix_tm_shaper_profile *)profile;
974 }
975
976 struct roc_nix_tm_shaper_profile *
977 roc_nix_tm_shaper_profile_next(struct roc_nix *roc_nix,
978                                struct roc_nix_tm_shaper_profile *__prev)
979 {
980         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
981         struct nix_tm_shaper_profile_list *list;
982         struct nix_tm_shaper_profile *prev;
983
984         prev = (struct nix_tm_shaper_profile *)__prev;
985         list = &nix->shaper_profile_list;
986
987         /* HEAD of the list */
988         if (!prev)
989                 return (struct roc_nix_tm_shaper_profile *)TAILQ_FIRST(list);
990
991         return (struct roc_nix_tm_shaper_profile *)TAILQ_NEXT(prev, shaper);
992 }
993
994 struct nix_tm_node *
995 nix_tm_node_alloc(void)
996 {
997         struct nix_tm_node *node;
998
999         node = plt_zmalloc(sizeof(struct nix_tm_node), 0);
1000         if (!node)
1001                 return NULL;
1002
1003         node->free_fn = plt_free;
1004         return node;
1005 }
1006
1007 void
1008 nix_tm_node_free(struct nix_tm_node *node)
1009 {
1010         if (!node || node->free_fn == NULL)
1011                 return;
1012
1013         (node->free_fn)(node);
1014 }
1015
1016 struct nix_tm_shaper_profile *
1017 nix_tm_shaper_profile_alloc(void)
1018 {
1019         struct nix_tm_shaper_profile *profile;
1020
1021         profile = plt_zmalloc(sizeof(struct nix_tm_shaper_profile), 0);
1022         if (!profile)
1023                 return NULL;
1024
1025         profile->free_fn = plt_free;
1026         return profile;
1027 }
1028
1029 void
1030 nix_tm_shaper_profile_free(struct nix_tm_shaper_profile *profile)
1031 {
1032         if (!profile || !profile->free_fn)
1033                 return;
1034
1035         (profile->free_fn)(profile);
1036 }
1037
1038 int
1039 roc_nix_tm_node_stats_get(struct roc_nix *roc_nix, uint32_t node_id, bool clear,
1040                           struct roc_nix_tm_node_stats *n_stats)
1041 {
1042         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
1043         struct mbox *mbox = (&nix->dev)->mbox;
1044         struct nix_txschq_config *req, *rsp;
1045         struct nix_tm_node *node;
1046         uint32_t schq;
1047         int rc, i;
1048
1049         node = nix_tm_node_search(nix, node_id, ROC_NIX_TM_USER);
1050         if (!node)
1051                 return NIX_ERR_TM_INVALID_NODE;
1052
1053         if (node->hw_lvl != NIX_TXSCH_LVL_TL1)
1054                 return NIX_ERR_OP_NOTSUP;
1055
1056         /* Check if node has HW resource */
1057         if (!(node->flags & NIX_TM_NODE_HWRES))
1058                 return 0;
1059
1060         schq = node->hw_id;
1061         /* Skip fetch if not requested */
1062         if (!n_stats)
1063                 goto clear_stats;
1064
1065         memset(n_stats, 0, sizeof(struct roc_nix_tm_node_stats));
1066
1067         req = mbox_alloc_msg_nix_txschq_cfg(mbox);
1068         req->read = 1;
1069         req->lvl = NIX_TXSCH_LVL_TL1;
1070
1071         i = 0;
1072         req->reg[i++] = NIX_AF_TL1X_DROPPED_PACKETS(schq);
1073         req->reg[i++] = NIX_AF_TL1X_DROPPED_BYTES(schq);
1074         req->reg[i++] = NIX_AF_TL1X_GREEN_PACKETS(schq);
1075         req->reg[i++] = NIX_AF_TL1X_GREEN_BYTES(schq);
1076         req->reg[i++] = NIX_AF_TL1X_YELLOW_PACKETS(schq);
1077         req->reg[i++] = NIX_AF_TL1X_YELLOW_BYTES(schq);
1078         req->reg[i++] = NIX_AF_TL1X_RED_PACKETS(schq);
1079         req->reg[i++] = NIX_AF_TL1X_RED_BYTES(schq);
1080         req->num_regs = i;
1081
1082         rc = mbox_process_msg(mbox, (void **)&rsp);
1083         if (rc)
1084                 return rc;
1085
1086         /* Return stats */
1087         n_stats->stats[ROC_NIX_TM_NODE_PKTS_DROPPED] = rsp->regval[0];
1088         n_stats->stats[ROC_NIX_TM_NODE_BYTES_DROPPED] = rsp->regval[1];
1089         n_stats->stats[ROC_NIX_TM_NODE_GREEN_PKTS] = rsp->regval[2];
1090         n_stats->stats[ROC_NIX_TM_NODE_GREEN_BYTES] = rsp->regval[3];
1091         n_stats->stats[ROC_NIX_TM_NODE_YELLOW_PKTS] = rsp->regval[4];
1092         n_stats->stats[ROC_NIX_TM_NODE_YELLOW_BYTES] = rsp->regval[5];
1093         n_stats->stats[ROC_NIX_TM_NODE_RED_PKTS] = rsp->regval[6];
1094         n_stats->stats[ROC_NIX_TM_NODE_RED_BYTES] = rsp->regval[7];
1095
1096 clear_stats:
1097         if (!clear)
1098                 return 0;
1099
1100         /* Clear all the stats */
1101         req = mbox_alloc_msg_nix_txschq_cfg(mbox);
1102         req->lvl = NIX_TXSCH_LVL_TL1;
1103         i = 0;
1104         req->reg[i++] = NIX_AF_TL1X_DROPPED_PACKETS(schq);
1105         req->reg[i++] = NIX_AF_TL1X_DROPPED_BYTES(schq);
1106         req->reg[i++] = NIX_AF_TL1X_GREEN_PACKETS(schq);
1107         req->reg[i++] = NIX_AF_TL1X_GREEN_BYTES(schq);
1108         req->reg[i++] = NIX_AF_TL1X_YELLOW_PACKETS(schq);
1109         req->reg[i++] = NIX_AF_TL1X_YELLOW_BYTES(schq);
1110         req->reg[i++] = NIX_AF_TL1X_RED_PACKETS(schq);
1111         req->reg[i++] = NIX_AF_TL1X_RED_BYTES(schq);
1112         req->num_regs = i;
1113
1114         return mbox_process_msg(mbox, (void **)&rsp);
1115 }
1116
1117 bool
1118 roc_nix_tm_is_user_hierarchy_enabled(struct roc_nix *roc_nix)
1119 {
1120         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
1121
1122         if ((nix->tm_flags & NIX_TM_HIERARCHY_ENA) &&
1123             (nix->tm_tree == ROC_NIX_TM_USER))
1124                 return true;
1125         return false;
1126 }
1127
1128 int
1129 roc_nix_tm_tree_type_get(struct roc_nix *roc_nix)
1130 {
1131         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
1132
1133         return nix->tm_tree;
1134 }
1135
1136 int
1137 roc_nix_tm_max_prio(struct roc_nix *roc_nix, int lvl)
1138 {
1139         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
1140         int hw_lvl = nix_tm_lvl2nix(nix, lvl);
1141
1142         return nix_tm_max_prio(nix, hw_lvl);
1143 }
1144
1145 int
1146 roc_nix_tm_lvl_is_leaf(struct roc_nix *roc_nix, int lvl)
1147 {
1148         return nix_tm_is_leaf(roc_nix_to_nix_priv(roc_nix), lvl);
1149 }
1150
1151 void
1152 roc_nix_tm_shaper_default_red_algo(struct roc_nix_tm_node *node,
1153                                    struct roc_nix_tm_shaper_profile *roc_prof)
1154 {
1155         struct nix_tm_node *tm_node = (struct nix_tm_node *)node;
1156         struct nix_tm_shaper_profile *profile;
1157         struct nix_tm_shaper_data cir, pir;
1158
1159         profile = (struct nix_tm_shaper_profile *)roc_prof->reserved;
1160         tm_node->red_algo = NIX_REDALG_STD;
1161
1162         /* C0 doesn't support STALL when both PIR & CIR are enabled */
1163         if (profile && roc_model_is_cn96_cx()) {
1164                 nix_tm_shaper_conf_get(profile, &cir, &pir);
1165
1166                 if (pir.rate && cir.rate)
1167                         tm_node->red_algo = NIX_REDALG_DISCARD;
1168         }
1169 }
1170
1171 int
1172 roc_nix_tm_lvl_cnt_get(struct roc_nix *roc_nix)
1173 {
1174         if (nix_tm_have_tl1_access(roc_nix_to_nix_priv(roc_nix)))
1175                 return NIX_TXSCH_LVL_CNT;
1176
1177         return (NIX_TXSCH_LVL_CNT - 1);
1178 }
1179
1180 int
1181 roc_nix_tm_lvl_have_link_access(struct roc_nix *roc_nix, int lvl)
1182 {
1183         struct nix *nix = roc_nix_to_nix_priv(roc_nix);
1184
1185         if (nix_tm_lvl2nix(nix, lvl) == NIX_TXSCH_LVL_TL1)
1186                 return 1;
1187
1188         return 0;
1189 }