Now builds with this set of changes.
[akaros.git] / kern / drivers / net / bxe / bxe_stats.c
1 /*-
2  * Copyright (c) 2007-2014 QLogic Corporation. All rights reserved.
3  *
4  * Redistribution and use in source and binary forms, with or without
5  * modification, are permitted provided that the following conditions
6  * are met:
7  *
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  *
14  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS'
15  * AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
16  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
17  * ARE DISCLAIMED.  IN NO EVENT SHALL THE COPYRIGHT OWNER OR CONTRIBUTORS
18  * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
19  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
20  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
21  * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
22  * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
23  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF
24  * THE POSSIBILITY OF SUCH DAMAGE.
25  */
26
27 //__FBSDID("$FreeBSD: head/sys/dev/bxe/bxe_stats.c 271782 2014-09-18 15:56:14Z glebius $");
28
29 #include "bxe.h"
30 #include "bxe_stats.h"
31 #include <time.h>       /* udelay */
32
33 #ifdef __i386__
34 #define BITS_PER_LONG 32
35 #else
36 #define BITS_PER_LONG 64
37 #endif
38
39 static inline long
40 bxe_hilo(uint32_t *hiref)
41 {
42     uint32_t lo = *(hiref + 1);
43 #if (BITS_PER_LONG == 64)
44     uint32_t hi = *hiref;
45     return (HILO_U64(hi, lo));
46 #else
47     return (lo);
48 #endif
49 }
50
51 static inline uint16_t
52 bxe_get_port_stats_dma_len(struct bxe_adapter *sc)
53 {
54     uint16_t res = 0;
55     uint32_t size;
56
57     /* 'newest' convention - shmem2 contains the size of the port stats */
58     if (SHMEM2_HAS(sc, sizeof_port_stats)) {
59         size = SHMEM2_RD(sc, sizeof_port_stats);
60         if (size) {
61             res = size;
62         }
63
64         /* prevent newer BC from causing buffer overflow */
65         if (res > sizeof(struct host_port_stats)) {
66             res = sizeof(struct host_port_stats);
67         }
68     }
69
70     /*
71      * Older convention - all BCs support the port stats fields up until
72      * the 'not_used' field
73      */
74     if (!res) {
75         res = (offsetof(struct host_port_stats, not_used) + 4);
76
77         /* if PFC stats are supported by the MFW, DMA them as well */
78         if (sc->devinfo.bc_ver >= REQ_BC_VER_4_PFC_STATS_SUPPORTED) {
79             res += (offsetof(struct host_port_stats, pfc_frames_rx_lo) -
80                     offsetof(struct host_port_stats, pfc_frames_tx_hi) + 4);
81         }
82     }
83
84     res >>= 2;
85
86     DBASSERT(sc, !(res > 2 * DMAE_LEN32_RD_MAX), ("big stats dmae length\n"));
87     return (res);
88 }
89
90 /*
91  * Init service functions
92  */
93
94 static void
95 bxe_dp_stats(struct bxe_adapter *sc)
96 {
97     int i;
98 #if 0
99     BLOGD(sc, DBG_STATS,
100           "dumping stats:\n"
101           "  fw_stats_req\n"
102           "    hdr\n"
103           "      cmd_num %d\n"
104           "      reserved0 %d\n"
105           "      drv_stats_counter %d\n"
106           "      reserved1 %d\n"
107           "      stats_counters_addrs %x %x\n",
108           sc->fw_stats_req->hdr.cmd_num,
109           sc->fw_stats_req->hdr.reserved0,
110           sc->fw_stats_req->hdr.drv_stats_counter,
111           sc->fw_stats_req->hdr.reserved1,
112           sc->fw_stats_req->hdr.stats_counters_addrs.hi,
113           sc->fw_stats_req->hdr.stats_counters_addrs.lo);
114
115     for (i = 0; i < sc->fw_stats_req->hdr.cmd_num; i++) {
116         BLOGD(sc, DBG_STATS,
117               "query[%d]\n"
118               "  kind %d\n"
119               "  index %d\n"
120               "  funcID %d\n"
121               "  reserved %d\n"
122               "  address %x %x\n",
123               i,
124               sc->fw_stats_req->query[i].kind,
125               sc->fw_stats_req->query[i].index,
126               sc->fw_stats_req->query[i].funcID,
127               sc->fw_stats_req->query[i].reserved,
128               sc->fw_stats_req->query[i].address.hi,
129               sc->fw_stats_req->query[i].address.lo);
130     }
131 #endif
132 }
133
134 /*
135  * Post the next statistics ramrod. Protect it with the lock in
136  * order to ensure the strict order between statistics ramrods
137  * (each ramrod has a sequence number passed in a
138  * sc->fw_stats_req->hdr.drv_stats_counter and ramrods must be
139  * sent in order).
140  */
141 static void
142 bxe_storm_stats_post(struct bxe_adapter *sc)
143 {
144     int rc;
145 #if 0
146     if (!sc->stats_pending) {
147         BXE_STATS_LOCK(sc);
148
149         if (sc->stats_pending) {
150             BXE_STATS_UNLOCK(sc);
151             return;
152         }
153
154         sc->fw_stats_req->hdr.drv_stats_counter =
155             cpu_to_le16(sc->stats_counter++);
156
157         BLOGD(sc, DBG_STATS,
158               "sending statistics ramrod %d\n",
159               le16_to_cpu(sc->fw_stats_req->hdr.drv_stats_counter));
160
161         /* adjust the ramrod to include VF queues statistics */
162         // XXX bxe_iov_adjust_stats_req(sc);
163
164         bxe_dp_stats(sc);
165
166         /* send FW stats ramrod */
167         rc = bxe_sp_post(sc, RAMROD_CMD_ID_COMMON_STAT_QUERY, 0,
168                          U64_HI(sc->fw_stats_req_mapping),
169                          U64_LO(sc->fw_stats_req_mapping),
170                          NONE_CONNECTION_TYPE);
171         if (rc == 0) {
172             sc->stats_pending = 1;
173         }
174
175         BXE_STATS_UNLOCK(sc);
176     }
177 #endif
178 }
179
180 static void
181 bxe_hw_stats_post(struct bxe_adapter *sc)
182 {
183 #if 0
184     struct dmae_command *dmae = &sc->stats_dmae;
185     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
186     int loader_idx;
187     uint32_t opcode;
188
189     *stats_comp = DMAE_COMP_VAL;
190     if (CHIP_REV_IS_SLOW(sc)) {
191         return;
192     }
193
194     /* Update MCP's statistics if possible */
195     if (sc->func_stx) {
196         memcpy(BXE_SP(sc, func_stats), &sc->func_stats,
197                sizeof(sc->func_stats));
198     }
199
200     /* loader */
201     if (sc->executer_idx) {
202         loader_idx = PMF_DMAE_C(sc);
203         opcode =  bxe_dmae_opcode(sc, DMAE_SRC_PCI, DMAE_DST_GRC,
204                                   TRUE, DMAE_COMP_GRC);
205         opcode = bxe_dmae_opcode_clr_src_reset(opcode);
206
207         memset(dmae, 0, sizeof(struct dmae_command));
208         dmae->opcode = opcode;
209         dmae->src_addr_lo = U64_LO(BXE_SP_MAPPING(sc, dmae[0]));
210         dmae->src_addr_hi = U64_HI(BXE_SP_MAPPING(sc, dmae[0]));
211         dmae->dst_addr_lo = ((DMAE_REG_CMD_MEM +
212                               sizeof(struct dmae_command) *
213                               (loader_idx + 1)) >> 2);
214         dmae->dst_addr_hi = 0;
215         dmae->len = sizeof(struct dmae_command) >> 2;
216         if (CHIP_IS_E1(sc)) {
217             dmae->len--;
218         }
219         dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx + 1] >> 2);
220         dmae->comp_addr_hi = 0;
221         dmae->comp_val = 1;
222
223         *stats_comp = 0;
224         bxe_post_dmae(sc, dmae, loader_idx);
225     } else if (sc->func_stx) {
226         *stats_comp = 0;
227         bxe_post_dmae(sc, dmae, INIT_DMAE_C(sc));
228     }
229 #endif
230 }
231
232 static int
233 bxe_stats_comp(struct bxe_adapter *sc)
234 {
235     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
236     int cnt = 10;
237
238     while (*stats_comp != DMAE_COMP_VAL) {
239         if (!cnt) {
240             BLOGE(sc, "Timeout waiting for stats finished\n");
241             break;
242         }
243
244         cnt--;
245         udelay(1000);
246     }
247
248     return (1);
249 }
250
251 /*
252  * Statistics service functions
253  */
254
255 static void
256 bxe_stats_pmf_update(struct bxe_adapter *sc)
257 {
258     struct dmae_command *dmae;
259     uint32_t opcode;
260     int loader_idx = PMF_DMAE_C(sc);
261     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
262
263     if (sc->devinfo.bc_ver <= 0x06001400) {
264         /*
265          * Bootcode v6.0.21 fixed a GRC timeout that occurs when accessing
266          * BRB registers while the BRB block is in reset. The DMA transfer
267          * below triggers this issue resulting in the DMAE to stop
268          * functioning. Skip this initial stats transfer for old bootcode
269          * versions <= 6.0.20.
270          */
271         return;
272     }
273
274     /* sanity */
275     if (!sc->port.pmf || !sc->port.port_stx) {
276         BLOGE(sc, "BUG!\n");
277         return;
278     }
279
280     sc->executer_idx = 0;
281
282     opcode = bxe_dmae_opcode(sc, DMAE_SRC_GRC, DMAE_DST_PCI, FALSE, 0);
283
284     dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
285     dmae->opcode = bxe_dmae_opcode_add_comp(opcode, DMAE_COMP_GRC);
286     dmae->src_addr_lo = (sc->port.port_stx >> 2);
287     dmae->src_addr_hi = 0;
288     dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, port_stats));
289     dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, port_stats));
290     dmae->len = DMAE_LEN32_RD_MAX;
291     dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
292     dmae->comp_addr_hi = 0;
293     dmae->comp_val = 1;
294
295     dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
296     dmae->opcode = bxe_dmae_opcode_add_comp(opcode, DMAE_COMP_PCI);
297     dmae->src_addr_lo = ((sc->port.port_stx >> 2) + DMAE_LEN32_RD_MAX);
298     dmae->src_addr_hi = 0;
299     dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, port_stats) +
300                                DMAE_LEN32_RD_MAX * 4);
301     dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, port_stats) +
302                                DMAE_LEN32_RD_MAX * 4);
303     dmae->len = (bxe_get_port_stats_dma_len(sc) - DMAE_LEN32_RD_MAX);
304
305     dmae->comp_addr_lo = U64_LO(BXE_SP_MAPPING(sc, stats_comp));
306     dmae->comp_addr_hi = U64_HI(BXE_SP_MAPPING(sc, stats_comp));
307     dmae->comp_val = DMAE_COMP_VAL;
308
309     *stats_comp = 0;
310     bxe_hw_stats_post(sc);
311     bxe_stats_comp(sc);
312 }
313
314 static void
315 bxe_port_stats_init(struct bxe_adapter *sc)
316 {
317     struct dmae_command *dmae;
318     int port = SC_PORT(sc);
319     uint32_t opcode;
320     int loader_idx = PMF_DMAE_C(sc);
321     uint32_t mac_addr;
322     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
323
324     /* sanity */
325     if (!sc->link_vars.link_up || !sc->port.pmf) {
326         BLOGE(sc, "BUG!\n");
327         return;
328     }
329
330     sc->executer_idx = 0;
331
332     /* MCP */
333     opcode = bxe_dmae_opcode(sc, DMAE_SRC_PCI, DMAE_DST_GRC,
334                              TRUE, DMAE_COMP_GRC);
335
336     if (sc->port.port_stx) {
337         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
338         dmae->opcode = opcode;
339         dmae->src_addr_lo = U64_LO(BXE_SP_MAPPING(sc, port_stats));
340         dmae->src_addr_hi = U64_HI(BXE_SP_MAPPING(sc, port_stats));
341         dmae->dst_addr_lo = sc->port.port_stx >> 2;
342         dmae->dst_addr_hi = 0;
343         dmae->len = bxe_get_port_stats_dma_len(sc);
344         dmae->comp_addr_lo = dmae_reg_go_c[loader_idx] >> 2;
345         dmae->comp_addr_hi = 0;
346         dmae->comp_val = 1;
347     }
348
349     if (sc->func_stx) {
350         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
351         dmae->opcode = opcode;
352         dmae->src_addr_lo = U64_LO(BXE_SP_MAPPING(sc, func_stats));
353         dmae->src_addr_hi = U64_HI(BXE_SP_MAPPING(sc, func_stats));
354         dmae->dst_addr_lo = (sc->func_stx >> 2);
355         dmae->dst_addr_hi = 0;
356         dmae->len = (sizeof(struct host_func_stats) >> 2);
357         dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
358         dmae->comp_addr_hi = 0;
359         dmae->comp_val = 1;
360     }
361
362     /* MAC */
363     opcode = bxe_dmae_opcode(sc, DMAE_SRC_GRC, DMAE_DST_PCI,
364                              TRUE, DMAE_COMP_GRC);
365
366     /* EMAC is special */
367     if (sc->link_vars.mac_type == ELINK_MAC_TYPE_EMAC) {
368         mac_addr = (port ? GRCBASE_EMAC1 : GRCBASE_EMAC0);
369
370         /* EMAC_REG_EMAC_RX_STAT_AC (EMAC_REG_EMAC_RX_STAT_AC_COUNT)*/
371         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
372         dmae->opcode = opcode;
373         dmae->src_addr_lo = (mac_addr + EMAC_REG_EMAC_RX_STAT_AC) >> 2;
374         dmae->src_addr_hi = 0;
375         dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, mac_stats));
376         dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, mac_stats));
377         dmae->len = EMAC_REG_EMAC_RX_STAT_AC_COUNT;
378         dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
379         dmae->comp_addr_hi = 0;
380         dmae->comp_val = 1;
381
382         /* EMAC_REG_EMAC_RX_STAT_AC_28 */
383         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
384         dmae->opcode = opcode;
385         dmae->src_addr_lo = ((mac_addr + EMAC_REG_EMAC_RX_STAT_AC_28) >> 2);
386         dmae->src_addr_hi = 0;
387         dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, mac_stats) +
388                                    offsetof(struct emac_stats,
389                                             rx_stat_falsecarriererrors));
390         dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, mac_stats) +
391                                    offsetof(struct emac_stats,
392                                             rx_stat_falsecarriererrors));
393         dmae->len = 1;
394         dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
395         dmae->comp_addr_hi = 0;
396         dmae->comp_val = 1;
397
398         /* EMAC_REG_EMAC_TX_STAT_AC (EMAC_REG_EMAC_TX_STAT_AC_COUNT)*/
399         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
400         dmae->opcode = opcode;
401         dmae->src_addr_lo = ((mac_addr + EMAC_REG_EMAC_TX_STAT_AC) >> 2);
402         dmae->src_addr_hi = 0;
403         dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, mac_stats) +
404                                    offsetof(struct emac_stats,
405                                             tx_stat_ifhcoutoctets));
406         dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, mac_stats) +
407                                    offsetof(struct emac_stats,
408                                             tx_stat_ifhcoutoctets));
409         dmae->len = EMAC_REG_EMAC_TX_STAT_AC_COUNT;
410         dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
411         dmae->comp_addr_hi = 0;
412         dmae->comp_val = 1;
413     } else {
414         uint32_t tx_src_addr_lo, rx_src_addr_lo;
415         uint16_t rx_len, tx_len;
416
417         /* configure the params according to MAC type */
418         switch (sc->link_vars.mac_type) {
419         case ELINK_MAC_TYPE_BMAC:
420             mac_addr = (port) ? NIG_REG_INGRESS_BMAC1_MEM :
421                                 NIG_REG_INGRESS_BMAC0_MEM;
422
423             /* BIGMAC_REGISTER_TX_STAT_GTPKT ..
424                BIGMAC_REGISTER_TX_STAT_GTBYT */
425             if (CHIP_IS_E1x(sc)) {
426                 tx_src_addr_lo =
427                     ((mac_addr + BIGMAC_REGISTER_TX_STAT_GTPKT) >> 2);
428                 tx_len = ((8 + BIGMAC_REGISTER_TX_STAT_GTBYT -
429                            BIGMAC_REGISTER_TX_STAT_GTPKT) >> 2);
430                 rx_src_addr_lo =
431                     ((mac_addr + BIGMAC_REGISTER_RX_STAT_GR64) >> 2);
432                 rx_len = ((8 + BIGMAC_REGISTER_RX_STAT_GRIPJ -
433                            BIGMAC_REGISTER_RX_STAT_GR64) >> 2);
434             } else {
435                 tx_src_addr_lo =
436                     ((mac_addr + BIGMAC2_REGISTER_TX_STAT_GTPOK) >> 2);
437                 tx_len = ((8 + BIGMAC2_REGISTER_TX_STAT_GTBYT -
438                            BIGMAC2_REGISTER_TX_STAT_GTPOK) >> 2);
439                 rx_src_addr_lo =
440                     ((mac_addr + BIGMAC2_REGISTER_RX_STAT_GR64) >> 2);
441                 rx_len = ((8 + BIGMAC2_REGISTER_RX_STAT_GRIPJ -
442                            BIGMAC2_REGISTER_RX_STAT_GR64) >> 2);
443             }
444
445             break;
446
447         case ELINK_MAC_TYPE_UMAC: /* handled by MSTAT */
448         case ELINK_MAC_TYPE_XMAC: /* handled by MSTAT */
449         default:
450             mac_addr = (port) ? GRCBASE_MSTAT1 : GRCBASE_MSTAT0;
451             tx_src_addr_lo = ((mac_addr + MSTAT_REG_TX_STAT_GTXPOK_LO) >> 2);
452             rx_src_addr_lo = ((mac_addr + MSTAT_REG_RX_STAT_GR64_LO) >> 2);
453             tx_len =
454                 (sizeof(sc->sp->mac_stats.mstat_stats.stats_tx) >> 2);
455             rx_len =
456                 (sizeof(sc->sp->mac_stats.mstat_stats.stats_rx) >> 2);
457             break;
458         }
459
460         /* TX stats */
461         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
462         dmae->opcode = opcode;
463         dmae->src_addr_lo = tx_src_addr_lo;
464         dmae->src_addr_hi = 0;
465         dmae->len = tx_len;
466         dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, mac_stats));
467         dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, mac_stats));
468         dmae->comp_addr_lo = dmae_reg_go_c[loader_idx] >> 2;
469         dmae->comp_addr_hi = 0;
470         dmae->comp_val = 1;
471
472         /* RX stats */
473         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
474         dmae->opcode = opcode;
475         dmae->src_addr_hi = 0;
476         dmae->src_addr_lo = rx_src_addr_lo;
477         dmae->dst_addr_lo =
478             U64_LO(BXE_SP_MAPPING(sc, mac_stats) + (tx_len << 2));
479         dmae->dst_addr_hi =
480             U64_HI(BXE_SP_MAPPING(sc, mac_stats) + (tx_len << 2));
481         dmae->len = rx_len;
482         dmae->comp_addr_lo = dmae_reg_go_c[loader_idx] >> 2;
483         dmae->comp_addr_hi = 0;
484         dmae->comp_val = 1;
485     }
486
487     /* NIG */
488     if (!CHIP_IS_E3(sc)) {
489         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
490         dmae->opcode = opcode;
491         dmae->src_addr_lo =
492             (port ? NIG_REG_STAT1_EGRESS_MAC_PKT0 :
493                     NIG_REG_STAT0_EGRESS_MAC_PKT0) >> 2;
494         dmae->src_addr_hi = 0;
495         dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, nig_stats) +
496                                    offsetof(struct nig_stats,
497                                             egress_mac_pkt0_lo));
498         dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, nig_stats) +
499                                    offsetof(struct nig_stats,
500                                             egress_mac_pkt0_lo));
501         dmae->len = ((2 * sizeof(uint32_t)) >> 2);
502         dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
503         dmae->comp_addr_hi = 0;
504         dmae->comp_val = 1;
505
506         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
507         dmae->opcode = opcode;
508         dmae->src_addr_lo =
509             (port ? NIG_REG_STAT1_EGRESS_MAC_PKT1 :
510                     NIG_REG_STAT0_EGRESS_MAC_PKT1) >> 2;
511         dmae->src_addr_hi = 0;
512         dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, nig_stats) +
513                                    offsetof(struct nig_stats,
514                                             egress_mac_pkt1_lo));
515         dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, nig_stats) +
516                                    offsetof(struct nig_stats,
517                                             egress_mac_pkt1_lo));
518         dmae->len = ((2 * sizeof(uint32_t)) >> 2);
519         dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
520         dmae->comp_addr_hi = 0;
521         dmae->comp_val = 1;
522     }
523
524     dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
525     dmae->opcode = bxe_dmae_opcode(sc, DMAE_SRC_GRC, DMAE_DST_PCI,
526                                    TRUE, DMAE_COMP_PCI);
527     dmae->src_addr_lo =
528         (port ? NIG_REG_STAT1_BRB_DISCARD :
529                 NIG_REG_STAT0_BRB_DISCARD) >> 2;
530     dmae->src_addr_hi = 0;
531     dmae->dst_addr_lo = U64_LO(BXE_SP_MAPPING(sc, nig_stats));
532     dmae->dst_addr_hi = U64_HI(BXE_SP_MAPPING(sc, nig_stats));
533     dmae->len = (sizeof(struct nig_stats) - 4*sizeof(uint32_t)) >> 2;
534
535     dmae->comp_addr_lo = U64_LO(BXE_SP_MAPPING(sc, stats_comp));
536     dmae->comp_addr_hi = U64_HI(BXE_SP_MAPPING(sc, stats_comp));
537     dmae->comp_val = DMAE_COMP_VAL;
538
539     *stats_comp = 0;
540 }
541
542 static void
543 bxe_func_stats_init(struct bxe_adapter *sc)
544 {
545 #if 0
546   struct dmae_command *dmae = &sc->stats_dmae;
547     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
548
549     /* sanity */
550     if (!sc->func_stx) {
551         BLOGE(sc, "BUG!\n");
552         return;
553     }
554
555     sc->executer_idx = 0;
556     memset(dmae, 0, sizeof(struct dmae_command));
557
558     dmae->opcode = bxe_dmae_opcode(sc, DMAE_SRC_PCI, DMAE_DST_GRC,
559                                    TRUE, DMAE_COMP_PCI);
560     dmae->src_addr_lo = U64_LO(BXE_SP_MAPPING(sc, func_stats));
561     dmae->src_addr_hi = U64_HI(BXE_SP_MAPPING(sc, func_stats));
562     dmae->dst_addr_lo = (sc->func_stx >> 2);
563     dmae->dst_addr_hi = 0;
564     dmae->len = (sizeof(struct host_func_stats) >> 2);
565     dmae->comp_addr_lo = U64_LO(BXE_SP_MAPPING(sc, stats_comp));
566     dmae->comp_addr_hi = U64_HI(BXE_SP_MAPPING(sc, stats_comp));
567     dmae->comp_val = DMAE_COMP_VAL;
568
569     *stats_comp = 0;
570 #endif
571 }
572
573 static void
574 bxe_stats_start(struct bxe_adapter *sc)
575 {
576     /*
577      * VFs travel through here as part of the statistics FSM, but no action
578      * is required
579      */
580     if (IS_VF(sc)) {
581         return;
582     }
583
584     if (sc->port.pmf) {
585         bxe_port_stats_init(sc);
586     }
587
588     else if (sc->func_stx) {
589         bxe_func_stats_init(sc);
590     }
591
592     bxe_hw_stats_post(sc);
593     bxe_storm_stats_post(sc);
594 }
595
596 static void
597 bxe_stats_pmf_start(struct bxe_adapter *sc)
598 {
599     bxe_stats_comp(sc);
600     bxe_stats_pmf_update(sc);
601     bxe_stats_start(sc);
602 }
603
604 static void
605 bxe_stats_restart(struct bxe_adapter *sc)
606 {
607     /*
608      * VFs travel through here as part of the statistics FSM, but no action
609      * is required
610      */
611     if (IS_VF(sc)) {
612         return;
613     }
614
615     bxe_stats_comp(sc);
616     bxe_stats_start(sc);
617 }
618
619 static void
620 bxe_bmac_stats_update(struct bxe_adapter *sc)
621 {
622     struct host_port_stats *pstats = BXE_SP(sc, port_stats);
623     //    struct bxe_eth_stats *estats = &sc->eth_stats;
624     struct {
625         uint32_t lo;
626         uint32_t hi;
627     } diff;
628
629     if (CHIP_IS_E1x(sc)) {
630         struct bmac1_stats *new = BXE_SP(sc, mac_stats.bmac1_stats);
631
632         /* the macros below will use "bmac1_stats" type */
633         UPDATE_STAT64(rx_stat_grerb, rx_stat_ifhcinbadoctets);
634         UPDATE_STAT64(rx_stat_grfcs, rx_stat_dot3statsfcserrors);
635         UPDATE_STAT64(rx_stat_grund, rx_stat_etherstatsundersizepkts);
636         UPDATE_STAT64(rx_stat_grovr, rx_stat_dot3statsframestoolong);
637         UPDATE_STAT64(rx_stat_grfrg, rx_stat_etherstatsfragments);
638         UPDATE_STAT64(rx_stat_grjbr, rx_stat_etherstatsjabbers);
639         UPDATE_STAT64(rx_stat_grxcf, rx_stat_maccontrolframesreceived);
640         UPDATE_STAT64(rx_stat_grxpf, rx_stat_xoffstateentered);
641         UPDATE_STAT64(rx_stat_grxpf, rx_stat_mac_xpf);
642
643         UPDATE_STAT64(tx_stat_gtxpf, tx_stat_outxoffsent);
644         UPDATE_STAT64(tx_stat_gtxpf, tx_stat_flowcontroldone);
645         UPDATE_STAT64(tx_stat_gt64, tx_stat_etherstatspkts64octets);
646         UPDATE_STAT64(tx_stat_gt127,
647                       tx_stat_etherstatspkts65octetsto127octets);
648         UPDATE_STAT64(tx_stat_gt255,
649                       tx_stat_etherstatspkts128octetsto255octets);
650         UPDATE_STAT64(tx_stat_gt511,
651                       tx_stat_etherstatspkts256octetsto511octets);
652         UPDATE_STAT64(tx_stat_gt1023,
653                       tx_stat_etherstatspkts512octetsto1023octets);
654         UPDATE_STAT64(tx_stat_gt1518,
655                       tx_stat_etherstatspkts1024octetsto1522octets);
656         UPDATE_STAT64(tx_stat_gt2047, tx_stat_mac_2047);
657         UPDATE_STAT64(tx_stat_gt4095, tx_stat_mac_4095);
658         UPDATE_STAT64(tx_stat_gt9216, tx_stat_mac_9216);
659         UPDATE_STAT64(tx_stat_gt16383, tx_stat_mac_16383);
660         UPDATE_STAT64(tx_stat_gterr,
661                       tx_stat_dot3statsinternalmactransmiterrors);
662         UPDATE_STAT64(tx_stat_gtufl, tx_stat_mac_ufl);
663     } else {
664         struct bmac2_stats *new = BXE_SP(sc, mac_stats.bmac2_stats);
665         //        struct bxe_fw_port_stats_old *fwstats = &sc->fw_stats_old;
666
667         /* the macros below will use "bmac2_stats" type */
668         UPDATE_STAT64(rx_stat_grerb, rx_stat_ifhcinbadoctets);
669         UPDATE_STAT64(rx_stat_grfcs, rx_stat_dot3statsfcserrors);
670         UPDATE_STAT64(rx_stat_grund, rx_stat_etherstatsundersizepkts);
671         UPDATE_STAT64(rx_stat_grovr, rx_stat_dot3statsframestoolong);
672         UPDATE_STAT64(rx_stat_grfrg, rx_stat_etherstatsfragments);
673         UPDATE_STAT64(rx_stat_grjbr, rx_stat_etherstatsjabbers);
674         UPDATE_STAT64(rx_stat_grxcf, rx_stat_maccontrolframesreceived);
675         UPDATE_STAT64(rx_stat_grxpf, rx_stat_xoffstateentered);
676         UPDATE_STAT64(rx_stat_grxpf, rx_stat_mac_xpf);
677         UPDATE_STAT64(tx_stat_gtxpf, tx_stat_outxoffsent);
678         UPDATE_STAT64(tx_stat_gtxpf, tx_stat_flowcontroldone);
679         UPDATE_STAT64(tx_stat_gt64, tx_stat_etherstatspkts64octets);
680         UPDATE_STAT64(tx_stat_gt127,
681                       tx_stat_etherstatspkts65octetsto127octets);
682         UPDATE_STAT64(tx_stat_gt255,
683                       tx_stat_etherstatspkts128octetsto255octets);
684         UPDATE_STAT64(tx_stat_gt511,
685                       tx_stat_etherstatspkts256octetsto511octets);
686         UPDATE_STAT64(tx_stat_gt1023,
687                       tx_stat_etherstatspkts512octetsto1023octets);
688         UPDATE_STAT64(tx_stat_gt1518,
689                       tx_stat_etherstatspkts1024octetsto1522octets);
690         UPDATE_STAT64(tx_stat_gt2047, tx_stat_mac_2047);
691         UPDATE_STAT64(tx_stat_gt4095, tx_stat_mac_4095);
692         UPDATE_STAT64(tx_stat_gt9216, tx_stat_mac_9216);
693         UPDATE_STAT64(tx_stat_gt16383, tx_stat_mac_16383);
694         UPDATE_STAT64(tx_stat_gterr,
695                       tx_stat_dot3statsinternalmactransmiterrors);
696         UPDATE_STAT64(tx_stat_gtufl, tx_stat_mac_ufl);
697
698         /* collect PFC stats */
699         pstats->pfc_frames_tx_hi = new->tx_stat_gtpp_hi;
700         pstats->pfc_frames_tx_lo = new->tx_stat_gtpp_lo;
701         //        ADD_64(pstats->pfc_frames_tx_hi, fwstats->pfc_frames_tx_hi,
702         //     pstats->pfc_frames_tx_lo, fwstats->pfc_frames_tx_lo);
703
704         pstats->pfc_frames_rx_hi = new->rx_stat_grpp_hi;
705         pstats->pfc_frames_rx_lo = new->rx_stat_grpp_lo;
706         //        ADD_64(pstats->pfc_frames_rx_hi, fwstats->pfc_frames_rx_hi,
707         //     pstats->pfc_frames_rx_lo, fwstats->pfc_frames_rx_lo);
708     }
709
710 #if 0
711     estats->pause_frames_received_hi = pstats->mac_stx[1].rx_stat_mac_xpf_hi;
712     estats->pause_frames_received_lo = pstats->mac_stx[1].rx_stat_mac_xpf_lo;
713
714     estats->pause_frames_sent_hi = pstats->mac_stx[1].tx_stat_outxoffsent_hi;
715     estats->pause_frames_sent_lo = pstats->mac_stx[1].tx_stat_outxoffsent_lo;
716
717     estats->pfc_frames_received_hi = pstats->pfc_frames_rx_hi;
718     estats->pfc_frames_received_lo = pstats->pfc_frames_rx_lo;
719     estats->pfc_frames_sent_hi = pstats->pfc_frames_tx_hi;
720     estats->pfc_frames_sent_lo = pstats->pfc_frames_tx_lo;
721 #endif
722 }
723
724 static void
725 bxe_mstat_stats_update(struct bxe_adapter *sc)
726 {
727     struct host_port_stats *pstats = BXE_SP(sc, port_stats);
728     struct bxe_eth_stats *estats = &sc->eth_stats;
729     struct mstat_stats *new = BXE_SP(sc, mac_stats.mstat_stats);
730
731     ADD_STAT64(stats_rx.rx_grerb, rx_stat_ifhcinbadoctets);
732     ADD_STAT64(stats_rx.rx_grfcs, rx_stat_dot3statsfcserrors);
733     ADD_STAT64(stats_rx.rx_grund, rx_stat_etherstatsundersizepkts);
734     ADD_STAT64(stats_rx.rx_grovr, rx_stat_dot3statsframestoolong);
735     ADD_STAT64(stats_rx.rx_grfrg, rx_stat_etherstatsfragments);
736     ADD_STAT64(stats_rx.rx_grxcf, rx_stat_maccontrolframesreceived);
737     ADD_STAT64(stats_rx.rx_grxpf, rx_stat_xoffstateentered);
738     ADD_STAT64(stats_rx.rx_grxpf, rx_stat_mac_xpf);
739     ADD_STAT64(stats_tx.tx_gtxpf, tx_stat_outxoffsent);
740     ADD_STAT64(stats_tx.tx_gtxpf, tx_stat_flowcontroldone);
741
742     /* collect pfc stats */
743     ADD_64(pstats->pfc_frames_tx_hi, new->stats_tx.tx_gtxpp_hi,
744            pstats->pfc_frames_tx_lo, new->stats_tx.tx_gtxpp_lo);
745     ADD_64(pstats->pfc_frames_rx_hi, new->stats_rx.rx_grxpp_hi,
746            pstats->pfc_frames_rx_lo, new->stats_rx.rx_grxpp_lo);
747
748     ADD_STAT64(stats_tx.tx_gt64, tx_stat_etherstatspkts64octets);
749     ADD_STAT64(stats_tx.tx_gt127, tx_stat_etherstatspkts65octetsto127octets);
750     ADD_STAT64(stats_tx.tx_gt255, tx_stat_etherstatspkts128octetsto255octets);
751     ADD_STAT64(stats_tx.tx_gt511, tx_stat_etherstatspkts256octetsto511octets);
752     ADD_STAT64(stats_tx.tx_gt1023,
753                tx_stat_etherstatspkts512octetsto1023octets);
754     ADD_STAT64(stats_tx.tx_gt1518,
755                tx_stat_etherstatspkts1024octetsto1522octets);
756     ADD_STAT64(stats_tx.tx_gt2047, tx_stat_mac_2047);
757
758     ADD_STAT64(stats_tx.tx_gt4095, tx_stat_mac_4095);
759     ADD_STAT64(stats_tx.tx_gt9216, tx_stat_mac_9216);
760     ADD_STAT64(stats_tx.tx_gt16383, tx_stat_mac_16383);
761
762     ADD_STAT64(stats_tx.tx_gterr, tx_stat_dot3statsinternalmactransmiterrors);
763     ADD_STAT64(stats_tx.tx_gtufl, tx_stat_mac_ufl);
764
765     estats->etherstatspkts1024octetsto1522octets_hi =
766         pstats->mac_stx[1].tx_stat_etherstatspkts1024octetsto1522octets_hi;
767     estats->etherstatspkts1024octetsto1522octets_lo =
768         pstats->mac_stx[1].tx_stat_etherstatspkts1024octetsto1522octets_lo;
769
770     estats->etherstatspktsover1522octets_hi =
771         pstats->mac_stx[1].tx_stat_mac_2047_hi;
772     estats->etherstatspktsover1522octets_lo =
773         pstats->mac_stx[1].tx_stat_mac_2047_lo;
774
775     ADD_64(estats->etherstatspktsover1522octets_hi,
776            pstats->mac_stx[1].tx_stat_mac_4095_hi,
777            estats->etherstatspktsover1522octets_lo,
778            pstats->mac_stx[1].tx_stat_mac_4095_lo);
779
780     ADD_64(estats->etherstatspktsover1522octets_hi,
781            pstats->mac_stx[1].tx_stat_mac_9216_hi,
782            estats->etherstatspktsover1522octets_lo,
783            pstats->mac_stx[1].tx_stat_mac_9216_lo);
784
785     ADD_64(estats->etherstatspktsover1522octets_hi,
786            pstats->mac_stx[1].tx_stat_mac_16383_hi,
787            estats->etherstatspktsover1522octets_lo,
788            pstats->mac_stx[1].tx_stat_mac_16383_lo);
789
790     estats->pause_frames_received_hi = pstats->mac_stx[1].rx_stat_mac_xpf_hi;
791     estats->pause_frames_received_lo = pstats->mac_stx[1].rx_stat_mac_xpf_lo;
792
793     estats->pause_frames_sent_hi = pstats->mac_stx[1].tx_stat_outxoffsent_hi;
794     estats->pause_frames_sent_lo = pstats->mac_stx[1].tx_stat_outxoffsent_lo;
795
796     estats->pfc_frames_received_hi = pstats->pfc_frames_rx_hi;
797     estats->pfc_frames_received_lo = pstats->pfc_frames_rx_lo;
798     estats->pfc_frames_sent_hi = pstats->pfc_frames_tx_hi;
799     estats->pfc_frames_sent_lo = pstats->pfc_frames_tx_lo;
800 }
801
802 static void
803 bxe_emac_stats_update(struct bxe_adapter *sc)
804 {
805     struct emac_stats *new = BXE_SP(sc, mac_stats.emac_stats);
806     struct host_port_stats *pstats = BXE_SP(sc, port_stats);
807     struct bxe_eth_stats *estats = &sc->eth_stats;
808
809     UPDATE_EXTEND_STAT(rx_stat_ifhcinbadoctets);
810     UPDATE_EXTEND_STAT(tx_stat_ifhcoutbadoctets);
811     UPDATE_EXTEND_STAT(rx_stat_dot3statsfcserrors);
812     UPDATE_EXTEND_STAT(rx_stat_dot3statsalignmenterrors);
813     UPDATE_EXTEND_STAT(rx_stat_dot3statscarriersenseerrors);
814     UPDATE_EXTEND_STAT(rx_stat_falsecarriererrors);
815     UPDATE_EXTEND_STAT(rx_stat_etherstatsundersizepkts);
816     UPDATE_EXTEND_STAT(rx_stat_dot3statsframestoolong);
817     UPDATE_EXTEND_STAT(rx_stat_etherstatsfragments);
818     UPDATE_EXTEND_STAT(rx_stat_etherstatsjabbers);
819     UPDATE_EXTEND_STAT(rx_stat_maccontrolframesreceived);
820     UPDATE_EXTEND_STAT(rx_stat_xoffstateentered);
821     UPDATE_EXTEND_STAT(rx_stat_xonpauseframesreceived);
822     UPDATE_EXTEND_STAT(rx_stat_xoffpauseframesreceived);
823     UPDATE_EXTEND_STAT(tx_stat_outxonsent);
824     UPDATE_EXTEND_STAT(tx_stat_outxoffsent);
825     UPDATE_EXTEND_STAT(tx_stat_flowcontroldone);
826     UPDATE_EXTEND_STAT(tx_stat_etherstatscollisions);
827     UPDATE_EXTEND_STAT(tx_stat_dot3statssinglecollisionframes);
828     UPDATE_EXTEND_STAT(tx_stat_dot3statsmultiplecollisionframes);
829     UPDATE_EXTEND_STAT(tx_stat_dot3statsdeferredtransmissions);
830     UPDATE_EXTEND_STAT(tx_stat_dot3statsexcessivecollisions);
831     UPDATE_EXTEND_STAT(tx_stat_dot3statslatecollisions);
832     UPDATE_EXTEND_STAT(tx_stat_etherstatspkts64octets);
833     UPDATE_EXTEND_STAT(tx_stat_etherstatspkts65octetsto127octets);
834     UPDATE_EXTEND_STAT(tx_stat_etherstatspkts128octetsto255octets);
835     UPDATE_EXTEND_STAT(tx_stat_etherstatspkts256octetsto511octets);
836     UPDATE_EXTEND_STAT(tx_stat_etherstatspkts512octetsto1023octets);
837     UPDATE_EXTEND_STAT(tx_stat_etherstatspkts1024octetsto1522octets);
838     UPDATE_EXTEND_STAT(tx_stat_etherstatspktsover1522octets);
839     UPDATE_EXTEND_STAT(tx_stat_dot3statsinternalmactransmiterrors);
840
841     estats->pause_frames_received_hi =
842         pstats->mac_stx[1].rx_stat_xonpauseframesreceived_hi;
843     estats->pause_frames_received_lo =
844         pstats->mac_stx[1].rx_stat_xonpauseframesreceived_lo;
845     ADD_64(estats->pause_frames_received_hi,
846            pstats->mac_stx[1].rx_stat_xoffpauseframesreceived_hi,
847            estats->pause_frames_received_lo,
848            pstats->mac_stx[1].rx_stat_xoffpauseframesreceived_lo);
849
850     estats->pause_frames_sent_hi =
851         pstats->mac_stx[1].tx_stat_outxonsent_hi;
852     estats->pause_frames_sent_lo =
853         pstats->mac_stx[1].tx_stat_outxonsent_lo;
854     ADD_64(estats->pause_frames_sent_hi,
855            pstats->mac_stx[1].tx_stat_outxoffsent_hi,
856            estats->pause_frames_sent_lo,
857            pstats->mac_stx[1].tx_stat_outxoffsent_lo);
858 }
859
860 static int
861 bxe_hw_stats_update(struct bxe_adapter *sc)
862 {
863     struct nig_stats *new = BXE_SP(sc, nig_stats);
864     struct nig_stats *old = &(sc->port.old_nig_stats);
865     struct host_port_stats *pstats = BXE_SP(sc, port_stats);
866     struct bxe_eth_stats *estats = &sc->eth_stats;
867     uint32_t lpi_reg, nig_timer_max;
868     struct {
869         uint32_t lo;
870         uint32_t hi;
871     } diff;
872
873     switch (sc->link_vars.mac_type) {
874     case ELINK_MAC_TYPE_BMAC:
875         bxe_bmac_stats_update(sc);
876         break;
877
878     case ELINK_MAC_TYPE_EMAC:
879         bxe_emac_stats_update(sc);
880         break;
881
882     case ELINK_MAC_TYPE_UMAC:
883     case ELINK_MAC_TYPE_XMAC:
884         bxe_mstat_stats_update(sc);
885         break;
886
887     case ELINK_MAC_TYPE_NONE: /* unreached */
888         BLOGD(sc, DBG_STATS,
889               "stats updated by DMAE but no MAC active\n");
890         return (-1);
891
892     default: /* unreached */
893         BLOGE(sc, "stats update failed, unknown MAC type\n");
894     }
895
896     ADD_EXTEND_64(pstats->brb_drop_hi, pstats->brb_drop_lo,
897                   new->brb_discard - old->brb_discard);
898     ADD_EXTEND_64(estats->brb_truncate_hi, estats->brb_truncate_lo,
899                   new->brb_truncate - old->brb_truncate);
900
901     if (!CHIP_IS_E3(sc)) {
902         UPDATE_STAT64_NIG(egress_mac_pkt0,
903                           etherstatspkts1024octetsto1522octets);
904         UPDATE_STAT64_NIG(egress_mac_pkt1,
905                           etherstatspktsover1522octets);
906     }
907
908     memcpy(old, new, sizeof(struct nig_stats));
909
910     memcpy(&(estats->rx_stat_ifhcinbadoctets_hi), &(pstats->mac_stx[1]),
911            sizeof(struct mac_stx));
912     estats->brb_drop_hi = pstats->brb_drop_hi;
913     estats->brb_drop_lo = pstats->brb_drop_lo;
914
915     pstats->host_port_stats_counter++;
916
917     if (CHIP_IS_E3(sc)) {
918         lpi_reg = (SC_PORT(sc)) ?
919                       MISC_REG_CPMU_LP_SM_ENT_CNT_P1 :
920                       MISC_REG_CPMU_LP_SM_ENT_CNT_P0;
921         estats->eee_tx_lpi += REG_RD(sc, lpi_reg);
922     }
923
924     if (!BXE_NOMCP(sc)) {
925         nig_timer_max = SHMEM_RD(sc, port_mb[SC_PORT(sc)].stat_nig_timer);
926         if (nig_timer_max != estats->nig_timer_max) {
927             estats->nig_timer_max = nig_timer_max;
928             BLOGE(sc, "invalid NIG timer max (%u)\n",
929                   estats->nig_timer_max);
930         }
931     }
932
933     return (0);
934 }
935
936 static int
937 bxe_storm_stats_validate_counters(struct bxe_adapter *sc)
938 {
939     struct stats_counter *counters = &sc->fw_stats_data->storm_counters;
940     uint16_t cur_stats_counter;
941
942     /*
943      * Make sure we use the value of the counter
944      * used for sending the last stats ramrod.
945      */
946     BXE_STATS_LOCK(sc);
947     cur_stats_counter = (sc->stats_counter - 1);
948     BXE_STATS_UNLOCK(sc);
949
950     /* are storm stats valid? */
951     if (le16_to_cpu(counters->xstats_counter) != cur_stats_counter) {
952         BLOGD(sc, DBG_STATS,
953               "stats not updated by xstorm, "
954               "counter 0x%x != stats_counter 0x%x\n",
955               le16_to_cpu(counters->xstats_counter), sc->stats_counter);
956         return (-EAGAIN);
957     }
958
959     if (le16_to_cpu(counters->ustats_counter) != cur_stats_counter) {
960         BLOGD(sc, DBG_STATS,
961               "stats not updated by ustorm, "
962               "counter 0x%x != stats_counter 0x%x\n",
963               le16_to_cpu(counters->ustats_counter), sc->stats_counter);
964         return (-EAGAIN);
965     }
966
967     if (le16_to_cpu(counters->cstats_counter) != cur_stats_counter) {
968         BLOGD(sc, DBG_STATS,
969               "stats not updated by cstorm, "
970               "counter 0x%x != stats_counter 0x%x\n",
971               le16_to_cpu(counters->cstats_counter), sc->stats_counter);
972         return (-EAGAIN);
973     }
974
975     if (le16_to_cpu(counters->tstats_counter) != cur_stats_counter) {
976         BLOGD(sc, DBG_STATS,
977               "stats not updated by tstorm, "
978               "counter 0x%x != stats_counter 0x%x\n",
979               le16_to_cpu(counters->tstats_counter), sc->stats_counter);
980         return (-EAGAIN);
981     }
982
983     return (0);
984 }
985
986 static int
987 bxe_storm_stats_update(struct bxe_adapter *sc)
988 {
989     struct tstorm_per_port_stats *tport =
990         &sc->fw_stats_data->port.tstorm_port_statistics;
991     struct tstorm_per_pf_stats *tfunc =
992         &sc->fw_stats_data->pf.tstorm_pf_statistics;
993     struct host_func_stats *fstats = &sc->func_stats;
994     struct bxe_eth_stats *estats = &sc->eth_stats;
995     struct bxe_eth_stats_old *estats_old = &sc->eth_stats_old;
996     int i;
997
998     /* vfs stat counter is managed by pf */
999     if (IS_PF(sc) && bxe_storm_stats_validate_counters(sc)) {
1000         return (-EAGAIN);
1001     }
1002
1003     estats->error_bytes_received_hi = 0;
1004     estats->error_bytes_received_lo = 0;
1005
1006     for (i = 0; i < sc->num_queues; i++) {
1007         struct bxe_fastpath *fp = &sc->fp[i];
1008         struct tstorm_per_queue_stats *tclient =
1009             &sc->fw_stats_data->queue_stats[i].tstorm_queue_statistics;
1010         struct tstorm_per_queue_stats *old_tclient = &fp->old_tclient;
1011         struct ustorm_per_queue_stats *uclient =
1012             &sc->fw_stats_data->queue_stats[i].ustorm_queue_statistics;
1013         struct ustorm_per_queue_stats *old_uclient = &fp->old_uclient;
1014         struct xstorm_per_queue_stats *xclient =
1015             &sc->fw_stats_data->queue_stats[i].xstorm_queue_statistics;
1016         struct xstorm_per_queue_stats *old_xclient = &fp->old_xclient;
1017         struct bxe_eth_q_stats *qstats = &fp->eth_q_stats;
1018         struct bxe_eth_q_stats_old *qstats_old = &fp->eth_q_stats_old;
1019
1020         uint32_t diff;
1021
1022         BLOGD(sc, DBG_STATS,
1023               "queue[%d]: ucast_sent 0x%x bcast_sent 0x%x mcast_sent 0x%x\n",
1024               i, xclient->ucast_pkts_sent, xclient->bcast_pkts_sent,
1025               xclient->mcast_pkts_sent);
1026
1027         BLOGD(sc, DBG_STATS, "---------------\n");
1028
1029         UPDATE_QSTAT(tclient->rcv_bcast_bytes,
1030                      total_broadcast_bytes_received);
1031         UPDATE_QSTAT(tclient->rcv_mcast_bytes,
1032                      total_multicast_bytes_received);
1033         UPDATE_QSTAT(tclient->rcv_ucast_bytes,
1034                      total_unicast_bytes_received);
1035
1036         /*
1037          * sum to total_bytes_received all
1038          * unicast/multicast/broadcast
1039          */
1040         qstats->total_bytes_received_hi =
1041             qstats->total_broadcast_bytes_received_hi;
1042         qstats->total_bytes_received_lo =
1043             qstats->total_broadcast_bytes_received_lo;
1044
1045         ADD_64(qstats->total_bytes_received_hi,
1046                qstats->total_multicast_bytes_received_hi,
1047                qstats->total_bytes_received_lo,
1048                qstats->total_multicast_bytes_received_lo);
1049
1050         ADD_64(qstats->total_bytes_received_hi,
1051                qstats->total_unicast_bytes_received_hi,
1052                qstats->total_bytes_received_lo,
1053                qstats->total_unicast_bytes_received_lo);
1054
1055         qstats->valid_bytes_received_hi = qstats->total_bytes_received_hi;
1056         qstats->valid_bytes_received_lo = qstats->total_bytes_received_lo;
1057
1058         UPDATE_EXTEND_TSTAT(rcv_ucast_pkts, total_unicast_packets_received);
1059         UPDATE_EXTEND_TSTAT(rcv_mcast_pkts, total_multicast_packets_received);
1060         UPDATE_EXTEND_TSTAT(rcv_bcast_pkts, total_broadcast_packets_received);
1061         UPDATE_EXTEND_E_TSTAT(pkts_too_big_discard,
1062                               etherstatsoverrsizepkts, 32);
1063         UPDATE_EXTEND_E_TSTAT(no_buff_discard, no_buff_discard, 16);
1064
1065         SUB_EXTEND_USTAT(ucast_no_buff_pkts, total_unicast_packets_received);
1066         SUB_EXTEND_USTAT(mcast_no_buff_pkts,
1067                          total_multicast_packets_received);
1068         SUB_EXTEND_USTAT(bcast_no_buff_pkts,
1069                          total_broadcast_packets_received);
1070         UPDATE_EXTEND_E_USTAT(ucast_no_buff_pkts, no_buff_discard);
1071         UPDATE_EXTEND_E_USTAT(mcast_no_buff_pkts, no_buff_discard);
1072         UPDATE_EXTEND_E_USTAT(bcast_no_buff_pkts, no_buff_discard);
1073
1074         UPDATE_QSTAT(xclient->bcast_bytes_sent,
1075                      total_broadcast_bytes_transmitted);
1076         UPDATE_QSTAT(xclient->mcast_bytes_sent,
1077                      total_multicast_bytes_transmitted);
1078         UPDATE_QSTAT(xclient->ucast_bytes_sent,
1079                      total_unicast_bytes_transmitted);
1080
1081         /*
1082          * sum to total_bytes_transmitted all
1083          * unicast/multicast/broadcast
1084          */
1085         qstats->total_bytes_transmitted_hi =
1086             qstats->total_unicast_bytes_transmitted_hi;
1087         qstats->total_bytes_transmitted_lo =
1088             qstats->total_unicast_bytes_transmitted_lo;
1089
1090         ADD_64(qstats->total_bytes_transmitted_hi,
1091                qstats->total_broadcast_bytes_transmitted_hi,
1092                qstats->total_bytes_transmitted_lo,
1093                qstats->total_broadcast_bytes_transmitted_lo);
1094
1095         ADD_64(qstats->total_bytes_transmitted_hi,
1096                qstats->total_multicast_bytes_transmitted_hi,
1097                qstats->total_bytes_transmitted_lo,
1098                qstats->total_multicast_bytes_transmitted_lo);
1099
1100         UPDATE_EXTEND_XSTAT(ucast_pkts_sent,
1101                             total_unicast_packets_transmitted);
1102         UPDATE_EXTEND_XSTAT(mcast_pkts_sent,
1103                             total_multicast_packets_transmitted);
1104         UPDATE_EXTEND_XSTAT(bcast_pkts_sent,
1105                             total_broadcast_packets_transmitted);
1106
1107         UPDATE_EXTEND_TSTAT(checksum_discard,
1108                             total_packets_received_checksum_discarded);
1109         UPDATE_EXTEND_TSTAT(ttl0_discard,
1110                             total_packets_received_ttl0_discarded);
1111
1112         UPDATE_EXTEND_XSTAT(error_drop_pkts,
1113                             total_transmitted_dropped_packets_error);
1114
1115         /* TPA aggregations completed */
1116         UPDATE_EXTEND_E_USTAT(coalesced_events, total_tpa_aggregations);
1117         /* Number of network frames aggregated by TPA */
1118         UPDATE_EXTEND_E_USTAT(coalesced_pkts, total_tpa_aggregated_frames);
1119         /* Total number of bytes in completed TPA aggregations */
1120         UPDATE_QSTAT(uclient->coalesced_bytes, total_tpa_bytes);
1121
1122         UPDATE_ESTAT_QSTAT_64(total_tpa_bytes);
1123
1124         UPDATE_FSTAT_QSTAT(total_bytes_received);
1125         UPDATE_FSTAT_QSTAT(total_bytes_transmitted);
1126         UPDATE_FSTAT_QSTAT(total_unicast_packets_received);
1127         UPDATE_FSTAT_QSTAT(total_multicast_packets_received);
1128         UPDATE_FSTAT_QSTAT(total_broadcast_packets_received);
1129         UPDATE_FSTAT_QSTAT(total_unicast_packets_transmitted);
1130         UPDATE_FSTAT_QSTAT(total_multicast_packets_transmitted);
1131         UPDATE_FSTAT_QSTAT(total_broadcast_packets_transmitted);
1132         UPDATE_FSTAT_QSTAT(valid_bytes_received);
1133     }
1134
1135     ADD_64(estats->total_bytes_received_hi,
1136            estats->rx_stat_ifhcinbadoctets_hi,
1137            estats->total_bytes_received_lo,
1138            estats->rx_stat_ifhcinbadoctets_lo);
1139
1140     ADD_64_LE(estats->total_bytes_received_hi,
1141               tfunc->rcv_error_bytes.hi,
1142               estats->total_bytes_received_lo,
1143               tfunc->rcv_error_bytes.lo);
1144
1145     ADD_64_LE(estats->error_bytes_received_hi,
1146               tfunc->rcv_error_bytes.hi,
1147               estats->error_bytes_received_lo,
1148               tfunc->rcv_error_bytes.lo);
1149
1150     UPDATE_ESTAT(etherstatsoverrsizepkts, rx_stat_dot3statsframestoolong);
1151
1152     ADD_64(estats->error_bytes_received_hi,
1153            estats->rx_stat_ifhcinbadoctets_hi,
1154            estats->error_bytes_received_lo,
1155            estats->rx_stat_ifhcinbadoctets_lo);
1156
1157 #if 0
1158     if (sc->port.pmf) {
1159         struct bxe_fw_port_stats_old *fwstats = &sc->fw_stats_old;
1160         UPDATE_FW_STAT(mac_filter_discard);
1161         UPDATE_FW_STAT(mf_tag_discard);
1162         UPDATE_FW_STAT(brb_truncate_discard);
1163         UPDATE_FW_STAT(mac_discard);
1164     }
1165 #endif
1166     fstats->host_func_stats_start = ++fstats->host_func_stats_end;
1167
1168     sc->stats_pending = 0;
1169
1170     return (0);
1171 }
1172
1173 static void
1174 bxe_net_stats_update(struct bxe_adapter *sc)
1175 {
1176
1177   //    for (int i = 0; i < sc->num_queues; i++)
1178   //        if_inc_counter(sc->ifp, IFCOUNTER_IQDROPS,
1179   //        le32_to_cpu(sc->fp[i].old_tclient.checksum_discard));
1180 }
1181
1182 uint64_t
1183 bxe_get_counter(if_t ifp, ift_counter cnt)
1184 {
1185 #if 0
1186         struct bxe_adapter *sc;
1187         struct bxe_eth_stats *estats;
1188
1189         sc = if_getsoftc(ifp);
1190         estats = &sc->eth_stats;
1191
1192         switch (cnt) {
1193         case IFCOUNTER_IPACKETS:
1194                 return (bxe_hilo(&estats->total_unicast_packets_received_hi) +
1195                     bxe_hilo(&estats->total_multicast_packets_received_hi) +
1196                     bxe_hilo(&estats->total_broadcast_packets_received_hi));
1197         case IFCOUNTER_OPACKETS:
1198                 return (bxe_hilo(&estats->total_unicast_packets_transmitted_hi) +
1199                     bxe_hilo(&estats->total_multicast_packets_transmitted_hi) +
1200                     bxe_hilo(&estats->total_broadcast_packets_transmitted_hi));
1201         case IFCOUNTER_IBYTES:
1202                 return (bxe_hilo(&estats->total_bytes_received_hi));
1203         case IFCOUNTER_OBYTES:
1204                 return (bxe_hilo(&estats->total_bytes_transmitted_hi));
1205         case IFCOUNTER_IERRORS:
1206                 return (bxe_hilo(&estats->rx_stat_etherstatsundersizepkts_hi) +
1207                     bxe_hilo(&estats->etherstatsoverrsizepkts_hi) +
1208                     bxe_hilo(&estats->brb_drop_hi) +
1209                     bxe_hilo(&estats->brb_truncate_hi) +
1210                     bxe_hilo(&estats->rx_stat_dot3statsfcserrors_hi) +
1211                     bxe_hilo(&estats->rx_stat_dot3statsalignmenterrors_hi) +
1212                     bxe_hilo(&estats->no_buff_discard_hi));
1213         case IFCOUNTER_OERRORS:
1214                 return (bxe_hilo(&estats->rx_stat_dot3statscarriersenseerrors_hi) +
1215                     bxe_hilo(&estats->tx_stat_dot3statsinternalmactransmiterrors_hi));
1216         case IFCOUNTER_IMCASTS:
1217                 return (bxe_hilo(&estats->total_multicast_packets_received_hi));
1218         case IFCOUNTER_COLLISIONS:
1219                 return (bxe_hilo(&estats->tx_stat_etherstatscollisions_hi) +
1220                     bxe_hilo(&estats->tx_stat_dot3statslatecollisions_hi) +
1221                     bxe_hilo(&estats->tx_stat_dot3statsexcessivecollisions_hi));
1222         default:
1223                 return (if_get_counter_default(ifp, cnt));
1224         }
1225 #endif
1226 }
1227
1228 static void
1229 bxe_drv_stats_update(struct bxe_adapter *sc)
1230 {
1231     struct bxe_eth_stats *estats = &sc->eth_stats;
1232     int i;
1233
1234     for (i = 0; i < sc->num_queues; i++) {
1235         struct bxe_eth_q_stats *qstats = &sc->fp[i].eth_q_stats;
1236         struct bxe_eth_q_stats_old *qstats_old = &sc->fp[i].eth_q_stats_old;
1237
1238         UPDATE_ESTAT_QSTAT(rx_calls);
1239         UPDATE_ESTAT_QSTAT(rx_pkts);
1240         UPDATE_ESTAT_QSTAT(rx_tpa_pkts);
1241         UPDATE_ESTAT_QSTAT(rx_soft_errors);
1242         UPDATE_ESTAT_QSTAT(rx_hw_csum_errors);
1243         UPDATE_ESTAT_QSTAT(rx_ofld_frames_csum_ip);
1244         UPDATE_ESTAT_QSTAT(rx_ofld_frames_csum_tcp_udp);
1245         UPDATE_ESTAT_QSTAT(rx_budget_reached);
1246         UPDATE_ESTAT_QSTAT(tx_pkts);
1247         UPDATE_ESTAT_QSTAT(tx_soft_errors);
1248         UPDATE_ESTAT_QSTAT(tx_ofld_frames_csum_ip);
1249         UPDATE_ESTAT_QSTAT(tx_ofld_frames_csum_tcp);
1250         UPDATE_ESTAT_QSTAT(tx_ofld_frames_csum_udp);
1251         UPDATE_ESTAT_QSTAT(tx_ofld_frames_lso);
1252         UPDATE_ESTAT_QSTAT(tx_ofld_frames_lso_hdr_splits);
1253         UPDATE_ESTAT_QSTAT(tx_encap_failures);
1254         UPDATE_ESTAT_QSTAT(tx_hw_queue_full);
1255         UPDATE_ESTAT_QSTAT(tx_hw_max_queue_depth);
1256         UPDATE_ESTAT_QSTAT(tx_dma_mapping_failure);
1257         UPDATE_ESTAT_QSTAT(tx_max_drbr_queue_depth);
1258         UPDATE_ESTAT_QSTAT(tx_window_violation_std);
1259         UPDATE_ESTAT_QSTAT(tx_window_violation_tso);
1260         //UPDATE_ESTAT_QSTAT(tx_unsupported_tso_request_ipv6);
1261         //UPDATE_ESTAT_QSTAT(tx_unsupported_tso_request_not_tcp);
1262         UPDATE_ESTAT_QSTAT(tx_chain_lost_mbuf);
1263         UPDATE_ESTAT_QSTAT(tx_frames_deferred);
1264         UPDATE_ESTAT_QSTAT(tx_queue_xoff);
1265
1266         /* mbuf driver statistics */
1267         UPDATE_ESTAT_QSTAT(mbuf_defrag_attempts);
1268         UPDATE_ESTAT_QSTAT(mbuf_defrag_failures);
1269         UPDATE_ESTAT_QSTAT(mbuf_rx_bd_alloc_failed);
1270         UPDATE_ESTAT_QSTAT(mbuf_rx_bd_mapping_failed);
1271         UPDATE_ESTAT_QSTAT(mbuf_rx_tpa_alloc_failed);
1272         UPDATE_ESTAT_QSTAT(mbuf_rx_tpa_mapping_failed);
1273         UPDATE_ESTAT_QSTAT(mbuf_rx_sge_alloc_failed);
1274         UPDATE_ESTAT_QSTAT(mbuf_rx_sge_mapping_failed);
1275
1276         /* track the number of allocated mbufs */
1277         UPDATE_ESTAT_QSTAT(mbuf_alloc_tx);
1278         UPDATE_ESTAT_QSTAT(mbuf_alloc_rx);
1279         UPDATE_ESTAT_QSTAT(mbuf_alloc_sge);
1280         UPDATE_ESTAT_QSTAT(mbuf_alloc_tpa);
1281     }
1282 }
1283
1284 static uint8_t
1285 bxe_edebug_stats_stopped(struct bxe_adapter *sc)
1286 {
1287     uint32_t val;
1288
1289     if (SHMEM2_HAS(sc, edebug_driver_if[1])) {
1290         val = SHMEM2_RD(sc, edebug_driver_if[1]);
1291
1292         if (val == EDEBUG_DRIVER_IF_OP_CODE_DISABLE_STAT) {
1293             return (TRUE);
1294         }
1295     }
1296
1297     return (FALSE);
1298 }
1299
1300 static void
1301 bxe_stats_update(struct bxe_adapter *sc)
1302 {
1303     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
1304
1305     if (bxe_edebug_stats_stopped(sc)) {
1306         return;
1307     }
1308
1309     if (IS_PF(sc)) {
1310         if (*stats_comp != DMAE_COMP_VAL) {
1311             return;
1312         }
1313
1314         if (sc->port.pmf) {
1315             bxe_hw_stats_update(sc);
1316         }
1317
1318         if (bxe_storm_stats_update(sc)) {
1319             if (sc->stats_pending++ == 3) {
1320 #if 0
1321                 if (if_getdrvflags(sc->ifp) & IFF_DRV_RUNNING) {
1322                         atomic_store_rel_long(&sc->chip_tq_flags, CHIP_TQ_REINIT);
1323                         taskqueue_enqueue(sc->chip_tq, &sc->chip_tq_task);
1324                 }
1325 #endif
1326             }
1327             return;
1328         }
1329     } else {
1330         /*
1331          * VF doesn't collect HW statistics, and doesn't get completions,
1332          * performs only update.
1333          */
1334         bxe_storm_stats_update(sc);
1335     }
1336
1337     bxe_net_stats_update(sc);
1338     bxe_drv_stats_update(sc);
1339
1340     /* vf is done */
1341     if (IS_VF(sc)) {
1342         return;
1343     }
1344
1345     bxe_hw_stats_post(sc);
1346     bxe_storm_stats_post(sc);
1347 }
1348
1349 static void
1350 bxe_port_stats_stop(struct bxe_adapter *sc)
1351 {
1352     struct dmae_command *dmae;
1353     uint32_t opcode;
1354     int loader_idx = PMF_DMAE_C(sc);
1355     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
1356
1357     sc->executer_idx = 0;
1358
1359     opcode = bxe_dmae_opcode(sc, DMAE_SRC_PCI, DMAE_DST_GRC, FALSE, 0);
1360
1361     if (sc->port.port_stx) {
1362         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
1363
1364         if (sc->func_stx) {
1365             dmae->opcode = bxe_dmae_opcode_add_comp(opcode, DMAE_COMP_GRC);
1366         } else {
1367             dmae->opcode = bxe_dmae_opcode_add_comp(opcode, DMAE_COMP_PCI);
1368         }
1369
1370         dmae->src_addr_lo = U64_LO(BXE_SP_MAPPING(sc, port_stats));
1371         dmae->src_addr_hi = U64_HI(BXE_SP_MAPPING(sc, port_stats));
1372         dmae->dst_addr_lo = sc->port.port_stx >> 2;
1373         dmae->dst_addr_hi = 0;
1374         dmae->len = bxe_get_port_stats_dma_len(sc);
1375         if (sc->func_stx) {
1376             dmae->comp_addr_lo = (dmae_reg_go_c[loader_idx] >> 2);
1377             dmae->comp_addr_hi = 0;
1378             dmae->comp_val = 1;
1379         } else {
1380             dmae->comp_addr_lo = U64_LO(BXE_SP_MAPPING(sc, stats_comp));
1381             dmae->comp_addr_hi = U64_HI(BXE_SP_MAPPING(sc, stats_comp));
1382             dmae->comp_val = DMAE_COMP_VAL;
1383
1384             *stats_comp = 0;
1385         }
1386     }
1387
1388     if (sc->func_stx) {
1389         dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
1390         dmae->opcode = bxe_dmae_opcode_add_comp(opcode, DMAE_COMP_PCI);
1391         dmae->src_addr_lo = U64_LO(BXE_SP_MAPPING(sc, func_stats));
1392         dmae->src_addr_hi = U64_HI(BXE_SP_MAPPING(sc, func_stats));
1393         dmae->dst_addr_lo = (sc->func_stx >> 2);
1394         dmae->dst_addr_hi = 0;
1395         dmae->len = (sizeof(struct host_func_stats) >> 2);
1396         dmae->comp_addr_lo = U64_LO(BXE_SP_MAPPING(sc, stats_comp));
1397         dmae->comp_addr_hi = U64_HI(BXE_SP_MAPPING(sc, stats_comp));
1398         dmae->comp_val = DMAE_COMP_VAL;
1399
1400         *stats_comp = 0;
1401     }
1402 }
1403
1404 static void
1405 bxe_stats_stop(struct bxe_adapter *sc)
1406 {
1407     uint8_t update = FALSE;
1408
1409     bxe_stats_comp(sc);
1410
1411     if (sc->port.pmf) {
1412         update = bxe_hw_stats_update(sc) == 0;
1413     }
1414
1415     update |= bxe_storm_stats_update(sc) == 0;
1416
1417     if (update) {
1418         bxe_net_stats_update(sc);
1419
1420         if (sc->port.pmf) {
1421             bxe_port_stats_stop(sc);
1422         }
1423
1424         bxe_hw_stats_post(sc);
1425         bxe_stats_comp(sc);
1426     }
1427 }
1428
1429 static void
1430 bxe_stats_do_nothing(struct bxe_adapter *sc)
1431 {
1432     return;
1433 }
1434
1435 static const struct {
1436     void (*action)(struct bxe_adapter *sc);
1437     enum bxe_stats_state next_state;
1438 } bxe_stats_stm[STATS_STATE_MAX][STATS_EVENT_MAX] = {
1439     {
1440     /* DISABLED PMF */ { bxe_stats_pmf_update, STATS_STATE_DISABLED },
1441     /*      LINK_UP */ { bxe_stats_start,      STATS_STATE_ENABLED },
1442     /*      UPDATE  */ { bxe_stats_do_nothing, STATS_STATE_DISABLED },
1443     /*      STOP    */ { bxe_stats_do_nothing, STATS_STATE_DISABLED }
1444     },
1445     {
1446     /* ENABLED  PMF */ { bxe_stats_pmf_start,  STATS_STATE_ENABLED },
1447     /*      LINK_UP */ { bxe_stats_restart,    STATS_STATE_ENABLED },
1448     /*      UPDATE  */ { bxe_stats_update,     STATS_STATE_ENABLED },
1449     /*      STOP    */ { bxe_stats_stop,       STATS_STATE_DISABLED }
1450     }
1451 };
1452
1453 void bxe_stats_handle(struct bxe_adapter     *sc,
1454                       enum bxe_stats_event event)
1455 {
1456     enum bxe_stats_state state;
1457
1458     if (__predict_false(sc->panic)) {
1459         return;
1460     }
1461
1462     BXE_STATS_LOCK(sc);
1463     state = sc->stats_state;
1464     sc->stats_state = bxe_stats_stm[state][event].next_state;
1465     BXE_STATS_UNLOCK(sc);
1466
1467     bxe_stats_stm[state][event].action(sc);
1468
1469     if (event != STATS_EVENT_UPDATE) {
1470         BLOGD(sc, DBG_STATS,
1471               "state %d -> event %d -> state %d\n",
1472               state, event, sc->stats_state);
1473     }
1474 }
1475
1476 static void
1477 bxe_port_stats_base_init(struct bxe_adapter *sc)
1478 {
1479     struct dmae_command *dmae;
1480     uint32_t *stats_comp = BXE_SP(sc, stats_comp);
1481
1482     /* sanity */
1483     if (!sc->port.pmf || !sc->port.port_stx) {
1484         BLOGE(sc, "BUG!\n");
1485         return;
1486     }
1487
1488     sc->executer_idx = 0;
1489
1490     dmae = BXE_SP(sc, dmae[sc->executer_idx++]);
1491     dmae->opcode = bxe_dmae_opcode(sc, DMAE_SRC_PCI, DMAE_DST_GRC,
1492                                    TRUE, DMAE_COMP_PCI);
1493     dmae->src_addr_lo = U64_LO(BXE_SP_MAPPING(sc, port_stats));
1494     dmae->src_addr_hi = U64_HI(BXE_SP_MAPPING(sc, port_stats));
1495     dmae->dst_addr_lo = (sc->port.port_stx >> 2);
1496     dmae->dst_addr_hi = 0;
1497     dmae->len = bxe_get_port_stats_dma_len(sc);
1498     dmae->comp_addr_lo = U64_LO(BXE_SP_MAPPING(sc, stats_comp));
1499     dmae->comp_addr_hi = U64_HI(BXE_SP_MAPPING(sc, stats_comp));
1500     dmae->comp_val = DMAE_COMP_VAL;
1501
1502     *stats_comp = 0;
1503     bxe_hw_stats_post(sc);
1504     bxe_stats_comp(sc);
1505 }
1506
1507 /*
1508  * This function will prepare the statistics ramrod data the way
1509  * we will only have to increment the statistics counter and
1510  * send the ramrod each time we have to.
1511  */
1512 static void
1513 bxe_prep_fw_stats_req(struct bxe_adapter *sc)
1514 {
1515     int i;
1516     int first_queue_query_index;
1517     struct stats_query_header *stats_hdr = &sc->fw_stats_req->hdr;
1518     bus_addr_t cur_data_offset;
1519     struct stats_query_entry *cur_query_entry;
1520
1521     stats_hdr->cmd_num = sc->fw_stats_num;
1522     stats_hdr->drv_stats_counter = 0;
1523
1524     /*
1525      * The storm_counters struct contains the counters of completed
1526      * statistics requests per storm which are incremented by FW
1527      * each time it completes hadning a statistics ramrod. We will
1528      * check these counters in the timer handler and discard a
1529      * (statistics) ramrod completion.
1530      */
1531     cur_data_offset = (sc->fw_stats_data_mapping +
1532                        offsetof(struct bxe_fw_stats_data, storm_counters));
1533
1534     stats_hdr->stats_counters_addrs.hi = cpu_to_le32(U64_HI(cur_data_offset));
1535     stats_hdr->stats_counters_addrs.lo = cpu_to_le32(U64_LO(cur_data_offset));
1536
1537     /*
1538      * Prepare the first stats ramrod (will be completed with
1539      * the counters equal to zero) - init counters to somethig different.
1540      */
1541     memset(&sc->fw_stats_data->storm_counters, 0xff,
1542            sizeof(struct stats_counter));
1543
1544     /**** Port FW statistics data ****/
1545     cur_data_offset = (sc->fw_stats_data_mapping +
1546                        offsetof(struct bxe_fw_stats_data, port));
1547
1548     cur_query_entry = &sc->fw_stats_req->query[BXE_PORT_QUERY_IDX];
1549
1550     cur_query_entry->kind = STATS_TYPE_PORT;
1551     /* For port query index is a DONT CARE */
1552     cur_query_entry->index = SC_PORT(sc);
1553     /* For port query funcID is a DONT CARE */
1554     cur_query_entry->funcID = cpu_to_le16(SC_FUNC(sc));
1555     cur_query_entry->address.hi = cpu_to_le32(U64_HI(cur_data_offset));
1556     cur_query_entry->address.lo = cpu_to_le32(U64_LO(cur_data_offset));
1557
1558     /**** PF FW statistics data ****/
1559     cur_data_offset = (sc->fw_stats_data_mapping +
1560                        offsetof(struct bxe_fw_stats_data, pf));
1561
1562     cur_query_entry = &sc->fw_stats_req->query[BXE_PF_QUERY_IDX];
1563
1564     cur_query_entry->kind = STATS_TYPE_PF;
1565     /* For PF query index is a DONT CARE */
1566     cur_query_entry->index = SC_PORT(sc);
1567     cur_query_entry->funcID = cpu_to_le16(SC_FUNC(sc));
1568     cur_query_entry->address.hi = cpu_to_le32(U64_HI(cur_data_offset));
1569     cur_query_entry->address.lo = cpu_to_le32(U64_LO(cur_data_offset));
1570
1571 #if 0
1572     /**** FCoE FW statistics data ****/
1573     if (!NO_FCOE(sc)) {
1574         cur_data_offset = (sc->fw_stats_data_mapping +
1575                            offsetof(struct bxe_fw_stats_data, fcoe));
1576
1577         cur_query_entry = &sc->fw_stats_req->query[BXE_FCOE_QUERY_IDX];
1578
1579         cur_query_entry->kind = STATS_TYPE_FCOE;
1580         /* For FCoE query index is a DONT CARE */
1581         cur_query_entry->index = SC_PORT(sc);
1582         cur_query_entry->funcID = cpu_to_le16(SC_FUNC(sc));
1583         cur_query_entry->address.hi = cpu_to_le32(U64_HI(cur_data_offset));
1584         cur_query_entry->address.lo = cpu_to_le32(U64_LO(cur_data_offset));
1585     }
1586 #endif
1587
1588     /**** Clients' queries ****/
1589     cur_data_offset = (sc->fw_stats_data_mapping +
1590                        offsetof(struct bxe_fw_stats_data, queue_stats));
1591
1592     /*
1593      * First queue query index depends whether FCoE offloaded request will
1594      * be included in the ramrod
1595      */
1596 #if 0
1597     if (!NO_FCOE(sc))
1598         first_queue_query_index = BXE_FIRST_QUEUE_QUERY_IDX;
1599     else
1600 #endif
1601         first_queue_query_index = (BXE_FIRST_QUEUE_QUERY_IDX - 1);
1602
1603     for (i = 0; i < sc->num_queues; i++) {
1604         cur_query_entry =
1605             &sc->fw_stats_req->query[first_queue_query_index + i];
1606
1607         cur_query_entry->kind = STATS_TYPE_QUEUE;
1608         cur_query_entry->index = bxe_stats_id(&sc->fp[i]);
1609         cur_query_entry->funcID = cpu_to_le16(SC_FUNC(sc));
1610         cur_query_entry->address.hi = cpu_to_le32(U64_HI(cur_data_offset));
1611         cur_query_entry->address.lo = cpu_to_le32(U64_LO(cur_data_offset));
1612
1613         cur_data_offset += sizeof(struct per_queue_stats);
1614     }
1615
1616 #if 0
1617     /* add FCoE queue query if needed */
1618     if (!NO_FCOE(sc)) {
1619         cur_query_entry =
1620             &sc->fw_stats_req->query[first_queue_query_index + i];
1621
1622         cur_query_entry->kind = STATS_TYPE_QUEUE;
1623         cur_query_entry->index = bxe_stats_id(&sc->fp[FCOE_IDX(sc)]);
1624         cur_query_entry->funcID = cpu_to_le16(SC_FUNC(sc));
1625         cur_query_entry->address.hi = cpu_to_le32(U64_HI(cur_data_offset));
1626         cur_query_entry->address.lo = cpu_to_le32(U64_LO(cur_data_offset));
1627     }
1628 #endif
1629 }
1630
1631 void
1632 bxe_stats_init(struct bxe_adapter *sc)
1633 {
1634     int /*abs*/port = SC_PORT(sc);
1635     int mb_idx = SC_FW_MB_IDX(sc);
1636     int i;
1637
1638     sc->stats_pending = 0;
1639     sc->executer_idx = 0;
1640     sc->stats_counter = 0;
1641
1642     /* port and func stats for management */
1643     if (!BXE_NOMCP(sc)) {
1644         sc->port.port_stx = SHMEM_RD(sc, port_mb[port].port_stx);
1645         sc->func_stx = SHMEM_RD(sc, func_mb[mb_idx].fw_mb_param);
1646     } else {
1647         sc->port.port_stx = 0;
1648         sc->func_stx = 0;
1649     }
1650
1651     BLOGD(sc, DBG_STATS, "port_stx 0x%x func_stx 0x%x\n",
1652           sc->port.port_stx, sc->func_stx);
1653
1654     /* pmf should retrieve port statistics from SP on a non-init*/
1655     if (!sc->stats_init && sc->port.pmf && sc->port.port_stx) {
1656         bxe_stats_handle(sc, STATS_EVENT_PMF);
1657     }
1658
1659     port = SC_PORT(sc);
1660     /* port stats */
1661     memset(&(sc->port.old_nig_stats), 0, sizeof(struct nig_stats));
1662     sc->port.old_nig_stats.brb_discard =
1663         REG_RD(sc, NIG_REG_STAT0_BRB_DISCARD + port*0x38);
1664     sc->port.old_nig_stats.brb_truncate =
1665         REG_RD(sc, NIG_REG_STAT0_BRB_TRUNCATE + port*0x38);
1666     if (!CHIP_IS_E3(sc)) {
1667         REG_RD_DMAE(sc, NIG_REG_STAT0_EGRESS_MAC_PKT0 + port*0x50,
1668                     &(sc->port.old_nig_stats.egress_mac_pkt0_lo), 2);
1669         REG_RD_DMAE(sc, NIG_REG_STAT0_EGRESS_MAC_PKT1 + port*0x50,
1670                     &(sc->port.old_nig_stats.egress_mac_pkt1_lo), 2);
1671     }
1672
1673     /* function stats */
1674     for (i = 0; i < sc->num_queues; i++) {
1675         memset(&sc->fp[i].old_tclient, 0, sizeof(sc->fp[i].old_tclient));
1676         memset(&sc->fp[i].old_uclient, 0, sizeof(sc->fp[i].old_uclient));
1677         memset(&sc->fp[i].old_xclient, 0, sizeof(sc->fp[i].old_xclient));
1678         if (sc->stats_init) {
1679             memset(&sc->fp[i].eth_q_stats, 0,
1680                    sizeof(sc->fp[i].eth_q_stats));
1681             memset(&sc->fp[i].eth_q_stats_old, 0,
1682                    sizeof(sc->fp[i].eth_q_stats_old));
1683         }
1684     }
1685
1686     /* prepare statistics ramrod data */
1687     bxe_prep_fw_stats_req(sc);
1688
1689     if (sc->stats_init) {
1690         memset(&sc->net_stats_old, 0, sizeof(sc->net_stats_old));
1691         memset(&sc->fw_stats_old, 0, sizeof(sc->fw_stats_old));
1692         memset(&sc->eth_stats_old, 0, sizeof(sc->eth_stats_old));
1693         memset(&sc->eth_stats, 0, sizeof(sc->eth_stats));
1694         memset(&sc->func_stats, 0, sizeof(sc->func_stats));
1695
1696         /* Clean SP from previous statistics */
1697         if (sc->func_stx) {
1698             memset(BXE_SP(sc, func_stats), 0, sizeof(struct host_func_stats));
1699             bxe_func_stats_init(sc);
1700             bxe_hw_stats_post(sc);
1701             bxe_stats_comp(sc);
1702         }
1703     }
1704
1705     sc->stats_state = STATS_STATE_DISABLED;
1706
1707     if (sc->port.pmf && sc->port.port_stx) {
1708         bxe_port_stats_base_init(sc);
1709     }
1710
1711     /* mark the end of statistics initializiation */
1712     sc->stats_init = FALSE;
1713 }
1714
1715 void
1716 bxe_save_statistics(struct bxe_adapter *sc)
1717 {
1718     int i;
1719
1720     /* save queue statistics */
1721     for (i = 0; i < sc->num_queues; i++) {
1722         struct bxe_fastpath *fp = &sc->fp[i];
1723         struct bxe_eth_q_stats *qstats = &fp->eth_q_stats;
1724         struct bxe_eth_q_stats_old *qstats_old = &fp->eth_q_stats_old;
1725
1726         UPDATE_QSTAT_OLD(total_unicast_bytes_received_hi);
1727         UPDATE_QSTAT_OLD(total_unicast_bytes_received_lo);
1728         UPDATE_QSTAT_OLD(total_broadcast_bytes_received_hi);
1729         UPDATE_QSTAT_OLD(total_broadcast_bytes_received_lo);
1730         UPDATE_QSTAT_OLD(total_multicast_bytes_received_hi);
1731         UPDATE_QSTAT_OLD(total_multicast_bytes_received_lo);
1732         UPDATE_QSTAT_OLD(total_unicast_bytes_transmitted_hi);
1733         UPDATE_QSTAT_OLD(total_unicast_bytes_transmitted_lo);
1734         UPDATE_QSTAT_OLD(total_broadcast_bytes_transmitted_hi);
1735         UPDATE_QSTAT_OLD(total_broadcast_bytes_transmitted_lo);
1736         UPDATE_QSTAT_OLD(total_multicast_bytes_transmitted_hi);
1737         UPDATE_QSTAT_OLD(total_multicast_bytes_transmitted_lo);
1738         UPDATE_QSTAT_OLD(total_tpa_bytes_hi);
1739         UPDATE_QSTAT_OLD(total_tpa_bytes_lo);
1740     }
1741
1742     /* store port firmware statistics */
1743     if (sc->port.pmf) {
1744         struct bxe_eth_stats *estats = &sc->eth_stats;
1745         struct bxe_fw_port_stats_old *fwstats = &sc->fw_stats_old;
1746         struct host_port_stats *pstats = BXE_SP(sc, port_stats);
1747
1748         fwstats->pfc_frames_rx_hi = pstats->pfc_frames_rx_hi;
1749         fwstats->pfc_frames_rx_lo = pstats->pfc_frames_rx_lo;
1750         fwstats->pfc_frames_tx_hi = pstats->pfc_frames_tx_hi;
1751         fwstats->pfc_frames_tx_lo = pstats->pfc_frames_tx_lo;
1752
1753         if (IS_MF(sc)) {
1754             UPDATE_FW_STAT_OLD(mac_filter_discard);
1755             UPDATE_FW_STAT_OLD(mf_tag_discard);
1756             UPDATE_FW_STAT_OLD(brb_truncate_discard);
1757             UPDATE_FW_STAT_OLD(mac_discard);
1758         }
1759     }
1760 }
1761
1762 void
1763 bxe_afex_collect_stats(struct bxe_adapter *sc,
1764                        void             *void_afex_stats,
1765                        uint32_t         stats_type)
1766 {
1767     int i;
1768     struct afex_stats *afex_stats = (struct afex_stats *)void_afex_stats;
1769     struct bxe_eth_stats *estats = &sc->eth_stats;
1770 #if 0
1771     struct per_queue_stats *fcoe_q_stats =
1772         &sc->fw_stats_data->queue_stats[FCOE_IDX(sc)];
1773
1774     struct tstorm_per_queue_stats *fcoe_q_tstorm_stats =
1775         &fcoe_q_stats->tstorm_queue_statistics;
1776
1777     struct ustorm_per_queue_stats *fcoe_q_ustorm_stats =
1778         &fcoe_q_stats->ustorm_queue_statistics;
1779
1780     struct xstorm_per_queue_stats *fcoe_q_xstorm_stats =
1781         &fcoe_q_stats->xstorm_queue_statistics;
1782
1783     struct fcoe_statistics_params *fw_fcoe_stat =
1784         &sc->fw_stats_data->fcoe;
1785 #endif
1786
1787     memset(afex_stats, 0, sizeof(struct afex_stats));
1788
1789     for (i = 0; i < sc->num_queues; i++) {
1790         struct bxe_eth_q_stats *qstats = &sc->fp[i].eth_q_stats;
1791
1792         ADD_64(afex_stats->rx_unicast_bytes_hi,
1793                qstats->total_unicast_bytes_received_hi,
1794                afex_stats->rx_unicast_bytes_lo,
1795                qstats->total_unicast_bytes_received_lo);
1796
1797         ADD_64(afex_stats->rx_broadcast_bytes_hi,
1798                qstats->total_broadcast_bytes_received_hi,
1799                afex_stats->rx_broadcast_bytes_lo,
1800                qstats->total_broadcast_bytes_received_lo);
1801
1802         ADD_64(afex_stats->rx_multicast_bytes_hi,
1803                qstats->total_multicast_bytes_received_hi,
1804                afex_stats->rx_multicast_bytes_lo,
1805                qstats->total_multicast_bytes_received_lo);
1806
1807         ADD_64(afex_stats->rx_unicast_frames_hi,
1808                qstats->total_unicast_packets_received_hi,
1809                afex_stats->rx_unicast_frames_lo,
1810                qstats->total_unicast_packets_received_lo);
1811
1812         ADD_64(afex_stats->rx_broadcast_frames_hi,
1813                qstats->total_broadcast_packets_received_hi,
1814                afex_stats->rx_broadcast_frames_lo,
1815                qstats->total_broadcast_packets_received_lo);
1816
1817         ADD_64(afex_stats->rx_multicast_frames_hi,
1818                qstats->total_multicast_packets_received_hi,
1819                afex_stats->rx_multicast_frames_lo,
1820                qstats->total_multicast_packets_received_lo);
1821
1822         /*
1823          * sum to rx_frames_discarded all discarded
1824          * packets due to size, ttl0 and checksum
1825          */
1826         ADD_64(afex_stats->rx_frames_discarded_hi,
1827                qstats->total_packets_received_checksum_discarded_hi,
1828                afex_stats->rx_frames_discarded_lo,
1829                qstats->total_packets_received_checksum_discarded_lo);
1830
1831         ADD_64(afex_stats->rx_frames_discarded_hi,
1832                qstats->total_packets_received_ttl0_discarded_hi,
1833                afex_stats->rx_frames_discarded_lo,
1834                qstats->total_packets_received_ttl0_discarded_lo);
1835
1836         ADD_64(afex_stats->rx_frames_discarded_hi,
1837                qstats->etherstatsoverrsizepkts_hi,
1838                afex_stats->rx_frames_discarded_lo,
1839                qstats->etherstatsoverrsizepkts_lo);
1840
1841         ADD_64(afex_stats->rx_frames_dropped_hi,
1842                qstats->no_buff_discard_hi,
1843                afex_stats->rx_frames_dropped_lo,
1844                qstats->no_buff_discard_lo);
1845
1846         ADD_64(afex_stats->tx_unicast_bytes_hi,
1847                qstats->total_unicast_bytes_transmitted_hi,
1848                afex_stats->tx_unicast_bytes_lo,
1849                qstats->total_unicast_bytes_transmitted_lo);
1850
1851         ADD_64(afex_stats->tx_broadcast_bytes_hi,
1852                qstats->total_broadcast_bytes_transmitted_hi,
1853                afex_stats->tx_broadcast_bytes_lo,
1854                qstats->total_broadcast_bytes_transmitted_lo);
1855
1856         ADD_64(afex_stats->tx_multicast_bytes_hi,
1857                qstats->total_multicast_bytes_transmitted_hi,
1858                afex_stats->tx_multicast_bytes_lo,
1859                qstats->total_multicast_bytes_transmitted_lo);
1860
1861         ADD_64(afex_stats->tx_unicast_frames_hi,
1862                qstats->total_unicast_packets_transmitted_hi,
1863                afex_stats->tx_unicast_frames_lo,
1864                qstats->total_unicast_packets_transmitted_lo);
1865
1866         ADD_64(afex_stats->tx_broadcast_frames_hi,
1867                qstats->total_broadcast_packets_transmitted_hi,
1868                afex_stats->tx_broadcast_frames_lo,
1869                qstats->total_broadcast_packets_transmitted_lo);
1870
1871         ADD_64(afex_stats->tx_multicast_frames_hi,
1872                qstats->total_multicast_packets_transmitted_hi,
1873                afex_stats->tx_multicast_frames_lo,
1874                qstats->total_multicast_packets_transmitted_lo);
1875
1876         ADD_64(afex_stats->tx_frames_dropped_hi,
1877                qstats->total_transmitted_dropped_packets_error_hi,
1878                afex_stats->tx_frames_dropped_lo,
1879                qstats->total_transmitted_dropped_packets_error_lo);
1880     }
1881
1882 #if 0
1883     /*
1884      * Now add FCoE statistics which are collected separately
1885      * (both offloaded and non offloaded)
1886      */
1887     if (!NO_FCOE(sc)) {
1888         ADD_64_LE(afex_stats->rx_unicast_bytes_hi,
1889                   LE32_0,
1890                   afex_stats->rx_unicast_bytes_lo,
1891                   fw_fcoe_stat->rx_stat0.fcoe_rx_byte_cnt);
1892
1893         ADD_64_LE(afex_stats->rx_unicast_bytes_hi,
1894                   fcoe_q_tstorm_stats->rcv_ucast_bytes.hi,
1895                   afex_stats->rx_unicast_bytes_lo,
1896                   fcoe_q_tstorm_stats->rcv_ucast_bytes.lo);
1897
1898         ADD_64_LE(afex_stats->rx_broadcast_bytes_hi,
1899                   fcoe_q_tstorm_stats->rcv_bcast_bytes.hi,
1900                   afex_stats->rx_broadcast_bytes_lo,
1901                   fcoe_q_tstorm_stats->rcv_bcast_bytes.lo);
1902
1903         ADD_64_LE(afex_stats->rx_multicast_bytes_hi,
1904                   fcoe_q_tstorm_stats->rcv_mcast_bytes.hi,
1905                   afex_stats->rx_multicast_bytes_lo,
1906                   fcoe_q_tstorm_stats->rcv_mcast_bytes.lo);
1907
1908         ADD_64_LE(afex_stats->rx_unicast_frames_hi,
1909                   LE32_0,
1910                   afex_stats->rx_unicast_frames_lo,
1911                   fw_fcoe_stat->rx_stat0.fcoe_rx_pkt_cnt);
1912
1913         ADD_64_LE(afex_stats->rx_unicast_frames_hi,
1914                   LE32_0,
1915                   afex_stats->rx_unicast_frames_lo,
1916                   fcoe_q_tstorm_stats->rcv_ucast_pkts);
1917
1918         ADD_64_LE(afex_stats->rx_broadcast_frames_hi,
1919                   LE32_0,
1920                   afex_stats->rx_broadcast_frames_lo,
1921                   fcoe_q_tstorm_stats->rcv_bcast_pkts);
1922
1923         ADD_64_LE(afex_stats->rx_multicast_frames_hi,
1924                   LE32_0,
1925                   afex_stats->rx_multicast_frames_lo,
1926                   fcoe_q_tstorm_stats->rcv_ucast_pkts);
1927
1928         ADD_64_LE(afex_stats->rx_frames_discarded_hi,
1929                   LE32_0,
1930                   afex_stats->rx_frames_discarded_lo,
1931                   fcoe_q_tstorm_stats->checksum_discard);
1932
1933         ADD_64_LE(afex_stats->rx_frames_discarded_hi,
1934                   LE32_0,
1935                   afex_stats->rx_frames_discarded_lo,
1936                   fcoe_q_tstorm_stats->pkts_too_big_discard);
1937
1938         ADD_64_LE(afex_stats->rx_frames_discarded_hi,
1939                   LE32_0,
1940                   afex_stats->rx_frames_discarded_lo,
1941                   fcoe_q_tstorm_stats->ttl0_discard);
1942
1943         ADD_64_LE16(afex_stats->rx_frames_dropped_hi,
1944                     LE16_0,
1945                     afex_stats->rx_frames_dropped_lo,
1946                     fcoe_q_tstorm_stats->no_buff_discard);
1947
1948         ADD_64_LE(afex_stats->rx_frames_dropped_hi,
1949                   LE32_0,
1950                   afex_stats->rx_frames_dropped_lo,
1951                   fcoe_q_ustorm_stats->ucast_no_buff_pkts);
1952
1953         ADD_64_LE(afex_stats->rx_frames_dropped_hi,
1954                   LE32_0,
1955                   afex_stats->rx_frames_dropped_lo,
1956                   fcoe_q_ustorm_stats->mcast_no_buff_pkts);
1957
1958         ADD_64_LE(afex_stats->rx_frames_dropped_hi,
1959                   LE32_0,
1960                   afex_stats->rx_frames_dropped_lo,
1961                   fcoe_q_ustorm_stats->bcast_no_buff_pkts);
1962
1963         ADD_64_LE(afex_stats->rx_frames_dropped_hi,
1964                   LE32_0,
1965                   afex_stats->rx_frames_dropped_lo,
1966                   fw_fcoe_stat->rx_stat1.fcoe_rx_drop_pkt_cnt);
1967
1968         ADD_64_LE(afex_stats->rx_frames_dropped_hi,
1969                   LE32_0,
1970                   afex_stats->rx_frames_dropped_lo,
1971                   fw_fcoe_stat->rx_stat2.fcoe_rx_drop_pkt_cnt);
1972
1973         ADD_64_LE(afex_stats->tx_unicast_bytes_hi,
1974                   LE32_0,
1975                   afex_stats->tx_unicast_bytes_lo,
1976                   fw_fcoe_stat->tx_stat.fcoe_tx_byte_cnt);
1977
1978         ADD_64_LE(afex_stats->tx_unicast_bytes_hi,
1979                   fcoe_q_xstorm_stats->ucast_bytes_sent.hi,
1980                   afex_stats->tx_unicast_bytes_lo,
1981                   fcoe_q_xstorm_stats->ucast_bytes_sent.lo);
1982
1983         ADD_64_LE(afex_stats->tx_broadcast_bytes_hi,
1984                   fcoe_q_xstorm_stats->bcast_bytes_sent.hi,
1985                   afex_stats->tx_broadcast_bytes_lo,
1986                   fcoe_q_xstorm_stats->bcast_bytes_sent.lo);
1987
1988         ADD_64_LE(afex_stats->tx_multicast_bytes_hi,
1989                   fcoe_q_xstorm_stats->mcast_bytes_sent.hi,
1990                   afex_stats->tx_multicast_bytes_lo,
1991                   fcoe_q_xstorm_stats->mcast_bytes_sent.lo);
1992
1993         ADD_64_LE(afex_stats->tx_unicast_frames_hi,
1994                   LE32_0,
1995                   afex_stats->tx_unicast_frames_lo,
1996                   fw_fcoe_stat->tx_stat.fcoe_tx_pkt_cnt);
1997
1998         ADD_64_LE(afex_stats->tx_unicast_frames_hi,
1999                   LE32_0,
2000                   afex_stats->tx_unicast_frames_lo,
2001                   fcoe_q_xstorm_stats->ucast_pkts_sent);
2002
2003         ADD_64_LE(afex_stats->tx_broadcast_frames_hi,
2004                   LE32_0,
2005                   afex_stats->tx_broadcast_frames_lo,
2006                   fcoe_q_xstorm_stats->bcast_pkts_sent);
2007
2008         ADD_64_LE(afex_stats->tx_multicast_frames_hi,
2009                   LE32_0,
2010                   afex_stats->tx_multicast_frames_lo,
2011                   fcoe_q_xstorm_stats->mcast_pkts_sent);
2012
2013         ADD_64_LE(afex_stats->tx_frames_dropped_hi,
2014                   LE32_0,
2015                   afex_stats->tx_frames_dropped_lo,
2016                   fcoe_q_xstorm_stats->error_drop_pkts);
2017     }
2018 #endif
2019
2020     /*
2021      * If port stats are requested, add them to the PMF
2022      * stats, as anyway they will be accumulated by the
2023      * MCP before sent to the switch
2024      */
2025     if ((sc->port.pmf) && (stats_type == VICSTATST_UIF_INDEX)) {
2026         ADD_64(afex_stats->rx_frames_dropped_hi,
2027                0,
2028                afex_stats->rx_frames_dropped_lo,
2029                estats->mac_filter_discard);
2030         ADD_64(afex_stats->rx_frames_dropped_hi,
2031                0,
2032                afex_stats->rx_frames_dropped_lo,
2033                estats->brb_truncate_discard);
2034         ADD_64(afex_stats->rx_frames_discarded_hi,
2035                0,
2036                afex_stats->rx_frames_discarded_lo,
2037                estats->mac_discard);
2038     }
2039 }
2040