Merge branches 'clk-baikal', 'clk-broadcom', 'clk-vc5' and 'clk-versaclock' into...
[platform/kernel/linux-starfive.git] / drivers / net / ethernet / mscc / ocelot.c
1 // SPDX-License-Identifier: (GPL-2.0 OR MIT)
2 /*
3  * Microsemi Ocelot Switch driver
4  *
5  * Copyright (c) 2017 Microsemi Corporation
6  */
7 #include <linux/dsa/ocelot.h>
8 #include <linux/if_bridge.h>
9 #include <linux/ptp_classify.h>
10 #include <soc/mscc/ocelot_vcap.h>
11 #include "ocelot.h"
12 #include "ocelot_vcap.h"
13
14 #define TABLE_UPDATE_SLEEP_US 10
15 #define TABLE_UPDATE_TIMEOUT_US 100000
16 #define OCELOT_RSV_VLAN_RANGE_START 4000
17
18 struct ocelot_mact_entry {
19         u8 mac[ETH_ALEN];
20         u16 vid;
21         enum macaccess_entry_type type;
22 };
23
24 /* Caller must hold &ocelot->mact_lock */
25 static inline u32 ocelot_mact_read_macaccess(struct ocelot *ocelot)
26 {
27         return ocelot_read(ocelot, ANA_TABLES_MACACCESS);
28 }
29
30 /* Caller must hold &ocelot->mact_lock */
31 static inline int ocelot_mact_wait_for_completion(struct ocelot *ocelot)
32 {
33         u32 val;
34
35         return readx_poll_timeout(ocelot_mact_read_macaccess,
36                 ocelot, val,
37                 (val & ANA_TABLES_MACACCESS_MAC_TABLE_CMD_M) ==
38                 MACACCESS_CMD_IDLE,
39                 TABLE_UPDATE_SLEEP_US, TABLE_UPDATE_TIMEOUT_US);
40 }
41
42 /* Caller must hold &ocelot->mact_lock */
43 static void ocelot_mact_select(struct ocelot *ocelot,
44                                const unsigned char mac[ETH_ALEN],
45                                unsigned int vid)
46 {
47         u32 macl = 0, mach = 0;
48
49         /* Set the MAC address to handle and the vlan associated in a format
50          * understood by the hardware.
51          */
52         mach |= vid    << 16;
53         mach |= mac[0] << 8;
54         mach |= mac[1] << 0;
55         macl |= mac[2] << 24;
56         macl |= mac[3] << 16;
57         macl |= mac[4] << 8;
58         macl |= mac[5] << 0;
59
60         ocelot_write(ocelot, macl, ANA_TABLES_MACLDATA);
61         ocelot_write(ocelot, mach, ANA_TABLES_MACHDATA);
62
63 }
64
65 static int __ocelot_mact_learn(struct ocelot *ocelot, int port,
66                                const unsigned char mac[ETH_ALEN],
67                                unsigned int vid, enum macaccess_entry_type type)
68 {
69         u32 cmd = ANA_TABLES_MACACCESS_VALID |
70                 ANA_TABLES_MACACCESS_DEST_IDX(port) |
71                 ANA_TABLES_MACACCESS_ENTRYTYPE(type) |
72                 ANA_TABLES_MACACCESS_MAC_TABLE_CMD(MACACCESS_CMD_LEARN);
73         unsigned int mc_ports;
74         int err;
75
76         /* Set MAC_CPU_COPY if the CPU port is used by a multicast entry */
77         if (type == ENTRYTYPE_MACv4)
78                 mc_ports = (mac[1] << 8) | mac[2];
79         else if (type == ENTRYTYPE_MACv6)
80                 mc_ports = (mac[0] << 8) | mac[1];
81         else
82                 mc_ports = 0;
83
84         if (mc_ports & BIT(ocelot->num_phys_ports))
85                 cmd |= ANA_TABLES_MACACCESS_MAC_CPU_COPY;
86
87         ocelot_mact_select(ocelot, mac, vid);
88
89         /* Issue a write command */
90         ocelot_write(ocelot, cmd, ANA_TABLES_MACACCESS);
91
92         err = ocelot_mact_wait_for_completion(ocelot);
93
94         return err;
95 }
96
97 int ocelot_mact_learn(struct ocelot *ocelot, int port,
98                       const unsigned char mac[ETH_ALEN],
99                       unsigned int vid, enum macaccess_entry_type type)
100 {
101         int ret;
102
103         mutex_lock(&ocelot->mact_lock);
104         ret = __ocelot_mact_learn(ocelot, port, mac, vid, type);
105         mutex_unlock(&ocelot->mact_lock);
106
107         return ret;
108 }
109 EXPORT_SYMBOL(ocelot_mact_learn);
110
111 int ocelot_mact_forget(struct ocelot *ocelot,
112                        const unsigned char mac[ETH_ALEN], unsigned int vid)
113 {
114         int err;
115
116         mutex_lock(&ocelot->mact_lock);
117
118         ocelot_mact_select(ocelot, mac, vid);
119
120         /* Issue a forget command */
121         ocelot_write(ocelot,
122                      ANA_TABLES_MACACCESS_MAC_TABLE_CMD(MACACCESS_CMD_FORGET),
123                      ANA_TABLES_MACACCESS);
124
125         err = ocelot_mact_wait_for_completion(ocelot);
126
127         mutex_unlock(&ocelot->mact_lock);
128
129         return err;
130 }
131 EXPORT_SYMBOL(ocelot_mact_forget);
132
133 int ocelot_mact_lookup(struct ocelot *ocelot, int *dst_idx,
134                        const unsigned char mac[ETH_ALEN],
135                        unsigned int vid, enum macaccess_entry_type *type)
136 {
137         int val;
138
139         mutex_lock(&ocelot->mact_lock);
140
141         ocelot_mact_select(ocelot, mac, vid);
142
143         /* Issue a read command with MACACCESS_VALID=1. */
144         ocelot_write(ocelot, ANA_TABLES_MACACCESS_VALID |
145                      ANA_TABLES_MACACCESS_MAC_TABLE_CMD(MACACCESS_CMD_READ),
146                      ANA_TABLES_MACACCESS);
147
148         if (ocelot_mact_wait_for_completion(ocelot)) {
149                 mutex_unlock(&ocelot->mact_lock);
150                 return -ETIMEDOUT;
151         }
152
153         /* Read back the entry flags */
154         val = ocelot_read(ocelot, ANA_TABLES_MACACCESS);
155
156         mutex_unlock(&ocelot->mact_lock);
157
158         if (!(val & ANA_TABLES_MACACCESS_VALID))
159                 return -ENOENT;
160
161         *dst_idx = ANA_TABLES_MACACCESS_DEST_IDX_X(val);
162         *type = ANA_TABLES_MACACCESS_ENTRYTYPE_X(val);
163
164         return 0;
165 }
166 EXPORT_SYMBOL(ocelot_mact_lookup);
167
168 int ocelot_mact_learn_streamdata(struct ocelot *ocelot, int dst_idx,
169                                  const unsigned char mac[ETH_ALEN],
170                                  unsigned int vid,
171                                  enum macaccess_entry_type type,
172                                  int sfid, int ssid)
173 {
174         int ret;
175
176         mutex_lock(&ocelot->mact_lock);
177
178         ocelot_write(ocelot,
179                      (sfid < 0 ? 0 : ANA_TABLES_STREAMDATA_SFID_VALID) |
180                      ANA_TABLES_STREAMDATA_SFID(sfid) |
181                      (ssid < 0 ? 0 : ANA_TABLES_STREAMDATA_SSID_VALID) |
182                      ANA_TABLES_STREAMDATA_SSID(ssid),
183                      ANA_TABLES_STREAMDATA);
184
185         ret = __ocelot_mact_learn(ocelot, dst_idx, mac, vid, type);
186
187         mutex_unlock(&ocelot->mact_lock);
188
189         return ret;
190 }
191 EXPORT_SYMBOL(ocelot_mact_learn_streamdata);
192
193 static void ocelot_mact_init(struct ocelot *ocelot)
194 {
195         /* Configure the learning mode entries attributes:
196          * - Do not copy the frame to the CPU extraction queues.
197          * - Use the vlan and mac_cpoy for dmac lookup.
198          */
199         ocelot_rmw(ocelot, 0,
200                    ANA_AGENCTRL_LEARN_CPU_COPY | ANA_AGENCTRL_IGNORE_DMAC_FLAGS
201                    | ANA_AGENCTRL_LEARN_FWD_KILL
202                    | ANA_AGENCTRL_LEARN_IGNORE_VLAN,
203                    ANA_AGENCTRL);
204
205         /* Clear the MAC table. We are not concurrent with anyone, so
206          * holding &ocelot->mact_lock is pointless.
207          */
208         ocelot_write(ocelot, MACACCESS_CMD_INIT, ANA_TABLES_MACACCESS);
209 }
210
211 static void ocelot_vcap_enable(struct ocelot *ocelot, int port)
212 {
213         ocelot_write_gix(ocelot, ANA_PORT_VCAP_S2_CFG_S2_ENA |
214                          ANA_PORT_VCAP_S2_CFG_S2_IP6_CFG(0xa),
215                          ANA_PORT_VCAP_S2_CFG, port);
216
217         ocelot_write_gix(ocelot, ANA_PORT_VCAP_CFG_S1_ENA,
218                          ANA_PORT_VCAP_CFG, port);
219
220         ocelot_rmw_gix(ocelot, REW_PORT_CFG_ES0_EN,
221                        REW_PORT_CFG_ES0_EN,
222                        REW_PORT_CFG, port);
223 }
224
225 static int ocelot_single_vlan_aware_bridge(struct ocelot *ocelot,
226                                            struct netlink_ext_ack *extack)
227 {
228         struct net_device *bridge = NULL;
229         int port;
230
231         for (port = 0; port < ocelot->num_phys_ports; port++) {
232                 struct ocelot_port *ocelot_port = ocelot->ports[port];
233
234                 if (!ocelot_port || !ocelot_port->bridge ||
235                     !br_vlan_enabled(ocelot_port->bridge))
236                         continue;
237
238                 if (!bridge) {
239                         bridge = ocelot_port->bridge;
240                         continue;
241                 }
242
243                 if (bridge == ocelot_port->bridge)
244                         continue;
245
246                 NL_SET_ERR_MSG_MOD(extack,
247                                    "Only one VLAN-aware bridge is supported");
248                 return -EBUSY;
249         }
250
251         return 0;
252 }
253
254 static inline u32 ocelot_vlant_read_vlanaccess(struct ocelot *ocelot)
255 {
256         return ocelot_read(ocelot, ANA_TABLES_VLANACCESS);
257 }
258
259 static inline int ocelot_vlant_wait_for_completion(struct ocelot *ocelot)
260 {
261         u32 val;
262
263         return readx_poll_timeout(ocelot_vlant_read_vlanaccess,
264                 ocelot,
265                 val,
266                 (val & ANA_TABLES_VLANACCESS_VLAN_TBL_CMD_M) ==
267                 ANA_TABLES_VLANACCESS_CMD_IDLE,
268                 TABLE_UPDATE_SLEEP_US, TABLE_UPDATE_TIMEOUT_US);
269 }
270
271 static int ocelot_vlant_set_mask(struct ocelot *ocelot, u16 vid, u32 mask)
272 {
273         /* Select the VID to configure */
274         ocelot_write(ocelot, ANA_TABLES_VLANTIDX_V_INDEX(vid),
275                      ANA_TABLES_VLANTIDX);
276         /* Set the vlan port members mask and issue a write command */
277         ocelot_write(ocelot, ANA_TABLES_VLANACCESS_VLAN_PORT_MASK(mask) |
278                              ANA_TABLES_VLANACCESS_CMD_WRITE,
279                      ANA_TABLES_VLANACCESS);
280
281         return ocelot_vlant_wait_for_completion(ocelot);
282 }
283
284 static int ocelot_port_num_untagged_vlans(struct ocelot *ocelot, int port)
285 {
286         struct ocelot_bridge_vlan *vlan;
287         int num_untagged = 0;
288
289         list_for_each_entry(vlan, &ocelot->vlans, list) {
290                 if (!(vlan->portmask & BIT(port)))
291                         continue;
292
293                 if (vlan->untagged & BIT(port))
294                         num_untagged++;
295         }
296
297         return num_untagged;
298 }
299
300 static int ocelot_port_num_tagged_vlans(struct ocelot *ocelot, int port)
301 {
302         struct ocelot_bridge_vlan *vlan;
303         int num_tagged = 0;
304
305         list_for_each_entry(vlan, &ocelot->vlans, list) {
306                 if (!(vlan->portmask & BIT(port)))
307                         continue;
308
309                 if (!(vlan->untagged & BIT(port)))
310                         num_tagged++;
311         }
312
313         return num_tagged;
314 }
315
316 /* We use native VLAN when we have to mix egress-tagged VLANs with exactly
317  * _one_ egress-untagged VLAN (_the_ native VLAN)
318  */
319 static bool ocelot_port_uses_native_vlan(struct ocelot *ocelot, int port)
320 {
321         return ocelot_port_num_tagged_vlans(ocelot, port) &&
322                ocelot_port_num_untagged_vlans(ocelot, port) == 1;
323 }
324
325 static struct ocelot_bridge_vlan *
326 ocelot_port_find_native_vlan(struct ocelot *ocelot, int port)
327 {
328         struct ocelot_bridge_vlan *vlan;
329
330         list_for_each_entry(vlan, &ocelot->vlans, list)
331                 if (vlan->portmask & BIT(port) && vlan->untagged & BIT(port))
332                         return vlan;
333
334         return NULL;
335 }
336
337 /* Keep in sync REW_TAG_CFG_TAG_CFG and, if applicable,
338  * REW_PORT_VLAN_CFG_PORT_VID, with the bridge VLAN table and VLAN awareness
339  * state of the port.
340  */
341 static void ocelot_port_manage_port_tag(struct ocelot *ocelot, int port)
342 {
343         struct ocelot_port *ocelot_port = ocelot->ports[port];
344         enum ocelot_port_tag_config tag_cfg;
345         bool uses_native_vlan = false;
346
347         if (ocelot_port->vlan_aware) {
348                 uses_native_vlan = ocelot_port_uses_native_vlan(ocelot, port);
349
350                 if (uses_native_vlan)
351                         tag_cfg = OCELOT_PORT_TAG_NATIVE;
352                 else if (ocelot_port_num_untagged_vlans(ocelot, port))
353                         tag_cfg = OCELOT_PORT_TAG_DISABLED;
354                 else
355                         tag_cfg = OCELOT_PORT_TAG_TRUNK;
356         } else {
357                 tag_cfg = OCELOT_PORT_TAG_DISABLED;
358         }
359
360         ocelot_rmw_gix(ocelot, REW_TAG_CFG_TAG_CFG(tag_cfg),
361                        REW_TAG_CFG_TAG_CFG_M,
362                        REW_TAG_CFG, port);
363
364         if (uses_native_vlan) {
365                 struct ocelot_bridge_vlan *native_vlan;
366
367                 /* Not having a native VLAN is impossible, because
368                  * ocelot_port_num_untagged_vlans has returned 1.
369                  * So there is no use in checking for NULL here.
370                  */
371                 native_vlan = ocelot_port_find_native_vlan(ocelot, port);
372
373                 ocelot_rmw_gix(ocelot,
374                                REW_PORT_VLAN_CFG_PORT_VID(native_vlan->vid),
375                                REW_PORT_VLAN_CFG_PORT_VID_M,
376                                REW_PORT_VLAN_CFG, port);
377         }
378 }
379
380 int ocelot_bridge_num_find(struct ocelot *ocelot,
381                            const struct net_device *bridge)
382 {
383         int port;
384
385         for (port = 0; port < ocelot->num_phys_ports; port++) {
386                 struct ocelot_port *ocelot_port = ocelot->ports[port];
387
388                 if (ocelot_port && ocelot_port->bridge == bridge)
389                         return ocelot_port->bridge_num;
390         }
391
392         return -1;
393 }
394 EXPORT_SYMBOL_GPL(ocelot_bridge_num_find);
395
396 static u16 ocelot_vlan_unaware_pvid(struct ocelot *ocelot,
397                                     const struct net_device *bridge)
398 {
399         int bridge_num;
400
401         /* Standalone ports use VID 0 */
402         if (!bridge)
403                 return 0;
404
405         bridge_num = ocelot_bridge_num_find(ocelot, bridge);
406         if (WARN_ON(bridge_num < 0))
407                 return 0;
408
409         /* VLAN-unaware bridges use a reserved VID going from 4095 downwards */
410         return VLAN_N_VID - bridge_num - 1;
411 }
412
413 /* Default vlan to clasify for untagged frames (may be zero) */
414 static void ocelot_port_set_pvid(struct ocelot *ocelot, int port,
415                                  const struct ocelot_bridge_vlan *pvid_vlan)
416 {
417         struct ocelot_port *ocelot_port = ocelot->ports[port];
418         u16 pvid = ocelot_vlan_unaware_pvid(ocelot, ocelot_port->bridge);
419         u32 val = 0;
420
421         ocelot_port->pvid_vlan = pvid_vlan;
422
423         if (ocelot_port->vlan_aware && pvid_vlan)
424                 pvid = pvid_vlan->vid;
425
426         ocelot_rmw_gix(ocelot,
427                        ANA_PORT_VLAN_CFG_VLAN_VID(pvid),
428                        ANA_PORT_VLAN_CFG_VLAN_VID_M,
429                        ANA_PORT_VLAN_CFG, port);
430
431         /* If there's no pvid, we should drop not only untagged traffic (which
432          * happens automatically), but also 802.1p traffic which gets
433          * classified to VLAN 0, but that is always in our RX filter, so it
434          * would get accepted were it not for this setting.
435          */
436         if (!pvid_vlan && ocelot_port->vlan_aware)
437                 val = ANA_PORT_DROP_CFG_DROP_PRIO_S_TAGGED_ENA |
438                       ANA_PORT_DROP_CFG_DROP_PRIO_C_TAGGED_ENA;
439
440         ocelot_rmw_gix(ocelot, val,
441                        ANA_PORT_DROP_CFG_DROP_PRIO_S_TAGGED_ENA |
442                        ANA_PORT_DROP_CFG_DROP_PRIO_C_TAGGED_ENA,
443                        ANA_PORT_DROP_CFG, port);
444 }
445
446 static struct ocelot_bridge_vlan *ocelot_bridge_vlan_find(struct ocelot *ocelot,
447                                                           u16 vid)
448 {
449         struct ocelot_bridge_vlan *vlan;
450
451         list_for_each_entry(vlan, &ocelot->vlans, list)
452                 if (vlan->vid == vid)
453                         return vlan;
454
455         return NULL;
456 }
457
458 static int ocelot_vlan_member_add(struct ocelot *ocelot, int port, u16 vid,
459                                   bool untagged)
460 {
461         struct ocelot_bridge_vlan *vlan = ocelot_bridge_vlan_find(ocelot, vid);
462         unsigned long portmask;
463         int err;
464
465         if (vlan) {
466                 portmask = vlan->portmask | BIT(port);
467
468                 err = ocelot_vlant_set_mask(ocelot, vid, portmask);
469                 if (err)
470                         return err;
471
472                 vlan->portmask = portmask;
473                 /* Bridge VLANs can be overwritten with a different
474                  * egress-tagging setting, so make sure to override an untagged
475                  * with a tagged VID if that's going on.
476                  */
477                 if (untagged)
478                         vlan->untagged |= BIT(port);
479                 else
480                         vlan->untagged &= ~BIT(port);
481
482                 return 0;
483         }
484
485         vlan = kzalloc(sizeof(*vlan), GFP_KERNEL);
486         if (!vlan)
487                 return -ENOMEM;
488
489         portmask = BIT(port);
490
491         err = ocelot_vlant_set_mask(ocelot, vid, portmask);
492         if (err) {
493                 kfree(vlan);
494                 return err;
495         }
496
497         vlan->vid = vid;
498         vlan->portmask = portmask;
499         if (untagged)
500                 vlan->untagged = BIT(port);
501         INIT_LIST_HEAD(&vlan->list);
502         list_add_tail(&vlan->list, &ocelot->vlans);
503
504         return 0;
505 }
506
507 static int ocelot_vlan_member_del(struct ocelot *ocelot, int port, u16 vid)
508 {
509         struct ocelot_bridge_vlan *vlan = ocelot_bridge_vlan_find(ocelot, vid);
510         unsigned long portmask;
511         int err;
512
513         if (!vlan)
514                 return 0;
515
516         portmask = vlan->portmask & ~BIT(port);
517
518         err = ocelot_vlant_set_mask(ocelot, vid, portmask);
519         if (err)
520                 return err;
521
522         vlan->portmask = portmask;
523         if (vlan->portmask)
524                 return 0;
525
526         list_del(&vlan->list);
527         kfree(vlan);
528
529         return 0;
530 }
531
532 static int ocelot_add_vlan_unaware_pvid(struct ocelot *ocelot, int port,
533                                         const struct net_device *bridge)
534 {
535         u16 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
536
537         return ocelot_vlan_member_add(ocelot, port, vid, true);
538 }
539
540 static int ocelot_del_vlan_unaware_pvid(struct ocelot *ocelot, int port,
541                                         const struct net_device *bridge)
542 {
543         u16 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
544
545         return ocelot_vlan_member_del(ocelot, port, vid);
546 }
547
548 int ocelot_port_vlan_filtering(struct ocelot *ocelot, int port,
549                                bool vlan_aware, struct netlink_ext_ack *extack)
550 {
551         struct ocelot_vcap_block *block = &ocelot->block[VCAP_IS1];
552         struct ocelot_port *ocelot_port = ocelot->ports[port];
553         struct ocelot_vcap_filter *filter;
554         int err = 0;
555         u32 val;
556
557         list_for_each_entry(filter, &block->rules, list) {
558                 if (filter->ingress_port_mask & BIT(port) &&
559                     filter->action.vid_replace_ena) {
560                         NL_SET_ERR_MSG_MOD(extack,
561                                            "Cannot change VLAN state with vlan modify rules active");
562                         return -EBUSY;
563                 }
564         }
565
566         err = ocelot_single_vlan_aware_bridge(ocelot, extack);
567         if (err)
568                 return err;
569
570         if (vlan_aware)
571                 err = ocelot_del_vlan_unaware_pvid(ocelot, port,
572                                                    ocelot_port->bridge);
573         else if (ocelot_port->bridge)
574                 err = ocelot_add_vlan_unaware_pvid(ocelot, port,
575                                                    ocelot_port->bridge);
576         if (err)
577                 return err;
578
579         ocelot_port->vlan_aware = vlan_aware;
580
581         if (vlan_aware)
582                 val = ANA_PORT_VLAN_CFG_VLAN_AWARE_ENA |
583                       ANA_PORT_VLAN_CFG_VLAN_POP_CNT(1);
584         else
585                 val = 0;
586         ocelot_rmw_gix(ocelot, val,
587                        ANA_PORT_VLAN_CFG_VLAN_AWARE_ENA |
588                        ANA_PORT_VLAN_CFG_VLAN_POP_CNT_M,
589                        ANA_PORT_VLAN_CFG, port);
590
591         ocelot_port_set_pvid(ocelot, port, ocelot_port->pvid_vlan);
592         ocelot_port_manage_port_tag(ocelot, port);
593
594         return 0;
595 }
596 EXPORT_SYMBOL(ocelot_port_vlan_filtering);
597
598 int ocelot_vlan_prepare(struct ocelot *ocelot, int port, u16 vid, bool pvid,
599                         bool untagged, struct netlink_ext_ack *extack)
600 {
601         if (untagged) {
602                 /* We are adding an egress-tagged VLAN */
603                 if (ocelot_port_uses_native_vlan(ocelot, port)) {
604                         NL_SET_ERR_MSG_MOD(extack,
605                                            "Port with egress-tagged VLANs cannot have more than one egress-untagged (native) VLAN");
606                         return -EBUSY;
607                 }
608         } else {
609                 /* We are adding an egress-tagged VLAN */
610                 if (ocelot_port_num_untagged_vlans(ocelot, port) > 1) {
611                         NL_SET_ERR_MSG_MOD(extack,
612                                            "Port with more than one egress-untagged VLAN cannot have egress-tagged VLANs");
613                         return -EBUSY;
614                 }
615         }
616
617         if (vid > OCELOT_RSV_VLAN_RANGE_START) {
618                 NL_SET_ERR_MSG_MOD(extack,
619                                    "VLAN range 4000-4095 reserved for VLAN-unaware bridging");
620                 return -EBUSY;
621         }
622
623         return 0;
624 }
625 EXPORT_SYMBOL(ocelot_vlan_prepare);
626
627 int ocelot_vlan_add(struct ocelot *ocelot, int port, u16 vid, bool pvid,
628                     bool untagged)
629 {
630         int err;
631
632         /* Ignore VID 0 added to our RX filter by the 8021q module, since
633          * that collides with OCELOT_STANDALONE_PVID and changes it from
634          * egress-untagged to egress-tagged.
635          */
636         if (!vid)
637                 return 0;
638
639         err = ocelot_vlan_member_add(ocelot, port, vid, untagged);
640         if (err)
641                 return err;
642
643         /* Default ingress vlan classification */
644         if (pvid)
645                 ocelot_port_set_pvid(ocelot, port,
646                                      ocelot_bridge_vlan_find(ocelot, vid));
647
648         /* Untagged egress vlan clasification */
649         ocelot_port_manage_port_tag(ocelot, port);
650
651         return 0;
652 }
653 EXPORT_SYMBOL(ocelot_vlan_add);
654
655 int ocelot_vlan_del(struct ocelot *ocelot, int port, u16 vid)
656 {
657         struct ocelot_port *ocelot_port = ocelot->ports[port];
658         bool del_pvid = false;
659         int err;
660
661         if (!vid)
662                 return 0;
663
664         if (ocelot_port->pvid_vlan && ocelot_port->pvid_vlan->vid == vid)
665                 del_pvid = true;
666
667         err = ocelot_vlan_member_del(ocelot, port, vid);
668         if (err)
669                 return err;
670
671         /* Ingress */
672         if (del_pvid)
673                 ocelot_port_set_pvid(ocelot, port, NULL);
674
675         /* Egress */
676         ocelot_port_manage_port_tag(ocelot, port);
677
678         return 0;
679 }
680 EXPORT_SYMBOL(ocelot_vlan_del);
681
682 static void ocelot_vlan_init(struct ocelot *ocelot)
683 {
684         unsigned long all_ports = GENMASK(ocelot->num_phys_ports - 1, 0);
685         u16 port, vid;
686
687         /* Clear VLAN table, by default all ports are members of all VLANs */
688         ocelot_write(ocelot, ANA_TABLES_VLANACCESS_CMD_INIT,
689                      ANA_TABLES_VLANACCESS);
690         ocelot_vlant_wait_for_completion(ocelot);
691
692         /* Configure the port VLAN memberships */
693         for (vid = 1; vid < VLAN_N_VID; vid++)
694                 ocelot_vlant_set_mask(ocelot, vid, 0);
695
696         /* We need VID 0 to get traffic on standalone ports.
697          * It is added automatically if the 8021q module is loaded, but we
698          * can't rely on that since it might not be.
699          */
700         ocelot_vlant_set_mask(ocelot, OCELOT_STANDALONE_PVID, all_ports);
701
702         /* Set vlan ingress filter mask to all ports but the CPU port by
703          * default.
704          */
705         ocelot_write(ocelot, all_ports, ANA_VLANMASK);
706
707         for (port = 0; port < ocelot->num_phys_ports; port++) {
708                 ocelot_write_gix(ocelot, 0, REW_PORT_VLAN_CFG, port);
709                 ocelot_write_gix(ocelot, 0, REW_TAG_CFG, port);
710         }
711 }
712
713 static u32 ocelot_read_eq_avail(struct ocelot *ocelot, int port)
714 {
715         return ocelot_read_rix(ocelot, QSYS_SW_STATUS, port);
716 }
717
718 static int ocelot_port_flush(struct ocelot *ocelot, int port)
719 {
720         unsigned int pause_ena;
721         int err, val;
722
723         /* Disable dequeuing from the egress queues */
724         ocelot_rmw_rix(ocelot, QSYS_PORT_MODE_DEQUEUE_DIS,
725                        QSYS_PORT_MODE_DEQUEUE_DIS,
726                        QSYS_PORT_MODE, port);
727
728         /* Disable flow control */
729         ocelot_fields_read(ocelot, port, SYS_PAUSE_CFG_PAUSE_ENA, &pause_ena);
730         ocelot_fields_write(ocelot, port, SYS_PAUSE_CFG_PAUSE_ENA, 0);
731
732         /* Disable priority flow control */
733         ocelot_fields_write(ocelot, port,
734                             QSYS_SWITCH_PORT_MODE_TX_PFC_ENA, 0);
735
736         /* Wait at least the time it takes to receive a frame of maximum length
737          * at the port.
738          * Worst-case delays for 10 kilobyte jumbo frames are:
739          * 8 ms on a 10M port
740          * 800 Î¼s on a 100M port
741          * 80 Î¼s on a 1G port
742          * 32 Î¼s on a 2.5G port
743          */
744         usleep_range(8000, 10000);
745
746         /* Disable half duplex backpressure. */
747         ocelot_rmw_rix(ocelot, 0, SYS_FRONT_PORT_MODE_HDX_MODE,
748                        SYS_FRONT_PORT_MODE, port);
749
750         /* Flush the queues associated with the port. */
751         ocelot_rmw_gix(ocelot, REW_PORT_CFG_FLUSH_ENA, REW_PORT_CFG_FLUSH_ENA,
752                        REW_PORT_CFG, port);
753
754         /* Enable dequeuing from the egress queues. */
755         ocelot_rmw_rix(ocelot, 0, QSYS_PORT_MODE_DEQUEUE_DIS, QSYS_PORT_MODE,
756                        port);
757
758         /* Wait until flushing is complete. */
759         err = read_poll_timeout(ocelot_read_eq_avail, val, !val,
760                                 100, 2000000, false, ocelot, port);
761
762         /* Clear flushing again. */
763         ocelot_rmw_gix(ocelot, 0, REW_PORT_CFG_FLUSH_ENA, REW_PORT_CFG, port);
764
765         /* Re-enable flow control */
766         ocelot_fields_write(ocelot, port, SYS_PAUSE_CFG_PAUSE_ENA, pause_ena);
767
768         return err;
769 }
770
771 void ocelot_phylink_mac_link_down(struct ocelot *ocelot, int port,
772                                   unsigned int link_an_mode,
773                                   phy_interface_t interface,
774                                   unsigned long quirks)
775 {
776         struct ocelot_port *ocelot_port = ocelot->ports[port];
777         int err;
778
779         ocelot_port->speed = SPEED_UNKNOWN;
780
781         ocelot_port_rmwl(ocelot_port, 0, DEV_MAC_ENA_CFG_RX_ENA,
782                          DEV_MAC_ENA_CFG);
783
784         if (ocelot->ops->cut_through_fwd) {
785                 mutex_lock(&ocelot->fwd_domain_lock);
786                 ocelot->ops->cut_through_fwd(ocelot);
787                 mutex_unlock(&ocelot->fwd_domain_lock);
788         }
789
790         ocelot_fields_write(ocelot, port, QSYS_SWITCH_PORT_MODE_PORT_ENA, 0);
791
792         err = ocelot_port_flush(ocelot, port);
793         if (err)
794                 dev_err(ocelot->dev, "failed to flush port %d: %d\n",
795                         port, err);
796
797         /* Put the port in reset. */
798         if (interface != PHY_INTERFACE_MODE_QSGMII ||
799             !(quirks & OCELOT_QUIRK_QSGMII_PORTS_MUST_BE_UP))
800                 ocelot_port_rmwl(ocelot_port,
801                                  DEV_CLOCK_CFG_MAC_TX_RST |
802                                  DEV_CLOCK_CFG_MAC_RX_RST,
803                                  DEV_CLOCK_CFG_MAC_TX_RST |
804                                  DEV_CLOCK_CFG_MAC_RX_RST,
805                                  DEV_CLOCK_CFG);
806 }
807 EXPORT_SYMBOL_GPL(ocelot_phylink_mac_link_down);
808
809 void ocelot_phylink_mac_link_up(struct ocelot *ocelot, int port,
810                                 struct phy_device *phydev,
811                                 unsigned int link_an_mode,
812                                 phy_interface_t interface,
813                                 int speed, int duplex,
814                                 bool tx_pause, bool rx_pause,
815                                 unsigned long quirks)
816 {
817         struct ocelot_port *ocelot_port = ocelot->ports[port];
818         int mac_speed, mode = 0;
819         u32 mac_fc_cfg;
820
821         ocelot_port->speed = speed;
822
823         /* The MAC might be integrated in systems where the MAC speed is fixed
824          * and it's the PCS who is performing the rate adaptation, so we have
825          * to write "1000Mbps" into the LINK_SPEED field of DEV_CLOCK_CFG
826          * (which is also its default value).
827          */
828         if ((quirks & OCELOT_QUIRK_PCS_PERFORMS_RATE_ADAPTATION) ||
829             speed == SPEED_1000) {
830                 mac_speed = OCELOT_SPEED_1000;
831                 mode = DEV_MAC_MODE_CFG_GIGA_MODE_ENA;
832         } else if (speed == SPEED_2500) {
833                 mac_speed = OCELOT_SPEED_2500;
834                 mode = DEV_MAC_MODE_CFG_GIGA_MODE_ENA;
835         } else if (speed == SPEED_100) {
836                 mac_speed = OCELOT_SPEED_100;
837         } else {
838                 mac_speed = OCELOT_SPEED_10;
839         }
840
841         if (duplex == DUPLEX_FULL)
842                 mode |= DEV_MAC_MODE_CFG_FDX_ENA;
843
844         ocelot_port_writel(ocelot_port, mode, DEV_MAC_MODE_CFG);
845
846         /* Take port out of reset by clearing the MAC_TX_RST, MAC_RX_RST and
847          * PORT_RST bits in DEV_CLOCK_CFG.
848          */
849         ocelot_port_writel(ocelot_port, DEV_CLOCK_CFG_LINK_SPEED(mac_speed),
850                            DEV_CLOCK_CFG);
851
852         switch (speed) {
853         case SPEED_10:
854                 mac_fc_cfg = SYS_MAC_FC_CFG_FC_LINK_SPEED(OCELOT_SPEED_10);
855                 break;
856         case SPEED_100:
857                 mac_fc_cfg = SYS_MAC_FC_CFG_FC_LINK_SPEED(OCELOT_SPEED_100);
858                 break;
859         case SPEED_1000:
860         case SPEED_2500:
861                 mac_fc_cfg = SYS_MAC_FC_CFG_FC_LINK_SPEED(OCELOT_SPEED_1000);
862                 break;
863         default:
864                 dev_err(ocelot->dev, "Unsupported speed on port %d: %d\n",
865                         port, speed);
866                 return;
867         }
868
869         /* Handle RX pause in all cases, with 2500base-X this is used for rate
870          * adaptation.
871          */
872         mac_fc_cfg |= SYS_MAC_FC_CFG_RX_FC_ENA;
873
874         if (tx_pause)
875                 mac_fc_cfg |= SYS_MAC_FC_CFG_TX_FC_ENA |
876                               SYS_MAC_FC_CFG_PAUSE_VAL_CFG(0xffff) |
877                               SYS_MAC_FC_CFG_FC_LATENCY_CFG(0x7) |
878                               SYS_MAC_FC_CFG_ZERO_PAUSE_ENA;
879
880         /* Flow control. Link speed is only used here to evaluate the time
881          * specification in incoming pause frames.
882          */
883         ocelot_write_rix(ocelot, mac_fc_cfg, SYS_MAC_FC_CFG, port);
884
885         ocelot_write_rix(ocelot, 0, ANA_POL_FLOWC, port);
886
887         /* Don't attempt to send PAUSE frames on the NPI port, it's broken */
888         if (port != ocelot->npi)
889                 ocelot_fields_write(ocelot, port, SYS_PAUSE_CFG_PAUSE_ENA,
890                                     tx_pause);
891
892         /* Undo the effects of ocelot_phylink_mac_link_down:
893          * enable MAC module
894          */
895         ocelot_port_writel(ocelot_port, DEV_MAC_ENA_CFG_RX_ENA |
896                            DEV_MAC_ENA_CFG_TX_ENA, DEV_MAC_ENA_CFG);
897
898         /* If the port supports cut-through forwarding, update the masks before
899          * enabling forwarding on the port.
900          */
901         if (ocelot->ops->cut_through_fwd) {
902                 mutex_lock(&ocelot->fwd_domain_lock);
903                 ocelot->ops->cut_through_fwd(ocelot);
904                 mutex_unlock(&ocelot->fwd_domain_lock);
905         }
906
907         /* Core: Enable port for frame transfer */
908         ocelot_fields_write(ocelot, port,
909                             QSYS_SWITCH_PORT_MODE_PORT_ENA, 1);
910 }
911 EXPORT_SYMBOL_GPL(ocelot_phylink_mac_link_up);
912
913 static int ocelot_port_add_txtstamp_skb(struct ocelot *ocelot, int port,
914                                         struct sk_buff *clone)
915 {
916         struct ocelot_port *ocelot_port = ocelot->ports[port];
917         unsigned long flags;
918
919         spin_lock_irqsave(&ocelot->ts_id_lock, flags);
920
921         if (ocelot_port->ptp_skbs_in_flight == OCELOT_MAX_PTP_ID ||
922             ocelot->ptp_skbs_in_flight == OCELOT_PTP_FIFO_SIZE) {
923                 spin_unlock_irqrestore(&ocelot->ts_id_lock, flags);
924                 return -EBUSY;
925         }
926
927         skb_shinfo(clone)->tx_flags |= SKBTX_IN_PROGRESS;
928         /* Store timestamp ID in OCELOT_SKB_CB(clone)->ts_id */
929         OCELOT_SKB_CB(clone)->ts_id = ocelot_port->ts_id;
930
931         ocelot_port->ts_id++;
932         if (ocelot_port->ts_id == OCELOT_MAX_PTP_ID)
933                 ocelot_port->ts_id = 0;
934
935         ocelot_port->ptp_skbs_in_flight++;
936         ocelot->ptp_skbs_in_flight++;
937
938         skb_queue_tail(&ocelot_port->tx_skbs, clone);
939
940         spin_unlock_irqrestore(&ocelot->ts_id_lock, flags);
941
942         return 0;
943 }
944
945 static bool ocelot_ptp_is_onestep_sync(struct sk_buff *skb,
946                                        unsigned int ptp_class)
947 {
948         struct ptp_header *hdr;
949         u8 msgtype, twostep;
950
951         hdr = ptp_parse_header(skb, ptp_class);
952         if (!hdr)
953                 return false;
954
955         msgtype = ptp_get_msgtype(hdr, ptp_class);
956         twostep = hdr->flag_field[0] & 0x2;
957
958         if (msgtype == PTP_MSGTYPE_SYNC && twostep == 0)
959                 return true;
960
961         return false;
962 }
963
964 int ocelot_port_txtstamp_request(struct ocelot *ocelot, int port,
965                                  struct sk_buff *skb,
966                                  struct sk_buff **clone)
967 {
968         struct ocelot_port *ocelot_port = ocelot->ports[port];
969         u8 ptp_cmd = ocelot_port->ptp_cmd;
970         unsigned int ptp_class;
971         int err;
972
973         /* Don't do anything if PTP timestamping not enabled */
974         if (!ptp_cmd)
975                 return 0;
976
977         ptp_class = ptp_classify_raw(skb);
978         if (ptp_class == PTP_CLASS_NONE)
979                 return -EINVAL;
980
981         /* Store ptp_cmd in OCELOT_SKB_CB(skb)->ptp_cmd */
982         if (ptp_cmd == IFH_REW_OP_ORIGIN_PTP) {
983                 if (ocelot_ptp_is_onestep_sync(skb, ptp_class)) {
984                         OCELOT_SKB_CB(skb)->ptp_cmd = ptp_cmd;
985                         return 0;
986                 }
987
988                 /* Fall back to two-step timestamping */
989                 ptp_cmd = IFH_REW_OP_TWO_STEP_PTP;
990         }
991
992         if (ptp_cmd == IFH_REW_OP_TWO_STEP_PTP) {
993                 *clone = skb_clone_sk(skb);
994                 if (!(*clone))
995                         return -ENOMEM;
996
997                 err = ocelot_port_add_txtstamp_skb(ocelot, port, *clone);
998                 if (err)
999                         return err;
1000
1001                 OCELOT_SKB_CB(skb)->ptp_cmd = ptp_cmd;
1002                 OCELOT_SKB_CB(*clone)->ptp_class = ptp_class;
1003         }
1004
1005         return 0;
1006 }
1007 EXPORT_SYMBOL(ocelot_port_txtstamp_request);
1008
1009 static void ocelot_get_hwtimestamp(struct ocelot *ocelot,
1010                                    struct timespec64 *ts)
1011 {
1012         unsigned long flags;
1013         u32 val;
1014
1015         spin_lock_irqsave(&ocelot->ptp_clock_lock, flags);
1016
1017         /* Read current PTP time to get seconds */
1018         val = ocelot_read_rix(ocelot, PTP_PIN_CFG, TOD_ACC_PIN);
1019
1020         val &= ~(PTP_PIN_CFG_SYNC | PTP_PIN_CFG_ACTION_MASK | PTP_PIN_CFG_DOM);
1021         val |= PTP_PIN_CFG_ACTION(PTP_PIN_ACTION_SAVE);
1022         ocelot_write_rix(ocelot, val, PTP_PIN_CFG, TOD_ACC_PIN);
1023         ts->tv_sec = ocelot_read_rix(ocelot, PTP_PIN_TOD_SEC_LSB, TOD_ACC_PIN);
1024
1025         /* Read packet HW timestamp from FIFO */
1026         val = ocelot_read(ocelot, SYS_PTP_TXSTAMP);
1027         ts->tv_nsec = SYS_PTP_TXSTAMP_PTP_TXSTAMP(val);
1028
1029         /* Sec has incremented since the ts was registered */
1030         if ((ts->tv_sec & 0x1) != !!(val & SYS_PTP_TXSTAMP_PTP_TXSTAMP_SEC))
1031                 ts->tv_sec--;
1032
1033         spin_unlock_irqrestore(&ocelot->ptp_clock_lock, flags);
1034 }
1035
1036 static bool ocelot_validate_ptp_skb(struct sk_buff *clone, u16 seqid)
1037 {
1038         struct ptp_header *hdr;
1039
1040         hdr = ptp_parse_header(clone, OCELOT_SKB_CB(clone)->ptp_class);
1041         if (WARN_ON(!hdr))
1042                 return false;
1043
1044         return seqid == ntohs(hdr->sequence_id);
1045 }
1046
1047 void ocelot_get_txtstamp(struct ocelot *ocelot)
1048 {
1049         int budget = OCELOT_PTP_QUEUE_SZ;
1050
1051         while (budget--) {
1052                 struct sk_buff *skb, *skb_tmp, *skb_match = NULL;
1053                 struct skb_shared_hwtstamps shhwtstamps;
1054                 u32 val, id, seqid, txport;
1055                 struct ocelot_port *port;
1056                 struct timespec64 ts;
1057                 unsigned long flags;
1058
1059                 val = ocelot_read(ocelot, SYS_PTP_STATUS);
1060
1061                 /* Check if a timestamp can be retrieved */
1062                 if (!(val & SYS_PTP_STATUS_PTP_MESS_VLD))
1063                         break;
1064
1065                 WARN_ON(val & SYS_PTP_STATUS_PTP_OVFL);
1066
1067                 /* Retrieve the ts ID and Tx port */
1068                 id = SYS_PTP_STATUS_PTP_MESS_ID_X(val);
1069                 txport = SYS_PTP_STATUS_PTP_MESS_TXPORT_X(val);
1070                 seqid = SYS_PTP_STATUS_PTP_MESS_SEQ_ID(val);
1071
1072                 port = ocelot->ports[txport];
1073
1074                 spin_lock(&ocelot->ts_id_lock);
1075                 port->ptp_skbs_in_flight--;
1076                 ocelot->ptp_skbs_in_flight--;
1077                 spin_unlock(&ocelot->ts_id_lock);
1078
1079                 /* Retrieve its associated skb */
1080 try_again:
1081                 spin_lock_irqsave(&port->tx_skbs.lock, flags);
1082
1083                 skb_queue_walk_safe(&port->tx_skbs, skb, skb_tmp) {
1084                         if (OCELOT_SKB_CB(skb)->ts_id != id)
1085                                 continue;
1086                         __skb_unlink(skb, &port->tx_skbs);
1087                         skb_match = skb;
1088                         break;
1089                 }
1090
1091                 spin_unlock_irqrestore(&port->tx_skbs.lock, flags);
1092
1093                 if (WARN_ON(!skb_match))
1094                         continue;
1095
1096                 if (!ocelot_validate_ptp_skb(skb_match, seqid)) {
1097                         dev_err_ratelimited(ocelot->dev,
1098                                             "port %d received stale TX timestamp for seqid %d, discarding\n",
1099                                             txport, seqid);
1100                         dev_kfree_skb_any(skb);
1101                         goto try_again;
1102                 }
1103
1104                 /* Get the h/w timestamp */
1105                 ocelot_get_hwtimestamp(ocelot, &ts);
1106
1107                 /* Set the timestamp into the skb */
1108                 memset(&shhwtstamps, 0, sizeof(shhwtstamps));
1109                 shhwtstamps.hwtstamp = ktime_set(ts.tv_sec, ts.tv_nsec);
1110                 skb_complete_tx_timestamp(skb_match, &shhwtstamps);
1111
1112                 /* Next ts */
1113                 ocelot_write(ocelot, SYS_PTP_NXT_PTP_NXT, SYS_PTP_NXT);
1114         }
1115 }
1116 EXPORT_SYMBOL(ocelot_get_txtstamp);
1117
1118 static int ocelot_rx_frame_word(struct ocelot *ocelot, u8 grp, bool ifh,
1119                                 u32 *rval)
1120 {
1121         u32 bytes_valid, val;
1122
1123         val = ocelot_read_rix(ocelot, QS_XTR_RD, grp);
1124         if (val == XTR_NOT_READY) {
1125                 if (ifh)
1126                         return -EIO;
1127
1128                 do {
1129                         val = ocelot_read_rix(ocelot, QS_XTR_RD, grp);
1130                 } while (val == XTR_NOT_READY);
1131         }
1132
1133         switch (val) {
1134         case XTR_ABORT:
1135                 return -EIO;
1136         case XTR_EOF_0:
1137         case XTR_EOF_1:
1138         case XTR_EOF_2:
1139         case XTR_EOF_3:
1140         case XTR_PRUNED:
1141                 bytes_valid = XTR_VALID_BYTES(val);
1142                 val = ocelot_read_rix(ocelot, QS_XTR_RD, grp);
1143                 if (val == XTR_ESCAPE)
1144                         *rval = ocelot_read_rix(ocelot, QS_XTR_RD, grp);
1145                 else
1146                         *rval = val;
1147
1148                 return bytes_valid;
1149         case XTR_ESCAPE:
1150                 *rval = ocelot_read_rix(ocelot, QS_XTR_RD, grp);
1151
1152                 return 4;
1153         default:
1154                 *rval = val;
1155
1156                 return 4;
1157         }
1158 }
1159
1160 static int ocelot_xtr_poll_xfh(struct ocelot *ocelot, int grp, u32 *xfh)
1161 {
1162         int i, err = 0;
1163
1164         for (i = 0; i < OCELOT_TAG_LEN / 4; i++) {
1165                 err = ocelot_rx_frame_word(ocelot, grp, true, &xfh[i]);
1166                 if (err != 4)
1167                         return (err < 0) ? err : -EIO;
1168         }
1169
1170         return 0;
1171 }
1172
1173 void ocelot_ptp_rx_timestamp(struct ocelot *ocelot, struct sk_buff *skb,
1174                              u64 timestamp)
1175 {
1176         struct skb_shared_hwtstamps *shhwtstamps;
1177         u64 tod_in_ns, full_ts_in_ns;
1178         struct timespec64 ts;
1179
1180         ocelot_ptp_gettime64(&ocelot->ptp_info, &ts);
1181
1182         tod_in_ns = ktime_set(ts.tv_sec, ts.tv_nsec);
1183         if ((tod_in_ns & 0xffffffff) < timestamp)
1184                 full_ts_in_ns = (((tod_in_ns >> 32) - 1) << 32) |
1185                                 timestamp;
1186         else
1187                 full_ts_in_ns = (tod_in_ns & GENMASK_ULL(63, 32)) |
1188                                 timestamp;
1189
1190         shhwtstamps = skb_hwtstamps(skb);
1191         memset(shhwtstamps, 0, sizeof(struct skb_shared_hwtstamps));
1192         shhwtstamps->hwtstamp = full_ts_in_ns;
1193 }
1194 EXPORT_SYMBOL(ocelot_ptp_rx_timestamp);
1195
1196 int ocelot_xtr_poll_frame(struct ocelot *ocelot, int grp, struct sk_buff **nskb)
1197 {
1198         u64 timestamp, src_port, len;
1199         u32 xfh[OCELOT_TAG_LEN / 4];
1200         struct net_device *dev;
1201         struct sk_buff *skb;
1202         int sz, buf_len;
1203         u32 val, *buf;
1204         int err;
1205
1206         err = ocelot_xtr_poll_xfh(ocelot, grp, xfh);
1207         if (err)
1208                 return err;
1209
1210         ocelot_xfh_get_src_port(xfh, &src_port);
1211         ocelot_xfh_get_len(xfh, &len);
1212         ocelot_xfh_get_rew_val(xfh, &timestamp);
1213
1214         if (WARN_ON(src_port >= ocelot->num_phys_ports))
1215                 return -EINVAL;
1216
1217         dev = ocelot->ops->port_to_netdev(ocelot, src_port);
1218         if (!dev)
1219                 return -EINVAL;
1220
1221         skb = netdev_alloc_skb(dev, len);
1222         if (unlikely(!skb)) {
1223                 netdev_err(dev, "Unable to allocate sk_buff\n");
1224                 return -ENOMEM;
1225         }
1226
1227         buf_len = len - ETH_FCS_LEN;
1228         buf = (u32 *)skb_put(skb, buf_len);
1229
1230         len = 0;
1231         do {
1232                 sz = ocelot_rx_frame_word(ocelot, grp, false, &val);
1233                 if (sz < 0) {
1234                         err = sz;
1235                         goto out_free_skb;
1236                 }
1237                 *buf++ = val;
1238                 len += sz;
1239         } while (len < buf_len);
1240
1241         /* Read the FCS */
1242         sz = ocelot_rx_frame_word(ocelot, grp, false, &val);
1243         if (sz < 0) {
1244                 err = sz;
1245                 goto out_free_skb;
1246         }
1247
1248         /* Update the statistics if part of the FCS was read before */
1249         len -= ETH_FCS_LEN - sz;
1250
1251         if (unlikely(dev->features & NETIF_F_RXFCS)) {
1252                 buf = (u32 *)skb_put(skb, ETH_FCS_LEN);
1253                 *buf = val;
1254         }
1255
1256         if (ocelot->ptp)
1257                 ocelot_ptp_rx_timestamp(ocelot, skb, timestamp);
1258
1259         /* Everything we see on an interface that is in the HW bridge
1260          * has already been forwarded.
1261          */
1262         if (ocelot->ports[src_port]->bridge)
1263                 skb->offload_fwd_mark = 1;
1264
1265         skb->protocol = eth_type_trans(skb, dev);
1266
1267         *nskb = skb;
1268
1269         return 0;
1270
1271 out_free_skb:
1272         kfree_skb(skb);
1273         return err;
1274 }
1275 EXPORT_SYMBOL(ocelot_xtr_poll_frame);
1276
1277 bool ocelot_can_inject(struct ocelot *ocelot, int grp)
1278 {
1279         u32 val = ocelot_read(ocelot, QS_INJ_STATUS);
1280
1281         if (!(val & QS_INJ_STATUS_FIFO_RDY(BIT(grp))))
1282                 return false;
1283         if (val & QS_INJ_STATUS_WMARK_REACHED(BIT(grp)))
1284                 return false;
1285
1286         return true;
1287 }
1288 EXPORT_SYMBOL(ocelot_can_inject);
1289
1290 void ocelot_ifh_port_set(void *ifh, int port, u32 rew_op, u32 vlan_tag)
1291 {
1292         ocelot_ifh_set_bypass(ifh, 1);
1293         ocelot_ifh_set_dest(ifh, BIT_ULL(port));
1294         ocelot_ifh_set_tag_type(ifh, IFH_TAG_TYPE_C);
1295         if (vlan_tag)
1296                 ocelot_ifh_set_vlan_tci(ifh, vlan_tag);
1297         if (rew_op)
1298                 ocelot_ifh_set_rew_op(ifh, rew_op);
1299 }
1300 EXPORT_SYMBOL(ocelot_ifh_port_set);
1301
1302 void ocelot_port_inject_frame(struct ocelot *ocelot, int port, int grp,
1303                               u32 rew_op, struct sk_buff *skb)
1304 {
1305         u32 ifh[OCELOT_TAG_LEN / 4] = {0};
1306         unsigned int i, count, last;
1307
1308         ocelot_write_rix(ocelot, QS_INJ_CTRL_GAP_SIZE(1) |
1309                          QS_INJ_CTRL_SOF, QS_INJ_CTRL, grp);
1310
1311         ocelot_ifh_port_set(ifh, port, rew_op, skb_vlan_tag_get(skb));
1312
1313         for (i = 0; i < OCELOT_TAG_LEN / 4; i++)
1314                 ocelot_write_rix(ocelot, ifh[i], QS_INJ_WR, grp);
1315
1316         count = DIV_ROUND_UP(skb->len, 4);
1317         last = skb->len % 4;
1318         for (i = 0; i < count; i++)
1319                 ocelot_write_rix(ocelot, ((u32 *)skb->data)[i], QS_INJ_WR, grp);
1320
1321         /* Add padding */
1322         while (i < (OCELOT_BUFFER_CELL_SZ / 4)) {
1323                 ocelot_write_rix(ocelot, 0, QS_INJ_WR, grp);
1324                 i++;
1325         }
1326
1327         /* Indicate EOF and valid bytes in last word */
1328         ocelot_write_rix(ocelot, QS_INJ_CTRL_GAP_SIZE(1) |
1329                          QS_INJ_CTRL_VLD_BYTES(skb->len < OCELOT_BUFFER_CELL_SZ ? 0 : last) |
1330                          QS_INJ_CTRL_EOF,
1331                          QS_INJ_CTRL, grp);
1332
1333         /* Add dummy CRC */
1334         ocelot_write_rix(ocelot, 0, QS_INJ_WR, grp);
1335         skb_tx_timestamp(skb);
1336
1337         skb->dev->stats.tx_packets++;
1338         skb->dev->stats.tx_bytes += skb->len;
1339 }
1340 EXPORT_SYMBOL(ocelot_port_inject_frame);
1341
1342 void ocelot_drain_cpu_queue(struct ocelot *ocelot, int grp)
1343 {
1344         while (ocelot_read(ocelot, QS_XTR_DATA_PRESENT) & BIT(grp))
1345                 ocelot_read_rix(ocelot, QS_XTR_RD, grp);
1346 }
1347 EXPORT_SYMBOL(ocelot_drain_cpu_queue);
1348
1349 int ocelot_fdb_add(struct ocelot *ocelot, int port, const unsigned char *addr,
1350                    u16 vid, const struct net_device *bridge)
1351 {
1352         if (!vid)
1353                 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
1354
1355         return ocelot_mact_learn(ocelot, port, addr, vid, ENTRYTYPE_LOCKED);
1356 }
1357 EXPORT_SYMBOL(ocelot_fdb_add);
1358
1359 int ocelot_fdb_del(struct ocelot *ocelot, int port, const unsigned char *addr,
1360                    u16 vid, const struct net_device *bridge)
1361 {
1362         if (!vid)
1363                 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
1364
1365         return ocelot_mact_forget(ocelot, addr, vid);
1366 }
1367 EXPORT_SYMBOL(ocelot_fdb_del);
1368
1369 int ocelot_port_fdb_do_dump(const unsigned char *addr, u16 vid,
1370                             bool is_static, void *data)
1371 {
1372         struct ocelot_dump_ctx *dump = data;
1373         u32 portid = NETLINK_CB(dump->cb->skb).portid;
1374         u32 seq = dump->cb->nlh->nlmsg_seq;
1375         struct nlmsghdr *nlh;
1376         struct ndmsg *ndm;
1377
1378         if (dump->idx < dump->cb->args[2])
1379                 goto skip;
1380
1381         nlh = nlmsg_put(dump->skb, portid, seq, RTM_NEWNEIGH,
1382                         sizeof(*ndm), NLM_F_MULTI);
1383         if (!nlh)
1384                 return -EMSGSIZE;
1385
1386         ndm = nlmsg_data(nlh);
1387         ndm->ndm_family  = AF_BRIDGE;
1388         ndm->ndm_pad1    = 0;
1389         ndm->ndm_pad2    = 0;
1390         ndm->ndm_flags   = NTF_SELF;
1391         ndm->ndm_type    = 0;
1392         ndm->ndm_ifindex = dump->dev->ifindex;
1393         ndm->ndm_state   = is_static ? NUD_NOARP : NUD_REACHABLE;
1394
1395         if (nla_put(dump->skb, NDA_LLADDR, ETH_ALEN, addr))
1396                 goto nla_put_failure;
1397
1398         if (vid && nla_put_u16(dump->skb, NDA_VLAN, vid))
1399                 goto nla_put_failure;
1400
1401         nlmsg_end(dump->skb, nlh);
1402
1403 skip:
1404         dump->idx++;
1405         return 0;
1406
1407 nla_put_failure:
1408         nlmsg_cancel(dump->skb, nlh);
1409         return -EMSGSIZE;
1410 }
1411 EXPORT_SYMBOL(ocelot_port_fdb_do_dump);
1412
1413 /* Caller must hold &ocelot->mact_lock */
1414 static int ocelot_mact_read(struct ocelot *ocelot, int port, int row, int col,
1415                             struct ocelot_mact_entry *entry)
1416 {
1417         u32 val, dst, macl, mach;
1418         char mac[ETH_ALEN];
1419
1420         /* Set row and column to read from */
1421         ocelot_field_write(ocelot, ANA_TABLES_MACTINDX_M_INDEX, row);
1422         ocelot_field_write(ocelot, ANA_TABLES_MACTINDX_BUCKET, col);
1423
1424         /* Issue a read command */
1425         ocelot_write(ocelot,
1426                      ANA_TABLES_MACACCESS_MAC_TABLE_CMD(MACACCESS_CMD_READ),
1427                      ANA_TABLES_MACACCESS);
1428
1429         if (ocelot_mact_wait_for_completion(ocelot))
1430                 return -ETIMEDOUT;
1431
1432         /* Read the entry flags */
1433         val = ocelot_read(ocelot, ANA_TABLES_MACACCESS);
1434         if (!(val & ANA_TABLES_MACACCESS_VALID))
1435                 return -EINVAL;
1436
1437         /* If the entry read has another port configured as its destination,
1438          * do not report it.
1439          */
1440         dst = (val & ANA_TABLES_MACACCESS_DEST_IDX_M) >> 3;
1441         if (dst != port)
1442                 return -EINVAL;
1443
1444         /* Get the entry's MAC address and VLAN id */
1445         macl = ocelot_read(ocelot, ANA_TABLES_MACLDATA);
1446         mach = ocelot_read(ocelot, ANA_TABLES_MACHDATA);
1447
1448         mac[0] = (mach >> 8)  & 0xff;
1449         mac[1] = (mach >> 0)  & 0xff;
1450         mac[2] = (macl >> 24) & 0xff;
1451         mac[3] = (macl >> 16) & 0xff;
1452         mac[4] = (macl >> 8)  & 0xff;
1453         mac[5] = (macl >> 0)  & 0xff;
1454
1455         entry->vid = (mach >> 16) & 0xfff;
1456         ether_addr_copy(entry->mac, mac);
1457
1458         return 0;
1459 }
1460
1461 int ocelot_mact_flush(struct ocelot *ocelot, int port)
1462 {
1463         int err;
1464
1465         mutex_lock(&ocelot->mact_lock);
1466
1467         /* Program ageing filter for a single port */
1468         ocelot_write(ocelot, ANA_ANAGEFIL_PID_EN | ANA_ANAGEFIL_PID_VAL(port),
1469                      ANA_ANAGEFIL);
1470
1471         /* Flushing dynamic FDB entries requires two successive age scans */
1472         ocelot_write(ocelot,
1473                      ANA_TABLES_MACACCESS_MAC_TABLE_CMD(MACACCESS_CMD_AGE),
1474                      ANA_TABLES_MACACCESS);
1475
1476         err = ocelot_mact_wait_for_completion(ocelot);
1477         if (err) {
1478                 mutex_unlock(&ocelot->mact_lock);
1479                 return err;
1480         }
1481
1482         /* And second... */
1483         ocelot_write(ocelot,
1484                      ANA_TABLES_MACACCESS_MAC_TABLE_CMD(MACACCESS_CMD_AGE),
1485                      ANA_TABLES_MACACCESS);
1486
1487         err = ocelot_mact_wait_for_completion(ocelot);
1488
1489         /* Restore ageing filter */
1490         ocelot_write(ocelot, 0, ANA_ANAGEFIL);
1491
1492         mutex_unlock(&ocelot->mact_lock);
1493
1494         return err;
1495 }
1496 EXPORT_SYMBOL_GPL(ocelot_mact_flush);
1497
1498 int ocelot_fdb_dump(struct ocelot *ocelot, int port,
1499                     dsa_fdb_dump_cb_t *cb, void *data)
1500 {
1501         int err = 0;
1502         int i, j;
1503
1504         /* We could take the lock just around ocelot_mact_read, but doing so
1505          * thousands of times in a row seems rather pointless and inefficient.
1506          */
1507         mutex_lock(&ocelot->mact_lock);
1508
1509         /* Loop through all the mac tables entries. */
1510         for (i = 0; i < ocelot->num_mact_rows; i++) {
1511                 for (j = 0; j < 4; j++) {
1512                         struct ocelot_mact_entry entry;
1513                         bool is_static;
1514
1515                         err = ocelot_mact_read(ocelot, port, i, j, &entry);
1516                         /* If the entry is invalid (wrong port, invalid...),
1517                          * skip it.
1518                          */
1519                         if (err == -EINVAL)
1520                                 continue;
1521                         else if (err)
1522                                 break;
1523
1524                         is_static = (entry.type == ENTRYTYPE_LOCKED);
1525
1526                         /* Hide the reserved VLANs used for
1527                          * VLAN-unaware bridging.
1528                          */
1529                         if (entry.vid > OCELOT_RSV_VLAN_RANGE_START)
1530                                 entry.vid = 0;
1531
1532                         err = cb(entry.mac, entry.vid, is_static, data);
1533                         if (err)
1534                                 break;
1535                 }
1536         }
1537
1538         mutex_unlock(&ocelot->mact_lock);
1539
1540         return err;
1541 }
1542 EXPORT_SYMBOL(ocelot_fdb_dump);
1543
1544 static void ocelot_populate_l2_ptp_trap_key(struct ocelot_vcap_filter *trap)
1545 {
1546         trap->key_type = OCELOT_VCAP_KEY_ETYPE;
1547         *(__be16 *)trap->key.etype.etype.value = htons(ETH_P_1588);
1548         *(__be16 *)trap->key.etype.etype.mask = htons(0xffff);
1549 }
1550
1551 static void
1552 ocelot_populate_ipv4_ptp_event_trap_key(struct ocelot_vcap_filter *trap)
1553 {
1554         trap->key_type = OCELOT_VCAP_KEY_IPV4;
1555         trap->key.ipv4.proto.value[0] = IPPROTO_UDP;
1556         trap->key.ipv4.proto.mask[0] = 0xff;
1557         trap->key.ipv4.dport.value = PTP_EV_PORT;
1558         trap->key.ipv4.dport.mask = 0xffff;
1559 }
1560
1561 static void
1562 ocelot_populate_ipv6_ptp_event_trap_key(struct ocelot_vcap_filter *trap)
1563 {
1564         trap->key_type = OCELOT_VCAP_KEY_IPV6;
1565         trap->key.ipv4.proto.value[0] = IPPROTO_UDP;
1566         trap->key.ipv4.proto.mask[0] = 0xff;
1567         trap->key.ipv6.dport.value = PTP_EV_PORT;
1568         trap->key.ipv6.dport.mask = 0xffff;
1569 }
1570
1571 static void
1572 ocelot_populate_ipv4_ptp_general_trap_key(struct ocelot_vcap_filter *trap)
1573 {
1574         trap->key_type = OCELOT_VCAP_KEY_IPV4;
1575         trap->key.ipv4.proto.value[0] = IPPROTO_UDP;
1576         trap->key.ipv4.proto.mask[0] = 0xff;
1577         trap->key.ipv4.dport.value = PTP_GEN_PORT;
1578         trap->key.ipv4.dport.mask = 0xffff;
1579 }
1580
1581 static void
1582 ocelot_populate_ipv6_ptp_general_trap_key(struct ocelot_vcap_filter *trap)
1583 {
1584         trap->key_type = OCELOT_VCAP_KEY_IPV6;
1585         trap->key.ipv4.proto.value[0] = IPPROTO_UDP;
1586         trap->key.ipv4.proto.mask[0] = 0xff;
1587         trap->key.ipv6.dport.value = PTP_GEN_PORT;
1588         trap->key.ipv6.dport.mask = 0xffff;
1589 }
1590
1591 int ocelot_trap_add(struct ocelot *ocelot, int port,
1592                     unsigned long cookie, bool take_ts,
1593                     void (*populate)(struct ocelot_vcap_filter *f))
1594 {
1595         struct ocelot_vcap_block *block_vcap_is2;
1596         struct ocelot_vcap_filter *trap;
1597         bool new = false;
1598         int err;
1599
1600         block_vcap_is2 = &ocelot->block[VCAP_IS2];
1601
1602         trap = ocelot_vcap_block_find_filter_by_id(block_vcap_is2, cookie,
1603                                                    false);
1604         if (!trap) {
1605                 trap = kzalloc(sizeof(*trap), GFP_KERNEL);
1606                 if (!trap)
1607                         return -ENOMEM;
1608
1609                 populate(trap);
1610                 trap->prio = 1;
1611                 trap->id.cookie = cookie;
1612                 trap->id.tc_offload = false;
1613                 trap->block_id = VCAP_IS2;
1614                 trap->type = OCELOT_VCAP_FILTER_OFFLOAD;
1615                 trap->lookup = 0;
1616                 trap->action.cpu_copy_ena = true;
1617                 trap->action.mask_mode = OCELOT_MASK_MODE_PERMIT_DENY;
1618                 trap->action.port_mask = 0;
1619                 trap->take_ts = take_ts;
1620                 trap->is_trap = true;
1621                 new = true;
1622         }
1623
1624         trap->ingress_port_mask |= BIT(port);
1625
1626         if (new)
1627                 err = ocelot_vcap_filter_add(ocelot, trap, NULL);
1628         else
1629                 err = ocelot_vcap_filter_replace(ocelot, trap);
1630         if (err) {
1631                 trap->ingress_port_mask &= ~BIT(port);
1632                 if (!trap->ingress_port_mask)
1633                         kfree(trap);
1634                 return err;
1635         }
1636
1637         return 0;
1638 }
1639
1640 int ocelot_trap_del(struct ocelot *ocelot, int port, unsigned long cookie)
1641 {
1642         struct ocelot_vcap_block *block_vcap_is2;
1643         struct ocelot_vcap_filter *trap;
1644
1645         block_vcap_is2 = &ocelot->block[VCAP_IS2];
1646
1647         trap = ocelot_vcap_block_find_filter_by_id(block_vcap_is2, cookie,
1648                                                    false);
1649         if (!trap)
1650                 return 0;
1651
1652         trap->ingress_port_mask &= ~BIT(port);
1653         if (!trap->ingress_port_mask)
1654                 return ocelot_vcap_filter_del(ocelot, trap);
1655
1656         return ocelot_vcap_filter_replace(ocelot, trap);
1657 }
1658
1659 static int ocelot_l2_ptp_trap_add(struct ocelot *ocelot, int port)
1660 {
1661         unsigned long l2_cookie = OCELOT_VCAP_IS2_L2_PTP_TRAP(ocelot);
1662
1663         return ocelot_trap_add(ocelot, port, l2_cookie, true,
1664                                ocelot_populate_l2_ptp_trap_key);
1665 }
1666
1667 static int ocelot_l2_ptp_trap_del(struct ocelot *ocelot, int port)
1668 {
1669         unsigned long l2_cookie = OCELOT_VCAP_IS2_L2_PTP_TRAP(ocelot);
1670
1671         return ocelot_trap_del(ocelot, port, l2_cookie);
1672 }
1673
1674 static int ocelot_ipv4_ptp_trap_add(struct ocelot *ocelot, int port)
1675 {
1676         unsigned long ipv4_gen_cookie = OCELOT_VCAP_IS2_IPV4_GEN_PTP_TRAP(ocelot);
1677         unsigned long ipv4_ev_cookie = OCELOT_VCAP_IS2_IPV4_EV_PTP_TRAP(ocelot);
1678         int err;
1679
1680         err = ocelot_trap_add(ocelot, port, ipv4_ev_cookie, true,
1681                               ocelot_populate_ipv4_ptp_event_trap_key);
1682         if (err)
1683                 return err;
1684
1685         err = ocelot_trap_add(ocelot, port, ipv4_gen_cookie, false,
1686                               ocelot_populate_ipv4_ptp_general_trap_key);
1687         if (err)
1688                 ocelot_trap_del(ocelot, port, ipv4_ev_cookie);
1689
1690         return err;
1691 }
1692
1693 static int ocelot_ipv4_ptp_trap_del(struct ocelot *ocelot, int port)
1694 {
1695         unsigned long ipv4_gen_cookie = OCELOT_VCAP_IS2_IPV4_GEN_PTP_TRAP(ocelot);
1696         unsigned long ipv4_ev_cookie = OCELOT_VCAP_IS2_IPV4_EV_PTP_TRAP(ocelot);
1697         int err;
1698
1699         err = ocelot_trap_del(ocelot, port, ipv4_ev_cookie);
1700         err |= ocelot_trap_del(ocelot, port, ipv4_gen_cookie);
1701         return err;
1702 }
1703
1704 static int ocelot_ipv6_ptp_trap_add(struct ocelot *ocelot, int port)
1705 {
1706         unsigned long ipv6_gen_cookie = OCELOT_VCAP_IS2_IPV6_GEN_PTP_TRAP(ocelot);
1707         unsigned long ipv6_ev_cookie = OCELOT_VCAP_IS2_IPV6_EV_PTP_TRAP(ocelot);
1708         int err;
1709
1710         err = ocelot_trap_add(ocelot, port, ipv6_ev_cookie, true,
1711                               ocelot_populate_ipv6_ptp_event_trap_key);
1712         if (err)
1713                 return err;
1714
1715         err = ocelot_trap_add(ocelot, port, ipv6_gen_cookie, false,
1716                               ocelot_populate_ipv6_ptp_general_trap_key);
1717         if (err)
1718                 ocelot_trap_del(ocelot, port, ipv6_ev_cookie);
1719
1720         return err;
1721 }
1722
1723 static int ocelot_ipv6_ptp_trap_del(struct ocelot *ocelot, int port)
1724 {
1725         unsigned long ipv6_gen_cookie = OCELOT_VCAP_IS2_IPV6_GEN_PTP_TRAP(ocelot);
1726         unsigned long ipv6_ev_cookie = OCELOT_VCAP_IS2_IPV6_EV_PTP_TRAP(ocelot);
1727         int err;
1728
1729         err = ocelot_trap_del(ocelot, port, ipv6_ev_cookie);
1730         err |= ocelot_trap_del(ocelot, port, ipv6_gen_cookie);
1731         return err;
1732 }
1733
1734 static int ocelot_setup_ptp_traps(struct ocelot *ocelot, int port,
1735                                   bool l2, bool l4)
1736 {
1737         int err;
1738
1739         if (l2)
1740                 err = ocelot_l2_ptp_trap_add(ocelot, port);
1741         else
1742                 err = ocelot_l2_ptp_trap_del(ocelot, port);
1743         if (err)
1744                 return err;
1745
1746         if (l4) {
1747                 err = ocelot_ipv4_ptp_trap_add(ocelot, port);
1748                 if (err)
1749                         goto err_ipv4;
1750
1751                 err = ocelot_ipv6_ptp_trap_add(ocelot, port);
1752                 if (err)
1753                         goto err_ipv6;
1754         } else {
1755                 err = ocelot_ipv4_ptp_trap_del(ocelot, port);
1756
1757                 err |= ocelot_ipv6_ptp_trap_del(ocelot, port);
1758         }
1759         if (err)
1760                 return err;
1761
1762         return 0;
1763
1764 err_ipv6:
1765         ocelot_ipv4_ptp_trap_del(ocelot, port);
1766 err_ipv4:
1767         if (l2)
1768                 ocelot_l2_ptp_trap_del(ocelot, port);
1769         return err;
1770 }
1771
1772 int ocelot_hwstamp_get(struct ocelot *ocelot, int port, struct ifreq *ifr)
1773 {
1774         return copy_to_user(ifr->ifr_data, &ocelot->hwtstamp_config,
1775                             sizeof(ocelot->hwtstamp_config)) ? -EFAULT : 0;
1776 }
1777 EXPORT_SYMBOL(ocelot_hwstamp_get);
1778
1779 int ocelot_hwstamp_set(struct ocelot *ocelot, int port, struct ifreq *ifr)
1780 {
1781         struct ocelot_port *ocelot_port = ocelot->ports[port];
1782         bool l2 = false, l4 = false;
1783         struct hwtstamp_config cfg;
1784         int err;
1785
1786         if (copy_from_user(&cfg, ifr->ifr_data, sizeof(cfg)))
1787                 return -EFAULT;
1788
1789         /* Tx type sanity check */
1790         switch (cfg.tx_type) {
1791         case HWTSTAMP_TX_ON:
1792                 ocelot_port->ptp_cmd = IFH_REW_OP_TWO_STEP_PTP;
1793                 break;
1794         case HWTSTAMP_TX_ONESTEP_SYNC:
1795                 /* IFH_REW_OP_ONE_STEP_PTP updates the correctional field, we
1796                  * need to update the origin time.
1797                  */
1798                 ocelot_port->ptp_cmd = IFH_REW_OP_ORIGIN_PTP;
1799                 break;
1800         case HWTSTAMP_TX_OFF:
1801                 ocelot_port->ptp_cmd = 0;
1802                 break;
1803         default:
1804                 return -ERANGE;
1805         }
1806
1807         mutex_lock(&ocelot->ptp_lock);
1808
1809         switch (cfg.rx_filter) {
1810         case HWTSTAMP_FILTER_NONE:
1811                 break;
1812         case HWTSTAMP_FILTER_PTP_V2_L4_EVENT:
1813         case HWTSTAMP_FILTER_PTP_V2_L4_SYNC:
1814         case HWTSTAMP_FILTER_PTP_V2_L4_DELAY_REQ:
1815                 l4 = true;
1816                 break;
1817         case HWTSTAMP_FILTER_PTP_V2_L2_EVENT:
1818         case HWTSTAMP_FILTER_PTP_V2_L2_SYNC:
1819         case HWTSTAMP_FILTER_PTP_V2_L2_DELAY_REQ:
1820                 l2 = true;
1821                 break;
1822         case HWTSTAMP_FILTER_PTP_V2_EVENT:
1823         case HWTSTAMP_FILTER_PTP_V2_SYNC:
1824         case HWTSTAMP_FILTER_PTP_V2_DELAY_REQ:
1825                 l2 = true;
1826                 l4 = true;
1827                 break;
1828         default:
1829                 mutex_unlock(&ocelot->ptp_lock);
1830                 return -ERANGE;
1831         }
1832
1833         err = ocelot_setup_ptp_traps(ocelot, port, l2, l4);
1834         if (err) {
1835                 mutex_unlock(&ocelot->ptp_lock);
1836                 return err;
1837         }
1838
1839         if (l2 && l4)
1840                 cfg.rx_filter = HWTSTAMP_FILTER_PTP_V2_EVENT;
1841         else if (l2)
1842                 cfg.rx_filter = HWTSTAMP_FILTER_PTP_V2_L2_EVENT;
1843         else if (l4)
1844                 cfg.rx_filter = HWTSTAMP_FILTER_PTP_V2_L4_EVENT;
1845         else
1846                 cfg.rx_filter = HWTSTAMP_FILTER_NONE;
1847
1848         /* Commit back the result & save it */
1849         memcpy(&ocelot->hwtstamp_config, &cfg, sizeof(cfg));
1850         mutex_unlock(&ocelot->ptp_lock);
1851
1852         return copy_to_user(ifr->ifr_data, &cfg, sizeof(cfg)) ? -EFAULT : 0;
1853 }
1854 EXPORT_SYMBOL(ocelot_hwstamp_set);
1855
1856 void ocelot_get_strings(struct ocelot *ocelot, int port, u32 sset, u8 *data)
1857 {
1858         int i;
1859
1860         if (sset != ETH_SS_STATS)
1861                 return;
1862
1863         for (i = 0; i < OCELOT_NUM_STATS; i++) {
1864                 if (ocelot->stats_layout[i].name[0] == '\0')
1865                         continue;
1866
1867                 memcpy(data + i * ETH_GSTRING_LEN, ocelot->stats_layout[i].name,
1868                        ETH_GSTRING_LEN);
1869         }
1870 }
1871 EXPORT_SYMBOL(ocelot_get_strings);
1872
1873 /* Caller must hold &ocelot->stats_lock */
1874 static int ocelot_port_update_stats(struct ocelot *ocelot, int port)
1875 {
1876         unsigned int idx = port * OCELOT_NUM_STATS;
1877         struct ocelot_stats_region *region;
1878         int err, j;
1879
1880         /* Configure the port to read the stats from */
1881         ocelot_write(ocelot, SYS_STAT_CFG_STAT_VIEW(port), SYS_STAT_CFG);
1882
1883         list_for_each_entry(region, &ocelot->stats_regions, node) {
1884                 err = ocelot_bulk_read(ocelot, region->base, region->buf,
1885                                        region->count);
1886                 if (err)
1887                         return err;
1888
1889                 for (j = 0; j < region->count; j++) {
1890                         u64 *stat = &ocelot->stats[idx + j];
1891                         u64 val = region->buf[j];
1892
1893                         if (val < (*stat & U32_MAX))
1894                                 *stat += (u64)1 << 32;
1895
1896                         *stat = (*stat & ~(u64)U32_MAX) + val;
1897                 }
1898
1899                 idx += region->count;
1900         }
1901
1902         return err;
1903 }
1904
1905 static void ocelot_check_stats_work(struct work_struct *work)
1906 {
1907         struct delayed_work *del_work = to_delayed_work(work);
1908         struct ocelot *ocelot = container_of(del_work, struct ocelot,
1909                                              stats_work);
1910         int i, err;
1911
1912         spin_lock(&ocelot->stats_lock);
1913         for (i = 0; i < ocelot->num_phys_ports; i++) {
1914                 err = ocelot_port_update_stats(ocelot, i);
1915                 if (err)
1916                         break;
1917         }
1918         spin_unlock(&ocelot->stats_lock);
1919
1920         if (err)
1921                 dev_err(ocelot->dev, "Error %d updating ethtool stats\n",  err);
1922
1923         queue_delayed_work(ocelot->stats_queue, &ocelot->stats_work,
1924                            OCELOT_STATS_CHECK_DELAY);
1925 }
1926
1927 void ocelot_get_ethtool_stats(struct ocelot *ocelot, int port, u64 *data)
1928 {
1929         int i, err;
1930
1931         spin_lock(&ocelot->stats_lock);
1932
1933         /* check and update now */
1934         err = ocelot_port_update_stats(ocelot, port);
1935
1936         /* Copy all supported counters */
1937         for (i = 0; i < OCELOT_NUM_STATS; i++) {
1938                 int index = port * OCELOT_NUM_STATS + i;
1939
1940                 if (ocelot->stats_layout[i].name[0] == '\0')
1941                         continue;
1942
1943                 *data++ = ocelot->stats[index];
1944         }
1945
1946         spin_unlock(&ocelot->stats_lock);
1947
1948         if (err)
1949                 dev_err(ocelot->dev, "Error %d updating ethtool stats\n", err);
1950 }
1951 EXPORT_SYMBOL(ocelot_get_ethtool_stats);
1952
1953 int ocelot_get_sset_count(struct ocelot *ocelot, int port, int sset)
1954 {
1955         int i, num_stats = 0;
1956
1957         if (sset != ETH_SS_STATS)
1958                 return -EOPNOTSUPP;
1959
1960         for (i = 0; i < OCELOT_NUM_STATS; i++)
1961                 if (ocelot->stats_layout[i].name[0] != '\0')
1962                         num_stats++;
1963
1964         return num_stats;
1965 }
1966 EXPORT_SYMBOL(ocelot_get_sset_count);
1967
1968 static int ocelot_prepare_stats_regions(struct ocelot *ocelot)
1969 {
1970         struct ocelot_stats_region *region = NULL;
1971         unsigned int last;
1972         int i;
1973
1974         INIT_LIST_HEAD(&ocelot->stats_regions);
1975
1976         for (i = 0; i < OCELOT_NUM_STATS; i++) {
1977                 if (ocelot->stats_layout[i].name[0] == '\0')
1978                         continue;
1979
1980                 if (region && ocelot->stats_layout[i].reg == last + 4) {
1981                         region->count++;
1982                 } else {
1983                         region = devm_kzalloc(ocelot->dev, sizeof(*region),
1984                                               GFP_KERNEL);
1985                         if (!region)
1986                                 return -ENOMEM;
1987
1988                         region->base = ocelot->stats_layout[i].reg;
1989                         region->count = 1;
1990                         list_add_tail(&region->node, &ocelot->stats_regions);
1991                 }
1992
1993                 last = ocelot->stats_layout[i].reg;
1994         }
1995
1996         list_for_each_entry(region, &ocelot->stats_regions, node) {
1997                 region->buf = devm_kcalloc(ocelot->dev, region->count,
1998                                            sizeof(*region->buf), GFP_KERNEL);
1999                 if (!region->buf)
2000                         return -ENOMEM;
2001         }
2002
2003         return 0;
2004 }
2005
2006 int ocelot_get_ts_info(struct ocelot *ocelot, int port,
2007                        struct ethtool_ts_info *info)
2008 {
2009         info->phc_index = ocelot->ptp_clock ?
2010                           ptp_clock_index(ocelot->ptp_clock) : -1;
2011         if (info->phc_index == -1) {
2012                 info->so_timestamping |= SOF_TIMESTAMPING_TX_SOFTWARE |
2013                                          SOF_TIMESTAMPING_RX_SOFTWARE |
2014                                          SOF_TIMESTAMPING_SOFTWARE;
2015                 return 0;
2016         }
2017         info->so_timestamping |= SOF_TIMESTAMPING_TX_SOFTWARE |
2018                                  SOF_TIMESTAMPING_RX_SOFTWARE |
2019                                  SOF_TIMESTAMPING_SOFTWARE |
2020                                  SOF_TIMESTAMPING_TX_HARDWARE |
2021                                  SOF_TIMESTAMPING_RX_HARDWARE |
2022                                  SOF_TIMESTAMPING_RAW_HARDWARE;
2023         info->tx_types = BIT(HWTSTAMP_TX_OFF) | BIT(HWTSTAMP_TX_ON) |
2024                          BIT(HWTSTAMP_TX_ONESTEP_SYNC);
2025         info->rx_filters = BIT(HWTSTAMP_FILTER_NONE) |
2026                            BIT(HWTSTAMP_FILTER_PTP_V2_EVENT) |
2027                            BIT(HWTSTAMP_FILTER_PTP_V2_L2_EVENT) |
2028                            BIT(HWTSTAMP_FILTER_PTP_V2_L4_EVENT);
2029
2030         return 0;
2031 }
2032 EXPORT_SYMBOL(ocelot_get_ts_info);
2033
2034 static u32 ocelot_get_bond_mask(struct ocelot *ocelot, struct net_device *bond)
2035 {
2036         u32 mask = 0;
2037         int port;
2038
2039         lockdep_assert_held(&ocelot->fwd_domain_lock);
2040
2041         for (port = 0; port < ocelot->num_phys_ports; port++) {
2042                 struct ocelot_port *ocelot_port = ocelot->ports[port];
2043
2044                 if (!ocelot_port)
2045                         continue;
2046
2047                 if (ocelot_port->bond == bond)
2048                         mask |= BIT(port);
2049         }
2050
2051         return mask;
2052 }
2053
2054 /* The logical port number of a LAG is equal to the lowest numbered physical
2055  * port ID present in that LAG. It may change if that port ever leaves the LAG.
2056  */
2057 static int ocelot_bond_get_id(struct ocelot *ocelot, struct net_device *bond)
2058 {
2059         int bond_mask = ocelot_get_bond_mask(ocelot, bond);
2060
2061         if (!bond_mask)
2062                 return -ENOENT;
2063
2064         return __ffs(bond_mask);
2065 }
2066
2067 static u32 ocelot_dsa_8021q_cpu_assigned_ports(struct ocelot *ocelot,
2068                                                struct ocelot_port *cpu)
2069 {
2070         u32 mask = 0;
2071         int port;
2072
2073         for (port = 0; port < ocelot->num_phys_ports; port++) {
2074                 struct ocelot_port *ocelot_port = ocelot->ports[port];
2075
2076                 if (!ocelot_port)
2077                         continue;
2078
2079                 if (ocelot_port->dsa_8021q_cpu == cpu)
2080                         mask |= BIT(port);
2081         }
2082
2083         return mask;
2084 }
2085
2086 u32 ocelot_port_assigned_dsa_8021q_cpu_mask(struct ocelot *ocelot, int port)
2087 {
2088         struct ocelot_port *ocelot_port = ocelot->ports[port];
2089         struct ocelot_port *cpu_port = ocelot_port->dsa_8021q_cpu;
2090
2091         if (!cpu_port)
2092                 return 0;
2093
2094         return BIT(cpu_port->index);
2095 }
2096 EXPORT_SYMBOL_GPL(ocelot_port_assigned_dsa_8021q_cpu_mask);
2097
2098 u32 ocelot_get_bridge_fwd_mask(struct ocelot *ocelot, int src_port)
2099 {
2100         struct ocelot_port *ocelot_port = ocelot->ports[src_port];
2101         const struct net_device *bridge;
2102         u32 mask = 0;
2103         int port;
2104
2105         if (!ocelot_port || ocelot_port->stp_state != BR_STATE_FORWARDING)
2106                 return 0;
2107
2108         bridge = ocelot_port->bridge;
2109         if (!bridge)
2110                 return 0;
2111
2112         for (port = 0; port < ocelot->num_phys_ports; port++) {
2113                 ocelot_port = ocelot->ports[port];
2114
2115                 if (!ocelot_port)
2116                         continue;
2117
2118                 if (ocelot_port->stp_state == BR_STATE_FORWARDING &&
2119                     ocelot_port->bridge == bridge)
2120                         mask |= BIT(port);
2121         }
2122
2123         return mask;
2124 }
2125 EXPORT_SYMBOL_GPL(ocelot_get_bridge_fwd_mask);
2126
2127 static void ocelot_apply_bridge_fwd_mask(struct ocelot *ocelot, bool joining)
2128 {
2129         int port;
2130
2131         lockdep_assert_held(&ocelot->fwd_domain_lock);
2132
2133         /* If cut-through forwarding is supported, update the masks before a
2134          * port joins the forwarding domain, to avoid potential underruns if it
2135          * has the highest speed from the new domain.
2136          */
2137         if (joining && ocelot->ops->cut_through_fwd)
2138                 ocelot->ops->cut_through_fwd(ocelot);
2139
2140         /* Apply FWD mask. The loop is needed to add/remove the current port as
2141          * a source for the other ports.
2142          */
2143         for (port = 0; port < ocelot->num_phys_ports; port++) {
2144                 struct ocelot_port *ocelot_port = ocelot->ports[port];
2145                 unsigned long mask;
2146
2147                 if (!ocelot_port) {
2148                         /* Unused ports can't send anywhere */
2149                         mask = 0;
2150                 } else if (ocelot_port->is_dsa_8021q_cpu) {
2151                         /* The DSA tag_8021q CPU ports need to be able to
2152                          * forward packets to all ports assigned to them.
2153                          */
2154                         mask = ocelot_dsa_8021q_cpu_assigned_ports(ocelot,
2155                                                                    ocelot_port);
2156                 } else if (ocelot_port->bridge) {
2157                         struct net_device *bond = ocelot_port->bond;
2158
2159                         mask = ocelot_get_bridge_fwd_mask(ocelot, port);
2160                         mask &= ~BIT(port);
2161
2162                         mask |= ocelot_port_assigned_dsa_8021q_cpu_mask(ocelot,
2163                                                                         port);
2164
2165                         if (bond)
2166                                 mask &= ~ocelot_get_bond_mask(ocelot, bond);
2167                 } else {
2168                         /* Standalone ports forward only to DSA tag_8021q CPU
2169                          * ports (if those exist), or to the hardware CPU port
2170                          * module otherwise.
2171                          */
2172                         mask = ocelot_port_assigned_dsa_8021q_cpu_mask(ocelot,
2173                                                                        port);
2174                 }
2175
2176                 ocelot_write_rix(ocelot, mask, ANA_PGID_PGID, PGID_SRC + port);
2177         }
2178
2179         /* If cut-through forwarding is supported and a port is leaving, there
2180          * is a chance that cut-through was disabled on the other ports due to
2181          * the port which is leaving (it has a higher link speed). We need to
2182          * update the cut-through masks of the remaining ports no earlier than
2183          * after the port has left, to prevent underruns from happening between
2184          * the cut-through update and the forwarding domain update.
2185          */
2186         if (!joining && ocelot->ops->cut_through_fwd)
2187                 ocelot->ops->cut_through_fwd(ocelot);
2188 }
2189
2190 /* Update PGID_CPU which is the destination port mask used for whitelisting
2191  * unicast addresses filtered towards the host. In the normal and NPI modes,
2192  * this points to the analyzer entry for the CPU port module, while in DSA
2193  * tag_8021q mode, it is a bit mask of all active CPU ports.
2194  * PGID_SRC will take care of forwarding a packet from one user port to
2195  * no more than a single CPU port.
2196  */
2197 static void ocelot_update_pgid_cpu(struct ocelot *ocelot)
2198 {
2199         int pgid_cpu = 0;
2200         int port;
2201
2202         for (port = 0; port < ocelot->num_phys_ports; port++) {
2203                 struct ocelot_port *ocelot_port = ocelot->ports[port];
2204
2205                 if (!ocelot_port || !ocelot_port->is_dsa_8021q_cpu)
2206                         continue;
2207
2208                 pgid_cpu |= BIT(port);
2209         }
2210
2211         if (!pgid_cpu)
2212                 pgid_cpu = BIT(ocelot->num_phys_ports);
2213
2214         ocelot_write_rix(ocelot, pgid_cpu, ANA_PGID_PGID, PGID_CPU);
2215 }
2216
2217 void ocelot_port_assign_dsa_8021q_cpu(struct ocelot *ocelot, int port,
2218                                       int cpu)
2219 {
2220         struct ocelot_port *cpu_port = ocelot->ports[cpu];
2221         u16 vid;
2222
2223         mutex_lock(&ocelot->fwd_domain_lock);
2224
2225         ocelot->ports[port]->dsa_8021q_cpu = cpu_port;
2226
2227         if (!cpu_port->is_dsa_8021q_cpu) {
2228                 cpu_port->is_dsa_8021q_cpu = true;
2229
2230                 for (vid = OCELOT_RSV_VLAN_RANGE_START; vid < VLAN_N_VID; vid++)
2231                         ocelot_vlan_member_add(ocelot, cpu, vid, true);
2232
2233                 ocelot_update_pgid_cpu(ocelot);
2234         }
2235
2236         ocelot_apply_bridge_fwd_mask(ocelot, true);
2237
2238         mutex_unlock(&ocelot->fwd_domain_lock);
2239 }
2240 EXPORT_SYMBOL_GPL(ocelot_port_assign_dsa_8021q_cpu);
2241
2242 void ocelot_port_unassign_dsa_8021q_cpu(struct ocelot *ocelot, int port)
2243 {
2244         struct ocelot_port *cpu_port = ocelot->ports[port]->dsa_8021q_cpu;
2245         bool keep = false;
2246         u16 vid;
2247         int p;
2248
2249         mutex_lock(&ocelot->fwd_domain_lock);
2250
2251         ocelot->ports[port]->dsa_8021q_cpu = NULL;
2252
2253         for (p = 0; p < ocelot->num_phys_ports; p++) {
2254                 if (!ocelot->ports[p])
2255                         continue;
2256
2257                 if (ocelot->ports[p]->dsa_8021q_cpu == cpu_port) {
2258                         keep = true;
2259                         break;
2260                 }
2261         }
2262
2263         if (!keep) {
2264                 cpu_port->is_dsa_8021q_cpu = false;
2265
2266                 for (vid = OCELOT_RSV_VLAN_RANGE_START; vid < VLAN_N_VID; vid++)
2267                         ocelot_vlan_member_del(ocelot, cpu_port->index, vid);
2268
2269                 ocelot_update_pgid_cpu(ocelot);
2270         }
2271
2272         ocelot_apply_bridge_fwd_mask(ocelot, true);
2273
2274         mutex_unlock(&ocelot->fwd_domain_lock);
2275 }
2276 EXPORT_SYMBOL_GPL(ocelot_port_unassign_dsa_8021q_cpu);
2277
2278 void ocelot_bridge_stp_state_set(struct ocelot *ocelot, int port, u8 state)
2279 {
2280         struct ocelot_port *ocelot_port = ocelot->ports[port];
2281         u32 learn_ena = 0;
2282
2283         mutex_lock(&ocelot->fwd_domain_lock);
2284
2285         ocelot_port->stp_state = state;
2286
2287         if ((state == BR_STATE_LEARNING || state == BR_STATE_FORWARDING) &&
2288             ocelot_port->learn_ena)
2289                 learn_ena = ANA_PORT_PORT_CFG_LEARN_ENA;
2290
2291         ocelot_rmw_gix(ocelot, learn_ena, ANA_PORT_PORT_CFG_LEARN_ENA,
2292                        ANA_PORT_PORT_CFG, port);
2293
2294         ocelot_apply_bridge_fwd_mask(ocelot, state == BR_STATE_FORWARDING);
2295
2296         mutex_unlock(&ocelot->fwd_domain_lock);
2297 }
2298 EXPORT_SYMBOL(ocelot_bridge_stp_state_set);
2299
2300 void ocelot_set_ageing_time(struct ocelot *ocelot, unsigned int msecs)
2301 {
2302         unsigned int age_period = ANA_AUTOAGE_AGE_PERIOD(msecs / 2000);
2303
2304         /* Setting AGE_PERIOD to zero effectively disables automatic aging,
2305          * which is clearly not what our intention is. So avoid that.
2306          */
2307         if (!age_period)
2308                 age_period = 1;
2309
2310         ocelot_rmw(ocelot, age_period, ANA_AUTOAGE_AGE_PERIOD_M, ANA_AUTOAGE);
2311 }
2312 EXPORT_SYMBOL(ocelot_set_ageing_time);
2313
2314 static struct ocelot_multicast *ocelot_multicast_get(struct ocelot *ocelot,
2315                                                      const unsigned char *addr,
2316                                                      u16 vid)
2317 {
2318         struct ocelot_multicast *mc;
2319
2320         list_for_each_entry(mc, &ocelot->multicast, list) {
2321                 if (ether_addr_equal(mc->addr, addr) && mc->vid == vid)
2322                         return mc;
2323         }
2324
2325         return NULL;
2326 }
2327
2328 static enum macaccess_entry_type ocelot_classify_mdb(const unsigned char *addr)
2329 {
2330         if (addr[0] == 0x01 && addr[1] == 0x00 && addr[2] == 0x5e)
2331                 return ENTRYTYPE_MACv4;
2332         if (addr[0] == 0x33 && addr[1] == 0x33)
2333                 return ENTRYTYPE_MACv6;
2334         return ENTRYTYPE_LOCKED;
2335 }
2336
2337 static struct ocelot_pgid *ocelot_pgid_alloc(struct ocelot *ocelot, int index,
2338                                              unsigned long ports)
2339 {
2340         struct ocelot_pgid *pgid;
2341
2342         pgid = kzalloc(sizeof(*pgid), GFP_KERNEL);
2343         if (!pgid)
2344                 return ERR_PTR(-ENOMEM);
2345
2346         pgid->ports = ports;
2347         pgid->index = index;
2348         refcount_set(&pgid->refcount, 1);
2349         list_add_tail(&pgid->list, &ocelot->pgids);
2350
2351         return pgid;
2352 }
2353
2354 static void ocelot_pgid_free(struct ocelot *ocelot, struct ocelot_pgid *pgid)
2355 {
2356         if (!refcount_dec_and_test(&pgid->refcount))
2357                 return;
2358
2359         list_del(&pgid->list);
2360         kfree(pgid);
2361 }
2362
2363 static struct ocelot_pgid *ocelot_mdb_get_pgid(struct ocelot *ocelot,
2364                                                const struct ocelot_multicast *mc)
2365 {
2366         struct ocelot_pgid *pgid;
2367         int index;
2368
2369         /* According to VSC7514 datasheet 3.9.1.5 IPv4 Multicast Entries and
2370          * 3.9.1.6 IPv6 Multicast Entries, "Instead of a lookup in the
2371          * destination mask table (PGID), the destination set is programmed as
2372          * part of the entry MAC address.", and the DEST_IDX is set to 0.
2373          */
2374         if (mc->entry_type == ENTRYTYPE_MACv4 ||
2375             mc->entry_type == ENTRYTYPE_MACv6)
2376                 return ocelot_pgid_alloc(ocelot, 0, mc->ports);
2377
2378         list_for_each_entry(pgid, &ocelot->pgids, list) {
2379                 /* When searching for a nonreserved multicast PGID, ignore the
2380                  * dummy PGID of zero that we have for MACv4/MACv6 entries
2381                  */
2382                 if (pgid->index && pgid->ports == mc->ports) {
2383                         refcount_inc(&pgid->refcount);
2384                         return pgid;
2385                 }
2386         }
2387
2388         /* Search for a free index in the nonreserved multicast PGID area */
2389         for_each_nonreserved_multicast_dest_pgid(ocelot, index) {
2390                 bool used = false;
2391
2392                 list_for_each_entry(pgid, &ocelot->pgids, list) {
2393                         if (pgid->index == index) {
2394                                 used = true;
2395                                 break;
2396                         }
2397                 }
2398
2399                 if (!used)
2400                         return ocelot_pgid_alloc(ocelot, index, mc->ports);
2401         }
2402
2403         return ERR_PTR(-ENOSPC);
2404 }
2405
2406 static void ocelot_encode_ports_to_mdb(unsigned char *addr,
2407                                        struct ocelot_multicast *mc)
2408 {
2409         ether_addr_copy(addr, mc->addr);
2410
2411         if (mc->entry_type == ENTRYTYPE_MACv4) {
2412                 addr[0] = 0;
2413                 addr[1] = mc->ports >> 8;
2414                 addr[2] = mc->ports & 0xff;
2415         } else if (mc->entry_type == ENTRYTYPE_MACv6) {
2416                 addr[0] = mc->ports >> 8;
2417                 addr[1] = mc->ports & 0xff;
2418         }
2419 }
2420
2421 int ocelot_port_mdb_add(struct ocelot *ocelot, int port,
2422                         const struct switchdev_obj_port_mdb *mdb,
2423                         const struct net_device *bridge)
2424 {
2425         unsigned char addr[ETH_ALEN];
2426         struct ocelot_multicast *mc;
2427         struct ocelot_pgid *pgid;
2428         u16 vid = mdb->vid;
2429
2430         if (!vid)
2431                 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
2432
2433         mc = ocelot_multicast_get(ocelot, mdb->addr, vid);
2434         if (!mc) {
2435                 /* New entry */
2436                 mc = devm_kzalloc(ocelot->dev, sizeof(*mc), GFP_KERNEL);
2437                 if (!mc)
2438                         return -ENOMEM;
2439
2440                 mc->entry_type = ocelot_classify_mdb(mdb->addr);
2441                 ether_addr_copy(mc->addr, mdb->addr);
2442                 mc->vid = vid;
2443
2444                 list_add_tail(&mc->list, &ocelot->multicast);
2445         } else {
2446                 /* Existing entry. Clean up the current port mask from
2447                  * hardware now, because we'll be modifying it.
2448                  */
2449                 ocelot_pgid_free(ocelot, mc->pgid);
2450                 ocelot_encode_ports_to_mdb(addr, mc);
2451                 ocelot_mact_forget(ocelot, addr, vid);
2452         }
2453
2454         mc->ports |= BIT(port);
2455
2456         pgid = ocelot_mdb_get_pgid(ocelot, mc);
2457         if (IS_ERR(pgid)) {
2458                 dev_err(ocelot->dev,
2459                         "Cannot allocate PGID for mdb %pM vid %d\n",
2460                         mc->addr, mc->vid);
2461                 devm_kfree(ocelot->dev, mc);
2462                 return PTR_ERR(pgid);
2463         }
2464         mc->pgid = pgid;
2465
2466         ocelot_encode_ports_to_mdb(addr, mc);
2467
2468         if (mc->entry_type != ENTRYTYPE_MACv4 &&
2469             mc->entry_type != ENTRYTYPE_MACv6)
2470                 ocelot_write_rix(ocelot, pgid->ports, ANA_PGID_PGID,
2471                                  pgid->index);
2472
2473         return ocelot_mact_learn(ocelot, pgid->index, addr, vid,
2474                                  mc->entry_type);
2475 }
2476 EXPORT_SYMBOL(ocelot_port_mdb_add);
2477
2478 int ocelot_port_mdb_del(struct ocelot *ocelot, int port,
2479                         const struct switchdev_obj_port_mdb *mdb,
2480                         const struct net_device *bridge)
2481 {
2482         unsigned char addr[ETH_ALEN];
2483         struct ocelot_multicast *mc;
2484         struct ocelot_pgid *pgid;
2485         u16 vid = mdb->vid;
2486
2487         if (!vid)
2488                 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
2489
2490         mc = ocelot_multicast_get(ocelot, mdb->addr, vid);
2491         if (!mc)
2492                 return -ENOENT;
2493
2494         ocelot_encode_ports_to_mdb(addr, mc);
2495         ocelot_mact_forget(ocelot, addr, vid);
2496
2497         ocelot_pgid_free(ocelot, mc->pgid);
2498         mc->ports &= ~BIT(port);
2499         if (!mc->ports) {
2500                 list_del(&mc->list);
2501                 devm_kfree(ocelot->dev, mc);
2502                 return 0;
2503         }
2504
2505         /* We have a PGID with fewer ports now */
2506         pgid = ocelot_mdb_get_pgid(ocelot, mc);
2507         if (IS_ERR(pgid))
2508                 return PTR_ERR(pgid);
2509         mc->pgid = pgid;
2510
2511         ocelot_encode_ports_to_mdb(addr, mc);
2512
2513         if (mc->entry_type != ENTRYTYPE_MACv4 &&
2514             mc->entry_type != ENTRYTYPE_MACv6)
2515                 ocelot_write_rix(ocelot, pgid->ports, ANA_PGID_PGID,
2516                                  pgid->index);
2517
2518         return ocelot_mact_learn(ocelot, pgid->index, addr, vid,
2519                                  mc->entry_type);
2520 }
2521 EXPORT_SYMBOL(ocelot_port_mdb_del);
2522
2523 int ocelot_port_bridge_join(struct ocelot *ocelot, int port,
2524                             struct net_device *bridge, int bridge_num,
2525                             struct netlink_ext_ack *extack)
2526 {
2527         struct ocelot_port *ocelot_port = ocelot->ports[port];
2528         int err;
2529
2530         err = ocelot_single_vlan_aware_bridge(ocelot, extack);
2531         if (err)
2532                 return err;
2533
2534         mutex_lock(&ocelot->fwd_domain_lock);
2535
2536         ocelot_port->bridge = bridge;
2537         ocelot_port->bridge_num = bridge_num;
2538
2539         ocelot_apply_bridge_fwd_mask(ocelot, true);
2540
2541         mutex_unlock(&ocelot->fwd_domain_lock);
2542
2543         if (br_vlan_enabled(bridge))
2544                 return 0;
2545
2546         return ocelot_add_vlan_unaware_pvid(ocelot, port, bridge);
2547 }
2548 EXPORT_SYMBOL(ocelot_port_bridge_join);
2549
2550 void ocelot_port_bridge_leave(struct ocelot *ocelot, int port,
2551                               struct net_device *bridge)
2552 {
2553         struct ocelot_port *ocelot_port = ocelot->ports[port];
2554
2555         mutex_lock(&ocelot->fwd_domain_lock);
2556
2557         if (!br_vlan_enabled(bridge))
2558                 ocelot_del_vlan_unaware_pvid(ocelot, port, bridge);
2559
2560         ocelot_port->bridge = NULL;
2561         ocelot_port->bridge_num = -1;
2562
2563         ocelot_port_set_pvid(ocelot, port, NULL);
2564         ocelot_port_manage_port_tag(ocelot, port);
2565         ocelot_apply_bridge_fwd_mask(ocelot, false);
2566
2567         mutex_unlock(&ocelot->fwd_domain_lock);
2568 }
2569 EXPORT_SYMBOL(ocelot_port_bridge_leave);
2570
2571 static void ocelot_set_aggr_pgids(struct ocelot *ocelot)
2572 {
2573         unsigned long visited = GENMASK(ocelot->num_phys_ports - 1, 0);
2574         int i, port, lag;
2575
2576         /* Reset destination and aggregation PGIDS */
2577         for_each_unicast_dest_pgid(ocelot, port)
2578                 ocelot_write_rix(ocelot, BIT(port), ANA_PGID_PGID, port);
2579
2580         for_each_aggr_pgid(ocelot, i)
2581                 ocelot_write_rix(ocelot, GENMASK(ocelot->num_phys_ports - 1, 0),
2582                                  ANA_PGID_PGID, i);
2583
2584         /* The visited ports bitmask holds the list of ports offloading any
2585          * bonding interface. Initially we mark all these ports as unvisited,
2586          * then every time we visit a port in this bitmask, we know that it is
2587          * the lowest numbered port, i.e. the one whose logical ID == physical
2588          * port ID == LAG ID. So we mark as visited all further ports in the
2589          * bitmask that are offloading the same bonding interface. This way,
2590          * we set up the aggregation PGIDs only once per bonding interface.
2591          */
2592         for (port = 0; port < ocelot->num_phys_ports; port++) {
2593                 struct ocelot_port *ocelot_port = ocelot->ports[port];
2594
2595                 if (!ocelot_port || !ocelot_port->bond)
2596                         continue;
2597
2598                 visited &= ~BIT(port);
2599         }
2600
2601         /* Now, set PGIDs for each active LAG */
2602         for (lag = 0; lag < ocelot->num_phys_ports; lag++) {
2603                 struct net_device *bond = ocelot->ports[lag]->bond;
2604                 int num_active_ports = 0;
2605                 unsigned long bond_mask;
2606                 u8 aggr_idx[16];
2607
2608                 if (!bond || (visited & BIT(lag)))
2609                         continue;
2610
2611                 bond_mask = ocelot_get_bond_mask(ocelot, bond);
2612
2613                 for_each_set_bit(port, &bond_mask, ocelot->num_phys_ports) {
2614                         struct ocelot_port *ocelot_port = ocelot->ports[port];
2615
2616                         // Destination mask
2617                         ocelot_write_rix(ocelot, bond_mask,
2618                                          ANA_PGID_PGID, port);
2619
2620                         if (ocelot_port->lag_tx_active)
2621                                 aggr_idx[num_active_ports++] = port;
2622                 }
2623
2624                 for_each_aggr_pgid(ocelot, i) {
2625                         u32 ac;
2626
2627                         ac = ocelot_read_rix(ocelot, ANA_PGID_PGID, i);
2628                         ac &= ~bond_mask;
2629                         /* Don't do division by zero if there was no active
2630                          * port. Just make all aggregation codes zero.
2631                          */
2632                         if (num_active_ports)
2633                                 ac |= BIT(aggr_idx[i % num_active_ports]);
2634                         ocelot_write_rix(ocelot, ac, ANA_PGID_PGID, i);
2635                 }
2636
2637                 /* Mark all ports in the same LAG as visited to avoid applying
2638                  * the same config again.
2639                  */
2640                 for (port = lag; port < ocelot->num_phys_ports; port++) {
2641                         struct ocelot_port *ocelot_port = ocelot->ports[port];
2642
2643                         if (!ocelot_port)
2644                                 continue;
2645
2646                         if (ocelot_port->bond == bond)
2647                                 visited |= BIT(port);
2648                 }
2649         }
2650 }
2651
2652 /* When offloading a bonding interface, the switch ports configured under the
2653  * same bond must have the same logical port ID, equal to the physical port ID
2654  * of the lowest numbered physical port in that bond. Otherwise, in standalone/
2655  * bridged mode, each port has a logical port ID equal to its physical port ID.
2656  */
2657 static void ocelot_setup_logical_port_ids(struct ocelot *ocelot)
2658 {
2659         int port;
2660
2661         for (port = 0; port < ocelot->num_phys_ports; port++) {
2662                 struct ocelot_port *ocelot_port = ocelot->ports[port];
2663                 struct net_device *bond;
2664
2665                 if (!ocelot_port)
2666                         continue;
2667
2668                 bond = ocelot_port->bond;
2669                 if (bond) {
2670                         int lag = ocelot_bond_get_id(ocelot, bond);
2671
2672                         ocelot_rmw_gix(ocelot,
2673                                        ANA_PORT_PORT_CFG_PORTID_VAL(lag),
2674                                        ANA_PORT_PORT_CFG_PORTID_VAL_M,
2675                                        ANA_PORT_PORT_CFG, port);
2676                 } else {
2677                         ocelot_rmw_gix(ocelot,
2678                                        ANA_PORT_PORT_CFG_PORTID_VAL(port),
2679                                        ANA_PORT_PORT_CFG_PORTID_VAL_M,
2680                                        ANA_PORT_PORT_CFG, port);
2681                 }
2682         }
2683 }
2684
2685 static int ocelot_migrate_mc(struct ocelot *ocelot, struct ocelot_multicast *mc,
2686                              unsigned long from_mask, unsigned long to_mask)
2687 {
2688         unsigned char addr[ETH_ALEN];
2689         struct ocelot_pgid *pgid;
2690         u16 vid = mc->vid;
2691
2692         dev_dbg(ocelot->dev,
2693                 "Migrating multicast %pM vid %d from port mask 0x%lx to 0x%lx\n",
2694                 mc->addr, mc->vid, from_mask, to_mask);
2695
2696         /* First clean up the current port mask from hardware, because
2697          * we'll be modifying it.
2698          */
2699         ocelot_pgid_free(ocelot, mc->pgid);
2700         ocelot_encode_ports_to_mdb(addr, mc);
2701         ocelot_mact_forget(ocelot, addr, vid);
2702
2703         mc->ports &= ~from_mask;
2704         mc->ports |= to_mask;
2705
2706         pgid = ocelot_mdb_get_pgid(ocelot, mc);
2707         if (IS_ERR(pgid)) {
2708                 dev_err(ocelot->dev,
2709                         "Cannot allocate PGID for mdb %pM vid %d\n",
2710                         mc->addr, mc->vid);
2711                 devm_kfree(ocelot->dev, mc);
2712                 return PTR_ERR(pgid);
2713         }
2714         mc->pgid = pgid;
2715
2716         ocelot_encode_ports_to_mdb(addr, mc);
2717
2718         if (mc->entry_type != ENTRYTYPE_MACv4 &&
2719             mc->entry_type != ENTRYTYPE_MACv6)
2720                 ocelot_write_rix(ocelot, pgid->ports, ANA_PGID_PGID,
2721                                  pgid->index);
2722
2723         return ocelot_mact_learn(ocelot, pgid->index, addr, vid,
2724                                  mc->entry_type);
2725 }
2726
2727 int ocelot_migrate_mdbs(struct ocelot *ocelot, unsigned long from_mask,
2728                         unsigned long to_mask)
2729 {
2730         struct ocelot_multicast *mc;
2731         int err;
2732
2733         list_for_each_entry(mc, &ocelot->multicast, list) {
2734                 if (!(mc->ports & from_mask))
2735                         continue;
2736
2737                 err = ocelot_migrate_mc(ocelot, mc, from_mask, to_mask);
2738                 if (err)
2739                         return err;
2740         }
2741
2742         return 0;
2743 }
2744 EXPORT_SYMBOL_GPL(ocelot_migrate_mdbs);
2745
2746 /* Documentation for PORTID_VAL says:
2747  *     Logical port number for front port. If port is not a member of a LLAG,
2748  *     then PORTID must be set to the physical port number.
2749  *     If port is a member of a LLAG, then PORTID must be set to the common
2750  *     PORTID_VAL used for all member ports of the LLAG.
2751  *     The value must not exceed the number of physical ports on the device.
2752  *
2753  * This means we have little choice but to migrate FDB entries pointing towards
2754  * a logical port when that changes.
2755  */
2756 static void ocelot_migrate_lag_fdbs(struct ocelot *ocelot,
2757                                     struct net_device *bond,
2758                                     int lag)
2759 {
2760         struct ocelot_lag_fdb *fdb;
2761         int err;
2762
2763         lockdep_assert_held(&ocelot->fwd_domain_lock);
2764
2765         list_for_each_entry(fdb, &ocelot->lag_fdbs, list) {
2766                 if (fdb->bond != bond)
2767                         continue;
2768
2769                 err = ocelot_mact_forget(ocelot, fdb->addr, fdb->vid);
2770                 if (err) {
2771                         dev_err(ocelot->dev,
2772                                 "failed to delete LAG %s FDB %pM vid %d: %pe\n",
2773                                 bond->name, fdb->addr, fdb->vid, ERR_PTR(err));
2774                 }
2775
2776                 err = ocelot_mact_learn(ocelot, lag, fdb->addr, fdb->vid,
2777                                         ENTRYTYPE_LOCKED);
2778                 if (err) {
2779                         dev_err(ocelot->dev,
2780                                 "failed to migrate LAG %s FDB %pM vid %d: %pe\n",
2781                                 bond->name, fdb->addr, fdb->vid, ERR_PTR(err));
2782                 }
2783         }
2784 }
2785
2786 int ocelot_port_lag_join(struct ocelot *ocelot, int port,
2787                          struct net_device *bond,
2788                          struct netdev_lag_upper_info *info)
2789 {
2790         if (info->tx_type != NETDEV_LAG_TX_TYPE_HASH)
2791                 return -EOPNOTSUPP;
2792
2793         mutex_lock(&ocelot->fwd_domain_lock);
2794
2795         ocelot->ports[port]->bond = bond;
2796
2797         ocelot_setup_logical_port_ids(ocelot);
2798         ocelot_apply_bridge_fwd_mask(ocelot, true);
2799         ocelot_set_aggr_pgids(ocelot);
2800
2801         mutex_unlock(&ocelot->fwd_domain_lock);
2802
2803         return 0;
2804 }
2805 EXPORT_SYMBOL(ocelot_port_lag_join);
2806
2807 void ocelot_port_lag_leave(struct ocelot *ocelot, int port,
2808                            struct net_device *bond)
2809 {
2810         int old_lag_id, new_lag_id;
2811
2812         mutex_lock(&ocelot->fwd_domain_lock);
2813
2814         old_lag_id = ocelot_bond_get_id(ocelot, bond);
2815
2816         ocelot->ports[port]->bond = NULL;
2817
2818         ocelot_setup_logical_port_ids(ocelot);
2819         ocelot_apply_bridge_fwd_mask(ocelot, false);
2820         ocelot_set_aggr_pgids(ocelot);
2821
2822         new_lag_id = ocelot_bond_get_id(ocelot, bond);
2823
2824         if (new_lag_id >= 0 && old_lag_id != new_lag_id)
2825                 ocelot_migrate_lag_fdbs(ocelot, bond, new_lag_id);
2826
2827         mutex_unlock(&ocelot->fwd_domain_lock);
2828 }
2829 EXPORT_SYMBOL(ocelot_port_lag_leave);
2830
2831 void ocelot_port_lag_change(struct ocelot *ocelot, int port, bool lag_tx_active)
2832 {
2833         struct ocelot_port *ocelot_port = ocelot->ports[port];
2834
2835         mutex_lock(&ocelot->fwd_domain_lock);
2836
2837         ocelot_port->lag_tx_active = lag_tx_active;
2838
2839         /* Rebalance the LAGs */
2840         ocelot_set_aggr_pgids(ocelot);
2841
2842         mutex_unlock(&ocelot->fwd_domain_lock);
2843 }
2844 EXPORT_SYMBOL(ocelot_port_lag_change);
2845
2846 int ocelot_lag_fdb_add(struct ocelot *ocelot, struct net_device *bond,
2847                        const unsigned char *addr, u16 vid,
2848                        const struct net_device *bridge)
2849 {
2850         struct ocelot_lag_fdb *fdb;
2851         int lag, err;
2852
2853         fdb = kzalloc(sizeof(*fdb), GFP_KERNEL);
2854         if (!fdb)
2855                 return -ENOMEM;
2856
2857         mutex_lock(&ocelot->fwd_domain_lock);
2858
2859         if (!vid)
2860                 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
2861
2862         ether_addr_copy(fdb->addr, addr);
2863         fdb->vid = vid;
2864         fdb->bond = bond;
2865
2866         lag = ocelot_bond_get_id(ocelot, bond);
2867
2868         err = ocelot_mact_learn(ocelot, lag, addr, vid, ENTRYTYPE_LOCKED);
2869         if (err) {
2870                 mutex_unlock(&ocelot->fwd_domain_lock);
2871                 kfree(fdb);
2872                 return err;
2873         }
2874
2875         list_add_tail(&fdb->list, &ocelot->lag_fdbs);
2876         mutex_unlock(&ocelot->fwd_domain_lock);
2877
2878         return 0;
2879 }
2880 EXPORT_SYMBOL_GPL(ocelot_lag_fdb_add);
2881
2882 int ocelot_lag_fdb_del(struct ocelot *ocelot, struct net_device *bond,
2883                        const unsigned char *addr, u16 vid,
2884                        const struct net_device *bridge)
2885 {
2886         struct ocelot_lag_fdb *fdb, *tmp;
2887
2888         mutex_lock(&ocelot->fwd_domain_lock);
2889
2890         if (!vid)
2891                 vid = ocelot_vlan_unaware_pvid(ocelot, bridge);
2892
2893         list_for_each_entry_safe(fdb, tmp, &ocelot->lag_fdbs, list) {
2894                 if (!ether_addr_equal(fdb->addr, addr) || fdb->vid != vid ||
2895                     fdb->bond != bond)
2896                         continue;
2897
2898                 ocelot_mact_forget(ocelot, addr, vid);
2899                 list_del(&fdb->list);
2900                 mutex_unlock(&ocelot->fwd_domain_lock);
2901                 kfree(fdb);
2902
2903                 return 0;
2904         }
2905
2906         mutex_unlock(&ocelot->fwd_domain_lock);
2907
2908         return -ENOENT;
2909 }
2910 EXPORT_SYMBOL_GPL(ocelot_lag_fdb_del);
2911
2912 /* Configure the maximum SDU (L2 payload) on RX to the value specified in @sdu.
2913  * The length of VLAN tags is accounted for automatically via DEV_MAC_TAGS_CFG.
2914  * In the special case that it's the NPI port that we're configuring, the
2915  * length of the tag and optional prefix needs to be accounted for privately,
2916  * in order to be able to sustain communication at the requested @sdu.
2917  */
2918 void ocelot_port_set_maxlen(struct ocelot *ocelot, int port, size_t sdu)
2919 {
2920         struct ocelot_port *ocelot_port = ocelot->ports[port];
2921         int maxlen = sdu + ETH_HLEN + ETH_FCS_LEN;
2922         int pause_start, pause_stop;
2923         int atop, atop_tot;
2924
2925         if (port == ocelot->npi) {
2926                 maxlen += OCELOT_TAG_LEN;
2927
2928                 if (ocelot->npi_inj_prefix == OCELOT_TAG_PREFIX_SHORT)
2929                         maxlen += OCELOT_SHORT_PREFIX_LEN;
2930                 else if (ocelot->npi_inj_prefix == OCELOT_TAG_PREFIX_LONG)
2931                         maxlen += OCELOT_LONG_PREFIX_LEN;
2932         }
2933
2934         ocelot_port_writel(ocelot_port, maxlen, DEV_MAC_MAXLEN_CFG);
2935
2936         /* Set Pause watermark hysteresis */
2937         pause_start = 6 * maxlen / OCELOT_BUFFER_CELL_SZ;
2938         pause_stop = 4 * maxlen / OCELOT_BUFFER_CELL_SZ;
2939         ocelot_fields_write(ocelot, port, SYS_PAUSE_CFG_PAUSE_START,
2940                             pause_start);
2941         ocelot_fields_write(ocelot, port, SYS_PAUSE_CFG_PAUSE_STOP,
2942                             pause_stop);
2943
2944         /* Tail dropping watermarks */
2945         atop_tot = (ocelot->packet_buffer_size - 9 * maxlen) /
2946                    OCELOT_BUFFER_CELL_SZ;
2947         atop = (9 * maxlen) / OCELOT_BUFFER_CELL_SZ;
2948         ocelot_write_rix(ocelot, ocelot->ops->wm_enc(atop), SYS_ATOP, port);
2949         ocelot_write(ocelot, ocelot->ops->wm_enc(atop_tot), SYS_ATOP_TOT_CFG);
2950 }
2951 EXPORT_SYMBOL(ocelot_port_set_maxlen);
2952
2953 int ocelot_get_max_mtu(struct ocelot *ocelot, int port)
2954 {
2955         int max_mtu = 65535 - ETH_HLEN - ETH_FCS_LEN;
2956
2957         if (port == ocelot->npi) {
2958                 max_mtu -= OCELOT_TAG_LEN;
2959
2960                 if (ocelot->npi_inj_prefix == OCELOT_TAG_PREFIX_SHORT)
2961                         max_mtu -= OCELOT_SHORT_PREFIX_LEN;
2962                 else if (ocelot->npi_inj_prefix == OCELOT_TAG_PREFIX_LONG)
2963                         max_mtu -= OCELOT_LONG_PREFIX_LEN;
2964         }
2965
2966         return max_mtu;
2967 }
2968 EXPORT_SYMBOL(ocelot_get_max_mtu);
2969
2970 static void ocelot_port_set_learning(struct ocelot *ocelot, int port,
2971                                      bool enabled)
2972 {
2973         struct ocelot_port *ocelot_port = ocelot->ports[port];
2974         u32 val = 0;
2975
2976         if (enabled)
2977                 val = ANA_PORT_PORT_CFG_LEARN_ENA;
2978
2979         ocelot_rmw_gix(ocelot, val, ANA_PORT_PORT_CFG_LEARN_ENA,
2980                        ANA_PORT_PORT_CFG, port);
2981
2982         ocelot_port->learn_ena = enabled;
2983 }
2984
2985 static void ocelot_port_set_ucast_flood(struct ocelot *ocelot, int port,
2986                                         bool enabled)
2987 {
2988         u32 val = 0;
2989
2990         if (enabled)
2991                 val = BIT(port);
2992
2993         ocelot_rmw_rix(ocelot, val, BIT(port), ANA_PGID_PGID, PGID_UC);
2994 }
2995
2996 static void ocelot_port_set_mcast_flood(struct ocelot *ocelot, int port,
2997                                         bool enabled)
2998 {
2999         u32 val = 0;
3000
3001         if (enabled)
3002                 val = BIT(port);
3003
3004         ocelot_rmw_rix(ocelot, val, BIT(port), ANA_PGID_PGID, PGID_MC);
3005         ocelot_rmw_rix(ocelot, val, BIT(port), ANA_PGID_PGID, PGID_MCIPV4);
3006         ocelot_rmw_rix(ocelot, val, BIT(port), ANA_PGID_PGID, PGID_MCIPV6);
3007 }
3008
3009 static void ocelot_port_set_bcast_flood(struct ocelot *ocelot, int port,
3010                                         bool enabled)
3011 {
3012         u32 val = 0;
3013
3014         if (enabled)
3015                 val = BIT(port);
3016
3017         ocelot_rmw_rix(ocelot, val, BIT(port), ANA_PGID_PGID, PGID_BC);
3018 }
3019
3020 int ocelot_port_pre_bridge_flags(struct ocelot *ocelot, int port,
3021                                  struct switchdev_brport_flags flags)
3022 {
3023         if (flags.mask & ~(BR_LEARNING | BR_FLOOD | BR_MCAST_FLOOD |
3024                            BR_BCAST_FLOOD))
3025                 return -EINVAL;
3026
3027         return 0;
3028 }
3029 EXPORT_SYMBOL(ocelot_port_pre_bridge_flags);
3030
3031 void ocelot_port_bridge_flags(struct ocelot *ocelot, int port,
3032                               struct switchdev_brport_flags flags)
3033 {
3034         if (flags.mask & BR_LEARNING)
3035                 ocelot_port_set_learning(ocelot, port,
3036                                          !!(flags.val & BR_LEARNING));
3037
3038         if (flags.mask & BR_FLOOD)
3039                 ocelot_port_set_ucast_flood(ocelot, port,
3040                                             !!(flags.val & BR_FLOOD));
3041
3042         if (flags.mask & BR_MCAST_FLOOD)
3043                 ocelot_port_set_mcast_flood(ocelot, port,
3044                                             !!(flags.val & BR_MCAST_FLOOD));
3045
3046         if (flags.mask & BR_BCAST_FLOOD)
3047                 ocelot_port_set_bcast_flood(ocelot, port,
3048                                             !!(flags.val & BR_BCAST_FLOOD));
3049 }
3050 EXPORT_SYMBOL(ocelot_port_bridge_flags);
3051
3052 int ocelot_port_get_default_prio(struct ocelot *ocelot, int port)
3053 {
3054         int val = ocelot_read_gix(ocelot, ANA_PORT_QOS_CFG, port);
3055
3056         return ANA_PORT_QOS_CFG_QOS_DEFAULT_VAL_X(val);
3057 }
3058 EXPORT_SYMBOL_GPL(ocelot_port_get_default_prio);
3059
3060 int ocelot_port_set_default_prio(struct ocelot *ocelot, int port, u8 prio)
3061 {
3062         if (prio >= OCELOT_NUM_TC)
3063                 return -ERANGE;
3064
3065         ocelot_rmw_gix(ocelot,
3066                        ANA_PORT_QOS_CFG_QOS_DEFAULT_VAL(prio),
3067                        ANA_PORT_QOS_CFG_QOS_DEFAULT_VAL_M,
3068                        ANA_PORT_QOS_CFG,
3069                        port);
3070
3071         return 0;
3072 }
3073 EXPORT_SYMBOL_GPL(ocelot_port_set_default_prio);
3074
3075 int ocelot_port_get_dscp_prio(struct ocelot *ocelot, int port, u8 dscp)
3076 {
3077         int qos_cfg = ocelot_read_gix(ocelot, ANA_PORT_QOS_CFG, port);
3078         int dscp_cfg = ocelot_read_rix(ocelot, ANA_DSCP_CFG, dscp);
3079
3080         /* Return error if DSCP prioritization isn't enabled */
3081         if (!(qos_cfg & ANA_PORT_QOS_CFG_QOS_DSCP_ENA))
3082                 return -EOPNOTSUPP;
3083
3084         if (qos_cfg & ANA_PORT_QOS_CFG_DSCP_TRANSLATE_ENA) {
3085                 dscp = ANA_DSCP_CFG_DSCP_TRANSLATE_VAL_X(dscp_cfg);
3086                 /* Re-read ANA_DSCP_CFG for the translated DSCP */
3087                 dscp_cfg = ocelot_read_rix(ocelot, ANA_DSCP_CFG, dscp);
3088         }
3089
3090         /* If the DSCP value is not trusted, the QoS classification falls back
3091          * to VLAN PCP or port-based default.
3092          */
3093         if (!(dscp_cfg & ANA_DSCP_CFG_DSCP_TRUST_ENA))
3094                 return -EOPNOTSUPP;
3095
3096         return ANA_DSCP_CFG_QOS_DSCP_VAL_X(dscp_cfg);
3097 }
3098 EXPORT_SYMBOL_GPL(ocelot_port_get_dscp_prio);
3099
3100 int ocelot_port_add_dscp_prio(struct ocelot *ocelot, int port, u8 dscp, u8 prio)
3101 {
3102         int mask, val;
3103
3104         if (prio >= OCELOT_NUM_TC)
3105                 return -ERANGE;
3106
3107         /* There is at least one app table priority (this one), so we need to
3108          * make sure DSCP prioritization is enabled on the port.
3109          * Also make sure DSCP translation is disabled
3110          * (dcbnl doesn't support it).
3111          */
3112         mask = ANA_PORT_QOS_CFG_QOS_DSCP_ENA |
3113                ANA_PORT_QOS_CFG_DSCP_TRANSLATE_ENA;
3114
3115         ocelot_rmw_gix(ocelot, ANA_PORT_QOS_CFG_QOS_DSCP_ENA, mask,
3116                        ANA_PORT_QOS_CFG, port);
3117
3118         /* Trust this DSCP value and map it to the given QoS class */
3119         val = ANA_DSCP_CFG_DSCP_TRUST_ENA | ANA_DSCP_CFG_QOS_DSCP_VAL(prio);
3120
3121         ocelot_write_rix(ocelot, val, ANA_DSCP_CFG, dscp);
3122
3123         return 0;
3124 }
3125 EXPORT_SYMBOL_GPL(ocelot_port_add_dscp_prio);
3126
3127 int ocelot_port_del_dscp_prio(struct ocelot *ocelot, int port, u8 dscp, u8 prio)
3128 {
3129         int dscp_cfg = ocelot_read_rix(ocelot, ANA_DSCP_CFG, dscp);
3130         int mask, i;
3131
3132         /* During a "dcb app replace" command, the new app table entry will be
3133          * added first, then the old one will be deleted. But the hardware only
3134          * supports one QoS class per DSCP value (duh), so if we blindly delete
3135          * the app table entry for this DSCP value, we end up deleting the
3136          * entry with the new priority. Avoid that by checking whether user
3137          * space wants to delete the priority which is currently configured, or
3138          * something else which is no longer current.
3139          */
3140         if (ANA_DSCP_CFG_QOS_DSCP_VAL_X(dscp_cfg) != prio)
3141                 return 0;
3142
3143         /* Untrust this DSCP value */
3144         ocelot_write_rix(ocelot, 0, ANA_DSCP_CFG, dscp);
3145
3146         for (i = 0; i < 64; i++) {
3147                 int dscp_cfg = ocelot_read_rix(ocelot, ANA_DSCP_CFG, i);
3148
3149                 /* There are still app table entries on the port, so we need to
3150                  * keep DSCP enabled, nothing to do.
3151                  */
3152                 if (dscp_cfg & ANA_DSCP_CFG_DSCP_TRUST_ENA)
3153                         return 0;
3154         }
3155
3156         /* Disable DSCP QoS classification if there isn't any trusted
3157          * DSCP value left.
3158          */
3159         mask = ANA_PORT_QOS_CFG_QOS_DSCP_ENA |
3160                ANA_PORT_QOS_CFG_DSCP_TRANSLATE_ENA;
3161
3162         ocelot_rmw_gix(ocelot, 0, mask, ANA_PORT_QOS_CFG, port);
3163
3164         return 0;
3165 }
3166 EXPORT_SYMBOL_GPL(ocelot_port_del_dscp_prio);
3167
3168 struct ocelot_mirror *ocelot_mirror_get(struct ocelot *ocelot, int to,
3169                                         struct netlink_ext_ack *extack)
3170 {
3171         struct ocelot_mirror *m = ocelot->mirror;
3172
3173         if (m) {
3174                 if (m->to != to) {
3175                         NL_SET_ERR_MSG_MOD(extack,
3176                                            "Mirroring already configured towards different egress port");
3177                         return ERR_PTR(-EBUSY);
3178                 }
3179
3180                 refcount_inc(&m->refcount);
3181                 return m;
3182         }
3183
3184         m = kzalloc(sizeof(*m), GFP_KERNEL);
3185         if (!m)
3186                 return ERR_PTR(-ENOMEM);
3187
3188         m->to = to;
3189         refcount_set(&m->refcount, 1);
3190         ocelot->mirror = m;
3191
3192         /* Program the mirror port to hardware */
3193         ocelot_write(ocelot, BIT(to), ANA_MIRRORPORTS);
3194
3195         return m;
3196 }
3197
3198 void ocelot_mirror_put(struct ocelot *ocelot)
3199 {
3200         struct ocelot_mirror *m = ocelot->mirror;
3201
3202         if (!refcount_dec_and_test(&m->refcount))
3203                 return;
3204
3205         ocelot_write(ocelot, 0, ANA_MIRRORPORTS);
3206         ocelot->mirror = NULL;
3207         kfree(m);
3208 }
3209
3210 int ocelot_port_mirror_add(struct ocelot *ocelot, int from, int to,
3211                            bool ingress, struct netlink_ext_ack *extack)
3212 {
3213         struct ocelot_mirror *m = ocelot_mirror_get(ocelot, to, extack);
3214
3215         if (IS_ERR(m))
3216                 return PTR_ERR(m);
3217
3218         if (ingress) {
3219                 ocelot_rmw_gix(ocelot, ANA_PORT_PORT_CFG_SRC_MIRROR_ENA,
3220                                ANA_PORT_PORT_CFG_SRC_MIRROR_ENA,
3221                                ANA_PORT_PORT_CFG, from);
3222         } else {
3223                 ocelot_rmw(ocelot, BIT(from), BIT(from),
3224                            ANA_EMIRRORPORTS);
3225         }
3226
3227         return 0;
3228 }
3229 EXPORT_SYMBOL_GPL(ocelot_port_mirror_add);
3230
3231 void ocelot_port_mirror_del(struct ocelot *ocelot, int from, bool ingress)
3232 {
3233         if (ingress) {
3234                 ocelot_rmw_gix(ocelot, 0, ANA_PORT_PORT_CFG_SRC_MIRROR_ENA,
3235                                ANA_PORT_PORT_CFG, from);
3236         } else {
3237                 ocelot_rmw(ocelot, 0, BIT(from), ANA_EMIRRORPORTS);
3238         }
3239
3240         ocelot_mirror_put(ocelot);
3241 }
3242 EXPORT_SYMBOL_GPL(ocelot_port_mirror_del);
3243
3244 void ocelot_init_port(struct ocelot *ocelot, int port)
3245 {
3246         struct ocelot_port *ocelot_port = ocelot->ports[port];
3247
3248         skb_queue_head_init(&ocelot_port->tx_skbs);
3249
3250         /* Basic L2 initialization */
3251
3252         /* Set MAC IFG Gaps
3253          * FDX: TX_IFG = 5, RX_IFG1 = RX_IFG2 = 0
3254          * !FDX: TX_IFG = 5, RX_IFG1 = RX_IFG2 = 5
3255          */
3256         ocelot_port_writel(ocelot_port, DEV_MAC_IFG_CFG_TX_IFG(5),
3257                            DEV_MAC_IFG_CFG);
3258
3259         /* Load seed (0) and set MAC HDX late collision  */
3260         ocelot_port_writel(ocelot_port, DEV_MAC_HDX_CFG_LATE_COL_POS(67) |
3261                            DEV_MAC_HDX_CFG_SEED_LOAD,
3262                            DEV_MAC_HDX_CFG);
3263         mdelay(1);
3264         ocelot_port_writel(ocelot_port, DEV_MAC_HDX_CFG_LATE_COL_POS(67),
3265                            DEV_MAC_HDX_CFG);
3266
3267         /* Set Max Length and maximum tags allowed */
3268         ocelot_port_set_maxlen(ocelot, port, ETH_DATA_LEN);
3269         ocelot_port_writel(ocelot_port, DEV_MAC_TAGS_CFG_TAG_ID(ETH_P_8021AD) |
3270                            DEV_MAC_TAGS_CFG_VLAN_AWR_ENA |
3271                            DEV_MAC_TAGS_CFG_VLAN_DBL_AWR_ENA |
3272                            DEV_MAC_TAGS_CFG_VLAN_LEN_AWR_ENA,
3273                            DEV_MAC_TAGS_CFG);
3274
3275         /* Set SMAC of Pause frame (00:00:00:00:00:00) */
3276         ocelot_port_writel(ocelot_port, 0, DEV_MAC_FC_MAC_HIGH_CFG);
3277         ocelot_port_writel(ocelot_port, 0, DEV_MAC_FC_MAC_LOW_CFG);
3278
3279         /* Enable transmission of pause frames */
3280         ocelot_fields_write(ocelot, port, SYS_PAUSE_CFG_PAUSE_ENA, 1);
3281
3282         /* Drop frames with multicast source address */
3283         ocelot_rmw_gix(ocelot, ANA_PORT_DROP_CFG_DROP_MC_SMAC_ENA,
3284                        ANA_PORT_DROP_CFG_DROP_MC_SMAC_ENA,
3285                        ANA_PORT_DROP_CFG, port);
3286
3287         /* Set default VLAN and tag type to 8021Q. */
3288         ocelot_rmw_gix(ocelot, REW_PORT_VLAN_CFG_PORT_TPID(ETH_P_8021Q),
3289                        REW_PORT_VLAN_CFG_PORT_TPID_M,
3290                        REW_PORT_VLAN_CFG, port);
3291
3292         /* Disable source address learning for standalone mode */
3293         ocelot_port_set_learning(ocelot, port, false);
3294
3295         /* Set the port's initial logical port ID value, enable receiving
3296          * frames on it, and configure the MAC address learning type to
3297          * automatic.
3298          */
3299         ocelot_write_gix(ocelot, ANA_PORT_PORT_CFG_LEARNAUTO |
3300                          ANA_PORT_PORT_CFG_RECV_ENA |
3301                          ANA_PORT_PORT_CFG_PORTID_VAL(port),
3302                          ANA_PORT_PORT_CFG, port);
3303
3304         /* Enable vcap lookups */
3305         ocelot_vcap_enable(ocelot, port);
3306 }
3307 EXPORT_SYMBOL(ocelot_init_port);
3308
3309 /* Configure and enable the CPU port module, which is a set of queues
3310  * accessible through register MMIO, frame DMA or Ethernet (in case
3311  * NPI mode is used).
3312  */
3313 static void ocelot_cpu_port_init(struct ocelot *ocelot)
3314 {
3315         int cpu = ocelot->num_phys_ports;
3316
3317         /* The unicast destination PGID for the CPU port module is unused */
3318         ocelot_write_rix(ocelot, 0, ANA_PGID_PGID, cpu);
3319         /* Instead set up a multicast destination PGID for traffic copied to
3320          * the CPU. Whitelisted MAC addresses like the port netdevice MAC
3321          * addresses will be copied to the CPU via this PGID.
3322          */
3323         ocelot_write_rix(ocelot, BIT(cpu), ANA_PGID_PGID, PGID_CPU);
3324         ocelot_write_gix(ocelot, ANA_PORT_PORT_CFG_RECV_ENA |
3325                          ANA_PORT_PORT_CFG_PORTID_VAL(cpu),
3326                          ANA_PORT_PORT_CFG, cpu);
3327
3328         /* Enable CPU port module */
3329         ocelot_fields_write(ocelot, cpu, QSYS_SWITCH_PORT_MODE_PORT_ENA, 1);
3330         /* CPU port Injection/Extraction configuration */
3331         ocelot_fields_write(ocelot, cpu, SYS_PORT_MODE_INCL_XTR_HDR,
3332                             OCELOT_TAG_PREFIX_NONE);
3333         ocelot_fields_write(ocelot, cpu, SYS_PORT_MODE_INCL_INJ_HDR,
3334                             OCELOT_TAG_PREFIX_NONE);
3335
3336         /* Configure the CPU port to be VLAN aware */
3337         ocelot_write_gix(ocelot,
3338                          ANA_PORT_VLAN_CFG_VLAN_VID(OCELOT_STANDALONE_PVID) |
3339                          ANA_PORT_VLAN_CFG_VLAN_AWARE_ENA |
3340                          ANA_PORT_VLAN_CFG_VLAN_POP_CNT(1),
3341                          ANA_PORT_VLAN_CFG, cpu);
3342 }
3343
3344 static void ocelot_detect_features(struct ocelot *ocelot)
3345 {
3346         int mmgt, eq_ctrl;
3347
3348         /* For Ocelot, Felix, Seville, Serval etc, SYS:MMGT:MMGT:FREECNT holds
3349          * the number of 240-byte free memory words (aka 4-cell chunks) and not
3350          * 192 bytes as the documentation incorrectly says.
3351          */
3352         mmgt = ocelot_read(ocelot, SYS_MMGT);
3353         ocelot->packet_buffer_size = 240 * SYS_MMGT_FREECNT(mmgt);
3354
3355         eq_ctrl = ocelot_read(ocelot, QSYS_EQ_CTRL);
3356         ocelot->num_frame_refs = QSYS_MMGT_EQ_CTRL_FP_FREE_CNT(eq_ctrl);
3357 }
3358
3359 int ocelot_init(struct ocelot *ocelot)
3360 {
3361         char queue_name[32];
3362         int i, ret;
3363         u32 port;
3364
3365         if (ocelot->ops->reset) {
3366                 ret = ocelot->ops->reset(ocelot);
3367                 if (ret) {
3368                         dev_err(ocelot->dev, "Switch reset failed\n");
3369                         return ret;
3370                 }
3371         }
3372
3373         ocelot->stats = devm_kcalloc(ocelot->dev,
3374                                      ocelot->num_phys_ports * OCELOT_NUM_STATS,
3375                                      sizeof(u64), GFP_KERNEL);
3376         if (!ocelot->stats)
3377                 return -ENOMEM;
3378
3379         spin_lock_init(&ocelot->stats_lock);
3380         mutex_init(&ocelot->ptp_lock);
3381         mutex_init(&ocelot->mact_lock);
3382         mutex_init(&ocelot->fwd_domain_lock);
3383         mutex_init(&ocelot->tas_lock);
3384         spin_lock_init(&ocelot->ptp_clock_lock);
3385         spin_lock_init(&ocelot->ts_id_lock);
3386         snprintf(queue_name, sizeof(queue_name), "%s-stats",
3387                  dev_name(ocelot->dev));
3388         ocelot->stats_queue = create_singlethread_workqueue(queue_name);
3389         if (!ocelot->stats_queue)
3390                 return -ENOMEM;
3391
3392         ocelot->owq = alloc_ordered_workqueue("ocelot-owq", 0);
3393         if (!ocelot->owq) {
3394                 destroy_workqueue(ocelot->stats_queue);
3395                 return -ENOMEM;
3396         }
3397
3398         INIT_LIST_HEAD(&ocelot->multicast);
3399         INIT_LIST_HEAD(&ocelot->pgids);
3400         INIT_LIST_HEAD(&ocelot->vlans);
3401         INIT_LIST_HEAD(&ocelot->lag_fdbs);
3402         ocelot_detect_features(ocelot);
3403         ocelot_mact_init(ocelot);
3404         ocelot_vlan_init(ocelot);
3405         ocelot_vcap_init(ocelot);
3406         ocelot_cpu_port_init(ocelot);
3407
3408         if (ocelot->ops->psfp_init)
3409                 ocelot->ops->psfp_init(ocelot);
3410
3411         for (port = 0; port < ocelot->num_phys_ports; port++) {
3412                 /* Clear all counters (5 groups) */
3413                 ocelot_write(ocelot, SYS_STAT_CFG_STAT_VIEW(port) |
3414                                      SYS_STAT_CFG_STAT_CLEAR_SHOT(0x7f),
3415                              SYS_STAT_CFG);
3416         }
3417
3418         /* Only use S-Tag */
3419         ocelot_write(ocelot, ETH_P_8021AD, SYS_VLAN_ETYPE_CFG);
3420
3421         /* Aggregation mode */
3422         ocelot_write(ocelot, ANA_AGGR_CFG_AC_SMAC_ENA |
3423                              ANA_AGGR_CFG_AC_DMAC_ENA |
3424                              ANA_AGGR_CFG_AC_IP4_SIPDIP_ENA |
3425                              ANA_AGGR_CFG_AC_IP4_TCPUDP_ENA |
3426                              ANA_AGGR_CFG_AC_IP6_FLOW_LBL_ENA |
3427                              ANA_AGGR_CFG_AC_IP6_TCPUDP_ENA,
3428                              ANA_AGGR_CFG);
3429
3430         /* Set MAC age time to default value. The entry is aged after
3431          * 2*AGE_PERIOD
3432          */
3433         ocelot_write(ocelot,
3434                      ANA_AUTOAGE_AGE_PERIOD(BR_DEFAULT_AGEING_TIME / 2 / HZ),
3435                      ANA_AUTOAGE);
3436
3437         /* Disable learning for frames discarded by VLAN ingress filtering */
3438         regmap_field_write(ocelot->regfields[ANA_ADVLEARN_VLAN_CHK], 1);
3439
3440         /* Setup frame ageing - fixed value "2 sec" - in 6.5 us units */
3441         ocelot_write(ocelot, SYS_FRM_AGING_AGE_TX_ENA |
3442                      SYS_FRM_AGING_MAX_AGE(307692), SYS_FRM_AGING);
3443
3444         /* Setup flooding PGIDs */
3445         for (i = 0; i < ocelot->num_flooding_pgids; i++)
3446                 ocelot_write_rix(ocelot, ANA_FLOODING_FLD_MULTICAST(PGID_MC) |
3447                                  ANA_FLOODING_FLD_BROADCAST(PGID_BC) |
3448                                  ANA_FLOODING_FLD_UNICAST(PGID_UC),
3449                                  ANA_FLOODING, i);
3450         ocelot_write(ocelot, ANA_FLOODING_IPMC_FLD_MC6_DATA(PGID_MCIPV6) |
3451                      ANA_FLOODING_IPMC_FLD_MC6_CTRL(PGID_MC) |
3452                      ANA_FLOODING_IPMC_FLD_MC4_DATA(PGID_MCIPV4) |
3453                      ANA_FLOODING_IPMC_FLD_MC4_CTRL(PGID_MC),
3454                      ANA_FLOODING_IPMC);
3455
3456         for (port = 0; port < ocelot->num_phys_ports; port++) {
3457                 /* Transmit the frame to the local port. */
3458                 ocelot_write_rix(ocelot, BIT(port), ANA_PGID_PGID, port);
3459                 /* Do not forward BPDU frames to the front ports. */
3460                 ocelot_write_gix(ocelot,
3461                                  ANA_PORT_CPU_FWD_BPDU_CFG_BPDU_REDIR_ENA(0xffff),
3462                                  ANA_PORT_CPU_FWD_BPDU_CFG,
3463                                  port);
3464                 /* Ensure bridging is disabled */
3465                 ocelot_write_rix(ocelot, 0, ANA_PGID_PGID, PGID_SRC + port);
3466         }
3467
3468         for_each_nonreserved_multicast_dest_pgid(ocelot, i) {
3469                 u32 val = ANA_PGID_PGID_PGID(GENMASK(ocelot->num_phys_ports - 1, 0));
3470
3471                 ocelot_write_rix(ocelot, val, ANA_PGID_PGID, i);
3472         }
3473
3474         ocelot_write_rix(ocelot, 0, ANA_PGID_PGID, PGID_BLACKHOLE);
3475
3476         /* Allow broadcast and unknown L2 multicast to the CPU. */
3477         ocelot_rmw_rix(ocelot, ANA_PGID_PGID_PGID(BIT(ocelot->num_phys_ports)),
3478                        ANA_PGID_PGID_PGID(BIT(ocelot->num_phys_ports)),
3479                        ANA_PGID_PGID, PGID_MC);
3480         ocelot_rmw_rix(ocelot, ANA_PGID_PGID_PGID(BIT(ocelot->num_phys_ports)),
3481                        ANA_PGID_PGID_PGID(BIT(ocelot->num_phys_ports)),
3482                        ANA_PGID_PGID, PGID_BC);
3483         ocelot_write_rix(ocelot, 0, ANA_PGID_PGID, PGID_MCIPV4);
3484         ocelot_write_rix(ocelot, 0, ANA_PGID_PGID, PGID_MCIPV6);
3485
3486         /* Allow manual injection via DEVCPU_QS registers, and byte swap these
3487          * registers endianness.
3488          */
3489         ocelot_write_rix(ocelot, QS_INJ_GRP_CFG_BYTE_SWAP |
3490                          QS_INJ_GRP_CFG_MODE(1), QS_INJ_GRP_CFG, 0);
3491         ocelot_write_rix(ocelot, QS_XTR_GRP_CFG_BYTE_SWAP |
3492                          QS_XTR_GRP_CFG_MODE(1), QS_XTR_GRP_CFG, 0);
3493         ocelot_write(ocelot, ANA_CPUQ_CFG_CPUQ_MIRROR(2) |
3494                      ANA_CPUQ_CFG_CPUQ_LRN(2) |
3495                      ANA_CPUQ_CFG_CPUQ_MAC_COPY(2) |
3496                      ANA_CPUQ_CFG_CPUQ_SRC_COPY(2) |
3497                      ANA_CPUQ_CFG_CPUQ_LOCKED_PORTMOVE(2) |
3498                      ANA_CPUQ_CFG_CPUQ_ALLBRIDGE(6) |
3499                      ANA_CPUQ_CFG_CPUQ_IPMC_CTRL(6) |
3500                      ANA_CPUQ_CFG_CPUQ_IGMP(6) |
3501                      ANA_CPUQ_CFG_CPUQ_MLD(6), ANA_CPUQ_CFG);
3502         for (i = 0; i < 16; i++)
3503                 ocelot_write_rix(ocelot, ANA_CPUQ_8021_CFG_CPUQ_GARP_VAL(6) |
3504                                  ANA_CPUQ_8021_CFG_CPUQ_BPDU_VAL(6),
3505                                  ANA_CPUQ_8021_CFG, i);
3506
3507         ret = ocelot_prepare_stats_regions(ocelot);
3508         if (ret) {
3509                 destroy_workqueue(ocelot->stats_queue);
3510                 destroy_workqueue(ocelot->owq);
3511                 return ret;
3512         }
3513
3514         INIT_DELAYED_WORK(&ocelot->stats_work, ocelot_check_stats_work);
3515         queue_delayed_work(ocelot->stats_queue, &ocelot->stats_work,
3516                            OCELOT_STATS_CHECK_DELAY);
3517
3518         return 0;
3519 }
3520 EXPORT_SYMBOL(ocelot_init);
3521
3522 void ocelot_deinit(struct ocelot *ocelot)
3523 {
3524         cancel_delayed_work(&ocelot->stats_work);
3525         destroy_workqueue(ocelot->stats_queue);
3526         destroy_workqueue(ocelot->owq);
3527 }
3528 EXPORT_SYMBOL(ocelot_deinit);
3529
3530 void ocelot_deinit_port(struct ocelot *ocelot, int port)
3531 {
3532         struct ocelot_port *ocelot_port = ocelot->ports[port];
3533
3534         skb_queue_purge(&ocelot_port->tx_skbs);
3535 }
3536 EXPORT_SYMBOL(ocelot_deinit_port);
3537
3538 MODULE_LICENSE("Dual MIT/GPL");