net/mlx5: E-switch, Prepare eswitch to handle SF vport
authorVu Pham <vuhuong@nvidia.com>
Sat, 12 Dec 2020 06:12:19 +0000 (22:12 -0800)
committerSaeed Mahameed <saeedm@nvidia.com>
Fri, 22 Jan 2021 19:32:09 +0000 (11:32 -0800)
Prepare eswitch to handle SF vport during
(a) querying eswitch functions
(b) egress ACL creation
(c) account for SF vports in total vports calculation

Assign a dedicated placeholder for SFs vports and their representors.
They are placed after VFs vports and before ECPF vports as below:
[PF,VF0,...,VFn,SF0,...SFm,ECPF,UPLINK].

Change functions to map SF's vport numbers to indices when
accessing the vports or representors arrays, and vice versa.

Signed-off-by: Vu Pham <vuhuong@nvidia.com>
Signed-off-by: Parav Pandit <parav@nvidia.com>
Reviewed-by: Roi Dayan <roid@nvidia.com>
Signed-off-by: Saeed Mahameed <saeedm@nvidia.com>
drivers/net/ethernet/mellanox/mlx5/core/esw/acl/egress_ofld.c
drivers/net/ethernet/mellanox/mlx5/core/eswitch.c
drivers/net/ethernet/mellanox/mlx5/core/eswitch.h
drivers/net/ethernet/mellanox/mlx5/core/eswitch_offloads.c
drivers/net/ethernet/mellanox/mlx5/core/vport.c

index 4c74e26..26b37a0 100644 (file)
@@ -150,7 +150,7 @@ static void esw_acl_egress_ofld_groups_destroy(struct mlx5_vport *vport)
 
 static bool esw_acl_egress_needed(const struct mlx5_eswitch *esw, u16 vport_num)
 {
-       return mlx5_eswitch_is_vf_vport(esw, vport_num);
+       return mlx5_eswitch_is_vf_vport(esw, vport_num) || mlx5_esw_is_sf_vport(esw, vport_num);
 }
 
 int esw_acl_egress_ofld_setup(struct mlx5_eswitch *esw, struct mlx5_vport *vport)
index 876e644..55ebd94 100644 (file)
@@ -1365,9 +1365,15 @@ const u32 *mlx5_esw_query_functions(struct mlx5_core_dev *dev)
 {
        int outlen = MLX5_ST_SZ_BYTES(query_esw_functions_out);
        u32 in[MLX5_ST_SZ_DW(query_esw_functions_in)] = {};
+       u16 max_sf_vports;
        u32 *out;
        int err;
 
+       max_sf_vports = mlx5_sf_max_functions(dev);
+       /* Device interface is array of 64-bits */
+       if (max_sf_vports)
+               outlen += DIV_ROUND_UP(max_sf_vports, BITS_PER_TYPE(__be64)) * sizeof(__be64);
+
        out = kvzalloc(outlen, GFP_KERNEL);
        if (!out)
                return ERR_PTR(-ENOMEM);
@@ -1375,7 +1381,7 @@ const u32 *mlx5_esw_query_functions(struct mlx5_core_dev *dev)
        MLX5_SET(query_esw_functions_in, in, opcode,
                 MLX5_CMD_OP_QUERY_ESW_FUNCTIONS);
 
-       err = mlx5_cmd_exec_inout(dev, query_esw_functions, in, out);
+       err = mlx5_cmd_exec(dev, in, sizeof(in), out, outlen);
        if (!err)
                return out;
 
@@ -1898,7 +1904,8 @@ static bool
 is_port_function_supported(const struct mlx5_eswitch *esw, u16 vport_num)
 {
        return vport_num == MLX5_VPORT_PF ||
-              mlx5_eswitch_is_vf_vport(esw, vport_num);
+              mlx5_eswitch_is_vf_vport(esw, vport_num) ||
+              mlx5_esw_is_sf_vport(esw, vport_num);
 }
 
 int mlx5_devlink_port_function_hw_addr_get(struct devlink *devlink,
index cf87de9..4e3ed87 100644 (file)
@@ -43,6 +43,7 @@
 #include <linux/mlx5/fs.h>
 #include "lib/mpfs.h"
 #include "lib/fs_chains.h"
+#include "sf/sf.h"
 #include "en/tc_ct.h"
 
 #ifdef CONFIG_MLX5_ESWITCH
@@ -499,6 +500,40 @@ static inline u16 mlx5_eswitch_first_host_vport_num(struct mlx5_core_dev *dev)
                MLX5_VPORT_PF : MLX5_VPORT_FIRST_VF;
 }
 
+static inline int mlx5_esw_sf_start_idx(const struct mlx5_eswitch *esw)
+{
+       /* PF and VF vports indices start from 0 to max_vfs */
+       return MLX5_VPORT_PF_PLACEHOLDER + mlx5_core_max_vfs(esw->dev);
+}
+
+static inline int mlx5_esw_sf_end_idx(const struct mlx5_eswitch *esw)
+{
+       return mlx5_esw_sf_start_idx(esw) + mlx5_sf_max_functions(esw->dev);
+}
+
+static inline int
+mlx5_esw_sf_vport_num_to_index(const struct mlx5_eswitch *esw, u16 vport_num)
+{
+       return vport_num - mlx5_sf_start_function_id(esw->dev) +
+              MLX5_VPORT_PF_PLACEHOLDER + mlx5_core_max_vfs(esw->dev);
+}
+
+static inline u16
+mlx5_esw_sf_vport_index_to_num(const struct mlx5_eswitch *esw, int idx)
+{
+       return mlx5_sf_start_function_id(esw->dev) + idx -
+              (MLX5_VPORT_PF_PLACEHOLDER + mlx5_core_max_vfs(esw->dev));
+}
+
+static inline bool
+mlx5_esw_is_sf_vport(const struct mlx5_eswitch *esw, u16 vport_num)
+{
+       return mlx5_sf_supported(esw->dev) &&
+              vport_num >= mlx5_sf_start_function_id(esw->dev) &&
+              (vport_num < (mlx5_sf_start_function_id(esw->dev) +
+                            mlx5_sf_max_functions(esw->dev)));
+}
+
 static inline bool mlx5_eswitch_is_funcs_handler(const struct mlx5_core_dev *dev)
 {
        return mlx5_core_is_ecpf_esw_manager(dev);
@@ -527,6 +562,10 @@ static inline int mlx5_eswitch_vport_num_to_index(struct mlx5_eswitch *esw,
        if (vport_num == MLX5_VPORT_UPLINK)
                return mlx5_eswitch_uplink_idx(esw);
 
+       if (mlx5_esw_is_sf_vport(esw, vport_num))
+               return mlx5_esw_sf_vport_num_to_index(esw, vport_num);
+
+       /* PF and VF vports start from 0 to max_vfs */
        return vport_num;
 }
 
@@ -540,6 +579,12 @@ static inline u16 mlx5_eswitch_index_to_vport_num(struct mlx5_eswitch *esw,
        if (index == mlx5_eswitch_uplink_idx(esw))
                return MLX5_VPORT_UPLINK;
 
+       /* SF vports indices are after VFs and before ECPF */
+       if (mlx5_sf_supported(esw->dev) &&
+           index > mlx5_core_max_vfs(esw->dev))
+               return mlx5_esw_sf_vport_index_to_num(esw, index);
+
+       /* PF and VF vports start from 0 to max_vfs */
        return index;
 }
 
@@ -625,6 +670,11 @@ void mlx5e_tc_clean_fdb_peer_flows(struct mlx5_eswitch *esw);
        for ((vport) = (nvfs);                                          \
             (vport) >= (esw)->first_host_vport; (vport)--)
 
+#define mlx5_esw_for_each_sf_rep(esw, i, rep)          \
+       for ((i) = mlx5_esw_sf_start_idx(esw);          \
+            (rep) = &(esw)->offloads.vport_reps[(i)],  \
+            (i) < mlx5_esw_sf_end_idx(esw); (i++))
+
 struct mlx5_eswitch *mlx5_devlink_eswitch_get(struct devlink *devlink);
 struct mlx5_vport *__must_check
 mlx5_eswitch_get_vport(struct mlx5_eswitch *esw, u16 vport_num);
index 2f6a0ae..2d241f7 100644 (file)
@@ -1800,11 +1800,22 @@ static void __esw_offloads_unload_rep(struct mlx5_eswitch *esw,
                esw->offloads.rep_ops[rep_type]->unload(rep);
 }
 
+static void __unload_reps_sf_vport(struct mlx5_eswitch *esw, u8 rep_type)
+{
+       struct mlx5_eswitch_rep *rep;
+       int i;
+
+       mlx5_esw_for_each_sf_rep(esw, i, rep)
+               __esw_offloads_unload_rep(esw, rep, rep_type);
+}
+
 static void __unload_reps_all_vport(struct mlx5_eswitch *esw, u8 rep_type)
 {
        struct mlx5_eswitch_rep *rep;
        int i;
 
+       __unload_reps_sf_vport(esw, rep_type);
+
        mlx5_esw_for_each_vf_rep_reverse(esw, i, rep, esw->esw_funcs.num_vfs)
                __esw_offloads_unload_rep(esw, rep, rep_type);
 
index bdafc85..ba78e06 100644 (file)
@@ -36,6 +36,7 @@
 #include <linux/mlx5/vport.h>
 #include <linux/mlx5/eswitch.h>
 #include "mlx5_core.h"
+#include "sf/sf.h"
 
 /* Mutex to hold while enabling or disabling RoCE */
 static DEFINE_MUTEX(mlx5_roce_en_lock);
@@ -1160,6 +1161,6 @@ EXPORT_SYMBOL_GPL(mlx5_query_nic_system_image_guid);
  */
 u16 mlx5_eswitch_get_total_vports(const struct mlx5_core_dev *dev)
 {
-       return MLX5_SPECIAL_VPORTS(dev) + mlx5_core_max_vfs(dev);
+       return MLX5_SPECIAL_VPORTS(dev) + mlx5_core_max_vfs(dev) + mlx5_sf_max_functions(dev);
 }
 EXPORT_SYMBOL_GPL(mlx5_eswitch_get_total_vports);