mlxsw: Configure descriptor buffers
authorPetr Machata <petrm@nvidia.com>
Mon, 2 May 2022 08:49:24 +0000 (11:49 +0300)
committerPaolo Abeni <pabeni@redhat.com>
Tue, 3 May 2022 10:10:50 +0000 (12:10 +0200)
Spectrum machines have two resources related to keeping packets in an
internal buffer: bytes (allocated in cell-sized units) for packet payload,
and descriptors, for keeping metadata. Currently, mlxsw only configures the
bytes part of the resource management.

Spectrum switches permit a full parallel configuration for the descriptor
resources, including port-pool and port-TC-pool quotas. By default, these
are all configured to use pool 14, with an infinite quota. The ingress pool
14 is then infinite in size.

However, egress pool 14 has finite size by default. The size is chip
dependent, but always much lower than what the chip actually permits. As a
result, we can easily construct workloads that exhaust the configured
descriptor limit.

Fix the issue by configuring the egress descriptor pool to be infinite in
size as well. This will maintain the configuration philosophy of the
default configuration, but will unlock all chip resources to be usable.

In the code, include both the configuration of ingress and ingress, mostly
for clarity.

Signed-off-by: Petr Machata <petrm@nvidia.com>
Signed-off-by: Ido Schimmel <idosch@nvidia.com>
Signed-off-by: Paolo Abeni <pabeni@redhat.com>
drivers/net/ethernet/mellanox/mlxsw/spectrum_buffers.c

index 98f26f5..c68fc8f 100644 (file)
@@ -202,6 +202,21 @@ static int mlxsw_sp_sb_pr_write(struct mlxsw_sp *mlxsw_sp, u16 pool_index,
        return 0;
 }
 
+static int mlxsw_sp_sb_pr_desc_write(struct mlxsw_sp *mlxsw_sp,
+                                    enum mlxsw_reg_sbxx_dir dir,
+                                    enum mlxsw_reg_sbpr_mode mode,
+                                    u32 size, bool infi_size)
+{
+       char sbpr_pl[MLXSW_REG_SBPR_LEN];
+
+       /* The FW default descriptor buffer configuration uses only pool 14 for
+        * descriptors.
+        */
+       mlxsw_reg_sbpr_pack(sbpr_pl, 14, dir, mode, size, infi_size);
+       mlxsw_reg_sbpr_desc_set(sbpr_pl, true);
+       return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(sbpr), sbpr_pl);
+}
+
 static int mlxsw_sp_sb_cm_write(struct mlxsw_sp *mlxsw_sp, u16 local_port,
                                u8 pg_buff, u32 min_buff, u32 max_buff,
                                bool infi_max, u16 pool_index)
@@ -775,6 +790,17 @@ static int mlxsw_sp_sb_prs_init(struct mlxsw_sp *mlxsw_sp,
                if (err)
                        return err;
        }
+
+       err = mlxsw_sp_sb_pr_desc_write(mlxsw_sp, MLXSW_REG_SBXX_DIR_INGRESS,
+                                       MLXSW_REG_SBPR_MODE_DYNAMIC, 0, true);
+       if (err)
+               return err;
+
+       err = mlxsw_sp_sb_pr_desc_write(mlxsw_sp, MLXSW_REG_SBXX_DIR_EGRESS,
+                                       MLXSW_REG_SBPR_MODE_DYNAMIC, 0, true);
+       if (err)
+               return err;
+
        return 0;
 }