RDMA/hns: Support MR's restrack raw ops for hns driver
authorWenpeng Liang <liangwenpeng@huawei.com>
Mon, 22 Aug 2022 10:44:55 +0000 (18:44 +0800)
committerLeon Romanovsky <leonro@nvidia.com>
Wed, 24 Aug 2022 05:47:18 +0000 (08:47 +0300)
The MR raw restrack attributes come from the queue context maintained by
the ROCEE.

For example:

$ rdma res show mr dev hns_0 mrn 6 -dd -jp -r
[ {
        "ifindex": 4,
        "ifname": "hns_0",
        "data": [ 1,0,0,0,2,0,0,0,0,3,0,0,0,0,2,0,0,0,0,0,32,0,0,0,2,0,0,0,
  2,0,0,0,0,0,0,0 ]
    } ]

Link: https://lore.kernel.org/r/20220822104455.2311053-8-liangwenpeng@huawei.com
Signed-off-by: Wenpeng Liang <liangwenpeng@huawei.com>
Signed-off-by: Leon Romanovsky <leon@kernel.org>
drivers/infiniband/hw/hns/hns_roce_device.h
drivers/infiniband/hw/hns/hns_roce_hw_v2.c
drivers/infiniband/hw/hns/hns_roce_hw_v2.h
drivers/infiniband/hw/hns/hns_roce_main.c
drivers/infiniband/hw/hns/hns_roce_restrack.c

index 30a67bc..1bcecc5 100644 (file)
@@ -896,6 +896,7 @@ struct hns_roce_hw {
        int (*write_srqc)(struct hns_roce_srq *srq, void *mb_buf);
        int (*query_cqc)(struct hns_roce_dev *hr_dev, u32 cqn, void *buffer);
        int (*query_qpc)(struct hns_roce_dev *hr_dev, u32 qpn, void *buffer);
+       int (*query_mpt)(struct hns_roce_dev *hr_dev, u32 key, void *buffer);
        const struct ib_device_ops *hns_roce_dev_ops;
        const struct ib_device_ops *hns_roce_dev_srq_ops;
 };
@@ -1229,6 +1230,7 @@ int hns_roce_fill_res_cq_entry_raw(struct sk_buff *msg, struct ib_cq *ib_cq);
 int hns_roce_fill_res_qp_entry(struct sk_buff *msg, struct ib_qp *ib_qp);
 int hns_roce_fill_res_qp_entry_raw(struct sk_buff *msg, struct ib_qp *ib_qp);
 int hns_roce_fill_res_mr_entry(struct sk_buff *msg, struct ib_mr *ib_mr);
+int hns_roce_fill_res_mr_entry_raw(struct sk_buff *msg, struct ib_mr *ib_mr);
 struct hns_user_mmap_entry *
 hns_roce_user_mmap_entry_insert(struct ib_ucontext *ucontext, u64 address,
                                size_t length,
index 319de9a..fa78b14 100644 (file)
@@ -5802,6 +5802,35 @@ err_mailbox:
        return ret;
 }
 
+static int hns_roce_v2_query_mpt(struct hns_roce_dev *hr_dev, u32 key,
+                                void *buffer)
+{
+       struct hns_roce_v2_mpt_entry *context;
+       struct hns_roce_cmd_mailbox *mailbox;
+       int ret;
+
+       mailbox = hns_roce_alloc_cmd_mailbox(hr_dev);
+       if (IS_ERR(mailbox))
+               return PTR_ERR(mailbox);
+
+       context = mailbox->buf;
+       ret = hns_roce_cmd_mbox(hr_dev, 0, mailbox->dma, HNS_ROCE_CMD_QUERY_MPT,
+                               key_to_hw_index(key));
+       if (ret) {
+               ibdev_err(&hr_dev->ib_dev,
+                         "failed to process cmd when querying MPT, ret = %d.\n",
+                         ret);
+               goto err_mailbox;
+       }
+
+       memcpy(buffer, context, sizeof(*context));
+
+err_mailbox:
+       hns_roce_free_cmd_mailbox(hr_dev, mailbox);
+
+       return ret;
+}
+
 static void hns_roce_irq_work_handle(struct work_struct *work)
 {
        struct hns_roce_work *irq_work =
@@ -6645,6 +6674,7 @@ static const struct hns_roce_hw hns_roce_hw_v2 = {
        .write_srqc = hns_roce_v2_write_srqc,
        .query_cqc = hns_roce_v2_query_cqc,
        .query_qpc = hns_roce_v2_query_qpc,
+       .query_mpt = hns_roce_v2_query_mpt,
        .hns_roce_dev_ops = &hns_roce_v2_dev_ops,
        .hns_roce_dev_srq_ops = &hns_roce_v2_dev_srq_ops,
 };
index 49ec299..ae29780 100644 (file)
@@ -758,7 +758,8 @@ struct hns_roce_v2_mpt_entry {
 #define MPT_INNER_PA_VLD MPT_FIELD_LOC(71, 71)
 #define MPT_MW_BIND_QPN MPT_FIELD_LOC(95, 72)
 #define MPT_BOUND_LKEY MPT_FIELD_LOC(127, 96)
-#define MPT_LEN MPT_FIELD_LOC(191, 128)
+#define MPT_LEN_L MPT_FIELD_LOC(159, 128)
+#define MPT_LEN_H MPT_FIELD_LOC(191, 160)
 #define MPT_LKEY MPT_FIELD_LOC(223, 192)
 #define MPT_VA MPT_FIELD_LOC(287, 224)
 #define MPT_PBL_SIZE MPT_FIELD_LOC(319, 288)
index ff4386b..9de3a52 100644 (file)
@@ -571,6 +571,7 @@ static const struct ib_device_ops hns_roce_dev_restrack_ops = {
        .fill_res_qp_entry = hns_roce_fill_res_qp_entry,
        .fill_res_qp_entry_raw = hns_roce_fill_res_qp_entry_raw,
        .fill_res_mr_entry = hns_roce_fill_res_mr_entry,
+       .fill_res_mr_entry_raw = hns_roce_fill_res_mr_entry_raw,
 };
 
 static int hns_roce_register_device(struct hns_roce_dev *hr_dev)
index 84f942e..989a2af 100644 (file)
@@ -198,3 +198,34 @@ err:
 
        return -EMSGSIZE;
 }
+
+int hns_roce_fill_res_mr_entry_raw(struct sk_buff *msg, struct ib_mr *ib_mr)
+{
+       struct hns_roce_dev *hr_dev = to_hr_dev(ib_mr->device);
+       struct hns_roce_mr *hr_mr = to_hr_mr(ib_mr);
+       struct hns_roce_v2_mpt_entry context;
+       u32 data[MAX_ENTRY_NUM] = {};
+       int offset = 0;
+       int ret;
+
+       if (!hr_dev->hw->query_mpt)
+               return -EINVAL;
+
+       ret = hr_dev->hw->query_mpt(hr_dev, hr_mr->key, &context);
+       if (ret)
+               return -EINVAL;
+
+       data[offset++] = hr_reg_read(&context, MPT_ST);
+       data[offset++] = hr_reg_read(&context, MPT_PD);
+       data[offset++] = hr_reg_read(&context, MPT_LKEY);
+       data[offset++] = hr_reg_read(&context, MPT_LEN_L);
+       data[offset++] = hr_reg_read(&context, MPT_LEN_H);
+       data[offset++] = hr_reg_read(&context, MPT_PBL_SIZE);
+       data[offset++] = hr_reg_read(&context, MPT_PBL_HOP_NUM);
+       data[offset++] = hr_reg_read(&context, MPT_PBL_BA_PG_SZ);
+       data[offset++] = hr_reg_read(&context, MPT_PBL_BUF_PG_SZ);
+
+       ret = nla_put(msg, RDMA_NLDEV_ATTR_RES_RAW, offset * sizeof(u32), data);
+
+       return ret;
+}