riscv: Fix set_huge_pte_at() for NAPOT mapping
[platform/kernel/linux-starfive.git] / arch / riscv / mm / init.c
index 943c18d..b50faa2 100644 (file)
@@ -172,6 +172,9 @@ void __init mem_init(void)
 
 /* Limit the memory size via mem. */
 static phys_addr_t memory_limit;
+#ifdef CONFIG_XIP_KERNEL
+#define memory_limit   (*(phys_addr_t *)XIP_FIXUP(&memory_limit))
+#endif /* CONFIG_XIP_KERNEL */
 
 static int __init early_mem(char *p)
 {
@@ -950,7 +953,7 @@ static void __init create_fdt_early_page_table(uintptr_t fix_fdt_va,
         * setup_vm_final installs the linear mapping. For 32-bit kernel, as the
         * kernel is mapped in the linear mapping, that makes no difference.
         */
-       dtb_early_va = kernel_mapping_pa_to_va(XIP_FIXUP(dtb_pa));
+       dtb_early_va = kernel_mapping_pa_to_va(dtb_pa);
 #endif
 
        dtb_early_pa = dtb_pa;
@@ -1014,14 +1017,52 @@ static void __init pt_ops_set_late(void)
 #endif
 }
 
+#ifdef CONFIG_RANDOMIZE_BASE
+extern bool __init __pi_set_nokaslr_from_cmdline(uintptr_t dtb_pa);
+extern u64 __init __pi_get_kaslr_seed(uintptr_t dtb_pa);
+
+static int __init print_nokaslr(char *p)
+{
+       pr_info("Disabled KASLR");
+       return 0;
+}
+early_param("nokaslr", print_nokaslr);
+
+unsigned long kaslr_offset(void)
+{
+       return kernel_map.virt_offset;
+}
+#endif
+
 asmlinkage void __init setup_vm(uintptr_t dtb_pa)
 {
        pmd_t __maybe_unused fix_bmap_spmd, fix_bmap_epmd;
 
-       kernel_map.virt_addr = KERNEL_LINK_ADDR;
-       kernel_map.page_offset = _AC(CONFIG_PAGE_OFFSET, UL);
+#ifdef CONFIG_RANDOMIZE_BASE
+       if (!__pi_set_nokaslr_from_cmdline(dtb_pa)) {
+               u64 kaslr_seed = __pi_get_kaslr_seed(dtb_pa);
+               u32 kernel_size = (uintptr_t)(&_end) - (uintptr_t)(&_start);
+               u32 nr_pos;
+
+               /*
+                * Compute the number of positions available: we are limited
+                * by the early page table that only has one PUD and we must
+                * be aligned on PMD_SIZE.
+                */
+               nr_pos = (PUD_SIZE - kernel_size) / PMD_SIZE;
+
+               kernel_map.virt_offset = (kaslr_seed % nr_pos) * PMD_SIZE;
+       }
+#endif
+
+       kernel_map.virt_addr = KERNEL_LINK_ADDR + kernel_map.virt_offset;
 
 #ifdef CONFIG_XIP_KERNEL
+#ifdef CONFIG_64BIT
+       kernel_map.page_offset = PAGE_OFFSET_L3;
+#else
+       kernel_map.page_offset = _AC(CONFIG_PAGE_OFFSET, UL);
+#endif
        kernel_map.xiprom = (uintptr_t)CONFIG_XIP_PHYS_ADDR;
        kernel_map.xiprom_sz = (uintptr_t)(&_exiprom) - (uintptr_t)(&_xiprom);
 
@@ -1031,6 +1072,7 @@ asmlinkage void __init setup_vm(uintptr_t dtb_pa)
 
        kernel_map.va_kernel_xip_pa_offset = kernel_map.virt_addr - kernel_map.xiprom;
 #else
+       kernel_map.page_offset = _AC(CONFIG_PAGE_OFFSET, UL);
        kernel_map.phys_addr = (uintptr_t)(&_start);
        kernel_map.size = (uintptr_t)(&_end) - kernel_map.phys_addr;
 #endif
@@ -1460,6 +1502,10 @@ void __init misc_mem_init(void)
        early_memtest(min_low_pfn << PAGE_SHIFT, max_low_pfn << PAGE_SHIFT);
        arch_numa_init();
        sparse_init();
+#ifdef CONFIG_SPARSEMEM_VMEMMAP
+       /* The entire VMEMMAP region has been populated. Flush TLB for this region */
+       local_flush_tlb_kernel_range(VMEMMAP_START, VMEMMAP_END);
+#endif
        zone_sizes_init();
        reserve_crashkernel();
        memblock_dump_all();