memory-hotplug: integrated __remove_section() of CONFIG_SPARSEMEM_VMEMMAP.
[platform/adaptation/renesas_rcar/renesas_kernel.git] / mm / memory_hotplug.c
index d04ed87..46c58be 100644 (file)
@@ -91,9 +91,8 @@ static void release_memory_resource(struct resource *res)
 }
 
 #ifdef CONFIG_MEMORY_HOTPLUG_SPARSE
-#ifndef CONFIG_SPARSEMEM_VMEMMAP
-static void get_page_bootmem(unsigned long info,  struct page *page,
-                            unsigned long type)
+void get_page_bootmem(unsigned long info,  struct page *page,
+                     unsigned long type)
 {
        page->lru.next = (struct list_head *) type;
        SetPagePrivate(page);
@@ -128,6 +127,8 @@ void __ref put_page_bootmem(struct page *page)
 
 }
 
+#ifdef CONFIG_HAVE_BOOTMEM_INFO_NODE
+#ifndef CONFIG_SPARSEMEM_VMEMMAP
 static void register_page_bootmem_info_section(unsigned long start_pfn)
 {
        unsigned long *usemap, mapsize, section_nr, i;
@@ -161,6 +162,32 @@ static void register_page_bootmem_info_section(unsigned long start_pfn)
                get_page_bootmem(section_nr, page, MIX_SECTION_INFO);
 
 }
+#else /* CONFIG_SPARSEMEM_VMEMMAP */
+static void register_page_bootmem_info_section(unsigned long start_pfn)
+{
+       unsigned long *usemap, mapsize, section_nr, i;
+       struct mem_section *ms;
+       struct page *page, *memmap;
+
+       if (!pfn_valid(start_pfn))
+               return;
+
+       section_nr = pfn_to_section_nr(start_pfn);
+       ms = __nr_to_section(section_nr);
+
+       memmap = sparse_decode_mem_map(ms->section_mem_map, section_nr);
+
+       register_page_bootmem_memmap(section_nr, memmap, PAGES_PER_SECTION);
+
+       usemap = __nr_to_section(section_nr)->pageblock_flags;
+       page = virt_to_page(usemap);
+
+       mapsize = PAGE_ALIGN(usemap_size()) >> PAGE_SHIFT;
+
+       for (i = 0; i < mapsize; i++, page++)
+               get_page_bootmem(section_nr, page, MIX_SECTION_INFO);
+}
+#endif /* !CONFIG_SPARSEMEM_VMEMMAP */
 
 void register_page_bootmem_info_node(struct pglist_data *pgdat)
 {
@@ -203,7 +230,7 @@ void register_page_bootmem_info_node(struct pglist_data *pgdat)
                        register_page_bootmem_info_section(pfn);
        }
 }
-#endif /* !CONFIG_SPARSEMEM_VMEMMAP */
+#endif /* CONFIG_HAVE_BOOTMEM_INFO_NODE */
 
 static void grow_zone_span(struct zone *zone, unsigned long start_pfn,
                           unsigned long end_pfn)
@@ -405,20 +432,8 @@ static int __meminit __add_section(int nid, struct zone *zone,
        return register_new_memory(nid, __pfn_to_section(phys_start_pfn));
 }
 
-#ifdef CONFIG_SPARSEMEM_VMEMMAP
-static int __remove_section(struct zone *zone, struct mem_section *ms)
-{
-       /*
-        * XXX: Freeing memmap with vmemmap is not implement yet.
-        *      This should be removed later.
-        */
-       return -EBUSY;
-}
-#else
 static int __remove_section(struct zone *zone, struct mem_section *ms)
 {
-       unsigned long flags;
-       struct pglist_data *pgdat = zone->zone_pgdat;
        int ret = -EINVAL;
 
        if (!valid_section(ms))
@@ -428,12 +443,9 @@ static int __remove_section(struct zone *zone, struct mem_section *ms)
        if (ret)
                return ret;
 
-       pgdat_resize_lock(pgdat, &flags);
        sparse_remove_one_section(zone, ms);
-       pgdat_resize_unlock(pgdat, &flags);
        return 0;
 }
-#endif
 
 /*
  * Reasonably generic function for adding memory.  It is
@@ -901,8 +913,7 @@ error:
        /* rollback pgdat allocation and others */
        if (new_pgdat)
                rollback_node_hotadd(nid, pgdat);
-       if (res)
-               release_memory_resource(res);
+       release_memory_resource(res);
 
 out:
        unlock_memory_hotplug();
@@ -1381,17 +1392,26 @@ int offline_pages(unsigned long start_pfn, unsigned long nr_pages)
        return __offline_pages(start_pfn, start_pfn + nr_pages, 120 * HZ);
 }
 
-int remove_memory(u64 start, u64 size)
+/**
+ * walk_memory_range - walks through all mem sections in [start_pfn, end_pfn)
+ * @start_pfn: start pfn of the memory range
+ * @end_pfn: end pft of the memory range
+ * @arg: argument passed to func
+ * @func: callback for each memory section walked
+ *
+ * This function walks through all present mem sections in range
+ * [start_pfn, end_pfn) and call func on each mem section.
+ *
+ * Returns the return value of func.
+ */
+static int walk_memory_range(unsigned long start_pfn, unsigned long end_pfn,
+               void *arg, int (*func)(struct memory_block *, void *))
 {
        struct memory_block *mem = NULL;
        struct mem_section *section;
-       unsigned long start_pfn, end_pfn;
        unsigned long pfn, section_nr;
        int ret;
 
-       start_pfn = PFN_DOWN(start);
-       end_pfn = start_pfn + PFN_DOWN(size);
-
        for (pfn = start_pfn; pfn < end_pfn; pfn += PAGES_PER_SECTION) {
                section_nr = pfn_to_section_nr(pfn);
                if (!present_section_nr(section_nr))
@@ -1408,7 +1428,7 @@ int remove_memory(u64 start, u64 size)
                if (!mem)
                        continue;
 
-               ret = offline_memory_block(mem);
+               ret = func(mem, arg);
                if (ret) {
                        kobject_put(&mem->dev.kobj);
                        return ret;
@@ -1420,6 +1440,97 @@ int remove_memory(u64 start, u64 size)
 
        return 0;
 }
+
+/**
+ * offline_memory_block_cb - callback function for offlining memory block
+ * @mem: the memory block to be offlined
+ * @arg: buffer to hold error msg
+ *
+ * Always return 0, and put the error msg in arg if any.
+ */
+static int offline_memory_block_cb(struct memory_block *mem, void *arg)
+{
+       int *ret = arg;
+       int error = offline_memory_block(mem);
+
+       if (error != 0 && *ret == 0)
+               *ret = error;
+
+       return 0;
+}
+
+static int is_memblock_offlined_cb(struct memory_block *mem, void *arg)
+{
+       int ret = !is_memblock_offlined(mem);
+
+       if (unlikely(ret))
+               pr_warn("removing memory fails, because memory "
+                       "[%#010llx-%#010llx] is onlined\n",
+                       PFN_PHYS(section_nr_to_pfn(mem->start_section_nr)),
+                       PFN_PHYS(section_nr_to_pfn(mem->end_section_nr + 1))-1);
+
+       return ret;
+}
+
+int __ref remove_memory(u64 start, u64 size)
+{
+       unsigned long start_pfn, end_pfn;
+       int ret = 0;
+       int retry = 1;
+
+       start_pfn = PFN_DOWN(start);
+       end_pfn = start_pfn + PFN_DOWN(size);
+
+       /*
+        * When CONFIG_MEMCG is on, one memory block may be used by other
+        * blocks to store page cgroup when onlining pages. But we don't know
+        * in what order pages are onlined. So we iterate twice to offline
+        * memory:
+        * 1st iterate: offline every non primary memory block.
+        * 2nd iterate: offline primary (i.e. first added) memory block.
+        */
+repeat:
+       walk_memory_range(start_pfn, end_pfn, &ret,
+                         offline_memory_block_cb);
+       if (ret) {
+               if (!retry)
+                       return ret;
+
+               retry = 0;
+               ret = 0;
+               goto repeat;
+       }
+
+       lock_memory_hotplug();
+
+       /*
+        * we have offlined all memory blocks like this:
+        *   1. lock memory hotplug
+        *   2. offline a memory block
+        *   3. unlock memory hotplug
+        *
+        * repeat step1-3 to offline the memory block. All memory blocks
+        * must be offlined before removing memory. But we don't hold the
+        * lock in the whole operation. So we should check whether all
+        * memory blocks are offlined.
+        */
+
+       ret = walk_memory_range(start_pfn, end_pfn, NULL,
+                               is_memblock_offlined_cb);
+       if (ret) {
+               unlock_memory_hotplug();
+               return ret;
+       }
+
+       /* remove memmap entry */
+       firmware_map_remove(start, start + size, "System RAM");
+
+       arch_remove_memory(start, size);
+
+       unlock_memory_hotplug();
+
+       return 0;
+}
 #else
 int offline_pages(unsigned long start_pfn, unsigned long nr_pages)
 {