]> git.ipfire.org Git - thirdparty/kernel/stable.git/commitdiff
memblock: drop redundant 'struct page *' argument from memblock_free_pages()
authorShengming Hu <hu.shengming@zte.com.cn>
Mon, 29 Dec 2025 13:52:27 +0000 (21:52 +0800)
committerMike Rapoport (Microsoft) <rppt@kernel.org>
Fri, 9 Jan 2026 09:53:51 +0000 (11:53 +0200)
memblock_free_pages() currently takes both a struct page * and the
corresponding PFN. The page pointer is always derived from the PFN at
call sites (pfn_to_page(pfn)), making the parameter redundant and also
allowing accidental mismatches between the two arguments.

Simplify the interface by removing the struct page * argument and
deriving the page locally from the PFN, after the deferred struct page
initialization check. This keeps the behavior unchanged while making
the helper harder to misuse.

Signed-off-by: Shengming Hu <hu.shengming@zte.com.cn>
Reviewed-by: David Hildenbrand (Red Hat) <david@kernel.org>
Link: https://patch.msgid.link/tencent_F741CE6ECC49EE099736685E60C0DBD4A209@qq.com
Signed-off-by: Mike Rapoport (Microsoft) <rppt@kernel.org>
mm/internal.h
mm/memblock.c
mm/mm_init.c
tools/testing/memblock/internal.h

index e430da900430a15b9fa61dae6f9a431ba75599df..5f93ee1459d9e061d7ea73c5f9f6558fe9ad67bd 100644 (file)
@@ -742,8 +742,7 @@ static inline void clear_zone_contiguous(struct zone *zone)
 extern int __isolate_free_page(struct page *page, unsigned int order);
 extern void __putback_isolated_page(struct page *page, unsigned int order,
                                    int mt);
-extern void memblock_free_pages(struct page *page, unsigned long pfn,
-                                       unsigned int order);
+extern void memblock_free_pages(unsigned long pfn, unsigned int order);
 extern void __free_pages_core(struct page *page, unsigned int order,
                enum meminit_context context);
 
index 905d06b16348af482f47476467dfb7629918f31f..6e11f81c4870c84090a4e3e06139604827d6d505 100644 (file)
@@ -1771,7 +1771,7 @@ void __init memblock_free_late(phys_addr_t base, phys_addr_t size)
        end = PFN_DOWN(base + size);
 
        for (; cursor < end; cursor++) {
-               memblock_free_pages(pfn_to_page(cursor), cursor, 0);
+               memblock_free_pages(cursor, 0);
                totalram_pages_inc();
        }
 }
@@ -2216,7 +2216,7 @@ static void __init __free_pages_memory(unsigned long start, unsigned long end)
                while (start + (1UL << order) > end)
                        order--;
 
-               memblock_free_pages(pfn_to_page(start), start, order);
+               memblock_free_pages(start, order);
 
                start += (1UL << order);
        }
index fc2a6f1e518f1a33d45796907a4d6426f61eb37b..d5b91602ff2a0e558fbaf75a28a3e30e8457e580 100644 (file)
@@ -2480,9 +2480,10 @@ void *__init alloc_large_system_hash(const char *tablename,
        return table;
 }
 
-void __init memblock_free_pages(struct page *page, unsigned long pfn,
-                                                       unsigned int order)
+void __init memblock_free_pages(unsigned long pfn, unsigned int order)
 {
+       struct page *page = pfn_to_page(pfn);
+
        if (IS_ENABLED(CONFIG_DEFERRED_STRUCT_PAGE_INIT)) {
                int nid = early_pfn_to_nid(pfn);
 
index 0ab4b53bb4f32a7fbbb5a6ed27ef21543316c0b2..009b97bbdd22cbd50bf4aafc618c746445c7265b 100644 (file)
@@ -15,8 +15,7 @@ bool mirrored_kernelcore = false;
 
 struct page {};
 
-void memblock_free_pages(struct page *page, unsigned long pfn,
-                        unsigned int order)
+void memblock_free_pages(unsigned long pfn, unsigned int order)
 {
 }