]> git.ipfire.org Git - thirdparty/kernel/stable.git/commitdiff
mm/ptdump: take the memory hotplug lock inside ptdump_walk_pgd()
authorAnshuman Khandual <anshuman.khandual@arm.com>
Fri, 20 Jun 2025 05:24:27 +0000 (10:54 +0530)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Thu, 28 Aug 2025 14:28:42 +0000 (16:28 +0200)
commit 59305202c67fea50378dcad0cc199dbc13a0e99a upstream.

Memory hot remove unmaps and tears down various kernel page table regions
as required.  The ptdump code can race with concurrent modifications of
the kernel page tables.  When leaf entries are modified concurrently, the
dump code may log stale or inconsistent information for a VA range, but
this is otherwise not harmful.

But when intermediate levels of kernel page table are freed, the dump code
will continue to use memory that has been freed and potentially
reallocated for another purpose.  In such cases, the ptdump code may
dereference bogus addresses, leading to a number of potential problems.

To avoid the above mentioned race condition, platforms such as arm64,
riscv and s390 take memory hotplug lock, while dumping kernel page table
via the sysfs interface /sys/kernel/debug/kernel_page_tables.

Similar race condition exists while checking for pages that might have
been marked W+X via /sys/kernel/debug/kernel_page_tables/check_wx_pages
which in turn calls ptdump_check_wx().  Instead of solving this race
condition again, let's just move the memory hotplug lock inside generic
ptdump_check_wx() which will benefit both the scenarios.

Drop get_online_mems() and put_online_mems() combination from all existing
platform ptdump code paths.

Link: https://lkml.kernel.org/r/20250620052427.2092093-1-anshuman.khandual@arm.com
Fixes: bbd6ec605c0f ("arm64/mm: Enable memory hot remove")
Signed-off-by: Anshuman Khandual <anshuman.khandual@arm.com>
Acked-by: David Hildenbrand <david@redhat.com>
Reviewed-by: Dev Jain <dev.jain@arm.com>
Acked-by: Alexander Gordeev <agordeev@linux.ibm.com> [s390]
Cc: Catalin Marinas <catalin.marinas@arm.com>
Cc: Will Deacon <will@kernel.org>
Cc: Ryan Roberts <ryan.roberts@arm.com>
Cc: Paul Walmsley <paul.walmsley@sifive.com>
Cc: Palmer Dabbelt <palmer@dabbelt.com>
Cc: Alexander Gordeev <agordeev@linux.ibm.com>
Cc: Gerald Schaefer <gerald.schaefer@linux.ibm.com>
Cc: Heiko Carstens <hca@linux.ibm.com>
Cc: Vasily Gorbik <gor@linux.ibm.com>
Cc: Christian Borntraeger <borntraeger@linux.ibm.com>
Cc: Sven Schnelle <svens@linux.ibm.com>
Cc: <stable@vger.kernel.org>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Sasha Levin <sashal@kernel.org>
Signed-off-by: Greg Kroah-Hartman <gregkh@linuxfoundation.org>
arch/arm64/mm/ptdump_debugfs.c
arch/s390/mm/dump_pagetables.c
mm/ptdump.c

index 68bf1a125502dab30fb60903a33d65bb20eb93e6..1e308328c07966f9265fc73d07a9bf4e8979610e 100644 (file)
@@ -1,6 +1,5 @@
 // SPDX-License-Identifier: GPL-2.0
 #include <linux/debugfs.h>
-#include <linux/memory_hotplug.h>
 #include <linux/seq_file.h>
 
 #include <asm/ptdump.h>
@@ -9,9 +8,7 @@ static int ptdump_show(struct seq_file *m, void *v)
 {
        struct ptdump_info *info = m->private;
 
-       get_online_mems();
        ptdump_walk(m, info);
-       put_online_mems();
        return 0;
 }
 DEFINE_SHOW_ATTRIBUTE(ptdump);
index b51666967aa1fd337fc3e5ed7f73f2d30375467b..4721ada81a02da3e3488070d98fbcd720c262b5c 100644 (file)
@@ -249,11 +249,9 @@ static int ptdump_show(struct seq_file *m, void *v)
                .marker = address_markers,
        };
 
-       get_online_mems();
        mutex_lock(&cpa_mutex);
        ptdump_walk_pgd(&st.ptdump, &init_mm, NULL);
        mutex_unlock(&cpa_mutex);
-       put_online_mems();
        return 0;
 }
 DEFINE_SHOW_ATTRIBUTE(ptdump);
index 03c1bdae4a4368ecb0f65f3e9dc9f3087e619a81..e46df2c24d8583d26fdfb15ad4af7ef236eedbf1 100644 (file)
@@ -152,6 +152,7 @@ void ptdump_walk_pgd(struct ptdump_state *st, struct mm_struct *mm, pgd_t *pgd)
 {
        const struct ptdump_range *range = st->range;
 
+       get_online_mems();
        mmap_write_lock(mm);
        while (range->start != range->end) {
                walk_page_range_novma(mm, range->start, range->end,
@@ -159,6 +160,7 @@ void ptdump_walk_pgd(struct ptdump_state *st, struct mm_struct *mm, pgd_t *pgd)
                range++;
        }
        mmap_write_unlock(mm);
+       put_online_mems();
 
        /* Flush out the last page */
        st->note_page(st, 0, -1, 0);