]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
mm: move pte table reclaim code to memory.c
authorDavid Hildenbrand (Red Hat) <david@kernel.org>
Mon, 19 Jan 2026 22:07:07 +0000 (23:07 +0100)
committerAndrew Morton <akpm@linux-foundation.org>
Fri, 6 Feb 2026 23:47:19 +0000 (15:47 -0800)
Some cleanups for PT table reclaim code, triggered by a false-positive
warning we might start to see soon after we unlocked pt-reclaim on
architectures besides x86-64.

This patch (of 2):

The pte-table reclaim code is only called from memory.c, while zapping
pages, and it better also stays that way in the long run.  If we ever have
to call it from other files, we should expose proper high-level helpers
for zapping if the existing helpers are not good enough.

So, let's move the code over (it's not a lot) and slightly clean it up a
bit by:
- Renaming the functions.
- Dropping the "Check if it is empty PTE page" comment, which is now
  self-explaining given the function name.
- Making zap_pte_table_if_empty() return whether zapping worked so the
  caller can free it.
- Adding a comment in pte_table_reclaim_possible().
- Inlining free_pte() in the last remaining user.
- In zap_empty_pte_table(), switch from pmdp_get_lcokless() to
  pmd_clear(), we are holding the PMD PT lock.

By moving the code over, compilers can also easily figure out when
zap_empty_pte_table() does not initialize the pmdval variable, avoiding
false-positive warnings about the variable possibly not being initialized.

Link: https://lkml.kernel.org/r/20260119220708.3438514-1-david@kernel.org
Link: https://lkml.kernel.org/r/20260119220708.3438514-2-david@kernel.org
Signed-off-by: David Hildenbrand (Red Hat) <david@kernel.org>
Reviewed-by: Qi Zheng <zhengqi.arch@bytedance.com>
Cc: Liam Howlett <liam.howlett@oracle.com>
Cc: "Liam R. Howlett" <Liam.Howlett@oracle.com>
Cc: Lorenzo Stoakes <lorenzo.stoakes@oracle.com>
Cc: Michal Hocko <mhocko@suse.com>
Cc: Mike Rapoport <rppt@kernel.org>
Cc: Suren Baghdasaryan <surenb@google.com>
Cc: Vlastimil Babka <vbabka@suse.cz>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
MAINTAINERS
mm/Makefile
mm/internal.h
mm/memory.c
mm/pt_reclaim.c [deleted file]

index b4088f7290be0f2e5ea67c1119f2b8b4b46cac76..64006f19954eb8ea3da5a93ba5af57fc0a6b5491 100644 (file)
@@ -16696,7 +16696,6 @@ R:      Shakeel Butt <shakeel.butt@linux.dev>
 R:     Lorenzo Stoakes <lorenzo.stoakes@oracle.com>
 L:     linux-mm@kvack.org
 S:     Maintained
-F:     mm/pt_reclaim.c
 F:     mm/vmscan.c
 F:     mm/workingset.c
 
index 0d85b10dbdde488429500f7504755e62e2cc804c..53ca5d4b1929ba5608212888783d4c3c4845408e 100644 (file)
@@ -146,5 +146,4 @@ obj-$(CONFIG_GENERIC_IOREMAP) += ioremap.o
 obj-$(CONFIG_SHRINKER_DEBUG) += shrinker_debug.o
 obj-$(CONFIG_EXECMEM) += execmem.o
 obj-$(CONFIG_TMPFS_QUOTA) += shmem_quota.o
-obj-$(CONFIG_PT_RECLAIM) += pt_reclaim.o
 obj-$(CONFIG_LAZY_MMU_MODE_KUNIT_TEST) += tests/lazy_mmu_mode_kunit.o
index 27509a909915582a7c69da6700a217fdb24d231c..5fe6bb96c23cd895f326aed444671b2ca15dfc84 100644 (file)
@@ -1743,24 +1743,6 @@ int walk_page_range_debug(struct mm_struct *mm, unsigned long start,
                          unsigned long end, const struct mm_walk_ops *ops,
                          pgd_t *pgd, void *private);
 
-/* pt_reclaim.c */
-bool try_get_and_clear_pmd(struct mm_struct *mm, pmd_t *pmd, pmd_t *pmdval);
-void free_pte(struct mm_struct *mm, unsigned long addr, struct mmu_gather *tlb,
-             pmd_t pmdval);
-void try_to_free_pte(struct mm_struct *mm, pmd_t *pmd, unsigned long addr,
-                    struct mmu_gather *tlb);
-
-#ifdef CONFIG_PT_RECLAIM
-bool reclaim_pt_is_enabled(unsigned long start, unsigned long end,
-                          struct zap_details *details);
-#else
-static inline bool reclaim_pt_is_enabled(unsigned long start, unsigned long end,
-                                        struct zap_details *details)
-{
-       return false;
-}
-#endif /* CONFIG_PT_RECLAIM */
-
 void dup_mm_exe_file(struct mm_struct *mm, struct mm_struct *oldmm);
 int dup_mmap(struct mm_struct *mm, struct mm_struct *oldmm);
 
index 2a347e31a077a6707339e035965930f614126b9a..de22710bb217e827a44a8b6e98f037d510e099e5 100644 (file)
@@ -1821,11 +1821,68 @@ static inline int do_zap_pte_range(struct mmu_gather *tlb,
        return nr;
 }
 
+static bool pte_table_reclaim_possible(unsigned long start, unsigned long end,
+               struct zap_details *details)
+{
+       if (!IS_ENABLED(CONFIG_PT_RECLAIM))
+               return false;
+       /* Only zap if we are allowed to and cover the full page table. */
+       return details && details->reclaim_pt && (end - start >= PMD_SIZE);
+}
+
+static bool zap_empty_pte_table(struct mm_struct *mm, pmd_t *pmd, pmd_t *pmdval)
+{
+       spinlock_t *pml = pmd_lockptr(mm, pmd);
+
+       if (!spin_trylock(pml))
+               return false;
+
+       *pmdval = pmdp_get(pmd);
+       pmd_clear(pmd);
+       spin_unlock(pml);
+       return true;
+}
+
+static bool zap_pte_table_if_empty(struct mm_struct *mm, pmd_t *pmd,
+               unsigned long addr, pmd_t *pmdval)
+{
+       spinlock_t *pml, *ptl = NULL;
+       pte_t *start_pte, *pte;
+       int i;
+
+       pml = pmd_lock(mm, pmd);
+       start_pte = pte_offset_map_rw_nolock(mm, pmd, addr, pmdval, &ptl);
+       if (!start_pte)
+               goto out_ptl;
+       if (ptl != pml)
+               spin_lock_nested(ptl, SINGLE_DEPTH_NESTING);
+
+       for (i = 0, pte = start_pte; i < PTRS_PER_PTE; i++, pte++) {
+               if (!pte_none(ptep_get(pte)))
+                       goto out_ptl;
+       }
+       pte_unmap(start_pte);
+
+       pmd_clear(pmd);
+
+       if (ptl != pml)
+               spin_unlock(ptl);
+       spin_unlock(pml);
+       return true;
+out_ptl:
+       if (start_pte)
+               pte_unmap_unlock(start_pte, ptl);
+       if (ptl != pml)
+               spin_unlock(pml);
+       return false;
+}
+
 static unsigned long zap_pte_range(struct mmu_gather *tlb,
                                struct vm_area_struct *vma, pmd_t *pmd,
                                unsigned long addr, unsigned long end,
                                struct zap_details *details)
 {
+       bool can_reclaim_pt = pte_table_reclaim_possible(addr, end, details);
        bool force_flush = false, force_break = false;
        struct mm_struct *mm = tlb->mm;
        int rss[NR_MM_COUNTERS];
@@ -1834,7 +1891,6 @@ static unsigned long zap_pte_range(struct mmu_gather *tlb,
        pte_t *pte;
        pmd_t pmdval;
        unsigned long start = addr;
-       bool can_reclaim_pt = reclaim_pt_is_enabled(start, end, details);
        bool direct_reclaim = true;
        int nr;
 
@@ -1875,7 +1931,7 @@ retry:
         * from being repopulated by another thread.
         */
        if (can_reclaim_pt && direct_reclaim && addr == end)
-               direct_reclaim = try_get_and_clear_pmd(mm, pmd, &pmdval);
+               direct_reclaim = zap_empty_pte_table(mm, pmd, &pmdval);
 
        add_mm_rss_vec(mm, rss);
        lazy_mmu_mode_disable();
@@ -1904,10 +1960,10 @@ retry:
        }
 
        if (can_reclaim_pt) {
-               if (direct_reclaim)
-                       free_pte(mm, start, tlb, pmdval);
-               else
-                       try_to_free_pte(mm, pmd, start, tlb);
+               if (direct_reclaim || zap_pte_table_if_empty(mm, pmd, start, &pmdval)) {
+                       pte_free_tlb(tlb, pmd_pgtable(pmdval), addr);
+                       mm_dec_nr_ptes(mm);
+               }
        }
 
        return addr;
diff --git a/mm/pt_reclaim.c b/mm/pt_reclaim.c
deleted file mode 100644 (file)
index 46771cf..0000000
+++ /dev/null
@@ -1,72 +0,0 @@
-// SPDX-License-Identifier: GPL-2.0
-#include <linux/hugetlb.h>
-#include <linux/pgalloc.h>
-
-#include <asm/tlb.h>
-
-#include "internal.h"
-
-bool reclaim_pt_is_enabled(unsigned long start, unsigned long end,
-                          struct zap_details *details)
-{
-       return details && details->reclaim_pt && (end - start >= PMD_SIZE);
-}
-
-bool try_get_and_clear_pmd(struct mm_struct *mm, pmd_t *pmd, pmd_t *pmdval)
-{
-       spinlock_t *pml = pmd_lockptr(mm, pmd);
-
-       if (!spin_trylock(pml))
-               return false;
-
-       *pmdval = pmdp_get_lockless(pmd);
-       pmd_clear(pmd);
-       spin_unlock(pml);
-
-       return true;
-}
-
-void free_pte(struct mm_struct *mm, unsigned long addr, struct mmu_gather *tlb,
-             pmd_t pmdval)
-{
-       pte_free_tlb(tlb, pmd_pgtable(pmdval), addr);
-       mm_dec_nr_ptes(mm);
-}
-
-void try_to_free_pte(struct mm_struct *mm, pmd_t *pmd, unsigned long addr,
-                    struct mmu_gather *tlb)
-{
-       pmd_t pmdval;
-       spinlock_t *pml, *ptl = NULL;
-       pte_t *start_pte, *pte;
-       int i;
-
-       pml = pmd_lock(mm, pmd);
-       start_pte = pte_offset_map_rw_nolock(mm, pmd, addr, &pmdval, &ptl);
-       if (!start_pte)
-               goto out_ptl;
-       if (ptl != pml)
-               spin_lock_nested(ptl, SINGLE_DEPTH_NESTING);
-
-       /* Check if it is empty PTE page */
-       for (i = 0, pte = start_pte; i < PTRS_PER_PTE; i++, pte++) {
-               if (!pte_none(ptep_get(pte)))
-                       goto out_ptl;
-       }
-       pte_unmap(start_pte);
-
-       pmd_clear(pmd);
-
-       if (ptl != pml)
-               spin_unlock(ptl);
-       spin_unlock(pml);
-
-       free_pte(mm, addr, tlb, pmdval);
-
-       return;
-out_ptl:
-       if (start_pte)
-               pte_unmap_unlock(start_pte, ptl);
-       if (ptl != pml)
-               spin_unlock(pml);
-}