]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
mm: Reduce the number of slab->folio casts
authorMatthew Wilcox (Oracle) <willy@infradead.org>
Fri, 31 May 2024 12:29:02 +0000 (13:29 +0100)
committerVlastimil Babka <vbabka@suse.cz>
Fri, 31 May 2024 13:51:10 +0000 (15:51 +0200)
Mark a few more folio functions as taking a const folio pointer, which
allows us to remove a few places in slab which cast away the const.

Signed-off-by: Matthew Wilcox (Oracle) <willy@infradead.org>
Signed-off-by: Vlastimil Babka <vbabka@suse.cz>
include/linux/mm.h
mm/slab.h
mm/slub.c

index 9849dfda44d43ccdaaab5e5a49d979753d189f0e..a983d371fafa05f62b705c0e5635241e625b8b59 100644 (file)
@@ -1105,7 +1105,7 @@ static inline unsigned int compound_order(struct page *page)
  *
  * Return: The order of the folio.
  */
-static inline unsigned int folio_order(struct folio *folio)
+static inline unsigned int folio_order(const struct folio *folio)
 {
        if (!folio_test_large(folio))
                return 0;
@@ -2145,7 +2145,7 @@ static inline struct folio *folio_next(struct folio *folio)
  * it from being split.  It is not necessary for the folio to be locked.
  * Return: The base-2 logarithm of the size of this folio.
  */
-static inline unsigned int folio_shift(struct folio *folio)
+static inline unsigned int folio_shift(const struct folio *folio)
 {
        return PAGE_SHIFT + folio_order(folio);
 }
@@ -2158,7 +2158,7 @@ static inline unsigned int folio_shift(struct folio *folio)
  * it from being split.  It is not necessary for the folio to be locked.
  * Return: The number of bytes in this folio.
  */
-static inline size_t folio_size(struct folio *folio)
+static inline size_t folio_size(const struct folio *folio)
 {
        return PAGE_SIZE << folio_order(folio);
 }
index 5f8f47c5bee0a274c6c2df810b85b1e53681c370..b16e631915785b294888eac1565f069f38ede09e 100644 (file)
--- a/mm/slab.h
+++ b/mm/slab.h
@@ -166,7 +166,7 @@ static_assert(IS_ALIGNED(offsetof(struct slab, freelist), sizeof(freelist_aba_t)
  */
 static inline bool slab_test_pfmemalloc(const struct slab *slab)
 {
-       return folio_test_active((struct folio *)slab_folio(slab));
+       return folio_test_active(slab_folio(slab));
 }
 
 static inline void slab_set_pfmemalloc(struct slab *slab)
@@ -211,7 +211,7 @@ static inline struct slab *virt_to_slab(const void *addr)
 
 static inline int slab_order(const struct slab *slab)
 {
-       return folio_order((struct folio *)slab_folio(slab));
+       return folio_order(slab_folio(slab));
 }
 
 static inline size_t slab_size(const struct slab *slab)
index 95e0a3332c4498cb6e8cf0c8453c39bab08e9465..b8ba068ca0797e85dcd88116bd3089e13354b04a 100644 (file)
--- a/mm/slub.c
+++ b/mm/slub.c
@@ -962,11 +962,9 @@ void print_tracking(struct kmem_cache *s, void *object)
 
 static void print_slab_info(const struct slab *slab)
 {
-       struct folio *folio = (struct folio *)slab_folio(slab);
-
        pr_err("Slab 0x%p objects=%u used=%u fp=0x%p flags=%pGp\n",
               slab, slab->objects, slab->inuse, slab->freelist,
-              folio_flags(folio, 0));
+              &slab->__page_flags);
 }
 
 /*
@@ -2532,7 +2530,7 @@ static void discard_slab(struct kmem_cache *s, struct slab *slab)
  */
 static inline bool slab_test_node_partial(const struct slab *slab)
 {
-       return folio_test_workingset((struct folio *)slab_folio(slab));
+       return folio_test_workingset(slab_folio(slab));
 }
 
 static inline void slab_set_node_partial(struct slab *slab)