]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
iommu/pages: Remove iommu_alloc_page/pages()
authorJason Gunthorpe <jgg@nvidia.com>
Tue, 8 Apr 2025 16:54:08 +0000 (13:54 -0300)
committerJoerg Roedel <jroedel@suse.de>
Thu, 17 Apr 2025 14:22:50 +0000 (16:22 +0200)
A few small changes to the remaining drivers using these will allow
them to be removed:

- Exynos wants to allocate fixed 16K/8K allocations
- Rockchip already has a define SPAGE_SIZE which is used by the
  dma_map immediately following, using SPAGE_ORDER which is a lg2size
- tegra has size constants already for its two allocations

Acked-by: Marek Szyprowski <m.szyprowski@samsung.com>
Signed-off-by: Jason Gunthorpe <jgg@nvidia.com>
Link: https://lore.kernel.org/r/20-v4-c8663abbb606+3f7-iommu_pages_jgg@nvidia.com
Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/iommu/exynos-iommu.c
drivers/iommu/iommu-pages.h
drivers/iommu/rockchip-iommu.c
drivers/iommu/tegra-smmu.c

index 463a72782e7a84be607a0f6e2e511c2ed5668383..fcb6a0f7c08275083065e5e311f190a85dd1f5f4 100644 (file)
@@ -902,11 +902,11 @@ static struct iommu_domain *exynos_iommu_domain_alloc_paging(struct device *dev)
        if (!domain)
                return NULL;
 
-       domain->pgtable = iommu_alloc_pages(GFP_KERNEL, 2);
+       domain->pgtable = iommu_alloc_pages_sz(GFP_KERNEL, SZ_16K);
        if (!domain->pgtable)
                goto err_pgtable;
 
-       domain->lv2entcnt = iommu_alloc_pages(GFP_KERNEL, 1);
+       domain->lv2entcnt = iommu_alloc_pages_sz(GFP_KERNEL, SZ_8K);
        if (!domain->lv2entcnt)
                goto err_counter;
 
index 3c4575d637da6d79fb3acb0412bfe59ee63fb1ff..4513fbc76260cd06796d03ea540774dc1b52c858 100644 (file)
@@ -100,20 +100,6 @@ static inline void *iommu_alloc_pages_node(int nid, gfp_t gfp,
        return iommu_alloc_pages_node_sz(nid, gfp, 1 << (order + PAGE_SHIFT));
 }
 
-/**
- * iommu_alloc_pages - allocate a zeroed page of a given order
- * @gfp: buddy allocator flags
- * @order: page order
- *
- * returns the virtual address of the allocated page
- * Prefer to use iommu_alloc_pages_lg2()
- */
-static inline void *iommu_alloc_pages(gfp_t gfp, int order)
-{
-       return iommu_alloc_pages_node_sz(NUMA_NO_NODE, gfp,
-                                        1 << (order + PAGE_SHIFT));
-}
-
 /**
  * iommu_alloc_pages_sz - Allocate a zeroed page of a given size from
  *                          specific NUMA node
@@ -141,16 +127,4 @@ static inline void *iommu_alloc_page_node(int nid, gfp_t gfp)
        return iommu_alloc_pages_node_sz(nid, gfp, PAGE_SIZE);
 }
 
-/**
- * iommu_alloc_page - allocate a zeroed page
- * @gfp: buddy allocator flags
- *
- * returns the virtual address of the allocated page
- * Prefer to use iommu_alloc_pages_lg2()
- */
-static inline void *iommu_alloc_page(gfp_t gfp)
-{
-       return iommu_alloc_pages_node_sz(NUMA_NO_NODE, gfp, PAGE_SIZE);
-}
-
 #endif /* __IOMMU_PAGES_H */
index f1b49370dfa3d00f5f0e55cb9e96283e88c9afdc..22f74ba33a0e388a4f9d2ad7928e12c3e049a8da 100644 (file)
@@ -730,7 +730,8 @@ static u32 *rk_dte_get_page_table(struct rk_iommu_domain *rk_domain,
        if (rk_dte_is_pt_valid(dte))
                goto done;
 
-       page_table = iommu_alloc_page(GFP_ATOMIC | rk_ops->gfp_flags);
+       page_table = iommu_alloc_pages_sz(GFP_ATOMIC | rk_ops->gfp_flags,
+                                         SPAGE_SIZE);
        if (!page_table)
                return ERR_PTR(-ENOMEM);
 
@@ -1062,7 +1063,8 @@ static struct iommu_domain *rk_iommu_domain_alloc_paging(struct device *dev)
         * Each level1 (dt) and level2 (pt) table has 1024 4-byte entries.
         * Allocate one 4 KiB page for each table.
         */
-       rk_domain->dt = iommu_alloc_page(GFP_KERNEL | rk_ops->gfp_flags);
+       rk_domain->dt = iommu_alloc_pages_sz(GFP_KERNEL | rk_ops->gfp_flags,
+                                            SPAGE_SIZE);
        if (!rk_domain->dt)
                goto err_free_domain;
 
index 7ad1b3c7c7fce2b5f2de423785cd748438dbb4cf..61897d50162dd736569e5513f1fb45024e4e4439 100644 (file)
@@ -295,7 +295,7 @@ static struct iommu_domain *tegra_smmu_domain_alloc_paging(struct device *dev)
 
        as->attr = SMMU_PD_READABLE | SMMU_PD_WRITABLE | SMMU_PD_NONSECURE;
 
-       as->pd = iommu_alloc_page(GFP_KERNEL | __GFP_DMA);
+       as->pd = iommu_alloc_pages_sz(GFP_KERNEL | __GFP_DMA, SMMU_SIZE_PD);
        if (!as->pd) {
                kfree(as);
                return NULL;
@@ -695,7 +695,7 @@ static struct tegra_pt *as_get_pde_page(struct tegra_smmu_as *as,
        if (gfpflags_allow_blocking(gfp))
                spin_unlock_irqrestore(&as->lock, *flags);
 
-       pt = iommu_alloc_page(gfp | __GFP_DMA);
+       pt = iommu_alloc_pages_sz(gfp | __GFP_DMA, SMMU_SIZE_PT);
 
        if (gfpflags_allow_blocking(gfp))
                spin_lock_irqsave(&as->lock, *flags);