]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
iommu: Add gfp parameter to io_pgtable_ops->map()
authorBaolin Wang <baolin.wang@linux.alibaba.com>
Fri, 12 Jun 2020 03:39:55 +0000 (11:39 +0800)
committerJoerg Roedel <jroedel@suse.de>
Fri, 24 Jul 2020 12:29:47 +0000 (14:29 +0200)
Now the ARM page tables are always allocated by GFP_ATOMIC parameter,
but the iommu_ops->map() function has been added a gfp_t parameter by
commit 781ca2de89ba ("iommu: Add gfp parameter to iommu_ops::map"),
thus io_pgtable_ops->map() should use the gfp parameter passed from
iommu_ops->map() to allocate page pages, which can avoid wasting the
memory allocators atomic pools for some non-atomic contexts.

Signed-off-by: Baolin Wang <baolin.wang@linux.alibaba.com>
Acked-by: Will Deacon <will@kernel.org>
Link: https://lore.kernel.org/r/3093df4cb95497aaf713fca623ce4ecebb197c2e.1591930156.git.baolin.wang@linux.alibaba.com
Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/gpu/drm/panfrost/panfrost_mmu.c
drivers/iommu/arm-smmu-v3.c
drivers/iommu/arm-smmu.c
drivers/iommu/io-pgtable-arm-v7s.c
drivers/iommu/io-pgtable-arm.c
drivers/iommu/ipmmu-vmsa.c
drivers/iommu/msm_iommu.c
drivers/iommu/mtk_iommu.c
drivers/iommu/qcom_iommu.c
include/linux/io-pgtable.h

index ed28aeba6d59abf180f632f6c1a10a56b1a5c10a..5a39eee8cf8331e9b40fdad38b83085fecb8d0d8 100644 (file)
@@ -262,7 +262,7 @@ static int mmu_map_sg(struct panfrost_device *pfdev, struct panfrost_mmu *mmu,
                while (len) {
                        size_t pgsize = get_pgsize(iova | paddr, len);
 
-                       ops->map(ops, iova, paddr, pgsize, prot);
+                       ops->map(ops, iova, paddr, pgsize, prot, GFP_KERNEL);
                        iova += pgsize;
                        paddr += pgsize;
                        len -= pgsize;
index f578677a5c41437fd9ee367359838f1aea89a308..7b59f06b39132b33e742678e22d5656d10f4473b 100644 (file)
@@ -2850,7 +2850,7 @@ static int arm_smmu_map(struct iommu_domain *domain, unsigned long iova,
        if (!ops)
                return -ENODEV;
 
-       return ops->map(ops, iova, paddr, size, prot);
+       return ops->map(ops, iova, paddr, size, prot, gfp);
 }
 
 static size_t arm_smmu_unmap(struct iommu_domain *domain, unsigned long iova,
index 243bc4cb2705b331d71329c61d753f303499c998..dc1d2535798ae43230f9e8286e5116abca7183d0 100644 (file)
@@ -1227,7 +1227,7 @@ static int arm_smmu_map(struct iommu_domain *domain, unsigned long iova,
                return -ENODEV;
 
        arm_smmu_rpm_get(smmu);
-       ret = ops->map(ops, iova, paddr, size, prot);
+       ret = ops->map(ops, iova, paddr, size, prot, gfp);
        arm_smmu_rpm_put(smmu);
 
        return ret;
index 4272fe4e17f4c9b322be38580c750594503b40d0..a688f22cbe3b590cce25bf1ca4e490d4a8c8bdb0 100644 (file)
@@ -470,7 +470,7 @@ static arm_v7s_iopte arm_v7s_install_table(arm_v7s_iopte *table,
 
 static int __arm_v7s_map(struct arm_v7s_io_pgtable *data, unsigned long iova,
                         phys_addr_t paddr, size_t size, int prot,
-                        int lvl, arm_v7s_iopte *ptep)
+                        int lvl, arm_v7s_iopte *ptep, gfp_t gfp)
 {
        struct io_pgtable_cfg *cfg = &data->iop.cfg;
        arm_v7s_iopte pte, *cptep;
@@ -491,7 +491,7 @@ static int __arm_v7s_map(struct arm_v7s_io_pgtable *data, unsigned long iova,
        /* Grab a pointer to the next level */
        pte = READ_ONCE(*ptep);
        if (!pte) {
-               cptep = __arm_v7s_alloc_table(lvl + 1, GFP_ATOMIC, data);
+               cptep = __arm_v7s_alloc_table(lvl + 1, gfp, data);
                if (!cptep)
                        return -ENOMEM;
 
@@ -512,11 +512,11 @@ static int __arm_v7s_map(struct arm_v7s_io_pgtable *data, unsigned long iova,
        }
 
        /* Rinse, repeat */
-       return __arm_v7s_map(data, iova, paddr, size, prot, lvl + 1, cptep);
+       return __arm_v7s_map(data, iova, paddr, size, prot, lvl + 1, cptep, gfp);
 }
 
 static int arm_v7s_map(struct io_pgtable_ops *ops, unsigned long iova,
-                       phys_addr_t paddr, size_t size, int prot)
+                       phys_addr_t paddr, size_t size, int prot, gfp_t gfp)
 {
        struct arm_v7s_io_pgtable *data = io_pgtable_ops_to_data(ops);
        struct io_pgtable *iop = &data->iop;
@@ -530,7 +530,7 @@ static int arm_v7s_map(struct io_pgtable_ops *ops, unsigned long iova,
                    paddr >= (1ULL << data->iop.cfg.oas)))
                return -ERANGE;
 
-       ret = __arm_v7s_map(data, iova, paddr, size, prot, 1, data->pgd);
+       ret = __arm_v7s_map(data, iova, paddr, size, prot, 1, data->pgd, gfp);
        /*
         * Synchronise all PTE updates for the new mapping before there's
         * a chance for anything to kick off a table walk for the new iova.
@@ -922,12 +922,12 @@ static int __init arm_v7s_do_selftests(void)
                if (ops->map(ops, iova, iova, size, IOMMU_READ |
                                                    IOMMU_WRITE |
                                                    IOMMU_NOEXEC |
-                                                   IOMMU_CACHE))
+                                                   IOMMU_CACHE, GFP_KERNEL))
                        return __FAIL(ops);
 
                /* Overlapping mappings */
                if (!ops->map(ops, iova, iova + size, size,
-                             IOMMU_READ | IOMMU_NOEXEC))
+                             IOMMU_READ | IOMMU_NOEXEC, GFP_KERNEL))
                        return __FAIL(ops);
 
                if (ops->iova_to_phys(ops, iova + 42) != (iova + 42))
@@ -946,7 +946,7 @@ static int __init arm_v7s_do_selftests(void)
                        return __FAIL(ops);
 
                /* Remap of partial unmap */
-               if (ops->map(ops, iova_start + size, size, size, IOMMU_READ))
+               if (ops->map(ops, iova_start + size, size, size, IOMMU_READ, GFP_KERNEL))
                        return __FAIL(ops);
 
                if (ops->iova_to_phys(ops, iova_start + size + 42)
@@ -967,7 +967,7 @@ static int __init arm_v7s_do_selftests(void)
                        return __FAIL(ops);
 
                /* Remap full block */
-               if (ops->map(ops, iova, iova, size, IOMMU_WRITE))
+               if (ops->map(ops, iova, iova, size, IOMMU_WRITE, GFP_KERNEL))
                        return __FAIL(ops);
 
                if (ops->iova_to_phys(ops, iova + 42) != (iova + 42))
index 04fbd4bf0ff9fd2140ff01a0063352eef047fb7f..4a5a7b083a9b574628b028462e7c9c2ae7f57a94 100644 (file)
@@ -355,7 +355,7 @@ static arm_lpae_iopte arm_lpae_install_table(arm_lpae_iopte *table,
 
 static int __arm_lpae_map(struct arm_lpae_io_pgtable *data, unsigned long iova,
                          phys_addr_t paddr, size_t size, arm_lpae_iopte prot,
-                         int lvl, arm_lpae_iopte *ptep)
+                         int lvl, arm_lpae_iopte *ptep, gfp_t gfp)
 {
        arm_lpae_iopte *cptep, pte;
        size_t block_size = ARM_LPAE_BLOCK_SIZE(lvl, data);
@@ -376,7 +376,7 @@ static int __arm_lpae_map(struct arm_lpae_io_pgtable *data, unsigned long iova,
        /* Grab a pointer to the next level */
        pte = READ_ONCE(*ptep);
        if (!pte) {
-               cptep = __arm_lpae_alloc_pages(tblsz, GFP_ATOMIC, cfg);
+               cptep = __arm_lpae_alloc_pages(tblsz, gfp, cfg);
                if (!cptep)
                        return -ENOMEM;
 
@@ -396,7 +396,7 @@ static int __arm_lpae_map(struct arm_lpae_io_pgtable *data, unsigned long iova,
        }
 
        /* Rinse, repeat */
-       return __arm_lpae_map(data, iova, paddr, size, prot, lvl + 1, cptep);
+       return __arm_lpae_map(data, iova, paddr, size, prot, lvl + 1, cptep, gfp);
 }
 
 static arm_lpae_iopte arm_lpae_prot_to_pte(struct arm_lpae_io_pgtable *data,
@@ -461,7 +461,7 @@ static arm_lpae_iopte arm_lpae_prot_to_pte(struct arm_lpae_io_pgtable *data,
 }
 
 static int arm_lpae_map(struct io_pgtable_ops *ops, unsigned long iova,
-                       phys_addr_t paddr, size_t size, int iommu_prot)
+                       phys_addr_t paddr, size_t size, int iommu_prot, gfp_t gfp)
 {
        struct arm_lpae_io_pgtable *data = io_pgtable_ops_to_data(ops);
        struct io_pgtable_cfg *cfg = &data->iop.cfg;
@@ -483,7 +483,7 @@ static int arm_lpae_map(struct io_pgtable_ops *ops, unsigned long iova,
                return -ERANGE;
 
        prot = arm_lpae_prot_to_pte(data, iommu_prot);
-       ret = __arm_lpae_map(data, iova, paddr, size, prot, lvl, ptep);
+       ret = __arm_lpae_map(data, iova, paddr, size, prot, lvl, ptep, gfp);
        /*
         * Synchronise all PTE updates for the new mapping before there's
         * a chance for anything to kick off a table walk for the new iova.
@@ -1178,12 +1178,12 @@ static int __init arm_lpae_run_tests(struct io_pgtable_cfg *cfg)
                        if (ops->map(ops, iova, iova, size, IOMMU_READ |
                                                            IOMMU_WRITE |
                                                            IOMMU_NOEXEC |
-                                                           IOMMU_CACHE))
+                                                           IOMMU_CACHE, GFP_KERNEL))
                                return __FAIL(ops, i);
 
                        /* Overlapping mappings */
                        if (!ops->map(ops, iova, iova + size, size,
-                                     IOMMU_READ | IOMMU_NOEXEC))
+                                     IOMMU_READ | IOMMU_NOEXEC, GFP_KERNEL))
                                return __FAIL(ops, i);
 
                        if (ops->iova_to_phys(ops, iova + 42) != (iova + 42))
@@ -1198,7 +1198,7 @@ static int __init arm_lpae_run_tests(struct io_pgtable_cfg *cfg)
                        return __FAIL(ops, i);
 
                /* Remap of partial unmap */
-               if (ops->map(ops, SZ_1G + size, size, size, IOMMU_READ))
+               if (ops->map(ops, SZ_1G + size, size, size, IOMMU_READ, GFP_KERNEL))
                        return __FAIL(ops, i);
 
                if (ops->iova_to_phys(ops, SZ_1G + size + 42) != (size + 42))
@@ -1216,7 +1216,7 @@ static int __init arm_lpae_run_tests(struct io_pgtable_cfg *cfg)
                                return __FAIL(ops, i);
 
                        /* Remap full block */
-                       if (ops->map(ops, iova, iova, size, IOMMU_WRITE))
+                       if (ops->map(ops, iova, iova, size, IOMMU_WRITE, GFP_KERNEL))
                                return __FAIL(ops, i);
 
                        if (ops->iova_to_phys(ops, iova + 42) != (iova + 42))
index 4c2972f3153b52bfb48e7d76b64274f394aaccec..87475b2f7ef1f8e4ba9255f8766d7a8c927e4161 100644 (file)
@@ -687,7 +687,7 @@ static int ipmmu_map(struct iommu_domain *io_domain, unsigned long iova,
        if (!domain)
                return -ENODEV;
 
-       return domain->iop->map(domain->iop, iova, paddr, size, prot);
+       return domain->iop->map(domain->iop, iova, paddr, size, prot, gfp);
 }
 
 static size_t ipmmu_unmap(struct iommu_domain *io_domain, unsigned long iova,
index f773cc85f311f2718428d5d13a0cc2cb775ff146..3615cd6241c4d114bff8096182c079b4b0fd9d3e 100644 (file)
@@ -491,7 +491,7 @@ static int msm_iommu_map(struct iommu_domain *domain, unsigned long iova,
        int ret;
 
        spin_lock_irqsave(&priv->pgtlock, flags);
-       ret = priv->iop->map(priv->iop, iova, pa, len, prot);
+       ret = priv->iop->map(priv->iop, iova, pa, len, prot, GFP_ATOMIC);
        spin_unlock_irqrestore(&priv->pgtlock, flags);
 
        return ret;
index 2be96f1cdbd270ba15cc1fe121ca3f96a93ad4d3..b7b16414a217ebad07969671ac22d52a554683cc 100644 (file)
@@ -397,7 +397,7 @@ static int mtk_iommu_map(struct iommu_domain *domain, unsigned long iova,
                paddr |= BIT_ULL(32);
 
        /* Synchronize with the tlb_lock */
-       return dom->iop->map(dom->iop, iova, paddr, size, prot);
+       return dom->iop->map(dom->iop, iova, paddr, size, prot, gfp);
 }
 
 static size_t mtk_iommu_unmap(struct iommu_domain *domain,
index c3e1fbd1988cf2bd51d0947313335cba44e3047b..cfcfd7553b30fce24526c231a74e5335fc1d6482 100644 (file)
@@ -441,7 +441,7 @@ static int qcom_iommu_map(struct iommu_domain *domain, unsigned long iova,
                return -ENODEV;
 
        spin_lock_irqsave(&qcom_domain->pgtbl_lock, flags);
-       ret = ops->map(ops, iova, paddr, size, prot);
+       ret = ops->map(ops, iova, paddr, size, prot, GFP_ATOMIC);
        spin_unlock_irqrestore(&qcom_domain->pgtbl_lock, flags);
        return ret;
 }
index 53d53c6c2be9a486e6000df17a4bdb27906e3401..23285ba645dbaa8fb1e843aaaa477597d647f8d8 100644 (file)
@@ -155,7 +155,7 @@ struct io_pgtable_cfg {
  */
 struct io_pgtable_ops {
        int (*map)(struct io_pgtable_ops *ops, unsigned long iova,
-                  phys_addr_t paddr, size_t size, int prot);
+                  phys_addr_t paddr, size_t size, int prot, gfp_t gfp);
        size_t (*unmap)(struct io_pgtable_ops *ops, unsigned long iova,
                        size_t size, struct iommu_iotlb_gather *gather);
        phys_addr_t (*iova_to_phys)(struct io_pgtable_ops *ops,