]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
iommu/amd: Enhance amd_iommu_domain_alloc_user()
authorVasant Hegde <vasant.hegde@amd.com>
Mon, 28 Oct 2024 09:38:07 +0000 (09:38 +0000)
committerJoerg Roedel <jroedel@suse.de>
Tue, 29 Oct 2024 09:08:22 +0000 (10:08 +0100)
Previous patch enhanced core layer to check device PASID capability and
pass right flags to ops->domain_alloc_user().

Enhance amd_iommu_domain_alloc_user() to allocate domain with
appropriate page table based on flags parameter.
  - If flags is empty then allocate domain with default page table type.
    This will eventually replace ops->domain_alloc().
    For UNMANAGED domain, core will call this interface with flags=0. So
    AMD driver will continue to allocate V1 page table.

  - If IOMMU_HWPT_ALLOC_PASID flags is passed then allocate domain with v2
    page table.

Signed-off-by: Vasant Hegde <vasant.hegde@amd.com>
Reviewed-by: Kevin Tian <kevin.tian@intel.com>
Reviewed-by: Jason Gunthorpe <jgg@nvidia.com>
Link: https://lore.kernel.org/r/20241028093810.5901-10-vasant.hegde@amd.com
Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/iommu/amd/iommu.c

index cb6a72564c239f415756d2b096e7f990f5e3ad74..671131c22d9d39baa88dd7be0c1e471e727231dc 100644 (file)
@@ -2346,9 +2346,6 @@ static struct iommu_domain *do_iommu_domain_alloc(unsigned int type,
        if (amd_iommu_snp_en && (type == IOMMU_DOMAIN_IDENTITY))
                return ERR_PTR(-EINVAL);
 
-       if (dirty_tracking && !amd_iommu_hd_support(iommu))
-               return ERR_PTR(-EOPNOTSUPP);
-
        domain = protection_domain_alloc(type,
                                         dev ? dev_to_node(dev) : NUMA_NO_NODE);
        if (!domain)
@@ -2403,11 +2400,36 @@ amd_iommu_domain_alloc_user(struct device *dev, u32 flags,
 
 {
        unsigned int type = IOMMU_DOMAIN_UNMANAGED;
+       struct amd_iommu *iommu = NULL;
+       const u32 supported_flags = IOMMU_HWPT_ALLOC_DIRTY_TRACKING |
+                                               IOMMU_HWPT_ALLOC_PASID;
+
+       if (dev)
+               iommu = get_amd_iommu_from_dev(dev);
+
+       if ((flags & ~supported_flags) || parent || user_data)
+               return ERR_PTR(-EOPNOTSUPP);
+
+       /* Allocate domain with v2 page table if IOMMU supports PASID. */
+       if (flags & IOMMU_HWPT_ALLOC_PASID) {
+               if (!amd_iommu_pasid_supported())
+                       return ERR_PTR(-EOPNOTSUPP);
+
+               return do_iommu_domain_alloc(type, dev, flags, AMD_IOMMU_V2);
+       }
+
+       /* Allocate domain with v1 page table for dirty tracking */
+       if (flags & IOMMU_HWPT_ALLOC_DIRTY_TRACKING) {
+               if (iommu && amd_iommu_hd_support(iommu)) {
+                       return do_iommu_domain_alloc(type, dev,
+                                                    flags, AMD_IOMMU_V1);
+               }
 
-       if ((flags & ~IOMMU_HWPT_ALLOC_DIRTY_TRACKING) || parent || user_data)
                return ERR_PTR(-EOPNOTSUPP);
+       }
 
-       return do_iommu_domain_alloc(type, dev, flags, AMD_IOMMU_V1);
+       /* If nothing specific is required use the kernel commandline default */
+       return do_iommu_domain_alloc(type, dev, 0, amd_iommu_pgtable);
 }
 
 void amd_iommu_domain_free(struct iommu_domain *dom)