]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
iommu/vt-d: Use cache_tag_flush_range_np() in iotlb_sync_map
authorLu Baolu <baolu.lu@linux.intel.com>
Wed, 24 Apr 2024 07:16:38 +0000 (15:16 +0800)
committerJoerg Roedel <jroedel@suse.de>
Fri, 26 Apr 2024 09:57:45 +0000 (11:57 +0200)
The iotlb_sync_map callback is called by the iommu core after non-present
to present mappings are created. The iommu driver uses this callback to
invalidate caches if IOMMU is working in caching mode and second-only
translation is used for the domain. Use cache_tag_flush_range_np() in this
callback.

Signed-off-by: Lu Baolu <baolu.lu@linux.intel.com>
Reviewed-by: Kevin Tian <kevin.tian@intel.com>
Link: https://lore.kernel.org/r/20240416080656.60968-7-baolu.lu@linux.intel.com
Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/iommu/intel/iommu.c

index f3926ad7d737d7b743cdf59431a93e386f384b12..c9ac8a1b635fc366752ce024de5b2321b0d564fc 100644 (file)
@@ -1501,20 +1501,6 @@ static void iommu_flush_iotlb_psi(struct intel_iommu *iommu,
                iommu_flush_dev_iotlb(domain, addr, mask);
 }
 
-/* Notification for newly created mappings */
-static void __mapping_notify_one(struct intel_iommu *iommu, struct dmar_domain *domain,
-                                unsigned long pfn, unsigned int pages)
-{
-       /*
-        * It's a non-present to present mapping. Only flush if caching mode
-        * and second level.
-        */
-       if (cap_caching_mode(iommu->cap) && !domain->use_first_level)
-               iommu_flush_iotlb_psi(iommu, domain, pfn, pages, 0, 1);
-       else
-               iommu_flush_write_buffer(iommu);
-}
-
 /*
  * Flush the relevant caches in nested translation if the domain
  * also serves as a parent
@@ -4544,14 +4530,8 @@ static bool risky_device(struct pci_dev *pdev)
 static int intel_iommu_iotlb_sync_map(struct iommu_domain *domain,
                                      unsigned long iova, size_t size)
 {
-       struct dmar_domain *dmar_domain = to_dmar_domain(domain);
-       unsigned long pages = aligned_nrpages(iova, size);
-       unsigned long pfn = iova >> VTD_PAGE_SHIFT;
-       struct iommu_domain_info *info;
-       unsigned long i;
+       cache_tag_flush_range_np(to_dmar_domain(domain), iova, iova + size - 1);
 
-       xa_for_each(&dmar_domain->iommu_array, i, info)
-               __mapping_notify_one(info->iommu, dmar_domain, pfn, pages);
        return 0;
 }