]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
drm/xe: Fix spelling and typos across Xe driver files
authorSanjay Yadav <sanjay.kumar.yadav@intel.com>
Thu, 23 Oct 2025 12:14:54 +0000 (17:44 +0530)
committerMatthew Auld <matthew.auld@intel.com>
Mon, 27 Oct 2025 13:00:11 +0000 (13:00 +0000)
Corrected various spelling mistakes and typos in multiple
files under the Xe directory. These fixes improve clarity
and maintain consistency in documentation.

v2
- Replaced all instances of "XE" with "Xe" where it referred
  to the driver name
- of -> for
- Typical -> Typically

v3
- Revert "Xe" to "XE" for macro prefix reference

Signed-off-by: Sanjay Yadav <sanjay.kumar.yadav@intel.com>
Reviewed-by: Matthew Auld <matthew.auld@intel.com>
Reviewed-by: Stuart Summers <stuart.summers@intel.com>
Signed-off-by: Matthew Auld <matthew.auld@intel.com>
Link: https://patch.msgid.link/20251023121453.1182035-2-sanjay.kumar.yadav@intel.com
32 files changed:
drivers/gpu/drm/xe/xe_bo.c
drivers/gpu/drm/xe/xe_bo_doc.h
drivers/gpu/drm/xe/xe_configfs.c
drivers/gpu/drm/xe/xe_device.c
drivers/gpu/drm/xe/xe_device_types.h
drivers/gpu/drm/xe/xe_exec.c
drivers/gpu/drm/xe/xe_force_wake_types.h
drivers/gpu/drm/xe/xe_gt_freq.c
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
drivers/gpu/drm/xe/xe_guc_ads_types.h
drivers/gpu/drm/xe/xe_guc_ct_types.h
drivers/gpu/drm/xe/xe_guc_log_types.h
drivers/gpu/drm/xe/xe_guc_submit.c
drivers/gpu/drm/xe/xe_guc_tlb_inval.c
drivers/gpu/drm/xe/xe_map.h
drivers/gpu/drm/xe/xe_migrate.c
drivers/gpu/drm/xe/xe_migrate_doc.h
drivers/gpu/drm/xe/xe_pm.c
drivers/gpu/drm/xe/xe_preempt_fence_types.h
drivers/gpu/drm/xe/xe_range_fence.h
drivers/gpu/drm/xe/xe_sched_job.c
drivers/gpu/drm/xe/xe_sched_job.h
drivers/gpu/drm/xe/xe_sched_job_types.h
drivers/gpu/drm/xe/xe_svm.c
drivers/gpu/drm/xe/xe_tlb_inval.h
drivers/gpu/drm/xe/xe_ttm_vram_mgr_types.h
drivers/gpu/drm/xe/xe_uc_fw_types.h
drivers/gpu/drm/xe/xe_uc_types.h
drivers/gpu/drm/xe/xe_validation.h
drivers/gpu/drm/xe/xe_vm.c
drivers/gpu/drm/xe/xe_vm_doc.h
drivers/gpu/drm/xe/xe_vm_types.h

index ad0da473ee652736204f98528dd0ef0a1b33aaf0..bbda20d7c089fa5a69cbbb005cdd44a47eb74091 100644 (file)
@@ -2121,7 +2121,7 @@ void xe_bo_free(struct xe_bo *bo)
  * if the function should allocate a new one.
  * @tile: The tile to select for migration of this bo, and the tile used for
  * GGTT binding if any. Only to be non-NULL for ttm_bo_type_kernel bos.
- * @resv: Pointer to a locked shared reservation object to use fo this bo,
+ * @resv: Pointer to a locked shared reservation object to use for this bo,
  * or NULL for the xe_bo to use its own.
  * @bulk: The bulk move to use for LRU bumping, or NULL for external bos.
  * @size: The storage size to use for the bo.
@@ -2651,7 +2651,7 @@ struct xe_bo *xe_bo_create_pin_map(struct xe_device *xe, struct xe_tile *tile,
  * @size: The storage size to use for the bo.
  * @type: The TTM buffer object type.
  * @flags: XE_BO_FLAG_ flags.
- * @intr: Whether to execut any waits for backing store interruptible.
+ * @intr: Whether to execute any waits for backing store interruptible.
  *
  * Create a pinned and mapped bo. The bo will be external and not associated
  * with a VM.
index 25a884c64bf1f96812946a95f17579212eb70894..401e7dd26ef31b43a114fa1fe868dfdade218273 100644 (file)
@@ -12,7 +12,7 @@
  * BO management
  * =============
  *
- * TTM manages (placement, eviction, etc...) all BOs in XE.
+ * TTM manages (placement, eviction, etc...) all BOs in Xe.
  *
  * BO creation
  * ===========
@@ -29,7 +29,7 @@
  * a kernel BO (e.g. engine state, memory for page tables, etc...). These BOs
  * are typically mapped in the GGTT (any kernel BOs aside memory for page tables
  * are in the GGTT), are pinned (can't move or be evicted at runtime), have a
- * vmap (XE can access the memory via xe_map layer) and have contiguous physical
+ * vmap (Xe can access the memory via xe_map layer) and have contiguous physical
  * memory.
  *
  * More details of why kernel BOs are pinned and contiguous below.
@@ -40,7 +40,7 @@
  * A user BO is created via the DRM_IOCTL_XE_GEM_CREATE IOCTL. Once it is
  * created the BO can be mmap'd (via DRM_IOCTL_XE_GEM_MMAP_OFFSET) for user
  * access and it can be bound for GPU access (via DRM_IOCTL_XE_VM_BIND). All
- * user BOs are evictable and user BOs are never pinned by XE. The allocation of
+ * user BOs are evictable and user BOs are never pinned by Xe. The allocation of
  * the backing store can be deferred from creation time until first use which is
  * either mmap, bind, or pagefault.
  *
@@ -84,7 +84,7 @@
  * ====================
  *
  * All eviction (or in other words, moving a BO from one memory location to
- * another) is routed through TTM with a callback into XE.
+ * another) is routed through TTM with a callback into Xe.
  *
  * Runtime eviction
  * ----------------
index fad75650f3ddb78107b696c946512a00dbbb03be..9f6251b1008bacccd3ba03892a3036b42babc3e2 100644 (file)
@@ -27,7 +27,7 @@
  * Overview
  * ========
  *
- * Configfs is a filesystem-based manager of kernel objects. XE KMD registers a
+ * Configfs is a filesystem-based manager of kernel objects. Xe KMD registers a
  * configfs subsystem called ``xe`` that creates a directory in the mounted
  * configfs directory. The user can create devices under this directory and
  * configure them as necessary. See Documentation/filesystems/configfs.rst for
index 5f6a412b571c79bc911d9a66b0d91c0fadd922f6..47f5391ad8e90f48dc3bdc0527ea593fc3f19b7c 100644 (file)
@@ -1217,7 +1217,7 @@ static void xe_device_wedged_fini(struct drm_device *drm, void *arg)
  *
  *   /sys/bus/pci/devices/<device>/survivability_mode
  *
- * - Admin/userpsace consumer can use firmware flashing tools like fwupd to flash
+ * - Admin/userspace consumer can use firmware flashing tools like fwupd to flash
  *   firmware and restore device to normal operation.
  */
 
index 8f62ee7a73acb410c157682c266b40f21b2854b5..dc17f63f93533296b97bb2b8f2d4666329194651 100644 (file)
@@ -222,7 +222,7 @@ struct xe_tile {
 };
 
 /**
- * struct xe_device - Top level struct of XE device
+ * struct xe_device - Top level struct of Xe device
  */
 struct xe_device {
        /** @drm: drm device */
@@ -245,9 +245,9 @@ struct xe_device {
                u32 media_verx100;
                /** @info.mem_region_mask: mask of valid memory regions */
                u32 mem_region_mask;
-               /** @info.platform: XE platform enum */
+               /** @info.platform: Xe platform enum */
                enum xe_platform platform;
-               /** @info.subplatform: XE subplatform enum */
+               /** @info.subplatform: Xe subplatform enum */
                enum xe_subplatform subplatform;
                /** @info.devid: device ID */
                u16 devid;
@@ -661,7 +661,7 @@ struct xe_device {
 };
 
 /**
- * struct xe_file - file handle for XE driver
+ * struct xe_file - file handle for Xe driver
  */
 struct xe_file {
        /** @xe: xe DEVICE **/
index 0dc27476832b5d1dec6a99786d428db1615b71d1..521467d976f743f860ccee4fac8cbb23326b4818 100644 (file)
@@ -33,7 +33,7 @@
  * - Binding at exec time
  * - Flow controlling the ring at exec time
  *
- * In XE we avoid all of this complication by not allowing a BO list to be
+ * In Xe we avoid all of this complication by not allowing a BO list to be
  * passed into an exec, using the dma-buf implicit sync uAPI, have binds as
  * separate operations, and using the DRM scheduler to flow control the ring.
  * Let's deep dive on each of these.
index 899fbbcb3ea9c6629ebad81ce67189afccd89f0a..12d6e236745538778ef931129224a682cfd27f8f 100644 (file)
@@ -52,7 +52,7 @@ enum xe_force_wake_domains {
 };
 
 /**
- * struct xe_force_wake_domain - XE force wake domains
+ * struct xe_force_wake_domain - Xe force wake domains
  */
 struct xe_force_wake_domain {
        /** @id: domain force wake id */
@@ -70,7 +70,7 @@ struct xe_force_wake_domain {
 };
 
 /**
- * struct xe_force_wake - XE force wake
+ * struct xe_force_wake - Xe force wake
  */
 struct xe_force_wake {
        /** @gt: back pointers to GT */
index 701349251bbc5076cb69a02e2467e4d30bbf4709..e88f113226bca60e1b42642f5a2d34c90378155d 100644 (file)
@@ -36,7 +36,7 @@
  * - act_freq: The actual resolved frequency decided by PCODE.
  * - cur_freq: The current one requested by GuC PC to the PCODE.
  * - rpn_freq: The Render Performance (RP) N level, which is the minimal one.
- * - rpa_freq: The Render Performance (RP) A level, which is the achiveable one.
+ * - rpa_freq: The Render Performance (RP) A level, which is the achievable one.
  *   Calculated by PCODE at runtime based on multiple running conditions
  * - rpe_freq: The Render Performance (RP) E level, which is the efficient one.
  *   Calculated by PCODE at runtime based on multiple running conditions
index d0b102ab6ce890e1252a25c22e20f5dc4e020886..4c73a077d314fa0ed6ee373070b2ee5a555b2b4a 100644 (file)
@@ -738,7 +738,7 @@ static void vf_start_migration_recovery(struct xe_gt *gt)
                gt->sriov.vf.migration.recovery_queued = true;
                WRITE_ONCE(gt->sriov.vf.migration.recovery_inprogress, true);
                WRITE_ONCE(gt->sriov.vf.migration.ggtt_need_fixes, true);
-               smp_wmb();      /* Ensure above writes visable before wake */
+               smp_wmb();      /* Ensure above writes visible before wake */
 
                xe_guc_ct_wake_waiters(&gt->uc.guc.ct);
 
index 70c132458ac380121b17a97448578b60b339f91f..48a8e092023faffc3127f3a4d0ec3e5083381c41 100644 (file)
@@ -14,7 +14,7 @@ struct xe_bo;
  * struct xe_guc_ads - GuC additional data structures (ADS)
  */
 struct xe_guc_ads {
-       /** @bo: XE BO for GuC ads blob */
+       /** @bo: Xe BO for GuC ads blob */
        struct xe_bo *bo;
        /** @golden_lrc_size: golden LRC size */
        size_t golden_lrc_size;
index 8b03b50313d9f670c6416b3f9f0cf9bc0104f3f8..09d7ff1ef42a0833b13acdbd491a2e7432c5cd69 100644 (file)
@@ -126,7 +126,7 @@ struct xe_fast_req_fence {
  * for the H2G and G2H requests sent and received through the buffers.
  */
 struct xe_guc_ct {
-       /** @bo: XE BO for CT */
+       /** @bo: Xe BO for CT */
        struct xe_bo *bo;
        /** @lock: protects everything in CT layer */
        struct mutex lock;
index b3d5c72ac75247d0726c6f95e681cd65dcab0c7b..02851b924aa437be4ed90417b0a28df552f486f7 100644 (file)
@@ -44,7 +44,7 @@ struct xe_guc_log_snapshot {
 struct xe_guc_log {
        /** @level: GuC log level */
        u32 level;
-       /** @bo: XE BO for GuC log */
+       /** @bo: Xe BO for GuC log */
        struct xe_bo *bo;
        /** @stats: logging related stats */
        struct {
index 0ef67d3523a72deefdb1d069af4d4f03ec62dffc..d4ffdb71ef3d71c405ebeaec745b85af2386deb1 100644 (file)
@@ -1920,7 +1920,7 @@ static bool guc_exec_queue_reset_status(struct xe_exec_queue *q)
 }
 
 /*
- * All of these functions are an abstraction layer which other parts of XE can
+ * All of these functions are an abstraction layer which other parts of Xe can
  * use to trap into the GuC backend. All of these functions, aside from init,
  * really shouldn't do much other than trap into the DRM scheduler which
  * synchronizes these operations.
index 6bf2103602f8870b1b384e6ab21180617c3e929e..a80175c7c47820a7fb0570cfc05cc1f38ad6316c 100644 (file)
@@ -207,7 +207,7 @@ static const struct xe_tlb_inval_ops guc_tlb_inval_ops = {
  * @guc: GuC object
  * @tlb_inval: TLB invalidation client
  *
- * Inititialize GuC TLB invalidation by setting back pointer in TLB invalidation
+ * Initialize GuC TLB invalidation by setting back pointer in TLB invalidation
  * client to the GuC and setting GuC backend ops.
  */
 void xe_guc_tlb_inval_init_early(struct xe_guc *guc,
index f62e0c8b67aba8e55a0dd0480e6a0e65aabf67c9..c447771256913ec1072a0a714907a498c3f01495 100644 (file)
@@ -14,9 +14,9 @@
  * DOC: Map layer
  *
  * All access to any memory shared with a device (both sysmem and vram) in the
- * XE driver should go through this layer (xe_map). This layer is built on top
+ * Xe driver should go through this layer (xe_map). This layer is built on top
  * of :ref:`driver-api/device-io:Generalizing Access to System and I/O Memory`
- * and with extra hooks into the XE driver that allows adding asserts to memory
+ * and with extra hooks into the Xe driver that allows adding asserts to memory
  * accesses (e.g. for blocking runtime_pm D3Cold on Discrete Graphics).
  */
 
index 921c9c1ea41f0bcff75a7676e376be42959a543c..56a5804726e96864a4af7f8d26628c3a46a73814 100644 (file)
@@ -2060,7 +2060,7 @@ err:
  *
  * Copy from an array dma addresses to a VRAM device physical address
  *
- * Return: dma fence for migrate to signal completion on succees, ERR_PTR on
+ * Return: dma fence for migrate to signal completion on success, ERR_PTR on
  * failure
  */
 struct dma_fence *xe_migrate_to_vram(struct xe_migrate *m,
@@ -2081,7 +2081,7 @@ struct dma_fence *xe_migrate_to_vram(struct xe_migrate *m,
  *
  * Copy from a VRAM device physical address to an array dma addresses
  *
- * Return: dma fence for migrate to signal completion on succees, ERR_PTR on
+ * Return: dma fence for migrate to signal completion on success, ERR_PTR on
  * failure
  */
 struct dma_fence *xe_migrate_from_vram(struct xe_migrate *m,
index 63c7d67b5b624ab35bad98229e8ec9f7696b8ff9..c082bc0b7068e1442f0bbb6806b8422df208b93a 100644 (file)
@@ -9,7 +9,7 @@
 /**
  * DOC: Migrate Layer
  *
- * The XE migrate layer is used generate jobs which can copy memory (eviction),
+ * The Xe migrate layer is used generate jobs which can copy memory (eviction),
  * clear memory, or program tables (binds). This layer exists in every GT, has
  * a migrate engine, and uses a special VM for all generated jobs.
  *
index 53507e09f7bc3ab6700e15e6eef2d1900ef299a3..7b089e6fb63f78186cbdfd0c69bcb0d8d6b20474 100644 (file)
@@ -102,7 +102,7 @@ static void xe_pm_block_end_signalling(void)
 /**
  * xe_pm_might_block_on_suspend() - Annotate that the code might block on suspend
  *
- * Annotation to use where the code might block or sieze to make
+ * Annotation to use where the code might block or seize to make
  * progress pending resume completion.
  */
 void xe_pm_might_block_on_suspend(void)
index 312c3372a49f902c3b6a38c1fa26aacb78c1b67b..ac125c697a410091918b9ad9bfefdddb27ad56b0 100644 (file)
@@ -12,7 +12,7 @@
 struct xe_exec_queue;
 
 /**
- * struct xe_preempt_fence - XE preempt fence
+ * struct xe_preempt_fence - Xe preempt fence
  *
  * hardware and triggers a callback once the xe_engine is complete.
  */
index edd58b34f5c0b6d3bb031af39f44abcf2e0a0600..4934729dd90466214b5156daafbe53403741f207 100644 (file)
 struct xe_range_fence_tree;
 struct xe_range_fence;
 
-/** struct xe_range_fence_ops - XE range fence ops */
+/** struct xe_range_fence_ops - Xe range fence ops */
 struct xe_range_fence_ops {
        /** @free: free range fence op */
        void (*free)(struct xe_range_fence *rfence);
 };
 
-/** struct xe_range_fence - XE range fence (address conflict tracking) */
+/** struct xe_range_fence - Xe range fence (address conflict tracking) */
 struct xe_range_fence {
        /** @rb: RB tree node inserted into interval tree */
        struct rb_node rb;
index d21bf8f26964030f38ef406b43a35532cd5f7dcd..6ae4cc6a380276d46be1f6ff610339515c491ffc 100644 (file)
@@ -160,11 +160,11 @@ err_free:
 }
 
 /**
- * xe_sched_job_destroy - Destroy XE schedule job
- * @ref: reference to XE schedule job
+ * xe_sched_job_destroy - Destroy Xe schedule job
+ * @ref: reference to Xe schedule job
  *
  * Called when ref == 0, drop a reference to job's xe_engine + fence, cleanup
- * base DRM schedule job, and free memory for XE schedule job.
+ * base DRM schedule job, and free memory for Xe schedule job.
  */
 void xe_sched_job_destroy(struct kref *ref)
 {
index 3dc72c5c1f139256651e647176cc14cc43f66e73..b467131b6d5f061ec95148b04ff17d0e60d36c97 100644 (file)
@@ -23,10 +23,10 @@ struct xe_sched_job *xe_sched_job_create(struct xe_exec_queue *q,
 void xe_sched_job_destroy(struct kref *ref);
 
 /**
- * xe_sched_job_get - get reference to XE schedule job
- * @job: XE schedule job object
+ * xe_sched_job_get - get reference to Xe schedule job
+ * @job: Xe schedule job object
  *
- * Increment XE schedule job's reference count
+ * Increment Xe schedule job's reference count
  */
 static inline struct xe_sched_job *xe_sched_job_get(struct xe_sched_job *job)
 {
@@ -35,10 +35,10 @@ static inline struct xe_sched_job *xe_sched_job_get(struct xe_sched_job *job)
 }
 
 /**
- * xe_sched_job_put - put reference to XE schedule job
- * @job: XE schedule job object
+ * xe_sched_job_put - put reference to Xe schedule job
+ * @job: Xe schedule job object
  *
- * Decrement XE schedule job's reference count, call xe_sched_job_destroy when
+ * Decrement Xe schedule job's reference count, call xe_sched_job_destroy when
  * reference count == 0.
  */
 static inline void xe_sched_job_put(struct xe_sched_job *job)
index 13e7a12b03adbf567bd42bafe4757d359639d839..d26612abb4ca4f84e0a833bed2fedebda457c622 100644 (file)
@@ -32,7 +32,7 @@ struct xe_job_ptrs {
 };
 
 /**
- * struct xe_sched_job - XE schedule job (batch buffer tracking)
+ * struct xe_sched_job - Xe schedule job (batch buffer tracking)
  */
 struct xe_sched_job {
        /** @drm: base DRM scheduler job */
index 129e7818565c82b99e1376602818d50fe8dccff6..13af589715a7f871486527eec2ca46982b5f10bc 100644 (file)
@@ -633,7 +633,7 @@ err_out:
 
        /*
         * XXX: We can't derive the GT here (or anywhere in this functions, but
-        * compute always uses the primary GT so accumlate stats on the likely
+        * compute always uses the primary GT so accumulate stats on the likely
         * GT of the fault.
         */
        if (gt)
index 554634dfd4e2f59df4acd7cc76548135325e64f5..05614915463a5564c31400e17ec3ffa560679148 100644 (file)
@@ -33,7 +33,7 @@ void xe_tlb_inval_fence_init(struct xe_tlb_inval *tlb_inval,
  * xe_tlb_inval_fence_wait() - TLB invalidiation fence wait
  * @fence: TLB invalidation fence to wait on
  *
- * Wait on a TLB invalidiation fence until it signals, non interruptable
+ * Wait on a TLB invalidiation fence until it signals, non interruptible
  */
 static inline void
 xe_tlb_inval_fence_wait(struct xe_tlb_inval_fence *fence)
index 1144f9232ebbba96efd7ed878171cbe57a891482..a71e14818ec2a6c4685f0292bd368966ee0a462a 100644 (file)
@@ -10,7 +10,7 @@
 #include <drm/ttm/ttm_device.h>
 
 /**
- * struct xe_ttm_vram_mgr - XE TTM VRAM manager
+ * struct xe_ttm_vram_mgr - Xe TTM VRAM manager
  *
  * Manages placement of TTM resource in VRAM.
  */
@@ -32,7 +32,7 @@ struct xe_ttm_vram_mgr {
 };
 
 /**
- * struct xe_ttm_vram_mgr_resource - XE TTM VRAM resource
+ * struct xe_ttm_vram_mgr_resource - Xe TTM VRAM resource
  */
 struct xe_ttm_vram_mgr_resource {
        /** @base: Base TTM resource */
index 77a1dcf8b4edcd04d9387e3c661ed5bfdb10e368..2ebe8c9db6ce1ea64f2f39f7458650d8f014774e 100644 (file)
@@ -62,7 +62,7 @@ enum xe_uc_fw_type {
 };
 
 /**
- * struct xe_uc_fw_version - Version for XE micro controller firmware
+ * struct xe_uc_fw_version - Version for Xe micro controller firmware
  */
 struct xe_uc_fw_version {
        /** @branch: branch version of the FW (not always available) */
@@ -84,7 +84,7 @@ enum xe_uc_fw_version_types {
 };
 
 /**
- * struct xe_uc_fw - XE micro controller firmware
+ * struct xe_uc_fw - Xe micro controller firmware
  */
 struct xe_uc_fw {
        /** @type: type uC firmware */
@@ -112,7 +112,7 @@ struct xe_uc_fw {
        /** @size: size of uC firmware including css header */
        size_t size;
 
-       /** @bo: XE BO for uC firmware */
+       /** @bo: Xe BO for uC firmware */
        struct xe_bo *bo;
 
        /** @has_gsc_headers: whether the FW image starts with GSC headers */
index 9924e4484866356f7c726e5f0377c9160b2a3913..1708379dc834336f253666b59db8d2eeb4f5c1b3 100644 (file)
@@ -12,7 +12,7 @@
 #include "xe_wopcm_types.h"
 
 /**
- * struct xe_uc - XE micro controllers
+ * struct xe_uc - Xe micro controllers
  */
 struct xe_uc {
        /** @guc: Graphics micro controller */
index fec331d791e7ed411817906ad869566a3f6eb207..1ef181c90434bf92d82546ee6a601a20186950e3 100644 (file)
@@ -108,7 +108,7 @@ struct xe_val_flags {
  * @request_exclusive: Whether to lock exclusively (write mode) the next time
  * the domain lock is locked.
  * @exec_flags: The drm_exec flags used for drm_exec (re-)initialization.
- * @nr: The drm_exec nr parameter used for drm_exec (re-)initializaiton.
+ * @nr: The drm_exec nr parameter used for drm_exec (re-)initialization.
  */
 struct xe_validation_ctx {
        struct drm_exec *exec;
@@ -137,7 +137,7 @@ bool xe_validation_should_retry(struct xe_validation_ctx *ctx, int *ret);
  * @_ret: The current error value possibly holding -ENOMEM
  *
  * Use this in way similar to drm_exec_retry_on_contention().
- * If @_ret contains -ENOMEM the tranaction is restarted once in a way that
+ * If @_ret contains -ENOMEM the transaction is restarted once in a way that
  * blocks other transactions and allows exhastive eviction. If the transaction
  * was already restarted once, Just return the -ENOMEM. May also set
  * _ret to -EINTR if not retrying and waits are interruptible.
@@ -180,7 +180,7 @@ static inline void *class_xe_validation_lock_ptr(class_xe_validation_t *_T)
  * @_val: The xe_validation_device.
  * @_exec: The struct drm_exec object
  * @_flags: Flags for the xe_validation_ctx initialization.
- * @_ret: Return in / out parameter. May be set by this macro. Typicall 0 when called.
+ * @_ret: Return in / out parameter. May be set by this macro. Typically 0 when called.
  *
  * This macro is will initiate a drm_exec transaction with additional support for
  * exhaustive eviction.
index 10d77666a42523f9e9db9fb2dd91847eb5306894..00f3520dec38dae3dcffb81915fc48d550faa187 100644 (file)
@@ -824,7 +824,7 @@ xe_vm_ops_add_range_rebind(struct xe_vma_ops *vops,
  *
  * (re)bind SVM range setting up GPU page tables for the range.
  *
- * Return: dma fence for rebind to signal completion on succees, ERR_PTR on
+ * Return: dma fence for rebind to signal completion on success, ERR_PTR on
  * failure
  */
 struct dma_fence *xe_vm_range_rebind(struct xe_vm *vm,
@@ -907,7 +907,7 @@ xe_vm_ops_add_range_unbind(struct xe_vma_ops *vops,
  *
  * Unbind SVM range removing the GPU page tables for the range.
  *
- * Return: dma fence for unbind to signal completion on succees, ERR_PTR on
+ * Return: dma fence for unbind to signal completion on success, ERR_PTR on
  * failure
  */
 struct dma_fence *xe_vm_range_unbind(struct xe_vm *vm,
@@ -1291,7 +1291,7 @@ static u16 pde_pat_index(struct xe_bo *bo)
         * selection of options. The user PAT index is only for encoding leaf
         * nodes, where we have use of more bits to do the encoding. The
         * non-leaf nodes are instead under driver control so the chosen index
-        * here should be distict from the user PAT index. Also the
+        * here should be distinct from the user PAT index. Also the
         * corresponding coherency of the PAT index should be tied to the
         * allocation type of the page table (or at least we should pick
         * something which is always safe).
@@ -4172,7 +4172,7 @@ void xe_vm_snapshot_free(struct xe_vm_snapshot *snap)
 
 /**
  * xe_vma_need_vram_for_atomic - Check if VMA needs VRAM migration for atomic operations
- * @xe: Pointer to the XE device structure
+ * @xe: Pointer to the Xe device structure
  * @vma: Pointer to the virtual memory area (VMA) structure
  * @is_atomic: In pagefault path and atomic operation
  *
@@ -4319,7 +4319,7 @@ static int xe_vm_alloc_vma(struct xe_vm *vm,
                        xe_vma_destroy(gpuva_to_vma(op->base.remap.unmap->va), NULL);
                } else if (__op->op == DRM_GPUVA_OP_MAP) {
                        vma = op->map.vma;
-                       /* In case of madvise call, MAP will always be follwed by REMAP.
+                       /* In case of madvise call, MAP will always be followed by REMAP.
                         * Therefore temp_attr will always have sane values, making it safe to
                         * copy them to new vma.
                         */
index 1030ce214032c695a6065b766d31b2aa04f012df..02e5288373c9ec0996c5f12e0a3b344ecd39c03a 100644 (file)
@@ -7,7 +7,7 @@
 #define _XE_VM_DOC_H_
 
 /**
- * DOC: XE VM (user address space)
+ * DOC: Xe VM (user address space)
  *
  * VM creation
  * ===========
  * User pointers are user allocated memory (malloc'd, mmap'd, etc..) for which the
  * user wants to create a GPU mapping. Typically in other DRM drivers a dummy BO
  * was created and then a binding was created. We bypass creating a dummy BO in
- * XE and simply create a binding directly from the userptr.
+ * Xe and simply create a binding directly from the userptr.
  *
  * Invalidation
  * ------------
  *
  * Since this a core kernel managed memory the kernel can move this memory
- * whenever it wants. We register an invalidation MMU notifier to alert XE when
+ * whenever it wants. We register an invalidation MMU notifier to alert Xe when
  * a user pointer is about to move. The invalidation notifier needs to block
  * until all pending users (jobs or compute mode engines) of the userptr are
  * idle to ensure no faults. This done by waiting on all of VM's dma-resv slots.
  * =======
  *
  * VM locking protects all of the core data paths (bind operations, execs,
- * evictions, and compute mode rebind worker) in XE.
+ * evictions, and compute mode rebind worker) in Xe.
  *
  * Locks
  * -----
index d6e2a0fdd4b3591a3c3fc12ca85b7f465ead0b99..830ed7b05c27eb60d69dc1c45e36a5be7f40b147 100644 (file)
@@ -52,7 +52,7 @@ struct xe_vm_pgtable_update_op;
  * struct xe_vma_mem_attr - memory attributes associated with vma
  */
 struct xe_vma_mem_attr {
-       /** @preferred_loc: perferred memory_location */
+       /** @preferred_loc: preferred memory_location */
        struct {
                /** @preferred_loc.migration_policy: Pages migration policy */
                u32 migration_policy;
@@ -338,7 +338,7 @@ struct xe_vm {
        u64 tlb_flush_seqno;
        /** @batch_invalidate_tlb: Always invalidate TLB before batch start */
        bool batch_invalidate_tlb;
-       /** @xef: XE file handle for tracking this VM's drm client */
+       /** @xef: Xe file handle for tracking this VM's drm client */
        struct xe_file *xef;
 };