]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
arm64: Fix typos and spelling errors in comments
authormrigendrachaubey <mrigendra.chaubey@gmail.com>
Thu, 6 Nov 2025 13:56:55 +0000 (19:26 +0530)
committerCatalin Marinas <catalin.marinas@arm.com>
Wed, 12 Nov 2025 17:06:21 +0000 (17:06 +0000)
This patch corrects several minor typographical and spelling errors
in comments across multiple arm64 source files.

No functional changes.

Signed-off-by: mrigendrachaubey <mrigendra.chaubey@gmail.com>
Signed-off-by: Catalin Marinas <catalin.marinas@arm.com>
18 files changed:
arch/arm64/include/asm/assembler.h
arch/arm64/include/asm/cpufeature.h
arch/arm64/include/asm/el2_setup.h
arch/arm64/include/asm/pgtable.h
arch/arm64/include/asm/suspend.h
arch/arm64/kernel/acpi.c
arch/arm64/kernel/cpufeature.c
arch/arm64/kernel/ftrace.c
arch/arm64/kernel/machine_kexec.c
arch/arm64/kernel/probes/uprobes.c
arch/arm64/kernel/sdei.c
arch/arm64/kernel/smp.c
arch/arm64/kernel/traps.c
arch/arm64/kvm/arch_timer.c
arch/arm64/kvm/hyp/nvhe/ffa.c
arch/arm64/kvm/mmu.c
arch/arm64/kvm/nested.c
arch/arm64/net/bpf_jit_comp.c

index 23be85d933485001c00a084f1aa0bdbc0457cf47..b8b1229e05e55cefe46ebf3e8e6e47b5753fb486 100644 (file)
@@ -371,7 +371,7 @@ alternative_endif
  * [start, end) with dcache line size explicitly provided.
  *
  *     op:             operation passed to dc instruction
- *     domain:         domain used in dsb instruciton
+ *     domain:         domain used in dsb instruction
  *     start:          starting virtual address of the region
  *     end:            end virtual address of the region
  *     linesz:         dcache line size
@@ -412,7 +412,7 @@ alternative_endif
  * [start, end)
  *
  *     op:             operation passed to dc instruction
- *     domain:         domain used in dsb instruciton
+ *     domain:         domain used in dsb instruction
  *     start:          starting virtual address of the region
  *     end:            end virtual address of the region
  *     fixup:          optional label to branch to on user fault
index e223cbf350e49c94626836258c9140801496c22c..71ba4a47ab18271769716befd9704a27c0a10634 100644 (file)
@@ -199,7 +199,7 @@ extern struct arm64_ftr_reg arm64_ftr_reg_ctrel0;
  *    registers (e.g, SCTLR, TCR etc.) or patching the kernel via
  *    alternatives. The kernel patching is batched and performed at later
  *    point. The actions are always initiated only after the capability
- *    is finalised. This is usally denoted by "enabling" the capability.
+ *    is finalised. This is usually denoted by "enabling" the capability.
  *    The actions are initiated as follows :
  *     a) Action is triggered on all online CPUs, after the capability is
  *     finalised, invoked within the stop_machine() context from
@@ -251,7 +251,7 @@ extern struct arm64_ftr_reg arm64_ftr_reg_ctrel0;
 #define ARM64_CPUCAP_SCOPE_LOCAL_CPU           ((u16)BIT(0))
 #define ARM64_CPUCAP_SCOPE_SYSTEM              ((u16)BIT(1))
 /*
- * The capabilitiy is detected on the Boot CPU and is used by kernel
+ * The capability is detected on the Boot CPU and is used by kernel
  * during early boot. i.e, the capability should be "detected" and
  * "enabled" as early as possibly on all booting CPUs.
  */
index b37da3ee852963a9c80ffb6ae6554b682b0f0656..f593ce79fe15b41783b20c60679f4219bdfeccec 100644 (file)
@@ -28,7 +28,7 @@
         * Fruity CPUs seem to have HCR_EL2.E2H set to RAO/WI, but
         * don't advertise it (they predate this relaxation).
         *
-        * Initalize HCR_EL2.E2H so that later code can rely upon HCR_EL2.E2H
+        * Initialize HCR_EL2.E2H so that later code can rely upon HCR_EL2.E2H
         * indicating whether the CPU is running in E2H mode.
         */
        mrs_s   x1, SYS_ID_AA64MMFR4_EL1
index aa89c2e67ebc84587d24e415b0fc1ddb6baccdc8..36bf4655bc3dcb16190f805a1a015f509b05495e 100644 (file)
@@ -432,7 +432,7 @@ bool pgattr_change_is_safe(pteval_t old, pteval_t new);
  *   1      0      |   1           0          1
  *   1      1      |   0           1          x
  *
- * When hardware DBM is not present, the sofware PTE_DIRTY bit is updated via
+ * When hardware DBM is not present, the software PTE_DIRTY bit is updated via
  * the page fault mechanism. Checking the dirty status of a pte becomes:
  *
  *   PTE_DIRTY || (PTE_WRITE && !PTE_RDONLY)
@@ -598,7 +598,7 @@ static inline int pte_protnone(pte_t pte)
        /*
         * pte_present_invalid() tells us that the pte is invalid from HW
         * perspective but present from SW perspective, so the fields are to be
-        * interpretted as per the HW layout. The second 2 checks are the unique
+        * interpreted as per the HW layout. The second 2 checks are the unique
         * encoding that we use for PROT_NONE. It is insufficient to only use
         * the first check because we share the same encoding scheme with pmds
         * which support pmd_mkinvalid(), so can be present-invalid without
index 0cde2f473971e87cd355ce2e56451c8213fcd02a..e65f33edf9d61d025d33d20fb77f3297ebd35bda 100644 (file)
@@ -23,7 +23,7 @@ struct cpu_suspend_ctx {
  * __cpu_suspend_enter()'s caller, and populated by __cpu_suspend_enter().
  * This data must survive until cpu_resume() is called.
  *
- * This struct desribes the size and the layout of the saved cpu state.
+ * This struct describes the size and the layout of the saved cpu state.
  * The layout of the callee_saved_regs is defined by the implementation
  * of __cpu_suspend_enter(), and cpu_resume(). This struct must be passed
  * in by the caller as __cpu_suspend_enter()'s stack-frame is gone once it
index 7aca29e1d30b2499fb9f276e8fde25f1fc9846e5..d1ac0e58651cb94fdd0dd18fa0fdf1ba3dbdee39 100644 (file)
@@ -133,7 +133,7 @@ static int __init acpi_fadt_sanity_check(void)
 
        /*
         * FADT is required on arm64; retrieve it to check its presence
-        * and carry out revision and ACPI HW reduced compliancy tests
+        * and carry out revision and ACPI HW reduced compliance tests
         */
        status = acpi_get_table(ACPI_SIG_FADT, 0, &table);
        if (ACPI_FAILURE(status)) {
index 5ed401ff79e3e388b63825acbd156546cf91e103..77654643b952db28603b334e9ae0cda312ffbfe5 100644 (file)
@@ -1002,7 +1002,7 @@ static void __init sort_ftr_regs(void)
 
 /*
  * Initialise the CPU feature register from Boot CPU values.
- * Also initiliases the strict_mask for the register.
+ * Also initialises the strict_mask for the register.
  * Any bits that are not covered by an arm64_ftr_bits entry are considered
  * RES0 for the system-wide value, and must strictly match.
  */
index 5adad37ab4faff70a7755304b1e8a2e8072d1276..5a1554a4416289c6e007db9364db70b94458b5cb 100644 (file)
@@ -492,7 +492,7 @@ int ftrace_make_nop(struct module *mod, struct dyn_ftrace *rec,
                return ret;
 
        /*
-        * When using mcount, callsites in modules may have been initalized to
+        * When using mcount, callsites in modules may have been initialized to
         * call an arbitrary module PLT (which redirects to the _mcount stub)
         * rather than the ftrace PLT we'll use at runtime (which redirects to
         * the ftrace trampoline). We can ignore the old PLT when initializing
index 6f121a0164a48b6e0a677ce9b9d667f12c7f177a..239c16e3d02f29ba3c4863a6db331db057a62423 100644 (file)
@@ -251,7 +251,7 @@ void crash_post_resume(void)
  * marked as Reserved as memory was allocated via memblock_reserve().
  *
  * In hibernation, the pages which are Reserved and yet "nosave" are excluded
- * from the hibernation iamge. crash_is_nosave() does thich check for crash
+ * from the hibernation image. crash_is_nosave() does thich check for crash
  * dump kernel and will reduce the total size of hibernation image.
  */
 
index 2799bdb2fb820b362febeeb4794ba46f704f2e72..941668800aeae4e2fce90d93ea2f42815bc0fc7a 100644 (file)
@@ -131,7 +131,7 @@ void arch_uprobe_abort_xol(struct arch_uprobe *auprobe, struct pt_regs *regs)
        struct uprobe_task *utask = current->utask;
 
        /*
-        * Task has received a fatal signal, so reset back to probbed
+        * Task has received a fatal signal, so reset back to probed
         * address.
         */
        instruction_pointer_set(regs, utask->vaddr);
index 95169f7b653198a438cf5ca27d473b54cfc87dce..965b03fedfb83460f829434dc00cf616c85e7b4d 100644 (file)
@@ -202,7 +202,7 @@ out_err:
 /*
  * do_sdei_event() returns one of:
  *  SDEI_EV_HANDLED -  success, return to the interrupted context.
- *  SDEI_EV_FAILED  -  failure, return this error code to firmare.
+ *  SDEI_EV_FAILED  -  failure, return this error code to firmware.
  *  virtual-address -  success, return to this address.
  */
 unsigned long __kprobes do_sdei_event(struct pt_regs *regs,
index 68cea3a4a35ca9144e0b8fe7e9be033d87951ef3..a0bfe624f8996dd5647d9eace2fae0360cc40b13 100644 (file)
@@ -350,7 +350,7 @@ void arch_cpuhp_cleanup_dead_cpu(unsigned int cpu)
 
        /*
         * Now that the dying CPU is beyond the point of no return w.r.t.
-        * in-kernel synchronisation, try to get the firwmare to help us to
+        * in-kernel synchronisation, try to get the firmware to help us to
         * verify that it has really left the kernel before we consider
         * clobbering anything it might still be using.
         */
@@ -523,7 +523,7 @@ int arch_register_cpu(int cpu)
 
        /*
         * Availability of the acpi handle is sufficient to establish
-        * that _STA has aleady been checked. No need to recheck here.
+        * that _STA has already been checked. No need to recheck here.
         */
        c->hotpluggable = arch_cpu_is_hotpluggable(cpu);
 
index 681939ef5d16e752d10cbb946441fd5752052bc2..91428201606989de7d9cc5eec538bd82144a1194 100644 (file)
@@ -922,7 +922,7 @@ void __noreturn panic_bad_stack(struct pt_regs *regs, unsigned long esr, unsigne
        __show_regs(regs);
 
        /*
-        * We use nmi_panic to limit the potential for recusive overflows, and
+        * We use nmi_panic to limit the potential for recursive overflows, and
         * to get a better stack trace.
         */
        nmi_panic(NULL, "kernel stack overflow");
index dbd74e4885e244bc22db0962b4fc0c1ce671ff11..ebcb7f1a55eeb85c22bbb4ef17d4ce79ba483dc5 100644 (file)
@@ -815,7 +815,7 @@ static void timer_set_traps(struct kvm_vcpu *vcpu, struct timer_map *map)
                tpt = tpc = true;
 
        /*
-        * For the poor sods that could not correctly substract one value
+        * For the poor sods that could not correctly subtract one value
         * from another, trap the full virtual timer and counter.
         */
        if (has_broken_cntvoff() && timer_get_offset(map->direct_vtimer))
index 4e16f9b96f637599873b16148c6e40cf1210aa3e..0ee7ebb2485edf04141497aae9c26ea3dd63edcd 100644 (file)
@@ -115,7 +115,7 @@ static void ffa_set_retval(struct kvm_cpu_context *ctxt,
         *
         * FFA-1.3 introduces 64-bit variants of the CPU cycle management
         * interfaces. Moreover, FF-A 1.3 clarifies that SMC32 direct requests
-        * complete with SMC32 direct reponses which *should* allow us use the
+        * complete with SMC32 direct responses which *should* allow us use the
         * function ID sent by the caller to determine whether to return x8-x17.
         *
         * Note that we also cannot rely on function IDs in the response.
index 7cc964af8d305313643d4ebffc53a69ff2ecff60..9a6a80c3fbe528afd546ebf8a309b64cf95f2784 100644 (file)
@@ -1755,7 +1755,7 @@ static int user_mem_abort(struct kvm_vcpu *vcpu, phys_addr_t fault_ipa,
 
        /*
         * Check if this is non-struct page memory PFN, and cannot support
-        * CMOs. It could potentially be unsafe to access as cachable.
+        * CMOs. It could potentially be unsafe to access as cacheable.
         */
        if (vm_flags & (VM_PFNMAP | VM_MIXEDMAP) && !pfn_is_map_memory(pfn)) {
                if (is_vma_cacheable) {
index 7a045cad6bdf0a80e2fe250b211f011ca43533a7..4c16dbbd6e9067ef49cbcd2a79089dffacbce990 100644 (file)
@@ -85,7 +85,7 @@ int kvm_vcpu_init_nested(struct kvm_vcpu *vcpu)
        /*
         * Let's treat memory allocation failures as benign: If we fail to
         * allocate anything, return an error and keep the allocated array
-        * alive. Userspace may try to recover by intializing the vcpu
+        * alive. Userspace may try to recover by initializing the vcpu
         * again, and there is no reason to affect the whole VM for this.
         */
        num_mmus = atomic_read(&kvm->online_vcpus) * S2_MMU_PER_VCPU;
index ab83089c3d8fe0a5e4bc3094abf3f75ba52d14eb..26b93e0f11b1b79ca53aabb7807e4e4c5ba8a559 100644 (file)
@@ -3053,7 +3053,7 @@ bool bpf_jit_supports_exceptions(void)
        /* We unwind through both kernel frames starting from within bpf_throw
         * call and BPF frames. Therefore we require FP unwinder to be enabled
         * to walk kernel frames and reach BPF frames in the stack trace.
-        * ARM64 kernel is aways compiled with CONFIG_FRAME_POINTER=y
+        * ARM64 kernel is always compiled with CONFIG_FRAME_POINTER=y
         */
        return true;
 }