]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
sched: Fix various typos in comments
authorIngo Molnar <mingo@kernel.org>
Mon, 3 Dec 2018 09:05:56 +0000 (10:05 +0100)
committerIngo Molnar <mingo@kernel.org>
Mon, 3 Dec 2018 10:55:42 +0000 (11:55 +0100)
Go over the scheduler source code and fix common typos
in comments - and a typo in an actual variable name.

No change in functionality intended.

Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: Linus Torvalds <torvalds@linux-foundation.org>
Cc: linux-kernel@vger.kernel.org
Signed-off-by: Ingo Molnar <mingo@kernel.org>
include/linux/sched.h
include/linux/sched/isolation.h
include/linux/sched/mm.h
include/linux/sched/stat.h
kernel/sched/core.c
kernel/sched/cputime.c
kernel/sched/deadline.c
kernel/sched/fair.c
kernel/sched/isolation.c
kernel/sched/sched.h

index 291a9bd5b97fe6ad8d67409b05d1ec94c1300f44..b8c7ba0e3796f09f85841806f1371e9b270c13d6 100644 (file)
@@ -176,7 +176,7 @@ struct task_group;
  * TASK_RUNNING store which can collide with __set_current_state(TASK_RUNNING).
  *
  * However, with slightly different timing the wakeup TASK_RUNNING store can
- * also collide with the TASK_UNINTERRUPTIBLE store. Loosing that store is not
+ * also collide with the TASK_UNINTERRUPTIBLE store. Losing that store is not
  * a problem either because that will result in one extra go around the loop
  * and our @cond test will save the day.
  *
@@ -515,7 +515,7 @@ struct sched_dl_entity {
 
        /*
         * Actual scheduling parameters. Initialized with the values above,
-        * they are continously updated during task execution. Note that
+        * they are continuously updated during task execution. Note that
         * the remaining runtime could be < 0 in case we are in overrun.
         */
        s64                             runtime;        /* Remaining runtime for this instance  */
index 4a6582c27dea7bb3f15338b97b67869a9b4b05d0..b0fb1446fe04d809ab9fa0763e7d7b27ff2a2c6c 100644 (file)
@@ -16,7 +16,7 @@ enum hk_flags {
 };
 
 #ifdef CONFIG_CPU_ISOLATION
-DECLARE_STATIC_KEY_FALSE(housekeeping_overriden);
+DECLARE_STATIC_KEY_FALSE(housekeeping_overridden);
 extern int housekeeping_any_cpu(enum hk_flags flags);
 extern const struct cpumask *housekeeping_cpumask(enum hk_flags flags);
 extern void housekeeping_affine(struct task_struct *t, enum hk_flags flags);
@@ -43,7 +43,7 @@ static inline void housekeeping_init(void) { }
 static inline bool housekeeping_cpu(int cpu, enum hk_flags flags)
 {
 #ifdef CONFIG_CPU_ISOLATION
-       if (static_branch_unlikely(&housekeeping_overriden))
+       if (static_branch_unlikely(&housekeeping_overridden))
                return housekeeping_test_cpu(cpu, flags);
 #endif
        return true;
index aebb370a000624f0258a7c0a2465a4ea2d3e6acf..3bfa6a0cbba4edc7bf0a9e33798e227526633bfa 100644 (file)
@@ -153,7 +153,7 @@ static inline gfp_t current_gfp_context(gfp_t flags)
 {
        /*
         * NOIO implies both NOIO and NOFS and it is a weaker context
-        * so always make sure it makes precendence
+        * so always make sure it makes precedence
         */
        if (unlikely(current->flags & PF_MEMALLOC_NOIO))
                flags &= ~(__GFP_IO | __GFP_FS);
index f30954cc059dfd8e60870c1b4328949272947bf3..568286411b43ab5b48378eea1bbb0441bb8a520f 100644 (file)
@@ -8,7 +8,7 @@
  * Various counters maintained by the scheduler and fork(),
  * exposed via /proc, sys.c or used by drivers via these APIs.
  *
- * ( Note that all these values are aquired without locking,
+ * ( Note that all these values are acquired without locking,
  *   so they can only be relied on in narrow circumstances. )
  */
 
index 8050f266751a7af648217854418e3d85cb637500..e4ca15d75541f95013f7fdd3f8756f92a73f67da 100644 (file)
@@ -2857,7 +2857,7 @@ unsigned long nr_running(void)
  * preemption, thus the result might have a time-of-check-to-time-of-use
  * race.  The caller is responsible to use it correctly, for example:
  *
- * - from a non-preemptable section (of course)
+ * - from a non-preemptible section (of course)
  *
  * - from a thread that is bound to a single CPU
  *
index 0796f938c4f0df3988bd1afbb30e5df8ce549f5e..ba4a143bdcf313298e19dfab352d33d46b592a3e 100644 (file)
@@ -525,7 +525,7 @@ void account_idle_ticks(unsigned long ticks)
 
 /*
  * Perform (stime * rtime) / total, but avoid multiplication overflow by
- * loosing precision when the numbers are big.
+ * losing precision when the numbers are big.
  */
 static u64 scale_stime(u64 stime, u64 rtime, u64 total)
 {
index 470ba6b464fee5d4ae57415d4df7c803b5d0c13b..b32bc1f7cd144a73ba5aea30751fd32daeeca040 100644 (file)
@@ -727,7 +727,7 @@ static void replenish_dl_entity(struct sched_dl_entity *dl_se,
  * refill the runtime and set the deadline a period in the future,
  * because keeping the current (absolute) deadline of the task would
  * result in breaking guarantees promised to other tasks (refer to
- * Documentation/scheduler/sched-deadline.txt for more informations).
+ * Documentation/scheduler/sched-deadline.txt for more information).
  *
  * This function returns true if:
  *
index e30dea59d215db5ba0a521e81c024f0d0fafa426..fdc8356ea742928ec10798ac723157af40a2104c 100644 (file)
@@ -703,9 +703,9 @@ void init_entity_runnable_average(struct sched_entity *se)
        memset(sa, 0, sizeof(*sa));
 
        /*
-        * Tasks are intialized with full load to be seen as heavy tasks until
+        * Tasks are initialized with full load to be seen as heavy tasks until
         * they get a chance to stabilize to their real load level.
-        * Group entities are intialized with zero load to reflect the fact that
+        * Group entities are initialized with zero load to reflect the fact that
         * nothing has been attached to the task group yet.
         */
        if (entity_is_task(se))
@@ -3976,8 +3976,8 @@ dequeue_entity(struct cfs_rq *cfs_rq, struct sched_entity *se, int flags)
        /*
         * When dequeuing a sched_entity, we must:
         *   - Update loads to have both entity and cfs_rq synced with now.
-        *   - Substract its load from the cfs_rq->runnable_avg.
-        *   - Substract its previous weight from cfs_rq->load.weight.
+        *   - Subtract its load from the cfs_rq->runnable_avg.
+        *   - Subtract its previous weight from cfs_rq->load.weight.
         *   - For group entity, update its weight to reflect the new share
         *     of its group cfs_rq.
         */
index e6802181900f6cd22e151170e4e63a1876dd4cb8..81faddba9e2011e2dff9a83f64e28fcc932e81c2 100644 (file)
@@ -8,14 +8,14 @@
  */
 #include "sched.h"
 
-DEFINE_STATIC_KEY_FALSE(housekeeping_overriden);
-EXPORT_SYMBOL_GPL(housekeeping_overriden);
+DEFINE_STATIC_KEY_FALSE(housekeeping_overridden);
+EXPORT_SYMBOL_GPL(housekeeping_overridden);
 static cpumask_var_t housekeeping_mask;
 static unsigned int housekeeping_flags;
 
 int housekeeping_any_cpu(enum hk_flags flags)
 {
-       if (static_branch_unlikely(&housekeeping_overriden))
+       if (static_branch_unlikely(&housekeeping_overridden))
                if (housekeeping_flags & flags)
                        return cpumask_any_and(housekeeping_mask, cpu_online_mask);
        return smp_processor_id();
@@ -24,7 +24,7 @@ EXPORT_SYMBOL_GPL(housekeeping_any_cpu);
 
 const struct cpumask *housekeeping_cpumask(enum hk_flags flags)
 {
-       if (static_branch_unlikely(&housekeeping_overriden))
+       if (static_branch_unlikely(&housekeeping_overridden))
                if (housekeeping_flags & flags)
                        return housekeeping_mask;
        return cpu_possible_mask;
@@ -33,7 +33,7 @@ EXPORT_SYMBOL_GPL(housekeeping_cpumask);
 
 void housekeeping_affine(struct task_struct *t, enum hk_flags flags)
 {
-       if (static_branch_unlikely(&housekeeping_overriden))
+       if (static_branch_unlikely(&housekeeping_overridden))
                if (housekeeping_flags & flags)
                        set_cpus_allowed_ptr(t, housekeeping_mask);
 }
@@ -41,7 +41,7 @@ EXPORT_SYMBOL_GPL(housekeeping_affine);
 
 bool housekeeping_test_cpu(int cpu, enum hk_flags flags)
 {
-       if (static_branch_unlikely(&housekeeping_overriden))
+       if (static_branch_unlikely(&housekeeping_overridden))
                if (housekeeping_flags & flags)
                        return cpumask_test_cpu(cpu, housekeeping_mask);
        return true;
@@ -53,7 +53,7 @@ void __init housekeeping_init(void)
        if (!housekeeping_flags)
                return;
 
-       static_branch_enable(&housekeeping_overriden);
+       static_branch_enable(&housekeeping_overridden);
 
        if (housekeeping_flags & HK_FLAG_TICK)
                sched_tick_offload_init();
index 71cd8b710599a2b992800d2e18e079abd0eaeb10..9bde60a11805ee8e4947a585132fa8d98fb358a0 100644 (file)
@@ -637,7 +637,7 @@ struct dl_rq {
        /*
         * Deadline values of the currently executing and the
         * earliest ready task on this rq. Caching these facilitates
-        * the decision wether or not a ready but not running task
+        * the decision whether or not a ready but not running task
         * should migrate somewhere else.
         */
        struct {
@@ -1434,7 +1434,7 @@ static inline void __set_task_cpu(struct task_struct *p, unsigned int cpu)
 #ifdef CONFIG_SMP
        /*
         * After ->cpu is set up to a new value, task_rq_lock(p, ...) can be
-        * successfuly executed on another CPU. We must ensure that updates of
+        * successfully executed on another CPU. We must ensure that updates of
         * per-task data have been completed by this moment.
         */
        smp_wmb();