]> git.ipfire.org Git - thirdparty/kernel/stable.git/commitdiff
sched/cpuset: Keep track of SCHED_DEADLINE task in cpusets
authorJuri Lelli <juri.lelli@redhat.com>
Sun, 20 Aug 2023 15:21:41 +0000 (16:21 +0100)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Wed, 30 Aug 2023 14:23:17 +0000 (16:23 +0200)
commit 6c24849f5515e4966d94fa5279bdff4acf2e9489 upstream.

Qais reported that iterating over all tasks when rebuilding root domains
for finding out which ones are DEADLINE and need their bandwidth
correctly restored on such root domains can be a costly operation (10+
ms delays on suspend-resume).

To fix the problem keep track of the number of DEADLINE tasks belonging
to each cpuset and then use this information (followup patch) to only
perform the above iteration if DEADLINE tasks are actually present in
the cpuset for which a corresponding root domain is being rebuilt.

Reported-by: Qais Yousef (Google) <qyousef@layalina.io>
Link: https://lore.kernel.org/lkml/20230206221428.2125324-1-qyousef@layalina.io/
Signed-off-by: Juri Lelli <juri.lelli@redhat.com>
Reviewed-by: Waiman Long <longman@redhat.com>
Signed-off-by: Tejun Heo <tj@kernel.org>
[ Fix conflicts in kernel/cgroup/cpuset.c and kernel/sched/deadline.c
  due to pulling new fields and functions. Remove new code and match the
  patch diff. ]
Signed-off-by: Qais Yousef (Google) <qyousef@layalina.io>
Signed-off-by: Greg Kroah-Hartman <gregkh@linuxfoundation.org>
include/linux/cpuset.h
kernel/cgroup/cgroup.c
kernel/cgroup/cpuset.c
kernel/sched/deadline.c

index 3261a45f97d13feba4c30411fdea37fa344c7bfc..b70224370832fc7b101600098941a65fe2a73d7d 100644 (file)
@@ -55,6 +55,8 @@ extern void cpuset_init_smp(void);
 extern void cpuset_force_rebuild(void);
 extern void cpuset_update_active_cpus(void);
 extern void cpuset_wait_for_hotplug(void);
+extern void inc_dl_tasks_cs(struct task_struct *task);
+extern void dec_dl_tasks_cs(struct task_struct *task);
 extern void cpuset_lock(void);
 extern void cpuset_unlock(void);
 extern void cpuset_cpus_allowed(struct task_struct *p, struct cpumask *mask);
@@ -178,6 +180,8 @@ static inline void cpuset_update_active_cpus(void)
 
 static inline void cpuset_wait_for_hotplug(void) { }
 
+static inline void inc_dl_tasks_cs(struct task_struct *task) { }
+static inline void dec_dl_tasks_cs(struct task_struct *task) { }
 static inline void cpuset_lock(void) { }
 static inline void cpuset_unlock(void) { }
 
index 70ed21607e472d4cac6b3e5d713b53aeedfd983a..11400eba612428862fc389713b36255290303d8c 100644 (file)
@@ -56,6 +56,7 @@
 #include <linux/file.h>
 #include <linux/fs_parser.h>
 #include <linux/sched/cputime.h>
+#include <linux/sched/deadline.h>
 #include <linux/psi.h>
 #include <net/sock.h>
 
@@ -6326,6 +6327,9 @@ void cgroup_exit(struct task_struct *tsk)
        list_add_tail(&tsk->cg_list, &cset->dying_tasks);
        cset->nr_tasks--;
 
+       if (dl_task(tsk))
+               dec_dl_tasks_cs(tsk);
+
        WARN_ON_ONCE(cgroup_task_frozen(tsk));
        if (unlikely(cgroup_task_freeze(tsk)))
                cgroup_update_frozen(task_dfl_cgroup(tsk));
index 8f31ed881938ada05621b4267b36c36de4592e9f..fa8684c790a9e009682499dd12cb9dda0a55c8de 100644 (file)
@@ -161,6 +161,12 @@ struct cpuset {
         */
        int use_parent_ecpus;
        int child_ecpus_count;
+
+       /*
+        * number of SCHED_DEADLINE tasks attached to this cpuset, so that we
+        * know when to rebuild associated root domain bandwidth information.
+        */
+       int nr_deadline_tasks;
 };
 
 /*
@@ -206,6 +212,20 @@ static inline struct cpuset *parent_cs(struct cpuset *cs)
        return css_cs(cs->css.parent);
 }
 
+void inc_dl_tasks_cs(struct task_struct *p)
+{
+       struct cpuset *cs = task_cs(p);
+
+       cs->nr_deadline_tasks++;
+}
+
+void dec_dl_tasks_cs(struct task_struct *p)
+{
+       struct cpuset *cs = task_cs(p);
+
+       cs->nr_deadline_tasks--;
+}
+
 /* bits in struct cpuset flags field */
 typedef enum {
        CS_ONLINE,
@@ -2172,6 +2192,11 @@ static int cpuset_can_attach(struct cgroup_taskset *tset)
                ret = security_task_setscheduler(task);
                if (ret)
                        goto out_unlock;
+
+               if (dl_task(task)) {
+                       cs->nr_deadline_tasks++;
+                       cpuset_attach_old_cs->nr_deadline_tasks--;
+               }
        }
 
        /*
index f59cb3e8a61307794454adae7db06e5a1ee3ebc4..7d66c31db46cf3009e036d54180736c4cb8b3568 100644 (file)
@@ -17,6 +17,7 @@
  */
 #include "sched.h"
 #include "pelt.h"
+#include <linux/cpuset.h>
 
 struct dl_bandwidth def_dl_bandwidth;
 
@@ -2417,6 +2418,12 @@ static void switched_from_dl(struct rq *rq, struct task_struct *p)
        if (task_on_rq_queued(p) && p->dl.dl_runtime)
                task_non_contending(p);
 
+       /*
+        * In case a task is setscheduled out from SCHED_DEADLINE we need to
+        * keep track of that on its cpuset (for correct bandwidth tracking).
+        */
+       dec_dl_tasks_cs(p);
+
        if (!task_on_rq_queued(p)) {
                /*
                 * Inactive timer is armed. However, p is leaving DEADLINE and
@@ -2457,6 +2464,12 @@ static void switched_to_dl(struct rq *rq, struct task_struct *p)
        if (hrtimer_try_to_cancel(&p->dl.inactive_timer) == 1)
                put_task_struct(p);
 
+       /*
+        * In case a task is setscheduled to SCHED_DEADLINE we need to keep
+        * track of that on its cpuset (for correct bandwidth tracking).
+        */
+       inc_dl_tasks_cs(p);
+
        /* If p is not queued we will update its parameters at next wakeup. */
        if (!task_on_rq_queued(p)) {
                add_rq_bw(&p->dl, &rq->dl);