]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
sched/cpuset: Keep track of SCHED_DEADLINE task in cpusets
authorJuri Lelli <juri.lelli@redhat.com>
Mon, 8 May 2023 07:58:51 +0000 (09:58 +0200)
committerTejun Heo <tj@kernel.org>
Mon, 8 May 2023 23:22:33 +0000 (13:22 -1000)
Qais reported that iterating over all tasks when rebuilding root domains
for finding out which ones are DEADLINE and need their bandwidth
correctly restored on such root domains can be a costly operation (10+
ms delays on suspend-resume).

To fix the problem keep track of the number of DEADLINE tasks belonging
to each cpuset and then use this information (followup patch) to only
perform the above iteration if DEADLINE tasks are actually present in
the cpuset for which a corresponding root domain is being rebuilt.

Reported-by: Qais Yousef <qyousef@layalina.io>
Link: https://lore.kernel.org/lkml/20230206221428.2125324-1-qyousef@layalina.io/
Signed-off-by: Juri Lelli <juri.lelli@redhat.com>
Reviewed-by: Waiman Long <longman@redhat.com>
Signed-off-by: Tejun Heo <tj@kernel.org>
include/linux/cpuset.h
kernel/cgroup/cgroup.c
kernel/cgroup/cpuset.c
kernel/sched/deadline.c

index f90e6325d707a8a6c65237958b4f29c3010820e3..d629094fac6e6612add54555f00c6416b997f0ba 100644 (file)
@@ -71,6 +71,8 @@ extern void cpuset_init_smp(void);
 extern void cpuset_force_rebuild(void);
 extern void cpuset_update_active_cpus(void);
 extern void cpuset_wait_for_hotplug(void);
+extern void inc_dl_tasks_cs(struct task_struct *task);
+extern void dec_dl_tasks_cs(struct task_struct *task);
 extern void cpuset_lock(void);
 extern void cpuset_unlock(void);
 extern void cpuset_cpus_allowed(struct task_struct *p, struct cpumask *mask);
@@ -189,6 +191,8 @@ static inline void cpuset_update_active_cpus(void)
 
 static inline void cpuset_wait_for_hotplug(void) { }
 
+static inline void inc_dl_tasks_cs(struct task_struct *task) { }
+static inline void dec_dl_tasks_cs(struct task_struct *task) { }
 static inline void cpuset_lock(void) { }
 static inline void cpuset_unlock(void) { }
 
index 625d7483951ce94d99c478de8ea4958ca46d51be..9d809191a54f1e9c86cd1fc05ba11a89372ac005 100644 (file)
@@ -57,6 +57,7 @@
 #include <linux/file.h>
 #include <linux/fs_parser.h>
 #include <linux/sched/cputime.h>
+#include <linux/sched/deadline.h>
 #include <linux/psi.h>
 #include <net/sock.h>
 
@@ -6683,6 +6684,9 @@ void cgroup_exit(struct task_struct *tsk)
        list_add_tail(&tsk->cg_list, &cset->dying_tasks);
        cset->nr_tasks--;
 
+       if (dl_task(tsk))
+               dec_dl_tasks_cs(tsk);
+
        WARN_ON_ONCE(cgroup_task_frozen(tsk));
        if (unlikely(!(tsk->flags & PF_KTHREAD) &&
                     test_bit(CGRP_FREEZE, &task_dfl_cgroup(tsk)->flags)))
index 041c0809adafbe6942622c3d60f5d0b19f9582c8..ca195ff8b298b504065c9a4c6905fa9394d80b76 100644 (file)
@@ -193,6 +193,12 @@ struct cpuset {
        int use_parent_ecpus;
        int child_ecpus_count;
 
+       /*
+        * number of SCHED_DEADLINE tasks attached to this cpuset, so that we
+        * know when to rebuild associated root domain bandwidth information.
+        */
+       int nr_deadline_tasks;
+
        /* Invalid partition error code, not lock protected */
        enum prs_errcode prs_err;
 
@@ -245,6 +251,20 @@ static inline struct cpuset *parent_cs(struct cpuset *cs)
        return css_cs(cs->css.parent);
 }
 
+void inc_dl_tasks_cs(struct task_struct *p)
+{
+       struct cpuset *cs = task_cs(p);
+
+       cs->nr_deadline_tasks++;
+}
+
+void dec_dl_tasks_cs(struct task_struct *p)
+{
+       struct cpuset *cs = task_cs(p);
+
+       cs->nr_deadline_tasks--;
+}
+
 /* bits in struct cpuset flags field */
 typedef enum {
        CS_ONLINE,
@@ -2499,6 +2519,11 @@ static int cpuset_can_attach(struct cgroup_taskset *tset)
                ret = security_task_setscheduler(task);
                if (ret)
                        goto out_unlock;
+
+               if (dl_task(task)) {
+                       cs->nr_deadline_tasks++;
+                       cpuset_attach_old_cs->nr_deadline_tasks--;
+               }
        }
 
        /*
index 5a9a4b81c972e87341d50650e81bc00f5ea8fa7a..e11de074a6fdab0f9a8c470345fa5c71aa9a5d0b 100644 (file)
@@ -16,6 +16,8 @@
  *                    Fabio Checconi <fchecconi@gmail.com>
  */
 
+#include <linux/cpuset.h>
+
 /*
  * Default limits for DL period; on the top end we guard against small util
  * tasks still getting ridiculously long effective runtimes, on the bottom end we
@@ -2596,6 +2598,12 @@ static void switched_from_dl(struct rq *rq, struct task_struct *p)
        if (task_on_rq_queued(p) && p->dl.dl_runtime)
                task_non_contending(p);
 
+       /*
+        * In case a task is setscheduled out from SCHED_DEADLINE we need to
+        * keep track of that on its cpuset (for correct bandwidth tracking).
+        */
+       dec_dl_tasks_cs(p);
+
        if (!task_on_rq_queued(p)) {
                /*
                 * Inactive timer is armed. However, p is leaving DEADLINE and
@@ -2636,6 +2644,12 @@ static void switched_to_dl(struct rq *rq, struct task_struct *p)
        if (hrtimer_try_to_cancel(&p->dl.inactive_timer) == 1)
                put_task_struct(p);
 
+       /*
+        * In case a task is setscheduled to SCHED_DEADLINE we need to keep
+        * track of that on its cpuset (for correct bandwidth tracking).
+        */
+       inc_dl_tasks_cs(p);
+
        /* If p is not queued we will update its parameters at next wakeup. */
        if (!task_on_rq_queued(p)) {
                add_rq_bw(&p->dl, &rq->dl);