]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
rcu/nocb: Introduce nocb mutex
authorFrederic Weisbecker <frederic@kernel.org>
Thu, 30 May 2024 13:45:45 +0000 (15:45 +0200)
committerNeeraj Upadhyay <neeraj.upadhyay@kernel.org>
Mon, 29 Jul 2024 02:04:31 +0000 (07:34 +0530)
The barrier_mutex is used currently to protect (de-)offloading
operations and prevent from nocb_lock locking imbalance in rcu_barrier()
and shrinker, and also from misordered RCU barrier invocation.

Now since RCU (de-)offloading is going to happen on offline CPUs, an RCU
barrier will have to be executed while transitionning from offloaded to
de-offloaded state. And this can't happen while holding the
barrier_mutex.

Introduce a NOCB mutex to protect (de-)offloading transitions. The
barrier_mutex is still held for now when necessary to avoid barrier
callbacks reordering and nocb_lock imbalance.

Signed-off-by: Frederic Weisbecker <frederic@kernel.org>
Signed-off-by: Paul E. McKenney <paulmck@kernel.org>
Reviewed-by: Paul E. McKenney <paulmck@kernel.org>
Signed-off-by: Neeraj Upadhyay <neeraj.upadhyay@kernel.org>
kernel/rcu/tree.c
kernel/rcu/tree.h
kernel/rcu/tree_nocb.h
kernel/rcu/tree_plugin.h

index e641cc681901a5e5c7a7e1791a836ba0db89d7d3..2b9e713854b0c05f61befe2ee366fb50c281ba7e 100644 (file)
@@ -97,6 +97,9 @@ static struct rcu_state rcu_state = {
        .srs_cleanup_work = __WORK_INITIALIZER(rcu_state.srs_cleanup_work,
                rcu_sr_normal_gp_cleanup_work),
        .srs_cleanups_pending = ATOMIC_INIT(0),
+#ifdef CONFIG_RCU_NOCB_CPU
+       .nocb_mutex = __MUTEX_INITIALIZER(rcu_state.nocb_mutex),
+#endif
 };
 
 /* Dump rcu_node combining tree at boot to verify correct setup. */
index a297dc89a09c5a320c66f134ccdf43fd73eb379a..16e6fe63d93cda50ff336f4bf2226d12d755733b 100644 (file)
@@ -421,6 +421,7 @@ struct rcu_state {
        atomic_t srs_cleanups_pending; /* srs inflight worker cleanups. */
 
 #ifdef CONFIG_RCU_NOCB_CPU
+       struct mutex nocb_mutex;                /* Guards (de-)offloading */
        int nocb_is_setup;                      /* nocb is setup from boot */
 #endif
 };
index fdd0616f2fd1f43ab4870bee60b7e48dca3254a9..16bcb8b13a5e62e0c95da89a8119e4c0ff0a1462 100644 (file)
@@ -1141,6 +1141,7 @@ int rcu_nocb_cpu_deoffload(int cpu)
        int ret = 0;
 
        cpus_read_lock();
+       mutex_lock(&rcu_state.nocb_mutex);
        mutex_lock(&rcu_state.barrier_mutex);
        if (rcu_rdp_is_offloaded(rdp)) {
                if (cpu_online(cpu)) {
@@ -1153,6 +1154,7 @@ int rcu_nocb_cpu_deoffload(int cpu)
                }
        }
        mutex_unlock(&rcu_state.barrier_mutex);
+       mutex_unlock(&rcu_state.nocb_mutex);
        cpus_read_unlock();
 
        return ret;
@@ -1228,6 +1230,7 @@ int rcu_nocb_cpu_offload(int cpu)
        int ret = 0;
 
        cpus_read_lock();
+       mutex_lock(&rcu_state.nocb_mutex);
        mutex_lock(&rcu_state.barrier_mutex);
        if (!rcu_rdp_is_offloaded(rdp)) {
                if (cpu_online(cpu)) {
@@ -1240,6 +1243,7 @@ int rcu_nocb_cpu_offload(int cpu)
                }
        }
        mutex_unlock(&rcu_state.barrier_mutex);
+       mutex_unlock(&rcu_state.nocb_mutex);
        cpus_read_unlock();
 
        return ret;
@@ -1257,7 +1261,7 @@ lazy_rcu_shrink_count(struct shrinker *shrink, struct shrink_control *sc)
                return 0;
 
        /*  Protect rcu_nocb_mask against concurrent (de-)offloading. */
-       if (!mutex_trylock(&rcu_state.barrier_mutex))
+       if (!mutex_trylock(&rcu_state.nocb_mutex))
                return 0;
 
        /* Snapshot count of all CPUs */
@@ -1267,7 +1271,7 @@ lazy_rcu_shrink_count(struct shrinker *shrink, struct shrink_control *sc)
                count +=  READ_ONCE(rdp->lazy_len);
        }
 
-       mutex_unlock(&rcu_state.barrier_mutex);
+       mutex_unlock(&rcu_state.nocb_mutex);
 
        return count ? count : SHRINK_EMPTY;
 }
@@ -1285,9 +1289,9 @@ lazy_rcu_shrink_scan(struct shrinker *shrink, struct shrink_control *sc)
         * Protect against concurrent (de-)offloading. Otherwise nocb locking
         * may be ignored or imbalanced.
         */
-       if (!mutex_trylock(&rcu_state.barrier_mutex)) {
+       if (!mutex_trylock(&rcu_state.nocb_mutex)) {
                /*
-                * But really don't insist if barrier_mutex is contended since we
+                * But really don't insist if nocb_mutex is contended since we
                 * can't guarantee that it will never engage in a dependency
                 * chain involving memory allocation. The lock is seldom contended
                 * anyway.
@@ -1326,7 +1330,7 @@ lazy_rcu_shrink_scan(struct shrinker *shrink, struct shrink_control *sc)
                        break;
        }
 
-       mutex_unlock(&rcu_state.barrier_mutex);
+       mutex_unlock(&rcu_state.nocb_mutex);
 
        return count ? count : SHRINK_STOP;
 }
@@ -1473,15 +1477,15 @@ err:
         * No need to protect against concurrent rcu_barrier()
         * because the number of callbacks should be 0 for a non-boot CPU,
         * therefore rcu_barrier() shouldn't even try to grab the nocb_lock.
-        * But hold barrier_mutex to avoid nocb_lock imbalance from shrinker.
+        * But hold nocb_mutex to avoid nocb_lock imbalance from shrinker.
         */
        WARN_ON_ONCE(system_state > SYSTEM_BOOTING && rcu_segcblist_n_cbs(&rdp->cblist));
-       mutex_lock(&rcu_state.barrier_mutex);
+       mutex_lock(&rcu_state.nocb_mutex);
        if (rcu_rdp_is_offloaded(rdp)) {
                rcu_nocb_rdp_deoffload(rdp);
                cpumask_clear_cpu(cpu, rcu_nocb_mask);
        }
-       mutex_unlock(&rcu_state.barrier_mutex);
+       mutex_unlock(&rcu_state.nocb_mutex);
 }
 
 /* How many CB CPU IDs per GP kthread?  Default of -1 for sqrt(nr_cpu_ids). */
index f752b2a1d887898bf9ec7398fbd034d5a18b5396..c662376c8af0a952055b63bad6fb35a937c9556a 100644 (file)
@@ -28,6 +28,7 @@ static bool rcu_rdp_is_offloaded(struct rcu_data *rdp)
                !(lockdep_is_held(&rcu_state.barrier_mutex) ||
                  (IS_ENABLED(CONFIG_HOTPLUG_CPU) && lockdep_is_cpus_held()) ||
                  lockdep_is_held(&rdp->nocb_lock) ||
+                 lockdep_is_held(&rcu_state.nocb_mutex) ||
                  (!(IS_ENABLED(CONFIG_PREEMPT_COUNT) && preemptible()) &&
                   rdp == this_cpu_ptr(&rcu_data)) ||
                  rcu_current_is_nocb_kthread(rdp)),