]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
perf/x86/amd: Warn only on new bits set
authorBreno Leitao <leitao@debian.org>
Tue, 1 Oct 2024 14:10:19 +0000 (07:10 -0700)
committerPeter Zijlstra <peterz@infradead.org>
Mon, 7 Oct 2024 07:28:46 +0000 (09:28 +0200)
Warning at every leaking bits can cause a flood of message, triggering
various stall-warning mechanisms to fire, including CSD locks, which
makes the machine to be unusable.

Track the bits that are being leaked, and only warn when a new bit is
set.

That said, this patch will help with the following issues:

1) It will tell us which bits are being set, so, it is easy to
   communicate it back to vendor, and to do a root-cause analyzes.

2) It avoid the machine to be unusable, because, worst case
   scenario, the user gets less than 60 WARNs (one per unhandled bit).

Suggested-by: Paul E. McKenney <paulmck@kernel.org>
Signed-off-by: Breno Leitao <leitao@debian.org>
Signed-off-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Reviewed-by: Sandipan Das <sandipan.das@amd.com>
Reviewed-by: Paul E. McKenney <paulmck@kernel.org>
Link: https://lkml.kernel.org/r/20241001141020.2620361-1-leitao@debian.org
arch/x86/events/amd/core.c

index 920e3a640caddd29ca6d401e9e0268670d826124..b4a1a2576510e0ab5a67c18905631d3d06bf5110 100644 (file)
@@ -943,11 +943,12 @@ static int amd_pmu_v2_snapshot_branch_stack(struct perf_branch_entry *entries, u
 static int amd_pmu_v2_handle_irq(struct pt_regs *regs)
 {
        struct cpu_hw_events *cpuc = this_cpu_ptr(&cpu_hw_events);
+       static atomic64_t status_warned = ATOMIC64_INIT(0);
+       u64 reserved, status, mask, new_bits, prev_bits;
        struct perf_sample_data data;
        struct hw_perf_event *hwc;
        struct perf_event *event;
        int handled = 0, idx;
-       u64 reserved, status, mask;
        bool pmu_enabled;
 
        /*
@@ -1012,7 +1013,12 @@ static int amd_pmu_v2_handle_irq(struct pt_regs *regs)
         * the corresponding PMCs are expected to be inactive according to the
         * active_mask
         */
-       WARN_ON(status > 0);
+       if (status > 0) {
+               prev_bits = atomic64_fetch_or(status, &status_warned);
+               // A new bit was set for the very first time.
+               new_bits = status & ~prev_bits;
+               WARN(new_bits, "New overflows for inactive PMCs: %llx\n", new_bits);
+       }
 
        /* Clear overflow and freeze bits */
        amd_pmu_ack_global_status(~status);