]> git.ipfire.org Git - thirdparty/kernel/stable.git/commitdiff
Merge tag 'trace-v7.0' of git://git.kernel.org/pub/scm/linux/kernel/git/trace/linux...
authorLinus Torvalds <torvalds@linux-foundation.org>
Sat, 14 Feb 2026 03:25:16 +0000 (19:25 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Sat, 14 Feb 2026 03:25:16 +0000 (19:25 -0800)
Pull tracing updates from Steven Rostedt:
 "User visible changes:

   - Add an entry into MAINTAINERS file for RUST versions of code

     There's now RUST code for tracing and static branches. To
     differentiate that code from the C code, add entries in for the
     RUST version (with "[RUST]" around it) so that the right
     maintainers get notified on changes.

   - New bitmask-list option added to tracefs

     When this is set, bitmasks in trace event are not displayed as hex
     numbers, but instead as lists: e.g. 0-5,7,9 instead of 0000015f

   - New show_event_filters file in tracefs

     Instead of having to search all events/*/*/filter for any active
     filters enabled in the trace instance, the file show_event_filters
     will list them so that there's only one file that needs to be
     examined to see if any filters are active.

   - New show_event_triggers file in tracefs

     Instead of having to search all events/*/*/trigger for any active
     triggers enabled in the trace instance, the file
     show_event_triggers will list them so that there's only one file
     that needs to be examined to see if any triggers are active.

   - Have traceoff_on_warning disable trace pintk buffer too

     Recently recording of trace_printk() could go to other trace
     instances instead of the top level instance. But if
     traceoff_on_warning triggers, it doesn't stop the buffer with
     trace_printk() and that data can easily be lost by being
     overwritten. Have traceoff_on_warning also disable the instance
     that has trace_printk() being written to it.

   - Update the hist_debug file to show what function the field uses

     When CONFIG_HIST_TRIGGERS_DEBUG is enabled, a hist_debug file
     exists for every event. This displays the internal data of any
     histogram enabled for that event. But it is lacking the function
     that is called to process one of its fields. This is very useful
     information that was missing when debugging histograms.

   - Up the histogram stack size from 16 to 31

     Stack traces can be used as keys for event histograms. Currently
     the size of the stack that is stored is limited to just 16 entries.
     But the storage space in the histogram is 256 bytes, meaning that
     it can store up to 31 entries (plus one for the count of entries).
     Instead of letting that space go to waste, up the limit from 16 to
     31. This makes the keys much more useful.

   - Fix permissions of per CPU file buffer_size_kb

     The per CPU file of buffer_size_kb was incorrectly set to read only
     in a previous cleanup. It should be writable.

   - Reset "last_boot_info" if the persistent buffer is cleared

     The last_boot_info shows address information of a persistent ring
     buffer if it contains data from a previous boot. It is cleared when
     recording starts again, but it is not cleared when the buffer is
     reset. The data is useless after a reset so clear it on reset too.

  Internal changes:

   - A change was made to allow tracepoint callbacks to have preemption
     enabled, and instead be protected by SRCU. This required some
     updates to the callbacks for perf and BPF.

     perf needed to disable preemption directly in its callback because
     it expects preemption disabled in the later code.

     BPF needed to disable migration, as its code expects to run
     completely on the same CPU.

   - Have irq_work wake up other CPU if current CPU is "isolated"

     When there's a waiter waiting on ring buffer data and a new event
     happens, an irq work is triggered to wake up that waiter. This is
     noisy on isolated CPUs (running NO_HZ_FULL). Trigger an IPI to a
     house keeping CPU instead.

   - Use proper free of trigger_data instead of open coding it in.

   - Remove redundant call of event_trigger_reset_filter()

     It was called immediately in a function that was called right after
     it.

   - Workqueue cleanups

   - Report errors if tracing_update_buffers() were to fail.

   - Make the enum update workqueue generic for other parts of tracing

     On boot up, a work queue is created to convert enum names into
     their numbers in the trace event format files. This work queue can
     also be used for other aspects of tracing that takes some time and
     shouldn't be called by the init call code.

     The blk_trace initialization takes a bit of time. Have the
     initialization code moved to the new tracing generic work queue
     function.

   - Skip kprobe boot event creation call if there's no kprobes defined
     on cmdline

     The kprobe initialization to set up kprobes if they are defined on
     the cmdline requires taking the event_mutex lock. This can be held
     by other tracing code doing initialization for a long time. Since
     kprobes added to the kernel command line need to be setup
     immediately, as they may be tracing early initialization code, they
     cannot be postponed in a work queue and must be setup in the
     initcall code.

     If there's no kprobe on the kernel cmdline, there's no reason to
     take the mutex and slow down the boot up code waiting to get the
     lock only to find out there's nothing to do. Simply exit out early
     if there's no kprobes on the kernel cmdline.

     If there are kprobes on the cmdline, then someone cares more about
     tracing over the speed of boot up.

   - Clean up the trigger code a bit

   - Move code out of trace.c and into their own files

     trace.c is now over 11,000 lines of code and has become more
     difficult to maintain. Start splitting it up so that related code
     is in their own files.

     Move all the trace_printk() related code into trace_printk.c.

     Move the __always_inline stack functions into trace.h.

     Move the pid filtering code into a new trace_pid.c file.

   - Better define the max latency and snapshot code

     The latency tracers have a "max latency" buffer that is a copy of
     the main buffer and gets swapped with it when a new high latency is
     detected. This keeps the trace up to the highest latency around
     where this max_latency buffer is never written to. It is only used
     to save the last max latency trace.

     A while ago a snapshot feature was added to tracefs to allow user
     space to perform the same logic. It could also enable events to
     trigger a "snapshot" if one of their fields hit a new high. This
     was built on top of the latency max_latency buffer logic.

     Because snapshots came later, they were dependent on the latency
     tracers to be enabled. In reality, the latency tracers depend on
     the snapshot code and not the other way around. It was just that
     they came first.

     Restructure the code and the kconfigs to have the latency tracers
     depend on snapshot code instead. This actually simplifies the logic
     a bit and allows to disable more when the latency tracers are not
     defined and the snapshot code is.

   - Fix a "false sharing" in the hwlat tracer code

     The loop to search for latency in hardware was using a variable
     that could be changed by user space for each sample. If the user
     change this variable, it could cause a bus contention, and reading
     that variable can show up as a large latency in the trace causing a
     false positive. Read this variable at the start of the sample with
     a READ_ONCE() into a local variable and keep the code from sharing
     cache lines with readers.

   - Fix function graph tracer static branch optimization code

     When only one tracer is defined for function graph tracing, it uses
     a static branch to call that tracer directly. When another tracer
     is added, it goes into loop logic to call all the registered
     callbacks.

     The code was incorrect when going back to one tracer and never
     re-enabled the static branch again to do the optimization code.

   - And other small fixes and cleanups"

* tag 'trace-v7.0' of git://git.kernel.org/pub/scm/linux/kernel/git/trace/linux-trace: (46 commits)
  function_graph: Restore direct mode when callbacks drop to one
  tracing: Fix indentation of return statement in print_trace_fmt()
  tracing: Reset last_boot_info if ring buffer is reset
  tracing: Fix to set write permission to per-cpu buffer_size_kb
  tracing: Fix false sharing in hwlat get_sample()
  tracing: Move d_max_latency out of CONFIG_FSNOTIFY protection
  tracing: Better separate SNAPSHOT and MAX_TRACE options
  tracing: Add tracer_uses_snapshot() helper to remove #ifdefs
  tracing: Rename trace_array field max_buffer to snapshot_buffer
  tracing: Move pid filtering into trace_pid.c
  tracing: Move trace_printk functions out of trace.c and into trace_printk.c
  tracing: Use system_state in trace_printk_init_buffers()
  tracing: Have trace_printk functions use flags instead of using global_trace
  tracing: Make tracing_update_buffers() take NULL for global_trace
  tracing: Make printk_trace global for tracing system
  tracing: Move ftrace_trace_stack() out of trace.c and into trace.h
  tracing: Move __trace_buffer_{un}lock_*() functions to trace.h
  tracing: Make tracing_selftest_running global to the tracing subsystem
  tracing: Make tracing_disabled global for tracing system
  tracing: Clean up use of trace_create_maxlat_file()
  ...

1  2 
MAINTAINERS
kernel/rcu/srcutree.c
kernel/trace/Kconfig
kernel/trace/blktrace.c
kernel/trace/bpf_trace.c
kernel/trace/ftrace.c
kernel/trace/trace.h
kernel/trace/trace_printk.c

diff --cc MAINTAINERS
Simple merge
Simple merge
Simple merge
Simple merge
index f7baeb8278cac8c4f93bfd62469dab26586f4531,abbf0177ad20bce9d162629a9bb18574cfb86650..eadaef8592a391e1814fcad7255534084a52a38a
@@@ -2076,8 -2062,8 +2076,8 @@@ void __bpf_trace_run(struct bpf_raw_tp_
        struct bpf_run_ctx *old_run_ctx;
        struct bpf_trace_run_ctx run_ctx;
  
-       cant_sleep();
+       rcu_read_lock_dont_migrate();
 -      if (unlikely(this_cpu_inc_return(*(prog->active)) != 1)) {
 +      if (unlikely(!bpf_prog_get_recursion_context(prog))) {
                bpf_prog_inc_misses_counter(prog);
                goto out;
        }
  
        bpf_reset_run_ctx(old_run_ctx);
  out:
 -      this_cpu_dec(*(prog->active));
 +      bpf_prog_put_recursion_context(prog);
+       rcu_read_unlock_migrate();
  }
  
  #define UNPACK(...)                   __VA_ARGS__
Simple merge
Simple merge
index 29f6e95439b67c1949826f7ea9f1137665f49800,c9cb74a33b3c7759bf6ec891c90b74b05954b3e0..6a29e4350b553faf5afa6674171ce95858f6b02b
@@@ -376,6 -376,437 +376,436 @@@ static const struct file_operations ftr
        .release = seq_release,
  };
  
 - * @size:  The size of the string.
+ static __always_inline bool printk_binsafe(struct trace_array *tr)
+ {
+       /*
+        * The binary format of traceprintk can cause a crash if used
+        * by a buffer from another boot. Force the use of the
+        * non binary version of trace_printk if the trace_printk
+        * buffer is a boot mapped ring buffer.
+        */
+       return !(tr->flags & TRACE_ARRAY_FL_BOOT);
+ }
+ int __trace_array_puts(struct trace_array *tr, unsigned long ip,
+                      const char *str, int size)
+ {
+       struct ring_buffer_event *event;
+       struct trace_buffer *buffer;
+       struct print_entry *entry;
+       unsigned int trace_ctx;
+       int alloc;
+       if (!(tr->trace_flags & TRACE_ITER(PRINTK)))
+               return 0;
+       if (unlikely(tracing_selftest_running &&
+                    (tr->flags & TRACE_ARRAY_FL_GLOBAL)))
+               return 0;
+       if (unlikely(tracing_disabled))
+               return 0;
+       alloc = sizeof(*entry) + size + 2; /* possible \n added */
+       trace_ctx = tracing_gen_ctx();
+       buffer = tr->array_buffer.buffer;
+       guard(ring_buffer_nest)(buffer);
+       event = __trace_buffer_lock_reserve(buffer, TRACE_PRINT, alloc,
+                                           trace_ctx);
+       if (!event)
+               return 0;
+       entry = ring_buffer_event_data(event);
+       entry->ip = ip;
+       memcpy(&entry->buf, str, size);
+       /* Add a newline if necessary */
+       if (entry->buf[size - 1] != '\n') {
+               entry->buf[size] = '\n';
+               entry->buf[size + 1] = '\0';
+       } else
+               entry->buf[size] = '\0';
+       __buffer_unlock_commit(buffer, event);
+       ftrace_trace_stack(tr, buffer, trace_ctx, 4, NULL);
+       return size;
+ }
+ EXPORT_SYMBOL_GPL(__trace_array_puts);
+ /**
+  * __trace_puts - write a constant string into the trace buffer.
+  * @ip:          The address of the caller
+  * @str:   The constant string to write
 -int __trace_puts(unsigned long ip, const char *str, int size)
+  */
 -      return __trace_array_puts(printk_trace, ip, str, size);
++int __trace_puts(unsigned long ip, const char *str)
+ {
 -              return __trace_puts(ip, str, strlen(str));
++      return __trace_array_puts(printk_trace, ip, str, strlen(str));
+ }
+ EXPORT_SYMBOL_GPL(__trace_puts);
+ /**
+  * __trace_bputs - write the pointer to a constant string into trace buffer
+  * @ip:          The address of the caller
+  * @str:   The constant string to write to the buffer to
+  */
+ int __trace_bputs(unsigned long ip, const char *str)
+ {
+       struct trace_array *tr = READ_ONCE(printk_trace);
+       struct ring_buffer_event *event;
+       struct trace_buffer *buffer;
+       struct bputs_entry *entry;
+       unsigned int trace_ctx;
+       int size = sizeof(struct bputs_entry);
+       if (!printk_binsafe(tr))
++              return __trace_puts(ip, str);
+       if (!(tr->trace_flags & TRACE_ITER(PRINTK)))
+               return 0;
+       if (unlikely(tracing_selftest_running || tracing_disabled))
+               return 0;
+       trace_ctx = tracing_gen_ctx();
+       buffer = tr->array_buffer.buffer;
+       guard(ring_buffer_nest)(buffer);
+       event = __trace_buffer_lock_reserve(buffer, TRACE_BPUTS, size,
+                                           trace_ctx);
+       if (!event)
+               return 0;
+       entry = ring_buffer_event_data(event);
+       entry->ip                       = ip;
+       entry->str                      = str;
+       __buffer_unlock_commit(buffer, event);
+       ftrace_trace_stack(tr, buffer, trace_ctx, 4, NULL);
+       return 1;
+ }
+ EXPORT_SYMBOL_GPL(__trace_bputs);
+ /* created for use with alloc_percpu */
+ struct trace_buffer_struct {
+       int nesting;
+       char buffer[4][TRACE_BUF_SIZE];
+ };
+ static struct trace_buffer_struct __percpu *trace_percpu_buffer;
+ /*
+  * This allows for lockless recording.  If we're nested too deeply, then
+  * this returns NULL.
+  */
+ static char *get_trace_buf(void)
+ {
+       struct trace_buffer_struct *buffer = this_cpu_ptr(trace_percpu_buffer);
+       if (!trace_percpu_buffer || buffer->nesting >= 4)
+               return NULL;
+       buffer->nesting++;
+       /* Interrupts must see nesting incremented before we use the buffer */
+       barrier();
+       return &buffer->buffer[buffer->nesting - 1][0];
+ }
+ static void put_trace_buf(void)
+ {
+       /* Don't let the decrement of nesting leak before this */
+       barrier();
+       this_cpu_dec(trace_percpu_buffer->nesting);
+ }
+ static int alloc_percpu_trace_buffer(void)
+ {
+       struct trace_buffer_struct __percpu *buffers;
+       if (trace_percpu_buffer)
+               return 0;
+       buffers = alloc_percpu(struct trace_buffer_struct);
+       if (MEM_FAIL(!buffers, "Could not allocate percpu trace_printk buffer"))
+               return -ENOMEM;
+       trace_percpu_buffer = buffers;
+       return 0;
+ }
+ static int buffers_allocated;
+ void trace_printk_init_buffers(void)
+ {
+       if (buffers_allocated)
+               return;
+       if (alloc_percpu_trace_buffer())
+               return;
+       /* trace_printk() is for debug use only. Don't use it in production. */
+       pr_warn("\n");
+       pr_warn("**********************************************************\n");
+       pr_warn("**   NOTICE NOTICE NOTICE NOTICE NOTICE NOTICE NOTICE   **\n");
+       pr_warn("**                                                      **\n");
+       pr_warn("** trace_printk() being used. Allocating extra memory.  **\n");
+       pr_warn("**                                                      **\n");
+       pr_warn("** This means that this is a DEBUG kernel and it is     **\n");
+       pr_warn("** unsafe for production use.                           **\n");
+       pr_warn("**                                                      **\n");
+       pr_warn("** If you see this message and you are not debugging    **\n");
+       pr_warn("** the kernel, report this immediately to your vendor!  **\n");
+       pr_warn("**                                                      **\n");
+       pr_warn("**   NOTICE NOTICE NOTICE NOTICE NOTICE NOTICE NOTICE   **\n");
+       pr_warn("**********************************************************\n");
+       /* Expand the buffers to set size */
+       if (tracing_update_buffers(NULL) < 0)
+               pr_err("Failed to expand tracing buffers for trace_printk() calls\n");
+       else
+               buffers_allocated = 1;
+       /*
+        * trace_printk_init_buffers() can be called by modules.
+        * If that happens, then we need to start cmdline recording
+        * directly here.
+        */
+       if (system_state == SYSTEM_RUNNING)
+               tracing_start_cmdline_record();
+ }
+ EXPORT_SYMBOL_GPL(trace_printk_init_buffers);
+ void trace_printk_start_comm(void)
+ {
+       /* Start tracing comms if trace printk is set */
+       if (!buffers_allocated)
+               return;
+       tracing_start_cmdline_record();
+ }
+ void trace_printk_start_stop_comm(int enabled)
+ {
+       if (!buffers_allocated)
+               return;
+       if (enabled)
+               tracing_start_cmdline_record();
+       else
+               tracing_stop_cmdline_record();
+ }
+ /**
+  * trace_vbprintk - write binary msg to tracing buffer
+  * @ip:    The address of the caller
+  * @fmt:   The string format to write to the buffer
+  * @args:  Arguments for @fmt
+  */
+ int trace_vbprintk(unsigned long ip, const char *fmt, va_list args)
+ {
+       struct ring_buffer_event *event;
+       struct trace_buffer *buffer;
+       struct trace_array *tr = READ_ONCE(printk_trace);
+       struct bprint_entry *entry;
+       unsigned int trace_ctx;
+       char *tbuffer;
+       int len = 0, size;
+       if (!printk_binsafe(tr))
+               return trace_vprintk(ip, fmt, args);
+       if (unlikely(tracing_selftest_running || tracing_disabled))
+               return 0;
+       /* Don't pollute graph traces with trace_vprintk internals */
+       pause_graph_tracing();
+       trace_ctx = tracing_gen_ctx();
+       guard(preempt_notrace)();
+       tbuffer = get_trace_buf();
+       if (!tbuffer) {
+               len = 0;
+               goto out_nobuffer;
+       }
+       len = vbin_printf((u32 *)tbuffer, TRACE_BUF_SIZE/sizeof(int), fmt, args);
+       if (len > TRACE_BUF_SIZE/sizeof(int) || len < 0)
+               goto out_put;
+       size = sizeof(*entry) + sizeof(u32) * len;
+       buffer = tr->array_buffer.buffer;
+       scoped_guard(ring_buffer_nest, buffer) {
+               event = __trace_buffer_lock_reserve(buffer, TRACE_BPRINT, size,
+                                                   trace_ctx);
+               if (!event)
+                       goto out_put;
+               entry = ring_buffer_event_data(event);
+               entry->ip                       = ip;
+               entry->fmt                      = fmt;
+               memcpy(entry->buf, tbuffer, sizeof(u32) * len);
+               __buffer_unlock_commit(buffer, event);
+               ftrace_trace_stack(tr, buffer, trace_ctx, 6, NULL);
+       }
+ out_put:
+       put_trace_buf();
+ out_nobuffer:
+       unpause_graph_tracing();
+       return len;
+ }
+ EXPORT_SYMBOL_GPL(trace_vbprintk);
+ static __printf(3, 0)
+ int __trace_array_vprintk(struct trace_buffer *buffer,
+                         unsigned long ip, const char *fmt, va_list args)
+ {
+       struct ring_buffer_event *event;
+       int len = 0, size;
+       struct print_entry *entry;
+       unsigned int trace_ctx;
+       char *tbuffer;
+       if (unlikely(tracing_disabled))
+               return 0;
+       /* Don't pollute graph traces with trace_vprintk internals */
+       pause_graph_tracing();
+       trace_ctx = tracing_gen_ctx();
+       guard(preempt_notrace)();
+       tbuffer = get_trace_buf();
+       if (!tbuffer) {
+               len = 0;
+               goto out_nobuffer;
+       }
+       len = vscnprintf(tbuffer, TRACE_BUF_SIZE, fmt, args);
+       size = sizeof(*entry) + len + 1;
+       scoped_guard(ring_buffer_nest, buffer) {
+               event = __trace_buffer_lock_reserve(buffer, TRACE_PRINT, size,
+                                                   trace_ctx);
+               if (!event)
+                       goto out;
+               entry = ring_buffer_event_data(event);
+               entry->ip = ip;
+               memcpy(&entry->buf, tbuffer, len + 1);
+               __buffer_unlock_commit(buffer, event);
+               ftrace_trace_stack(printk_trace, buffer, trace_ctx, 6, NULL);
+       }
+ out:
+       put_trace_buf();
+ out_nobuffer:
+       unpause_graph_tracing();
+       return len;
+ }
+ int trace_array_vprintk(struct trace_array *tr,
+                       unsigned long ip, const char *fmt, va_list args)
+ {
+       if (tracing_selftest_running && (tr->flags & TRACE_ARRAY_FL_GLOBAL))
+               return 0;
+       return __trace_array_vprintk(tr->array_buffer.buffer, ip, fmt, args);
+ }
+ /**
+  * trace_array_printk - Print a message to a specific instance
+  * @tr: The instance trace_array descriptor
+  * @ip: The instruction pointer that this is called from.
+  * @fmt: The format to print (printf format)
+  *
+  * If a subsystem sets up its own instance, they have the right to
+  * printk strings into their tracing instance buffer using this
+  * function. Note, this function will not write into the top level
+  * buffer (use trace_printk() for that), as writing into the top level
+  * buffer should only have events that can be individually disabled.
+  * trace_printk() is only used for debugging a kernel, and should not
+  * be ever incorporated in normal use.
+  *
+  * trace_array_printk() can be used, as it will not add noise to the
+  * top level tracing buffer.
+  *
+  * Note, trace_array_init_printk() must be called on @tr before this
+  * can be used.
+  */
+ int trace_array_printk(struct trace_array *tr,
+                      unsigned long ip, const char *fmt, ...)
+ {
+       int ret;
+       va_list ap;
+       if (!tr)
+               return -ENOENT;
+       /* This is only allowed for created instances */
+       if (tr->flags & TRACE_ARRAY_FL_GLOBAL)
+               return 0;
+       if (!(tr->trace_flags & TRACE_ITER(PRINTK)))
+               return 0;
+       va_start(ap, fmt);
+       ret = trace_array_vprintk(tr, ip, fmt, ap);
+       va_end(ap);
+       return ret;
+ }
+ EXPORT_SYMBOL_GPL(trace_array_printk);
+ /**
+  * trace_array_init_printk - Initialize buffers for trace_array_printk()
+  * @tr: The trace array to initialize the buffers for
+  *
+  * As trace_array_printk() only writes into instances, they are OK to
+  * have in the kernel (unlike trace_printk()). This needs to be called
+  * before trace_array_printk() can be used on a trace_array.
+  */
+ int trace_array_init_printk(struct trace_array *tr)
+ {
+       if (!tr)
+               return -ENOENT;
+       /* This is only allowed for created instances */
+       if (tr->flags & TRACE_ARRAY_FL_GLOBAL)
+               return -EINVAL;
+       return alloc_percpu_trace_buffer();
+ }
+ EXPORT_SYMBOL_GPL(trace_array_init_printk);
+ int trace_array_printk_buf(struct trace_buffer *buffer,
+                          unsigned long ip, const char *fmt, ...)
+ {
+       int ret;
+       va_list ap;
+       if (!(printk_trace->trace_flags & TRACE_ITER(PRINTK)))
+               return 0;
+       va_start(ap, fmt);
+       ret = __trace_array_vprintk(buffer, ip, fmt, ap);
+       va_end(ap);
+       return ret;
+ }
+ int trace_vprintk(unsigned long ip, const char *fmt, va_list args)
+ {
+       return trace_array_vprintk(printk_trace, ip, fmt, args);
+ }
+ EXPORT_SYMBOL_GPL(trace_vprintk);
  static __init int init_trace_printk_function_export(void)
  {
        int ret;