]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
Merge tag 'for-linus' of git://git.kernel.org/pub/scm/virt/kvm/kvm
authorLinus Torvalds <torvalds@linux-foundation.org>
Thu, 31 Jul 2025 00:14:01 +0000 (17:14 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Thu, 31 Jul 2025 00:14:01 +0000 (17:14 -0700)
Pull kvm updates from Paolo Bonzini:
 "ARM:

   - Host driver for GICv5, the next generation interrupt controller for
     arm64, including support for interrupt routing, MSIs, interrupt
     translation and wired interrupts

   - Use FEAT_GCIE_LEGACY on GICv5 systems to virtualize GICv3 VMs on
     GICv5 hardware, leveraging the legacy VGIC interface

   - Userspace control of the 'nASSGIcap' GICv3 feature, allowing
     userspace to disable support for SGIs w/o an active state on
     hardware that previously advertised it unconditionally

   - Map supporting endpoints with cacheable memory attributes on
     systems with FEAT_S2FWB and DIC where KVM no longer needs to
     perform cache maintenance on the address range

   - Nested support for FEAT_RAS and FEAT_DoubleFault2, allowing the
     guest hypervisor to inject external aborts into an L2 VM and take
     traps of masked external aborts to the hypervisor

   - Convert more system register sanitization to the config-driven
     implementation

   - Fixes to the visibility of EL2 registers, namely making VGICv3
     system registers accessible through the VGIC device instead of the
     ONE_REG vCPU ioctls

   - Various cleanups and minor fixes

  LoongArch:

   - Add stat information for in-kernel irqchip

   - Add tracepoints for CPUCFG and CSR emulation exits

   - Enhance in-kernel irqchip emulation

   - Various cleanups

  RISC-V:

   - Enable ring-based dirty memory tracking

   - Improve perf kvm stat to report interrupt events

   - Delegate illegal instruction trap to VS-mode

   - MMU improvements related to upcoming nested virtualization

  s390x

   - Fixes

  x86:

   - Add CONFIG_KVM_IOAPIC for x86 to allow disabling support for I/O
     APIC, PIC, and PIT emulation at compile time

   - Share device posted IRQ code between SVM and VMX and harden it
     against bugs and runtime errors

   - Use vcpu_idx, not vcpu_id, for GA log tag/metadata, to make lookups
     O(1) instead of O(n)

   - For MMIO stale data mitigation, track whether or not a vCPU has
     access to (host) MMIO based on whether the page tables have MMIO
     pfns mapped; using VFIO is prone to false negatives

   - Rework the MSR interception code so that the SVM and VMX APIs are
     more or less identical

   - Recalculate all MSR intercepts from scratch on MSR filter changes,
     instead of maintaining shadow bitmaps

   - Advertise support for LKGS (Load Kernel GS base), a new instruction
     that's loosely related to FRED, but is supported and enumerated
     independently

   - Fix a user-triggerable WARN that syzkaller found by setting the
     vCPU in INIT_RECEIVED state (aka wait-for-SIPI), and then putting
     the vCPU into VMX Root Mode (post-VMXON). Trying to detect every
     possible path leading to architecturally forbidden states is hard
     and even risks breaking userspace (if it goes from valid to valid
     state but passes through invalid states), so just wait until
     KVM_RUN to detect that the vCPU state isn't allowed

   - Add KVM_X86_DISABLE_EXITS_APERFMPERF to allow disabling
     interception of APERF/MPERF reads, so that a "properly" configured
     VM can access APERF/MPERF. This has many caveats (APERF/MPERF
     cannot be zeroed on vCPU creation or saved/restored on suspend and
     resume, or preserved over thread migration let alone VM migration)
     but can be useful whenever you're interested in letting Linux
     guests see the effective physical CPU frequency in /proc/cpuinfo

   - Reject KVM_SET_TSC_KHZ for vm file descriptors if vCPUs have been
     created, as there's no known use case for changing the default
     frequency for other VM types and it goes counter to the very reason
     why the ioctl was added to the vm file descriptor. And also, there
     would be no way to make it work for confidential VMs with a
     "secure" TSC, so kill two birds with one stone

   - Dynamically allocation the shadow MMU's hashed page list, and defer
     allocating the hashed list until it's actually needed (the TDP MMU
     doesn't use the list)

   - Extract many of KVM's helpers for accessing architectural local
     APIC state to common x86 so that they can be shared by guest-side
     code for Secure AVIC

   - Various cleanups and fixes

  x86 (Intel):

   - Preserve the host's DEBUGCTL.FREEZE_IN_SMM when running the guest.
     Failure to honor FREEZE_IN_SMM can leak host state into guests

   - Explicitly check vmcs12.GUEST_DEBUGCTL on nested VM-Enter to
     prevent L1 from running L2 with features that KVM doesn't support,
     e.g. BTF

  x86 (AMD):

   - WARN and reject loading kvm-amd.ko instead of panicking the kernel
     if the nested SVM MSRPM offsets tracker can't handle an MSR (which
     is pretty much a static condition and therefore should never
     happen, but still)

   - Fix a variety of flaws and bugs in the AVIC device posted IRQ code

   - Inhibit AVIC if a vCPU's ID is too big (relative to what hardware
     supports) instead of rejecting vCPU creation

   - Extend enable_ipiv module param support to SVM, by simply leaving
     IsRunning clear in the vCPU's physical ID table entry

   - Disable IPI virtualization, via enable_ipiv, if the CPU is affected
     by erratum #1235, to allow (safely) enabling AVIC on such CPUs

   - Request GA Log interrupts if and only if the target vCPU is
     blocking, i.e. only if KVM needs a notification in order to wake
     the vCPU

   - Intercept SPEC_CTRL on AMD if the MSR shouldn't exist according to
     the vCPU's CPUID model

   - Accept any SNP policy that is accepted by the firmware with respect
     to SMT and single-socket restrictions. An incompatible policy
     doesn't put the kernel at risk in any way, so there's no reason for
     KVM to care

   - Drop a superfluous WBINVD (on all CPUs!) when destroying a VM and
     use WBNOINVD instead of WBINVD when possible for SEV cache
     maintenance

   - When reclaiming memory from an SEV guest, only do cache flushes on
     CPUs that have ever run a vCPU for the guest, i.e. don't flush the
     caches for CPUs that can't possibly have cache lines with dirty,
     encrypted data

  Generic:

   - Rework irqbypass to track/match producers and consumers via an
     xarray instead of a linked list. Using a linked list leads to
     O(n^2) insertion times, which is hugely problematic for use cases
     that create large numbers of VMs. Such use cases typically don't
     actually use irqbypass, but eliminating the pointless registration
     is a future problem to solve as it likely requires new uAPI

   - Track irqbypass's "token" as "struct eventfd_ctx *" instead of a
     "void *", to avoid making a simple concept unnecessarily difficult
     to understand

   - Decouple device posted IRQs from VFIO device assignment, as binding
     a VM to a VFIO group is not a requirement for enabling device
     posted IRQs

   - Clean up and document/comment the irqfd assignment code

   - Disallow binding multiple irqfds to an eventfd with a priority
     waiter, i.e. ensure an eventfd is bound to at most one irqfd
     through the entire host, and add a selftest to verify eventfd:irqfd
     bindings are globally unique

   - Add a tracepoint for KVM_SET_MEMORY_ATTRIBUTES to help debug issues
     related to private <=> shared memory conversions

   - Drop guest_memfd's .getattr() implementation as the VFS layer will
     call generic_fillattr() if inode_operations.getattr is NULL

   - Fix issues with dirty ring harvesting where KVM doesn't bound the
     processing of entries in any way, which allows userspace to keep
     KVM in a tight loop indefinitely

   - Kill off kvm_arch_{start,end}_assignment() and x86's associated
     tracking, now that KVM no longer uses assigned_device_count as a
     heuristic for either irqbypass usage or MDS mitigation

  Selftests:

   - Fix a comment typo

   - Verify KVM is loaded when getting any KVM module param so that
     attempting to run a selftest without kvm.ko loaded results in a
     SKIP message about KVM not being loaded/enabled (versus some random
     parameter not existing)

   - Skip tests that hit EACCES when attempting to access a file, and
     print a "Root required?" help message. In most cases, the test just
     needs to be run with elevated permissions"

* tag 'for-linus' of git://git.kernel.org/pub/scm/virt/kvm/kvm: (340 commits)
  Documentation: KVM: Use unordered list for pre-init VGIC registers
  RISC-V: KVM: Avoid re-acquiring memslot in kvm_riscv_gstage_map()
  RISC-V: KVM: Use find_vma_intersection() to search for intersecting VMAs
  RISC-V: perf/kvm: Add reporting of interrupt events
  RISC-V: KVM: Enable ring-based dirty memory tracking
  RISC-V: KVM: Fix inclusion of Smnpm in the guest ISA bitmap
  RISC-V: KVM: Delegate illegal instruction fault to VS mode
  RISC-V: KVM: Pass VMID as parameter to kvm_riscv_hfence_xyz() APIs
  RISC-V: KVM: Factor-out g-stage page table management
  RISC-V: KVM: Add vmid field to struct kvm_riscv_hfence
  RISC-V: KVM: Introduce struct kvm_gstage_mapping
  RISC-V: KVM: Factor-out MMU related declarations into separate headers
  RISC-V: KVM: Use ncsr_xyz() in kvm_riscv_vcpu_trap_redirect()
  RISC-V: KVM: Implement kvm_arch_flush_remote_tlbs_range()
  RISC-V: KVM: Don't flush TLB when PTE is unchanged
  RISC-V: KVM: Replace KVM_REQ_HFENCE_GVMA_VMID_ALL with KVM_REQ_TLB_FLUSH
  RISC-V: KVM: Rename and move kvm_riscv_local_tlb_sanitize()
  RISC-V: KVM: Drop the return value of kvm_riscv_vcpu_aia_init()
  RISC-V: KVM: Check kvm_riscv_vcpu_alloc_vector_context() return value
  KVM: arm64: selftests: Add FEAT_RAS EL2 registers to get-reg-list
  ...

24 files changed:
1  2 
Documentation/arch/arm64/booting.rst
MAINTAINERS
arch/arm64/Kconfig
arch/arm64/include/asm/el2_setup.h
arch/arm64/include/asm/kvm_host.h
arch/arm64/include/asm/sysreg.h
arch/arm64/kernel/cpufeature.c
arch/arm64/kvm/sys_regs.c
arch/arm64/tools/cpucaps
arch/arm64/tools/sysreg
arch/s390/kvm/kvm-s390.c
arch/x86/include/asm/msr-index.h
drivers/hv/mshv_eventfd.c
drivers/iommu/amd/amd_iommu_types.h
drivers/iommu/amd/iommu.c
drivers/iommu/intel/irq_remapping.c
drivers/irqchip/Kconfig
drivers/irqchip/Makefile
drivers/pci/msi/irqdomain.c
include/linux/irq-entry-common.h
include/linux/irqdomain.h
include/linux/msi.h
kernel/entry/common.c
kernel/sched/wait.c

Simple merge
diff --cc MAINTAINERS
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
index b9c01e102e5018e5c830f039d184135d31d71c37,c50d4a8a51be8bf7e281ae4b49d81a3aad696ad0..eb348c63a8d0962d9d8b111f47fe078ae1e6a447
@@@ -3998,47 -4030,23 +4052,22 @@@ static const struct msi_parent_ops amdv
  
  int amd_iommu_create_irq_domain(struct amd_iommu *iommu)
  {
 -      struct fwnode_handle *fn;
 +      struct irq_domain_info info = {
 +              .fwnode         = irq_domain_alloc_named_id_fwnode("AMD-IR", iommu->index),
 +              .ops            = &amd_ir_domain_ops,
 +              .domain_flags   = IRQ_DOMAIN_FLAG_ISOLATED_MSI,
 +              .host_data      = iommu,
 +              .parent         = arch_get_ir_parent_domain(),
 +      };
  
 -      fn = irq_domain_alloc_named_id_fwnode("AMD-IR", iommu->index);
 -      if (!fn)
 +      if (!info.fwnode)
                return -ENOMEM;
 -      iommu->ir_domain = irq_domain_create_hierarchy(arch_get_ir_parent_domain(), 0, 0,
 -                                                     fn, &amd_ir_domain_ops, iommu);
 +
 +      iommu->ir_domain = msi_create_parent_irq_domain(&info, &amdvi_msi_parent_ops);
        if (!iommu->ir_domain) {
 -              irq_domain_free_fwnode(fn);
 +              irq_domain_free_fwnode(info.fwnode);
                return -ENOMEM;
        }
 -
 -      irq_domain_update_bus_token(iommu->ir_domain,  DOMAIN_BUS_AMDVI);
 -      iommu->ir_domain->flags |= IRQ_DOMAIN_FLAG_MSI_PARENT |
 -                                 IRQ_DOMAIN_FLAG_ISOLATED_MSI;
 -      iommu->ir_domain->msi_parent_ops = &amdvi_msi_parent_ops;
 -
        return 0;
  }
- int amd_iommu_update_ga(int cpu, bool is_run, void *data)
- {
-       struct amd_ir_data *ir_data = (struct amd_ir_data *)data;
-       struct irte_ga *entry = (struct irte_ga *) ir_data->entry;
-       if (!AMD_IOMMU_GUEST_IR_VAPIC(amd_iommu_guest_ir) ||
-           !entry || !entry->lo.fields_vapic.guest_mode)
-               return 0;
-       if (!ir_data->iommu)
-               return -ENODEV;
-       if (cpu >= 0) {
-               entry->lo.fields_vapic.destination =
-                                       APICID_TO_IRTE_DEST_LO(cpu);
-               entry->hi.fields.destination =
-                                       APICID_TO_IRTE_DEST_HI(cpu);
-       }
-       entry->lo.fields_vapic.is_run = is_run;
-       return __modify_irte_ga(ir_data->iommu, ir_data->irq_2_irte.devid,
-                               ir_data->irq_2_irte.index, entry);
- }
- EXPORT_SYMBOL(amd_iommu_update_ga);
  #endif
Simple merge
Simple merge
Simple merge
Simple merge
index 8af374331900a8c98d5bc2b020e67edbc6e65e17,0000000000000000000000000000000000000000..4fb2f93d82ed0de346fc0c2e3c0ea6ace901597e
mode 100644,000000..100644
--- /dev/null
@@@ -1,389 -1,0 +1,405 @@@
 +/* SPDX-License-Identifier: GPL-2.0 */
 +#ifndef __LINUX_IRQENTRYCOMMON_H
 +#define __LINUX_IRQENTRYCOMMON_H
 +
 +#include <linux/static_call_types.h>
 +#include <linux/syscalls.h>
 +#include <linux/context_tracking.h>
 +#include <linux/tick.h>
 +#include <linux/kmsan.h>
 +
 +#include <asm/entry-common.h>
 +
 +/*
 + * Define dummy _TIF work flags if not defined by the architecture or for
 + * disabled functionality.
 + */
 +#ifndef _TIF_PATCH_PENDING
 +# define _TIF_PATCH_PENDING           (0)
 +#endif
 +
 +/*
 + * TIF flags handled in exit_to_user_mode_loop()
 + */
 +#ifndef ARCH_EXIT_TO_USER_MODE_WORK
 +# define ARCH_EXIT_TO_USER_MODE_WORK          (0)
 +#endif
 +
 +#define EXIT_TO_USER_MODE_WORK                                                \
 +      (_TIF_SIGPENDING | _TIF_NOTIFY_RESUME | _TIF_UPROBE |           \
 +       _TIF_NEED_RESCHED | _TIF_NEED_RESCHED_LAZY |                   \
 +       _TIF_PATCH_PENDING | _TIF_NOTIFY_SIGNAL |                      \
 +       ARCH_EXIT_TO_USER_MODE_WORK)
 +
 +/**
 + * arch_enter_from_user_mode - Architecture specific sanity check for user mode regs
 + * @regs:     Pointer to currents pt_regs
 + *
 + * Defaults to an empty implementation. Can be replaced by architecture
 + * specific code.
 + *
 + * Invoked from syscall_enter_from_user_mode() in the non-instrumentable
 + * section. Use __always_inline so the compiler cannot push it out of line
 + * and make it instrumentable.
 + */
 +static __always_inline void arch_enter_from_user_mode(struct pt_regs *regs);
 +
 +#ifndef arch_enter_from_user_mode
 +static __always_inline void arch_enter_from_user_mode(struct pt_regs *regs) {}
 +#endif
 +
++/**
++ * arch_in_rcu_eqs - Architecture specific check for RCU extended quiescent
++ * states.
++ *
++ * Returns: true if the CPU is potentially in an RCU EQS, false otherwise.
++ *
++ * Architectures only need to define this if threads other than the idle thread
++ * may have an interruptible EQS. This does not need to handle idle threads. It
++ * is safe to over-estimate at the cost of redundant RCU management work.
++ *
++ * Invoked from irqentry_enter()
++ */
++#ifndef arch_in_rcu_eqs
++static __always_inline bool arch_in_rcu_eqs(void) { return false; }
++#endif
++
 +/**
 + * enter_from_user_mode - Establish state when coming from user mode
 + *
 + * Syscall/interrupt entry disables interrupts, but user mode is traced as
 + * interrupts enabled. Also with NO_HZ_FULL RCU might be idle.
 + *
 + * 1) Tell lockdep that interrupts are disabled
 + * 2) Invoke context tracking if enabled to reactivate RCU
 + * 3) Trace interrupts off state
 + *
 + * Invoked from architecture specific syscall entry code with interrupts
 + * disabled. The calling code has to be non-instrumentable. When the
 + * function returns all state is correct and interrupts are still
 + * disabled. The subsequent functions can be instrumented.
 + *
 + * This is invoked when there is architecture specific functionality to be
 + * done between establishing state and enabling interrupts. The caller must
 + * enable interrupts before invoking syscall_enter_from_user_mode_work().
 + */
 +static __always_inline void enter_from_user_mode(struct pt_regs *regs)
 +{
 +      arch_enter_from_user_mode(regs);
 +      lockdep_hardirqs_off(CALLER_ADDR0);
 +
 +      CT_WARN_ON(__ct_state() != CT_STATE_USER);
 +      user_exit_irqoff();
 +
 +      instrumentation_begin();
 +      kmsan_unpoison_entry_regs(regs);
 +      trace_hardirqs_off_finish();
 +      instrumentation_end();
 +}
 +
 +/**
 + * local_irq_enable_exit_to_user - Exit to user variant of local_irq_enable()
 + * @ti_work:  Cached TIF flags gathered with interrupts disabled
 + *
 + * Defaults to local_irq_enable(). Can be supplied by architecture specific
 + * code.
 + */
 +static inline void local_irq_enable_exit_to_user(unsigned long ti_work);
 +
 +#ifndef local_irq_enable_exit_to_user
 +static inline void local_irq_enable_exit_to_user(unsigned long ti_work)
 +{
 +      local_irq_enable();
 +}
 +#endif
 +
 +/**
 + * local_irq_disable_exit_to_user - Exit to user variant of local_irq_disable()
 + *
 + * Defaults to local_irq_disable(). Can be supplied by architecture specific
 + * code.
 + */
 +static inline void local_irq_disable_exit_to_user(void);
 +
 +#ifndef local_irq_disable_exit_to_user
 +static inline void local_irq_disable_exit_to_user(void)
 +{
 +      local_irq_disable();
 +}
 +#endif
 +
 +/**
 + * arch_exit_to_user_mode_work - Architecture specific TIF work for exit
 + *                             to user mode.
 + * @regs:     Pointer to currents pt_regs
 + * @ti_work:  Cached TIF flags gathered with interrupts disabled
 + *
 + * Invoked from exit_to_user_mode_loop() with interrupt enabled
 + *
 + * Defaults to NOOP. Can be supplied by architecture specific code.
 + */
 +static inline void arch_exit_to_user_mode_work(struct pt_regs *regs,
 +                                             unsigned long ti_work);
 +
 +#ifndef arch_exit_to_user_mode_work
 +static inline void arch_exit_to_user_mode_work(struct pt_regs *regs,
 +                                             unsigned long ti_work)
 +{
 +}
 +#endif
 +
 +/**
 + * arch_exit_to_user_mode_prepare - Architecture specific preparation for
 + *                                exit to user mode.
 + * @regs:     Pointer to currents pt_regs
 + * @ti_work:  Cached TIF flags gathered with interrupts disabled
 + *
 + * Invoked from exit_to_user_mode_prepare() with interrupt disabled as the last
 + * function before return. Defaults to NOOP.
 + */
 +static inline void arch_exit_to_user_mode_prepare(struct pt_regs *regs,
 +                                                unsigned long ti_work);
 +
 +#ifndef arch_exit_to_user_mode_prepare
 +static inline void arch_exit_to_user_mode_prepare(struct pt_regs *regs,
 +                                                unsigned long ti_work)
 +{
 +}
 +#endif
 +
 +/**
 + * arch_exit_to_user_mode - Architecture specific final work before
 + *                        exit to user mode.
 + *
 + * Invoked from exit_to_user_mode() with interrupt disabled as the last
 + * function before return. Defaults to NOOP.
 + *
 + * This needs to be __always_inline because it is non-instrumentable code
 + * invoked after context tracking switched to user mode.
 + *
 + * An architecture implementation must not do anything complex, no locking
 + * etc. The main purpose is for speculation mitigations.
 + */
 +static __always_inline void arch_exit_to_user_mode(void);
 +
 +#ifndef arch_exit_to_user_mode
 +static __always_inline void arch_exit_to_user_mode(void) { }
 +#endif
 +
 +/**
 + * arch_do_signal_or_restart -  Architecture specific signal delivery function
 + * @regs:     Pointer to currents pt_regs
 + *
 + * Invoked from exit_to_user_mode_loop().
 + */
 +void arch_do_signal_or_restart(struct pt_regs *regs);
 +
 +/**
 + * exit_to_user_mode_loop - do any pending work before leaving to user space
 + */
 +unsigned long exit_to_user_mode_loop(struct pt_regs *regs,
 +                                   unsigned long ti_work);
 +
 +/**
 + * exit_to_user_mode_prepare - call exit_to_user_mode_loop() if required
 + * @regs:     Pointer to pt_regs on entry stack
 + *
 + * 1) check that interrupts are disabled
 + * 2) call tick_nohz_user_enter_prepare()
 + * 3) call exit_to_user_mode_loop() if any flags from
 + *    EXIT_TO_USER_MODE_WORK are set
 + * 4) check that interrupts are still disabled
 + */
 +static __always_inline void exit_to_user_mode_prepare(struct pt_regs *regs)
 +{
 +      unsigned long ti_work;
 +
 +      lockdep_assert_irqs_disabled();
 +
 +      /* Flush pending rcuog wakeup before the last need_resched() check */
 +      tick_nohz_user_enter_prepare();
 +
 +      ti_work = read_thread_flags();
 +      if (unlikely(ti_work & EXIT_TO_USER_MODE_WORK))
 +              ti_work = exit_to_user_mode_loop(regs, ti_work);
 +
 +      arch_exit_to_user_mode_prepare(regs, ti_work);
 +
 +      /* Ensure that kernel state is sane for a return to userspace */
 +      kmap_assert_nomap();
 +      lockdep_assert_irqs_disabled();
 +      lockdep_sys_exit();
 +}
 +
 +/**
 + * exit_to_user_mode - Fixup state when exiting to user mode
 + *
 + * Syscall/interrupt exit enables interrupts, but the kernel state is
 + * interrupts disabled when this is invoked. Also tell RCU about it.
 + *
 + * 1) Trace interrupts on state
 + * 2) Invoke context tracking if enabled to adjust RCU state
 + * 3) Invoke architecture specific last minute exit code, e.g. speculation
 + *    mitigations, etc.: arch_exit_to_user_mode()
 + * 4) Tell lockdep that interrupts are enabled
 + *
 + * Invoked from architecture specific code when syscall_exit_to_user_mode()
 + * is not suitable as the last step before returning to userspace. Must be
 + * invoked with interrupts disabled and the caller must be
 + * non-instrumentable.
 + * The caller has to invoke syscall_exit_to_user_mode_work() before this.
 + */
 +static __always_inline void exit_to_user_mode(void)
 +{
 +      instrumentation_begin();
 +      trace_hardirqs_on_prepare();
 +      lockdep_hardirqs_on_prepare();
 +      instrumentation_end();
 +
 +      user_enter_irqoff();
 +      arch_exit_to_user_mode();
 +      lockdep_hardirqs_on(CALLER_ADDR0);
 +}
 +
 +/**
 + * irqentry_enter_from_user_mode - Establish state before invoking the irq handler
 + * @regs:     Pointer to currents pt_regs
 + *
 + * Invoked from architecture specific entry code with interrupts disabled.
 + * Can only be called when the interrupt entry came from user mode. The
 + * calling code must be non-instrumentable.  When the function returns all
 + * state is correct and the subsequent functions can be instrumented.
 + *
 + * The function establishes state (lockdep, RCU (context tracking), tracing)
 + */
 +void irqentry_enter_from_user_mode(struct pt_regs *regs);
 +
 +/**
 + * irqentry_exit_to_user_mode - Interrupt exit work
 + * @regs:     Pointer to current's pt_regs
 + *
 + * Invoked with interrupts disabled and fully valid regs. Returns with all
 + * work handled, interrupts disabled such that the caller can immediately
 + * switch to user mode. Called from architecture specific interrupt
 + * handling code.
 + *
 + * The call order is #2 and #3 as described in syscall_exit_to_user_mode().
 + * Interrupt exit is not invoking #1 which is the syscall specific one time
 + * work.
 + */
 +void irqentry_exit_to_user_mode(struct pt_regs *regs);
 +
 +#ifndef irqentry_state
 +/**
 + * struct irqentry_state - Opaque object for exception state storage
 + * @exit_rcu: Used exclusively in the irqentry_*() calls; signals whether the
 + *            exit path has to invoke ct_irq_exit().
 + * @lockdep: Used exclusively in the irqentry_nmi_*() calls; ensures that
 + *           lockdep state is restored correctly on exit from nmi.
 + *
 + * This opaque object is filled in by the irqentry_*_enter() functions and
 + * must be passed back into the corresponding irqentry_*_exit() functions
 + * when the exception is complete.
 + *
 + * Callers of irqentry_*_[enter|exit]() must consider this structure opaque
 + * and all members private.  Descriptions of the members are provided to aid in
 + * the maintenance of the irqentry_*() functions.
 + */
 +typedef struct irqentry_state {
 +      union {
 +              bool    exit_rcu;
 +              bool    lockdep;
 +      };
 +} irqentry_state_t;
 +#endif
 +
 +/**
 + * irqentry_enter - Handle state tracking on ordinary interrupt entries
 + * @regs:     Pointer to pt_regs of interrupted context
 + *
 + * Invokes:
 + *  - lockdep irqflag state tracking as low level ASM entry disabled
 + *    interrupts.
 + *
 + *  - Context tracking if the exception hit user mode.
 + *
 + *  - The hardirq tracer to keep the state consistent as low level ASM
 + *    entry disabled interrupts.
 + *
 + * As a precondition, this requires that the entry came from user mode,
 + * idle, or a kernel context in which RCU is watching.
 + *
 + * For kernel mode entries RCU handling is done conditional. If RCU is
 + * watching then the only RCU requirement is to check whether the tick has
 + * to be restarted. If RCU is not watching then ct_irq_enter() has to be
 + * invoked on entry and ct_irq_exit() on exit.
 + *
 + * Avoiding the ct_irq_enter/exit() calls is an optimization but also
 + * solves the problem of kernel mode pagefaults which can schedule, which
 + * is not possible after invoking ct_irq_enter() without undoing it.
 + *
 + * For user mode entries irqentry_enter_from_user_mode() is invoked to
 + * establish the proper context for NOHZ_FULL. Otherwise scheduling on exit
 + * would not be possible.
 + *
 + * Returns: An opaque object that must be passed to idtentry_exit()
 + */
 +irqentry_state_t noinstr irqentry_enter(struct pt_regs *regs);
 +
 +/**
 + * irqentry_exit_cond_resched - Conditionally reschedule on return from interrupt
 + *
 + * Conditional reschedule with additional sanity checks.
 + */
 +void raw_irqentry_exit_cond_resched(void);
 +#ifdef CONFIG_PREEMPT_DYNAMIC
 +#if defined(CONFIG_HAVE_PREEMPT_DYNAMIC_CALL)
 +#define irqentry_exit_cond_resched_dynamic_enabled    raw_irqentry_exit_cond_resched
 +#define irqentry_exit_cond_resched_dynamic_disabled   NULL
 +DECLARE_STATIC_CALL(irqentry_exit_cond_resched, raw_irqentry_exit_cond_resched);
 +#define irqentry_exit_cond_resched()  static_call(irqentry_exit_cond_resched)()
 +#elif defined(CONFIG_HAVE_PREEMPT_DYNAMIC_KEY)
 +DECLARE_STATIC_KEY_TRUE(sk_dynamic_irqentry_exit_cond_resched);
 +void dynamic_irqentry_exit_cond_resched(void);
 +#define irqentry_exit_cond_resched()  dynamic_irqentry_exit_cond_resched()
 +#endif
 +#else /* CONFIG_PREEMPT_DYNAMIC */
 +#define irqentry_exit_cond_resched()  raw_irqentry_exit_cond_resched()
 +#endif /* CONFIG_PREEMPT_DYNAMIC */
 +
 +/**
 + * irqentry_exit - Handle return from exception that used irqentry_enter()
 + * @regs:     Pointer to pt_regs (exception entry regs)
 + * @state:    Return value from matching call to irqentry_enter()
 + *
 + * Depending on the return target (kernel/user) this runs the necessary
 + * preemption and work checks if possible and required and returns to
 + * the caller with interrupts disabled and no further work pending.
 + *
 + * This is the last action before returning to the low level ASM code which
 + * just needs to return to the appropriate context.
 + *
 + * Counterpart to irqentry_enter().
 + */
 +void noinstr irqentry_exit(struct pt_regs *regs, irqentry_state_t state);
 +
 +/**
 + * irqentry_nmi_enter - Handle NMI entry
 + * @regs:     Pointer to currents pt_regs
 + *
 + * Similar to irqentry_enter() but taking care of the NMI constraints.
 + */
 +irqentry_state_t noinstr irqentry_nmi_enter(struct pt_regs *regs);
 +
 +/**
 + * irqentry_nmi_exit - Handle return from NMI handling
 + * @regs:     Pointer to pt_regs (NMI entry regs)
 + * @irq_state:        Return value from matching call to irqentry_nmi_enter()
 + *
 + * Last action before returning to the low level assembly code.
 + *
 + * Counterpart to irqentry_nmi_enter().
 + */
 +void noinstr irqentry_nmi_exit(struct pt_regs *regs, irqentry_state_t irq_state);
 +
 +#endif
Simple merge
index 71e5cc8303930b45d8ff26ca8bbc582b8a6f2fbe,a418e2695b0527ca1ab102a1abc1f22fa6f92fea..e5e86a8529fb6f75c2c30fcbbe009119b185d3a5
@@@ -707,9 -705,8 +707,10 @@@ struct irq_domain *pci_msi_create_irq_d
                                             struct msi_domain_info *info,
                                             struct irq_domain *parent);
  u32 pci_msi_domain_get_msi_rid(struct irq_domain *domain, struct pci_dev *pdev);
+ u32 pci_msi_map_rid_ctlr_node(struct pci_dev *pdev, struct device_node **node);
  struct irq_domain *pci_msi_get_device_domain(struct pci_dev *pdev);
 +void pci_msix_prepare_desc(struct irq_domain *domain, msi_alloc_info_t *arg,
 +                         struct msi_desc *desc);
  #else /* CONFIG_PCI_MSI */
  static inline struct irq_domain *pci_msi_get_device_domain(struct pci_dev *pdev)
  {
Simple merge
Simple merge