]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
KVM: x86: Use "checked" versions of get_user() and put_user()
authorSean Christopherson <seanjc@google.com>
Thu, 6 Nov 2025 21:02:06 +0000 (13:02 -0800)
committerSean Christopherson <seanjc@google.com>
Mon, 17 Nov 2025 15:50:20 +0000 (07:50 -0800)
Use the normal, checked versions for get_user() and put_user() instead of
the double-underscore versions that omit range checks, as the checked
versions are actually measurably faster on modern CPUs (12%+ on Intel,
25%+ on AMD).

The performance hit on the unchecked versions is almost entirely due to
the added LFENCE on CPUs where LFENCE is serializing (which is effectively
all modern CPUs), which was added by commit 304ec1b05031 ("x86/uaccess:
Use __uaccess_begin_nospec() and uaccess_try_nospec").  The small
optimizations done by commit b19b74bc99b1 ("x86/mm: Rework address range
check in get_user() and put_user()") likely shave a few cycles off, but
the bulk of the extra latency comes from the LFENCE.

Don't bother trying to open-code an equivalent for performance reasons, as
the loss of inlining (e.g. see commit ea6f043fc984 ("x86: Make __get_user()
generate an out-of-line call") is largely a non-factor (ignoring setups
where RET is something entirely different),

As measured across tens of millions of calls of guest PTE reads in
FNAME(walk_addr_generic):

              __get_user()  get_user()  open-coded  open-coded, no LFENCE
Intel (EMR)           75.1        67.6        75.3                   65.5
AMD (Turin)           68.1        51.1        67.5                   49.3

Note, Hyper-V MSR emulation is not a remotely hot path, but convert it
anyways for consistency, and because there is a general desire to remove
__{get,put}_user() entirely.

Reported-by: Linus Torvalds <torvalds@linux-foundation.org>
Closes: https://lore.kernel.org/all/CAHk-=wimh_3jM9Xe8Zx0rpuf8CPDu6DkRCGb44azk0Sz5yqSnw@mail.gmail.com
Cc: Borislav Petkov <bp@alien8.de>
Link: https://patch.msgid.link/20251106210206.221558-1-seanjc@google.com
Signed-off-by: Sean Christopherson <seanjc@google.com>
arch/x86/kvm/hyperv.c
arch/x86/kvm/mmu/paging_tmpl.h

index 38595ecb990d45392b43620c4147f88241fbcc7a..de92292eb1f5822585d10cf013d624d40faa8c4b 100644 (file)
@@ -1568,7 +1568,7 @@ static int kvm_hv_set_msr(struct kvm_vcpu *vcpu, u32 msr, u64 data, bool host)
                 * only, there can be valuable data in the rest which needs
                 * to be preserved e.g. on migration.
                 */
-               if (__put_user(0, (u32 __user *)addr))
+               if (put_user(0, (u32 __user *)addr))
                        return 1;
                hv_vcpu->hv_vapic = data;
                kvm_vcpu_mark_page_dirty(vcpu, gfn);
index ed762bb4b007b9236727f338d8cfb5fe4131521f..901cd2bd40b845798d8d18ffabedab5b195cdf21 100644 (file)
@@ -402,7 +402,7 @@ retry_walk:
                        goto error;
 
                ptep_user = (pt_element_t __user *)((void *)host_addr + offset);
-               if (unlikely(__get_user(pte, ptep_user)))
+               if (unlikely(get_user(pte, ptep_user)))
                        goto error;
                walker->ptep_user[walker->level - 1] = ptep_user;