]> git.ipfire.org Git - thirdparty/kernel/stable.git/commit
x86/sev: Fix position dependent variable references in startup code
authorArd Biesheuvel <ardb@kernel.org>
Sat, 3 Feb 2024 12:53:06 +0000 (13:53 +0100)
committerBorislav Petkov (AMD) <bp@alien8.de>
Tue, 6 Feb 2024 15:38:42 +0000 (16:38 +0100)
commit1c811d403afd73f04bde82b83b24c754011bd0e8
tree86a3b70225a5b75cbf84c16021d229eeb616e918
parentf9e6f00d93d34f60f90b42c24e80194b11a72bb2
x86/sev: Fix position dependent variable references in startup code

The early startup code executes from a 1:1 mapping of memory, which
differs from the mapping that the code was linked and/or relocated to
run at. The latter mapping is not active yet at this point, and so
symbol references that rely on it will fault.

Given that the core kernel is built without -fPIC, symbol references are
typically emitted as absolute, and so any such references occuring in
the early startup code will therefore crash the kernel.

While an attempt was made to work around this for the early SEV/SME
startup code, by forcing RIP-relative addressing for certain global
SEV/SME variables via inline assembly (see snp_cpuid_get_table() for
example), RIP-relative addressing must be pervasively enforced for
SEV/SME global variables when accessed prior to page table fixups.

__startup_64() already handles this issue for select non-SEV/SME global
variables using fixup_pointer(), which adjusts the pointer relative to a
`physaddr` argument. To avoid having to pass around this `physaddr`
argument across all functions needing to apply pointer fixups, introduce
a macro RIP_RELATIVE_REF() which generates a RIP-relative reference to
a given global variable. It is used where necessary to force
RIP-relative accesses to global variables.

For backporting purposes, this patch makes no attempt at cleaning up
other occurrences of this pattern, involving either inline asm or
fixup_pointer(). Those will be addressed later.

  [ bp: Call it "rip_rel_ref" everywhere like other code shortens
    "rIP-relative reference" and make the asm wrapper __always_inline. ]

Co-developed-by: Kevin Loughlin <kevinloughlin@google.com>
Signed-off-by: Kevin Loughlin <kevinloughlin@google.com>
Signed-off-by: Ard Biesheuvel <ardb@kernel.org>
Signed-off-by: Borislav Petkov (AMD) <bp@alien8.de>
Cc: <stable@kernel.org>
Link: https://lore.kernel.org/all/20240130220845.1978329-1-kevinloughlin@google.com
arch/x86/coco/core.c
arch/x86/include/asm/asm.h
arch/x86/include/asm/coco.h
arch/x86/include/asm/mem_encrypt.h
arch/x86/kernel/sev-shared.c
arch/x86/kernel/sev.c
arch/x86/mm/mem_encrypt_identity.c