]> git.ipfire.org Git - thirdparty/glibc.git/commitdiff
aarch64: Added optimized memcpy and memmove for A64FX
authorNaohiro Tamura <naohirot@jp.fujitsu.com>
Thu, 27 May 2021 07:42:35 +0000 (07:42 +0000)
committerSzabolcs Nagy <szabolcs.nagy@arm.com>
Thu, 27 May 2021 08:47:53 +0000 (09:47 +0100)
This patch optimizes the performance of memcpy/memmove for A64FX [1]
which implements ARMv8-A SVE and has L1 64KB cache per core and L2 8MB
cache per NUMA node.

The performance optimization makes use of Scalable Vector Register
with several techniques such as loop unrolling, memory access
alignment, cache zero fill, and software pipelining.

SVE assembler code for memcpy/memmove is implemented as Vector Length
Agnostic code so theoretically it can be run on any SOC which supports
ARMv8-A SVE standard.

We confirmed that all testcases have been passed by running 'make
check' and 'make xcheck' not only on A64FX but also on ThunderX2.

And also we confirmed that the SVE 512 bit vector register performance
is roughly 4 times better than Advanced SIMD 128 bit register and 8
times better than scalar 64 bit register by running 'make bench'.

[1] https://github.com/fujitsu/A64FX

Reviewed-by: Wilco Dijkstra <Wilco.Dijkstra@arm.com>
Reviewed-by: Szabolcs Nagy <Szabolcs.Nagy@arm.com>
manual/tunables.texi
sysdeps/aarch64/multiarch/Makefile
sysdeps/aarch64/multiarch/ifunc-impl-list.c
sysdeps/aarch64/multiarch/init-arch.h
sysdeps/aarch64/multiarch/memcpy.c
sysdeps/aarch64/multiarch/memcpy_a64fx.S [new file with mode: 0644]
sysdeps/aarch64/multiarch/memmove.c
sysdeps/unix/sysv/linux/aarch64/cpu-features.c
sysdeps/unix/sysv/linux/aarch64/cpu-features.h

index 6de647b4262c930c857166a8cdd9a9a09f847aec..fe7c1313ccc43d973dd10e732f700f8854549ece 100644 (file)
@@ -454,7 +454,8 @@ This tunable is specific to powerpc, powerpc64 and powerpc64le.
 The @code{glibc.cpu.name=xxx} tunable allows the user to tell @theglibc{} to
 assume that the CPU is @code{xxx} where xxx may have one of these values:
 @code{generic}, @code{falkor}, @code{thunderxt88}, @code{thunderx2t99},
-@code{thunderx2t99p1}, @code{ares}, @code{emag}, @code{kunpeng}.
+@code{thunderx2t99p1}, @code{ares}, @code{emag}, @code{kunpeng},
+@code{a64fx}.
 
 This tunable is specific to aarch64.
 @end deftp
index dc3efffb36b6f00d2247a8a607527ffd1ffd979b..04c3f171215ef0fa2e0c3c17d06b954106e8b9a6 100644 (file)
@@ -1,6 +1,6 @@
 ifeq ($(subdir),string)
 sysdep_routines += memcpy_generic memcpy_advsimd memcpy_thunderx memcpy_thunderx2 \
-                  memcpy_falkor \
+                  memcpy_falkor memcpy_a64fx \
                   memset_generic memset_falkor memset_emag memset_kunpeng \
                   memchr_generic memchr_nosimd \
                   strlen_mte strlen_asimd
index 99a8c68aaca0b94303da1dbee37f6f04d57a92dd..911393565c21e4c5486502a29418ec020ffe5d0d 100644 (file)
@@ -25,7 +25,7 @@
 #include <stdio.h>
 
 /* Maximum number of IFUNC implementations.  */
-#define MAX_IFUNC      4
+#define MAX_IFUNC      7
 
 size_t
 __libc_ifunc_impl_list (const char *name, struct libc_ifunc_impl *array,
@@ -43,12 +43,18 @@ __libc_ifunc_impl_list (const char *name, struct libc_ifunc_impl *array,
              IFUNC_IMPL_ADD (array, i, memcpy, !bti, __memcpy_thunderx2)
              IFUNC_IMPL_ADD (array, i, memcpy, 1, __memcpy_falkor)
              IFUNC_IMPL_ADD (array, i, memcpy, 1, __memcpy_simd)
+#if HAVE_AARCH64_SVE_ASM
+             IFUNC_IMPL_ADD (array, i, memcpy, sve, __memcpy_a64fx)
+#endif
              IFUNC_IMPL_ADD (array, i, memcpy, 1, __memcpy_generic))
   IFUNC_IMPL (i, name, memmove,
              IFUNC_IMPL_ADD (array, i, memmove, 1, __memmove_thunderx)
              IFUNC_IMPL_ADD (array, i, memmove, !bti, __memmove_thunderx2)
              IFUNC_IMPL_ADD (array, i, memmove, 1, __memmove_falkor)
              IFUNC_IMPL_ADD (array, i, memmove, 1, __memmove_simd)
+#if HAVE_AARCH64_SVE_ASM
+             IFUNC_IMPL_ADD (array, i, memmove, sve, __memmove_a64fx)
+#endif
              IFUNC_IMPL_ADD (array, i, memmove, 1, __memmove_generic))
   IFUNC_IMPL (i, name, memset,
              /* Enable this on non-falkor processors too so that other cores
index a167699e74f49d582237c1a61ddc79ee37bcac5e..6d92c1bcff6aebb78602e8ca3f5462b1c712e584 100644 (file)
@@ -33,4 +33,6 @@
   bool __attribute__((unused)) bti =                                         \
     HAVE_AARCH64_BTI && GLRO(dl_aarch64_cpu_features).bti;                   \
   bool __attribute__((unused)) mte =                                         \
-    MTE_ENABLED ();
+    MTE_ENABLED ();                                                          \
+  bool __attribute__((unused)) sve =                                         \
+    GLRO(dl_aarch64_cpu_features).sve;
index 0e0a5cbcfb1b6dbd7102064bd0245182a4d7cec5..25e0081eeb51727cfc90117117726e212728c2ff 100644 (file)
@@ -33,6 +33,9 @@ extern __typeof (__redirect_memcpy) __memcpy_simd attribute_hidden;
 extern __typeof (__redirect_memcpy) __memcpy_thunderx attribute_hidden;
 extern __typeof (__redirect_memcpy) __memcpy_thunderx2 attribute_hidden;
 extern __typeof (__redirect_memcpy) __memcpy_falkor attribute_hidden;
+# if HAVE_AARCH64_SVE_ASM
+extern __typeof (__redirect_memcpy) __memcpy_a64fx attribute_hidden;
+# endif
 
 libc_ifunc (__libc_memcpy,
             (IS_THUNDERX (midr)
@@ -40,12 +43,17 @@ libc_ifunc (__libc_memcpy,
             : (IS_FALKOR (midr) || IS_PHECDA (midr)
                ? __memcpy_falkor
                : (IS_THUNDERX2 (midr) || IS_THUNDERX2PA (midr)
-                 ? __memcpy_thunderx2
-                 : (IS_NEOVERSE_N1 (midr) || IS_NEOVERSE_N2 (midr)
-                    || IS_NEOVERSE_V1 (midr)
-                    ? __memcpy_simd
+                  ? __memcpy_thunderx2
+                  : (IS_NEOVERSE_N1 (midr) || IS_NEOVERSE_N2 (midr)
+                     || IS_NEOVERSE_V1 (midr)
+                     ? __memcpy_simd
+# if HAVE_AARCH64_SVE_ASM
+                    : (IS_A64FX (midr)
+                       ? __memcpy_a64fx
+                       : __memcpy_generic))))));
+# else
                     : __memcpy_generic)))));
-
+# endif
 # undef memcpy
 strong_alias (__libc_memcpy, memcpy);
 #endif
diff --git a/sysdeps/aarch64/multiarch/memcpy_a64fx.S b/sysdeps/aarch64/multiarch/memcpy_a64fx.S
new file mode 100644 (file)
index 0000000..6552840
--- /dev/null
@@ -0,0 +1,406 @@
+/* Optimized memcpy for Fujitsu A64FX processor.
+   Copyright (C) 2021 Free Software Foundation, Inc.
+
+   This file is part of the GNU C Library.
+
+   The GNU C Library is free software; you can redistribute it and/or
+   modify it under the terms of the GNU Lesser General Public
+   License as published by the Free Software Foundation; either
+   version 2.1 of the License, or (at your option) any later version.
+
+   The GNU C Library is distributed in the hope that it will be useful,
+   but WITHOUT ANY WARRANTY; without even the implied warranty of
+   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
+   Lesser General Public License for more details.
+
+   You should have received a copy of the GNU Lesser General Public
+   License along with the GNU C Library.  If not, see
+   <https://www.gnu.org/licenses/>.  */
+
+#include <sysdep.h>
+
+/* Assumptions:
+ *
+ * ARMv8.2-a, AArch64, unaligned accesses, sve
+ *
+ */
+
+#define L2_SIZE                (8*1024*1024)/2 // L2 8MB/2
+#define CACHE_LINE_SIZE        256
+#define ZF_DIST                (CACHE_LINE_SIZE * 21)  // Zerofill distance
+#define dest           x0
+#define src            x1
+#define n              x2      // size
+#define tmp1           x3
+#define tmp2           x4
+#define tmp3           x5
+#define rest           x6
+#define dest_ptr       x7
+#define src_ptr                x8
+#define vector_length  x9
+#define cl_remainder   x10     // CACHE_LINE_SIZE remainder
+
+#if HAVE_AARCH64_SVE_ASM
+# if IS_IN (libc)
+#  define MEMCPY __memcpy_a64fx
+#  define MEMMOVE __memmove_a64fx
+
+       .arch armv8.2-a+sve
+
+       .macro dc_zva times
+       dc      zva, tmp1
+       add     tmp1, tmp1, CACHE_LINE_SIZE
+       .if \times-1
+       dc_zva "(\times-1)"
+       .endif
+       .endm
+
+       .macro ld1b_unroll8
+       ld1b    z0.b, p0/z, [src_ptr, #0, mul vl]
+       ld1b    z1.b, p0/z, [src_ptr, #1, mul vl]
+       ld1b    z2.b, p0/z, [src_ptr, #2, mul vl]
+       ld1b    z3.b, p0/z, [src_ptr, #3, mul vl]
+       ld1b    z4.b, p0/z, [src_ptr, #4, mul vl]
+       ld1b    z5.b, p0/z, [src_ptr, #5, mul vl]
+       ld1b    z6.b, p0/z, [src_ptr, #6, mul vl]
+       ld1b    z7.b, p0/z, [src_ptr, #7, mul vl]
+       .endm
+
+       .macro stld1b_unroll4a
+       st1b    z0.b, p0,   [dest_ptr, #0, mul vl]
+       st1b    z1.b, p0,   [dest_ptr, #1, mul vl]
+       ld1b    z0.b, p0/z, [src_ptr,  #0, mul vl]
+       ld1b    z1.b, p0/z, [src_ptr,  #1, mul vl]
+       st1b    z2.b, p0,   [dest_ptr, #2, mul vl]
+       st1b    z3.b, p0,   [dest_ptr, #3, mul vl]
+       ld1b    z2.b, p0/z, [src_ptr,  #2, mul vl]
+       ld1b    z3.b, p0/z, [src_ptr,  #3, mul vl]
+       .endm
+
+       .macro stld1b_unroll4b
+       st1b    z4.b, p0,   [dest_ptr, #4, mul vl]
+       st1b    z5.b, p0,   [dest_ptr, #5, mul vl]
+       ld1b    z4.b, p0/z, [src_ptr,  #4, mul vl]
+       ld1b    z5.b, p0/z, [src_ptr,  #5, mul vl]
+       st1b    z6.b, p0,   [dest_ptr, #6, mul vl]
+       st1b    z7.b, p0,   [dest_ptr, #7, mul vl]
+       ld1b    z6.b, p0/z, [src_ptr,  #6, mul vl]
+       ld1b    z7.b, p0/z, [src_ptr,  #7, mul vl]
+       .endm
+
+       .macro stld1b_unroll8
+       stld1b_unroll4a
+       stld1b_unroll4b
+       .endm
+
+       .macro st1b_unroll8
+       st1b    z0.b, p0, [dest_ptr, #0, mul vl]
+       st1b    z1.b, p0, [dest_ptr, #1, mul vl]
+       st1b    z2.b, p0, [dest_ptr, #2, mul vl]
+       st1b    z3.b, p0, [dest_ptr, #3, mul vl]
+       st1b    z4.b, p0, [dest_ptr, #4, mul vl]
+       st1b    z5.b, p0, [dest_ptr, #5, mul vl]
+       st1b    z6.b, p0, [dest_ptr, #6, mul vl]
+       st1b    z7.b, p0, [dest_ptr, #7, mul vl]
+       .endm
+
+       .macro shortcut_for_small_size exit
+       // if rest <= vector_length * 2
+       whilelo p0.b, xzr, n
+       whilelo p1.b, vector_length, n
+       b.last  1f
+       ld1b    z0.b, p0/z, [src, #0, mul vl]
+       ld1b    z1.b, p1/z, [src, #1, mul vl]
+       st1b    z0.b, p0, [dest, #0, mul vl]
+       st1b    z1.b, p1, [dest, #1, mul vl]
+       ret
+1:     // if rest > vector_length * 8
+       cmp     n, vector_length, lsl 3 // vector_length * 8
+       b.hi    \exit
+       // if rest <= vector_length * 4
+       lsl     tmp1, vector_length, 1  // vector_length * 2
+       whilelo p2.b, tmp1, n
+       incb    tmp1
+       whilelo p3.b, tmp1, n
+       b.last  1f
+       ld1b    z0.b, p0/z, [src, #0, mul vl]
+       ld1b    z1.b, p1/z, [src, #1, mul vl]
+       ld1b    z2.b, p2/z, [src, #2, mul vl]
+       ld1b    z3.b, p3/z, [src, #3, mul vl]
+       st1b    z0.b, p0, [dest, #0, mul vl]
+       st1b    z1.b, p1, [dest, #1, mul vl]
+       st1b    z2.b, p2, [dest, #2, mul vl]
+       st1b    z3.b, p3, [dest, #3, mul vl]
+       ret
+1:     // if rest <= vector_length * 8
+       lsl     tmp1, vector_length, 2  // vector_length * 4
+       whilelo p4.b, tmp1, n
+       incb    tmp1
+       whilelo p5.b, tmp1, n
+       b.last  1f
+       ld1b    z0.b, p0/z, [src, #0, mul vl]
+       ld1b    z1.b, p1/z, [src, #1, mul vl]
+       ld1b    z2.b, p2/z, [src, #2, mul vl]
+       ld1b    z3.b, p3/z, [src, #3, mul vl]
+       ld1b    z4.b, p4/z, [src, #4, mul vl]
+       ld1b    z5.b, p5/z, [src, #5, mul vl]
+       st1b    z0.b, p0, [dest, #0, mul vl]
+       st1b    z1.b, p1, [dest, #1, mul vl]
+       st1b    z2.b, p2, [dest, #2, mul vl]
+       st1b    z3.b, p3, [dest, #3, mul vl]
+       st1b    z4.b, p4, [dest, #4, mul vl]
+       st1b    z5.b, p5, [dest, #5, mul vl]
+       ret
+1:     lsl     tmp1, vector_length, 2  // vector_length * 4
+       incb    tmp1                    // vector_length * 5
+       incb    tmp1                    // vector_length * 6
+       whilelo p6.b, tmp1, n
+       incb    tmp1
+       whilelo p7.b, tmp1, n
+       ld1b    z0.b, p0/z, [src, #0, mul vl]
+       ld1b    z1.b, p1/z, [src, #1, mul vl]
+       ld1b    z2.b, p2/z, [src, #2, mul vl]
+       ld1b    z3.b, p3/z, [src, #3, mul vl]
+       ld1b    z4.b, p4/z, [src, #4, mul vl]
+       ld1b    z5.b, p5/z, [src, #5, mul vl]
+       ld1b    z6.b, p6/z, [src, #6, mul vl]
+       ld1b    z7.b, p7/z, [src, #7, mul vl]
+       st1b    z0.b, p0, [dest, #0, mul vl]
+       st1b    z1.b, p1, [dest, #1, mul vl]
+       st1b    z2.b, p2, [dest, #2, mul vl]
+       st1b    z3.b, p3, [dest, #3, mul vl]
+       st1b    z4.b, p4, [dest, #4, mul vl]
+       st1b    z5.b, p5, [dest, #5, mul vl]
+       st1b    z6.b, p6, [dest, #6, mul vl]
+       st1b    z7.b, p7, [dest, #7, mul vl]
+       ret
+       .endm
+
+ENTRY (MEMCPY)
+
+       PTR_ARG (0)
+       PTR_ARG (1)
+       SIZE_ARG (2)
+
+L(memcpy):
+       cntb    vector_length
+       // shortcut for less than vector_length * 8
+       // gives a free ptrue to p0.b for n >= vector_length
+       shortcut_for_small_size L(vl_agnostic)
+       // end of shortcut
+
+L(vl_agnostic): // VL Agnostic
+       mov     rest, n
+       mov     dest_ptr, dest
+       mov     src_ptr, src
+       // if rest >= L2_SIZE && vector_length == 64 then L(L2)
+       mov     tmp1, 64
+       cmp     rest, L2_SIZE
+       ccmp    vector_length, tmp1, 0, cs
+       b.eq    L(L2)
+
+L(unroll8): // unrolling and software pipeline
+       lsl     tmp1, vector_length, 3  // vector_length * 8
+       .p2align 3
+       cmp      rest, tmp1
+       b.cc    L(last)
+       ld1b_unroll8
+       add     src_ptr, src_ptr, tmp1
+       sub     rest, rest, tmp1
+       cmp     rest, tmp1
+       b.cc    2f
+       .p2align 3
+1:     stld1b_unroll8
+       add     dest_ptr, dest_ptr, tmp1
+       add     src_ptr, src_ptr, tmp1
+       sub     rest, rest, tmp1
+       cmp     rest, tmp1
+       b.ge    1b
+2:     st1b_unroll8
+       add     dest_ptr, dest_ptr, tmp1
+
+       .p2align 3
+L(last):
+       whilelo p0.b, xzr, rest
+       whilelo p1.b, vector_length, rest
+       b.last  1f
+       ld1b    z0.b, p0/z, [src_ptr, #0, mul vl]
+       ld1b    z1.b, p1/z, [src_ptr, #1, mul vl]
+       st1b    z0.b, p0, [dest_ptr, #0, mul vl]
+       st1b    z1.b, p1, [dest_ptr, #1, mul vl]
+       ret
+1:     lsl     tmp1, vector_length, 1  // vector_length * 2
+       whilelo p2.b, tmp1, rest
+       incb    tmp1
+       whilelo p3.b, tmp1, rest
+       b.last  1f
+       ld1b    z0.b, p0/z, [src_ptr, #0, mul vl]
+       ld1b    z1.b, p1/z, [src_ptr, #1, mul vl]
+       ld1b    z2.b, p2/z, [src_ptr, #2, mul vl]
+       ld1b    z3.b, p3/z, [src_ptr, #3, mul vl]
+       st1b    z0.b, p0, [dest_ptr, #0, mul vl]
+       st1b    z1.b, p1, [dest_ptr, #1, mul vl]
+       st1b    z2.b, p2, [dest_ptr, #2, mul vl]
+       st1b    z3.b, p3, [dest_ptr, #3, mul vl]
+       ret
+1:     lsl     tmp1, vector_length, 2  // vector_length * 4
+       whilelo p4.b, tmp1, rest
+       incb    tmp1
+       whilelo p5.b, tmp1, rest
+       incb    tmp1
+       whilelo p6.b, tmp1, rest
+       incb    tmp1
+       whilelo p7.b, tmp1, rest
+       ld1b    z0.b, p0/z, [src_ptr, #0, mul vl]
+       ld1b    z1.b, p1/z, [src_ptr, #1, mul vl]
+       ld1b    z2.b, p2/z, [src_ptr, #2, mul vl]
+       ld1b    z3.b, p3/z, [src_ptr, #3, mul vl]
+       ld1b    z4.b, p4/z, [src_ptr, #4, mul vl]
+       ld1b    z5.b, p5/z, [src_ptr, #5, mul vl]
+       ld1b    z6.b, p6/z, [src_ptr, #6, mul vl]
+       ld1b    z7.b, p7/z, [src_ptr, #7, mul vl]
+       st1b    z0.b, p0, [dest_ptr, #0, mul vl]
+       st1b    z1.b, p1, [dest_ptr, #1, mul vl]
+       st1b    z2.b, p2, [dest_ptr, #2, mul vl]
+       st1b    z3.b, p3, [dest_ptr, #3, mul vl]
+       st1b    z4.b, p4, [dest_ptr, #4, mul vl]
+       st1b    z5.b, p5, [dest_ptr, #5, mul vl]
+       st1b    z6.b, p6, [dest_ptr, #6, mul vl]
+       st1b    z7.b, p7, [dest_ptr, #7, mul vl]
+       ret
+
+L(L2):
+       // align dest address at CACHE_LINE_SIZE byte boundary
+       mov     tmp1, CACHE_LINE_SIZE
+       ands    tmp2, dest_ptr, CACHE_LINE_SIZE - 1
+       // if cl_remainder == 0
+       b.eq    L(L2_dc_zva)
+       sub     cl_remainder, tmp1, tmp2
+       // process remainder until the first CACHE_LINE_SIZE boundary
+       whilelo p1.b, xzr, cl_remainder // keep p0.b all true
+       whilelo p2.b, vector_length, cl_remainder
+       b.last  1f
+       ld1b    z1.b, p1/z, [src_ptr, #0, mul vl]
+       ld1b    z2.b, p2/z, [src_ptr, #1, mul vl]
+       st1b    z1.b, p1, [dest_ptr, #0, mul vl]
+       st1b    z2.b, p2, [dest_ptr, #1, mul vl]
+       b       2f
+1:     lsl     tmp1, vector_length, 1  // vector_length * 2
+       whilelo p3.b, tmp1, cl_remainder
+       incb    tmp1
+       whilelo p4.b, tmp1, cl_remainder
+       ld1b    z1.b, p1/z, [src_ptr, #0, mul vl]
+       ld1b    z2.b, p2/z, [src_ptr, #1, mul vl]
+       ld1b    z3.b, p3/z, [src_ptr, #2, mul vl]
+       ld1b    z4.b, p4/z, [src_ptr, #3, mul vl]
+       st1b    z1.b, p1, [dest_ptr, #0, mul vl]
+       st1b    z2.b, p2, [dest_ptr, #1, mul vl]
+       st1b    z3.b, p3, [dest_ptr, #2, mul vl]
+       st1b    z4.b, p4, [dest_ptr, #3, mul vl]
+2:     add     dest_ptr, dest_ptr, cl_remainder
+       add     src_ptr, src_ptr, cl_remainder
+       sub     rest, rest, cl_remainder
+
+L(L2_dc_zva):
+       // zero fill
+       and     tmp1, dest, 0xffffffffffffff
+       and     tmp2, src, 0xffffffffffffff
+       subs    tmp1, tmp1, tmp2        // diff
+       b.ge    1f
+       neg     tmp1, tmp1
+1:     mov     tmp3, ZF_DIST + CACHE_LINE_SIZE * 2
+       cmp     tmp1, tmp3
+       b.lo    L(unroll8)
+       mov     tmp1, dest_ptr
+       dc_zva  (ZF_DIST / CACHE_LINE_SIZE) - 1
+       // unroll
+       ld1b_unroll8    // this line has to be after "b.lo L(unroll8)"
+       add      src_ptr, src_ptr, CACHE_LINE_SIZE * 2
+       sub      rest, rest, CACHE_LINE_SIZE * 2
+       mov      tmp1, ZF_DIST
+       .p2align 3
+1:     stld1b_unroll4a
+       add     tmp2, dest_ptr, tmp1    // dest_ptr + ZF_DIST
+       dc      zva, tmp2
+       stld1b_unroll4b
+       add     tmp2, tmp2, CACHE_LINE_SIZE
+       dc      zva, tmp2
+       add     dest_ptr, dest_ptr, CACHE_LINE_SIZE * 2
+       add     src_ptr, src_ptr, CACHE_LINE_SIZE * 2
+       sub     rest, rest, CACHE_LINE_SIZE * 2
+       cmp     rest, tmp3      // ZF_DIST + CACHE_LINE_SIZE * 2
+       b.ge    1b
+       st1b_unroll8
+       add     dest_ptr, dest_ptr, CACHE_LINE_SIZE * 2
+       b       L(unroll8)
+
+END (MEMCPY)
+libc_hidden_builtin_def (MEMCPY)
+
+
+ENTRY (MEMMOVE)
+
+       PTR_ARG (0)
+       PTR_ARG (1)
+       SIZE_ARG (2)
+
+       // remove tag address
+       // dest has to be immutable because it is the return value
+       // src has to be immutable because it is used in L(bwd_last)
+       and     tmp2, dest, 0xffffffffffffff    // save dest_notag into tmp2
+       and     tmp3, src, 0xffffffffffffff     // save src_notag intp tmp3
+       cmp     n, 0
+       ccmp    tmp2, tmp3, 4, ne
+       b.ne    1f
+       ret
+1:     cntb    vector_length
+       // shortcut for less than vector_length * 8
+       // gives a free ptrue to p0.b for n >= vector_length
+       // tmp2 and tmp3 should not be used in this macro to keep
+       // notag addresses
+       shortcut_for_small_size L(dispatch)
+       // end of shortcut
+
+L(dispatch):
+       // tmp2 = dest_notag, tmp3 = src_notag
+       // diff = dest_notag - src_notag
+       sub     tmp1, tmp2, tmp3
+       // if diff <= 0 || diff >= n then memcpy
+       cmp     tmp1, 0
+       ccmp    tmp1, n, 2, gt
+       b.cs    L(vl_agnostic)
+
+L(bwd_start):
+       mov     rest, n
+       add     dest_ptr, dest, n       // dest_end
+       add     src_ptr, src, n         // src_end
+
+L(bwd_unroll8): // unrolling and software pipeline
+       lsl     tmp1, vector_length, 3  // vector_length * 8
+       .p2align 3
+       cmp     rest, tmp1
+       b.cc    L(bwd_last)
+       sub     src_ptr, src_ptr, tmp1
+       ld1b_unroll8
+       sub     rest, rest, tmp1
+       cmp     rest, tmp1
+       b.cc    2f
+       .p2align 3
+1:     sub     src_ptr, src_ptr, tmp1
+       sub     dest_ptr, dest_ptr, tmp1
+       stld1b_unroll8
+       sub     rest, rest, tmp1
+       cmp     rest, tmp1
+       b.ge    1b
+2:     sub     dest_ptr, dest_ptr, tmp1
+       st1b_unroll8
+
+L(bwd_last):
+       mov     dest_ptr, dest
+       mov     src_ptr, src
+       b       L(last)
+
+END (MEMMOVE)
+libc_hidden_builtin_def (MEMMOVE)
+# endif /* IS_IN (libc) */
+#endif /* HAVE_AARCH64_SVE_ASM */
index 12d77818a99996bda9c30a37109b6ce74d589baa..d0adefc547f60030f0ddb5382006bc2de1ac84fa 100644 (file)
@@ -33,6 +33,9 @@ extern __typeof (__redirect_memmove) __memmove_simd attribute_hidden;
 extern __typeof (__redirect_memmove) __memmove_thunderx attribute_hidden;
 extern __typeof (__redirect_memmove) __memmove_thunderx2 attribute_hidden;
 extern __typeof (__redirect_memmove) __memmove_falkor attribute_hidden;
+# if HAVE_AARCH64_SVE_ASM
+extern __typeof (__redirect_memmove) __memmove_a64fx attribute_hidden;
+# endif
 
 libc_ifunc (__libc_memmove,
             (IS_THUNDERX (midr)
@@ -40,12 +43,17 @@ libc_ifunc (__libc_memmove,
             : (IS_FALKOR (midr) || IS_PHECDA (midr)
                ? __memmove_falkor
                : (IS_THUNDERX2 (midr) || IS_THUNDERX2PA (midr)
-                 ? __memmove_thunderx2
-                 : (IS_NEOVERSE_N1 (midr) || IS_NEOVERSE_N2 (midr)
-                    || IS_NEOVERSE_V1 (midr)
-                    ? __memmove_simd
+                  ? __memmove_thunderx2
+                  : (IS_NEOVERSE_N1 (midr) || IS_NEOVERSE_N2 (midr)
+                     || IS_NEOVERSE_V1 (midr)
+                     ? __memmove_simd
+# if HAVE_AARCH64_SVE_ASM
+                    : (IS_A64FX (midr)
+                       ? __memmove_a64fx
+                       : __memmove_generic))))));
+# else
                     : __memmove_generic)))));
-
+# endif
 # undef memmove
 strong_alias (__libc_memmove, memmove);
 #endif
index db6aa3516c1b5cb196dae53ac5cad6786b41834c..6206a2f618b0a554dace375fa889a6c97a450a36 100644 (file)
@@ -46,6 +46,7 @@ static struct cpu_list cpu_list[] = {
       {"ares",          0x411FD0C0},
       {"emag",          0x503F0001},
       {"kunpeng920",    0x481FD010},
+      {"a64fx",                 0x460F0010},
       {"generic",       0x0}
 };
 
@@ -116,4 +117,7 @@ init_cpu_features (struct cpu_features *cpu_features)
             (PR_TAGGED_ADDR_ENABLE | PR_MTE_TCF_ASYNC | MTE_ALLOWED_TAGS),
             0, 0, 0);
 #endif
+
+  /* Check if SVE is supported.  */
+  cpu_features->sve = GLRO (dl_hwcap) & HWCAP_SVE;
 }
index 3b9bfed1349cf62f781c84cabafd5299687c21b3..2b322e5414befba8a16738d363e6bcf195d7c15b 100644 (file)
@@ -65,6 +65,9 @@
 #define IS_KUNPENG920(midr) (MIDR_IMPLEMENTOR(midr) == 'H'                        \
                         && MIDR_PARTNUM(midr) == 0xd01)
 
+#define IS_A64FX(midr) (MIDR_IMPLEMENTOR(midr) == 'F'                        \
+                       && MIDR_PARTNUM(midr) == 0x001)
+
 struct cpu_features
 {
   uint64_t midr_el1;
@@ -72,6 +75,7 @@ struct cpu_features
   bool bti;
   /* Currently, the GLIBC memory tagging tunable only defines 8 bits.  */
   uint8_t mte_state;
+  bool sve;
 };
 
 #endif /* _CPU_FEATURES_AARCH64_H  */