]> git.ipfire.org Git - thirdparty/zlib-ng.git/commitdiff
Add LoongArch64 (LASX) adler32, adler32_fold_copy implementation
authorVladislav Shchapov <vladislav@shchapov.ru>
Sat, 14 Jun 2025 20:44:38 +0000 (01:44 +0500)
committerHans Kristian Rosbach <hk-github@circlestorm.org>
Fri, 11 Jul 2025 14:12:18 +0000 (16:12 +0200)
Signed-off-by: Vladislav Shchapov <vladislav@shchapov.ru>
CMakeLists.txt
arch/loongarch/Makefile.in
arch/loongarch/adler32_lasx.c [new file with mode: 0644]
arch/loongarch/lasxintrin_ext.h
arch/loongarch/loongarch_functions.h
configure
functable.c
test/benchmarks/benchmark_adler32.cc
test/benchmarks/benchmark_adler32_copy.cc
test/test_adler32.cc

index c83cf42d7d801de8c7323ca411505e5e7496cc41..616770cd27f226f09a5d1f5931e36aafceaf8dd0 100644 (file)
@@ -1049,7 +1049,7 @@ if(WITH_OPTIM)
             check_lasx_intrinsics()
             if(HAVE_LASX_INTRIN AND HAVE_LSX_INTRIN)
                 add_definitions(-DLOONGARCH_LASX)
-                set(LASX_SRCS ${ARCHDIR}/chunkset_lasx.c ${ARCHDIR}/compare256_lasx.c ${ARCHDIR}/slide_hash_lasx.c)
+                set(LASX_SRCS ${ARCHDIR}/adler32_lasx.c ${ARCHDIR}/chunkset_lasx.c ${ARCHDIR}/compare256_lasx.c ${ARCHDIR}/slide_hash_lasx.c)
                 list(APPEND ZLIB_ARCH_SRCS ${LASX_SRCS})
                 set_property(SOURCE ${LASX_SRCS} PROPERTY COMPILE_FLAGS "${LASXFLAG} ${NOLTOFLAG}")
             else()
index 424340f5e25b62476201770056c125c529622959..86baed15537b4049ae19237f0127ed1a3d497eaa 100644 (file)
@@ -20,6 +20,7 @@ TOPDIR=$(SRCTOP)
 all: \
        loongarch_features.o loongarch_features.lo \
        crc32_la.o crc32_la.lo \
+       adler32_lasx.o adler32_lasx.lo \
        adler32_lsx.o adler32_lsx.lo \
        chunkset_lasx.o chunkset_lasx.lo \
        chunkset_lsx.o chunkset_lsx.lo \
@@ -40,6 +41,12 @@ crc32_la.o: $(SRCDIR)/crc32_la.c
 crc32_la.lo: $(SRCDIR)/crc32_la.c
        $(CC) $(SFLAGS) -DPIC $(INCLUDES) -c -o $@ $(SRCDIR)/crc32_la.c
 
+adler32_lasx.o:
+       $(CC) $(CFLAGS) $(LASXFLAG) $(NOLTOFLAG) $(INCLUDES) -c -o $@ $(SRCDIR)/adler32_lasx.c
+
+adler32_lasx.lo:
+       $(CC) $(SFLAGS) $(LASXFLAG) $(NOLTOFLAG) -DPIC $(INCLUDES) -c -o $@ $(SRCDIR)/adler32_lasx.c
+
 adler32_lsx.o:
        $(CC) $(CFLAGS) $(LSXFLAG) $(NOLTOFLAG) $(INCLUDES) -c -o $@ $(SRCDIR)/adler32_lsx.c
 
diff --git a/arch/loongarch/adler32_lasx.c b/arch/loongarch/adler32_lasx.c
new file mode 100644 (file)
index 0000000..2cef16c
--- /dev/null
@@ -0,0 +1,127 @@
+/* adler32_lasx.c -- compute the Adler-32 checksum of a data stream, based on Intel AVX2 implementation
+ * Copyright (C) 1995-2011 Mark Adler
+ * Copyright (C) 2022 Adam Stylinski
+ * Copyright (C) 2025 Vladislav Shchapov <vladislav@shchapov.ru>
+ * Authors:
+ *   Brian Bockelman <bockelman@gmail.com>
+ *   Adam Stylinski <kungfujesus06@gmail.com>
+ * For conditions of distribution and use, see copyright notice in zlib.h
+ */
+
+#ifdef LOONGARCH_LASX
+
+#include "zbuild.h"
+#include "adler32_p.h"
+
+#include <lasxintrin.h>
+#include "lasxintrin_ext.h"
+
+
+/* 32 bit horizontal sum */
+static inline uint32_t hsum256(__m256i x) {
+    __m256i sum1 = __lasx_xvadd_w(x, __lasx_xvbsrl_v(x, 8));
+    __m256i sum2 = __lasx_xvadd_w(sum1, __lasx_xvpermi_d(sum1, 0x2));
+    __m256i sum3 = __lasx_xvadd_w(sum2, __lasx_xvbsrl_v(sum2, 4));
+    return (uint32_t)__lasx_xvpickve2gr_wu(sum3, 0);
+}
+
+static inline uint32_t partial_hsum256(__m256i x) {
+    __m256i sum1 = __lasx_xvadd_w(x, __lasx_xvbsrl_v(x, 8));
+    __m256i sum2 = __lasx_xvadd_w(sum1, __lasx_xvpermi_d(sum1, 0x2));
+    return (uint32_t)__lasx_xvpickve2gr_wu(sum2, 0);
+}
+
+extern uint32_t adler32_fold_copy_lsx(uint32_t adler, uint8_t *dst, const uint8_t *src, size_t len);
+extern uint32_t adler32_lsx(uint32_t adler, const uint8_t *src, size_t len);
+
+static inline uint32_t adler32_fold_copy_impl(uint32_t adler, uint8_t *dst, const uint8_t *src, size_t len, const int COPY) {
+    if (src == NULL) return 1L;
+    if (len == 0) return adler;
+
+    uint32_t adler0, adler1;
+    adler1 = (adler >> 16) & 0xffff;
+    adler0 = adler & 0xffff;
+
+rem_peel:
+    if (len < 16) {
+        if (COPY) {
+            return adler32_copy_len_16(adler0, src, dst, len, adler1);
+        } else {
+            return adler32_len_16(adler0, src, len, adler1);
+        }
+    } else if (len < 32) {
+        if (COPY) {
+            return adler32_fold_copy_lsx(adler, dst, src, len);
+        } else {
+            return adler32_lsx(adler, src, len);
+        }
+    }
+
+    __m256i vs1, vs2;
+
+    const __m256i dot2v = (__m256i)((v32i8){ 32, 31, 30, 29, 28, 27, 26, 25, 24, 23, 22, 21, 20, 19, 18, 17, 16, 15,
+                                             14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1 });
+    const __m256i dot3v = __lasx_xvreplgr2vr_h(1);
+    const __m256i zero = __lasx_xvldi(0);
+
+    while (len >= 32) {
+        vs1 = __lasx_xvinsgr2vr_w(zero, adler0, 0);
+        vs2 = __lasx_xvinsgr2vr_w(zero, adler1, 0);
+
+        __m256i vs1_0 = vs1;
+        __m256i vs3 = __lasx_xvldi(0);
+
+        size_t k = MIN(len, NMAX);
+        k -= k % 32;
+        len -= k;
+
+        while (k >= 32) {
+            /*
+               vs1 = adler + sum(c[i])
+               vs2 = sum2 + 32 vs1 + sum( (32-i+1) c[i] )
+            */
+            __m256i vbuf = __lasx_xvld(src, 0);
+            src += 32;
+            k -= 32;
+
+            __m256i vs1_sad = lasx_sad_bu(vbuf, zero); // Sum of abs diff, resulting in 2 x int32's
+
+            if (COPY) {
+                __lasx_xvst(vbuf, dst, 0);
+                dst += 32;
+            }
+
+            vs1 = __lasx_xvadd_w(vs1, vs1_sad);
+            vs3 = __lasx_xvadd_w(vs3, vs1_0);
+            __m256i v_short_sum2 = __lasx_xvsadd_h(__lasx_xvmulwod_h_bu_b(vbuf, dot2v), __lasx_xvmulwev_h_bu_b(vbuf, dot2v)); // sum 32 uint8s to 16 shorts
+            __m256i vsum2 = __lasx_xvmaddwod_w_h(__lasx_xvmulwev_w_h(v_short_sum2, dot3v), v_short_sum2, dot3v); // sum 16 shorts to 8 uint32s
+            vs2 = __lasx_xvadd_w(vsum2, vs2);
+            vs1_0 = vs1;
+        }
+
+        /* Defer the multiplication with 32 to outside of the loop */
+        vs3 = __lasx_xvslli_w(vs3, 5);
+        vs2 = __lasx_xvadd_w(vs2, vs3);
+
+        adler0 = partial_hsum256(vs1) % BASE;
+        adler1 = hsum256(vs2) % BASE;
+    }
+
+    adler = adler0 | (adler1 << 16);
+
+    if (len) {
+        goto rem_peel;
+    }
+
+    return adler;
+}
+
+Z_INTERNAL uint32_t adler32_lasx(uint32_t adler, const uint8_t *src, size_t len) {
+    return adler32_fold_copy_impl(adler, NULL, src, len, 0);
+}
+
+Z_INTERNAL uint32_t adler32_fold_copy_lasx(uint32_t adler, uint8_t *dst, const uint8_t *src, size_t len) {
+    return adler32_fold_copy_impl(adler, dst, src, len, 1);
+}
+
+#endif
index 4ab8575122345e3993cb9f2e2967422aa82d3029..b2d0be5f2e09137a01490071eec72126770a0021 100644 (file)
@@ -9,6 +9,13 @@
 #include <lasxintrin.h>
 
 
+static inline __m256i lasx_sad_bu(__m256i a, __m256i b) {
+    __m256i tmp = __lasx_xvabsd_bu(a, b);
+    tmp = __lasx_xvhaddw_hu_bu(tmp, tmp);
+    tmp = __lasx_xvhaddw_wu_hu(tmp, tmp);
+    return __lasx_xvhaddw_du_wu(tmp, tmp);
+}
+
 static inline int lasx_movemask_b(__m256i v) {
     v = __lasx_xvmskltz_b(v);
     return __lasx_xvpickve2gr_w(v, 0) | (__lasx_xvpickve2gr_w(v, 4) << 16);
index fa1886196c72782479a4e4d85963f960e78d0de8..3bc8344da6d90e74f54c98c48206b6abdbd0fc27 100644 (file)
@@ -29,6 +29,8 @@ void inflate_fast_lsx(PREFIX3(stream) *strm, uint32_t start);
 #endif
 
 #ifdef LOONGARCH_LASX
+uint32_t adler32_lasx(uint32_t adler, const uint8_t *src, size_t len);
+uint32_t adler32_fold_copy_lasx(uint32_t adler, uint8_t *dst, const uint8_t *src, size_t len);
 void slide_hash_lasx(deflate_state *s);
 #  ifdef HAVE_BUILTIN_CTZ
     uint32_t compare256_lasx(const uint8_t *src0, const uint8_t *src1);
@@ -73,6 +75,10 @@ void inflate_fast_lasx(PREFIX3(stream) *strm, uint32_t start);
 #    endif
 #  endif
 #  if defined(LOONGARCH_LASX) && defined(__loongarch_asx)
+#    undef native_adler32
+#    define native_adler32 adler32_lasx
+#    undef native_adler32_fold_copy
+#    define native_adler32_fold_copy adler32_fold_copy_lasx
 #    undef native_slide_hash
 #    define native_slide_hash slide_hash_lasx
 #    undef native_chunksize
index e37859bb838c9500bcf658a9906fe32ca4db68c0..66d1c228b21af9e85c4ff7b83eef7814b91fd9c6 100755 (executable)
--- a/configure
+++ b/configure
@@ -2325,8 +2325,8 @@ EOF
                 CFLAGS="${CFLAGS} -DLOONGARCH_LASX"
                 SFLAGS="${SFLAGS} -DLOONGARCH_LASX"
 
-                ARCH_STATIC_OBJS="${ARCH_STATIC_OBJS} chunkset_lasx.o compare256_lasx.o slide_hash_lasx.o"
-                ARCH_SHARED_OBJS="${ARCH_SHARED_OBJS} chunkset_lasx.lo compare256_lasx.lo slide_hash_lasx.lo"
+                ARCH_STATIC_OBJS="${ARCH_STATIC_OBJS} adler32_lasx.o chunkset_lasx.o compare256_lasx.o slide_hash_lasx.o"
+                ARCH_SHARED_OBJS="${ARCH_SHARED_OBJS} adler32_lasx.lo chunkset_lasx.lo compare256_lasx.lo slide_hash_lasx.lo"
             fi
         fi
     ;;
index f31138b11fc24eb6ed09fea8a2a10fe0e10df68e..dd6400df3f92c08660140034303e857b26c97fbe 100644 (file)
@@ -294,6 +294,8 @@ static void init_functable(void) {
 #endif
 #ifdef LOONGARCH_LASX
     if (cf.loongarch.has_lasx) {
+        ft.adler32 = &adler32_lasx;
+        ft.adler32_fold_copy = &adler32_fold_copy_lasx;
         ft.slide_hash = slide_hash_lasx;
 #  ifdef HAVE_BUILTIN_CTZ
         ft.compare256 = &compare256_lasx;
index ee36a8096b8a98ecc617507548511bd0e2770fa3..6c307098ddcce1bcc3178031dd4ab33cc7bb902e 100644 (file)
@@ -100,5 +100,8 @@ BENCHMARK_ADLER32(avx512_vnni, adler32_avx512_vnni, test_cpu_features.x86.has_av
 #ifdef LOONGARCH_LSX
 BENCHMARK_ADLER32(lsx, adler32_lsx, test_cpu_features.loongarch.has_lsx);
 #endif
+#ifdef LOONGARCH_LASX
+BENCHMARK_ADLER32(lasx, adler32_lasx, test_cpu_features.loongarch.has_lasx);
+#endif
 
 #endif
index 505bc252a6f53d957767fac0b54e2afcf1f0193a..2027904af529fa62dbf93207dcae2bf125824fa4 100644 (file)
@@ -131,5 +131,9 @@ BENCHMARK_ADLER32_COPY(avx512_vnni, adler32_fold_copy_avx512_vnni, test_cpu_feat
 BENCHMARK_ADLER32_BASELINE_COPY(lsx_baseline, adler32_lsx, test_cpu_features.loongarch.has_lsx);
 BENCHMARK_ADLER32_COPY(lsx, adler32_fold_copy_lsx, test_cpu_features.loongarch.has_lsx);
 #endif
+#ifdef LOONGARCH_LASX
+BENCHMARK_ADLER32_BASELINE_COPY(lasx_baseline, adler32_lasx, test_cpu_features.loongarch.has_lasx);
+BENCHMARK_ADLER32_COPY(lasx, adler32_fold_copy_lasx, test_cpu_features.loongarch.has_lasx);
+#endif
 
 #endif
index eb8bccdf5e4876798bc2bc88953cd9e79d9d91a8..c52122c43d702efe75f5e4f59b4d01deeabfd305 100644 (file)
@@ -395,5 +395,8 @@ TEST_ADLER32(avx512_vnni, adler32_avx512_vnni, test_cpu_features.x86.has_avx512v
 #ifdef LOONGARCH_LSX
 TEST_ADLER32(lsx, adler32_lsx, test_cpu_features.loongarch.has_lsx)
 #endif
+#ifdef LOONGARCH_LASX
+TEST_ADLER32(lasx, adler32_lasx, test_cpu_features.loongarch.has_lasx)
+#endif
 
 #endif