]> git.ipfire.org Git - thirdparty/vectorscan.git/commitdiff
rename vpshufb to pshufb_m256
authorMatthew Barr <matthew.barr@intel.com>
Thu, 4 May 2017 23:59:29 +0000 (09:59 +1000)
committerMatthew Barr <matthew.barr@intel.com>
Tue, 30 May 2017 03:59:23 +0000 (13:59 +1000)
src/fdr/teddy_avx2.c
src/nfa/limex_shuffle.h
src/nfa/shufti.c
src/nfa/truffle.c
src/rose/program_runtime.h
src/rose/validate_shufti.h
src/util/masked_move.h
src/util/simd_utils.h

index ebc1362d484a8f54b1fa7d6c65aaeda79cb6e8ce..299825cc4cd7e2ca888b36e60e04d3892a159a22 100644 (file)
@@ -147,8 +147,8 @@ m256 prep_conf_fat_teddy_m1(const m256 *maskBase, m256 val) {
     m256 mask = set32x8(0xf);
     m256 lo = and256(val, mask);
     m256 hi = and256(rshift64_m256(val, 4), mask);
-    return and256(vpshufb(maskBase[0*2], lo),
-                  vpshufb(maskBase[0*2+1], hi));
+    return and256(pshufb_m256(maskBase[0*2], lo),
+                  pshufb_m256(maskBase[0*2+1], hi));
 }
 
 static really_inline
@@ -158,8 +158,8 @@ m256 prep_conf_fat_teddy_m2(const m256 *maskBase, m256 *old_1, m256 val) {
     m256 hi = and256(rshift64_m256(val, 4), mask);
     m256 r = prep_conf_fat_teddy_m1(maskBase, val);
 
-    m256 res_1 = and256(vpshufb(maskBase[1*2], lo),
-                        vpshufb(maskBase[1*2+1], hi));
+    m256 res_1 = and256(pshufb_m256(maskBase[1*2], lo),
+                        pshufb_m256(maskBase[1*2+1], hi));
     m256 res_shifted_1 = vpalignr(res_1, *old_1, 16-1);
     *old_1 = res_1;
     return and256(r, res_shifted_1);
@@ -173,8 +173,8 @@ m256 prep_conf_fat_teddy_m3(const m256 *maskBase, m256 *old_1, m256 *old_2,
     m256 hi = and256(rshift64_m256(val, 4), mask);
     m256 r = prep_conf_fat_teddy_m2(maskBase, old_1, val);
 
-    m256 res_2 = and256(vpshufb(maskBase[2*2], lo),
-                        vpshufb(maskBase[2*2+1], hi));
+    m256 res_2 = and256(pshufb_m256(maskBase[2*2], lo),
+                        pshufb_m256(maskBase[2*2+1], hi));
     m256 res_shifted_2 = vpalignr(res_2, *old_2, 16-2);
     *old_2 = res_2;
     return and256(r, res_shifted_2);
@@ -188,8 +188,8 @@ m256 prep_conf_fat_teddy_m4(const m256 *maskBase, m256 *old_1, m256 *old_2,
     m256 hi = and256(rshift64_m256(val, 4), mask);
     m256 r = prep_conf_fat_teddy_m3(maskBase, old_1, old_2, val);
 
-    m256 res_3 = and256(vpshufb(maskBase[3*2], lo),
-                        vpshufb(maskBase[3*2+1], hi));
+    m256 res_3 = and256(pshufb_m256(maskBase[3*2], lo),
+                        pshufb_m256(maskBase[3*2+1], hi));
     m256 res_shifted_3 = vpalignr(res_3, *old_3, 16-3);
     *old_3 = res_3;
     return and256(r, res_shifted_3);
index 4c142a34196d1e38492a53574404728f02374414..cedca3339e6691062b840738debca6bd201a2d84 100644 (file)
@@ -54,7 +54,7 @@ u32 packedExtract128(m128 s, const m128 permute, const m128 compare) {
 static really_inline
 u32 packedExtract256(m256 s, const m256 permute, const m256 compare) {
     // vpshufb doesn't cross lanes, so this is a bit of a cheat
-    m256 shuffled = vpshufb(s, permute);
+    m256 shuffled = pshufb_m256(s, permute);
     m256 compared = and256(shuffled, compare);
     u32 rv = ~movemask256(eq256(compared, shuffled));
     // stitch the lane-wise results back together
index 390b6510985297b02391bb31f460b192ab30a527..ebe5015ddd20633cfd997e26f4f51eba62e8c689 100644 (file)
@@ -373,8 +373,8 @@ DUMP_MSK(256)
 static really_inline
 u32 block(m256 mask_lo, m256 mask_hi, m256 chars, const m256 low4bits,
           const m256 compare) {
-    m256 c_lo  = vpshufb(mask_lo, GET_LO_4(chars));
-    m256 c_hi  = vpshufb(mask_hi, GET_HI_4(chars));
+    m256 c_lo  = pshufb_m256(mask_lo, GET_LO_4(chars));
+    m256 c_hi  = pshufb_m256(mask_hi, GET_HI_4(chars));
     m256 t = and256(c_lo, c_hi);
 
 #ifdef DEBUG
@@ -407,7 +407,7 @@ const u8 *fwdBlockShort(m256 mask, m128 chars, const u8 *buf,
     // do the hi and lo shuffles in the one avx register
     m256 c = combine2x128(rshift64_m128(chars, 4), chars);
     c = and256(c, low4bits);
-    m256 c_shuf = vpshufb(mask, c);
+    m256 c_shuf = pshufb_m256(mask, c);
     m128 t = and128(movdq_hi(c_shuf), cast256to128(c_shuf));
     // the upper 32-bits can't match
     u32 z = 0xffff0000U | movemask128(eq128(t, zeroes128()));
@@ -516,8 +516,8 @@ const u8 *lastMatch(const u8 *buf, u32 z) {
 static really_inline
 const u8 *revBlock(m256 mask_lo, m256 mask_hi, m256 chars, const u8 *buf,
                    const m256 low4bits, const m256 zeroes) {
-    m256 c_lo  = vpshufb(mask_lo, GET_LO_4(chars));
-    m256 c_hi  = vpshufb(mask_hi, GET_HI_4(chars));
+    m256 c_lo  = pshufb_m256(mask_lo, GET_LO_4(chars));
+    m256 c_hi  = pshufb_m256(mask_hi, GET_HI_4(chars));
     m256 t     = and256(c_lo, c_hi);
 
 #ifdef DEBUG
@@ -538,7 +538,7 @@ const u8 *revBlockShort(m256 mask, m128 chars, const u8 *buf,
     // do the hi and lo shuffles in the one avx register
     m256 c = combine2x128(rshift64_m128(chars, 4), chars);
     c = and256(c, low4bits);
-    m256 c_shuf = vpshufb(mask, c);
+    m256 c_shuf = pshufb_m256(mask, c);
     m128 t = and128(movdq_hi(c_shuf), cast256to128(c_shuf));
     // the upper 32-bits can't match
     u32 z = 0xffff0000U | movemask128(eq128(t, zeroes128()));
@@ -630,8 +630,8 @@ const u8 *fwdBlock2(m256 mask1_lo, m256 mask1_hi, m256 mask2_lo, m256 mask2_hi,
     DEBUG_PRINTF("buf %p\n", buf);
     m256 chars_lo = GET_LO_4(chars);
     m256 chars_hi = GET_HI_4(chars);
-    m256 c_lo  = vpshufb(mask1_lo, chars_lo);
-    m256 c_hi  = vpshufb(mask1_hi, chars_hi);
+    m256 c_lo  = pshufb_m256(mask1_lo, chars_lo);
+    m256 c_hi  = pshufb_m256(mask1_hi, chars_hi);
     m256 t     = or256(c_lo, c_hi);
 
 #ifdef DEBUG
@@ -642,8 +642,8 @@ const u8 *fwdBlock2(m256 mask1_lo, m256 mask1_hi, m256 mask2_lo, m256 mask2_hi,
     DEBUG_PRINTF("     t: "); dumpMsk256(t);            printf("\n");
 #endif
 
-    m256 c2_lo  = vpshufb(mask2_lo, chars_lo);
-    m256 c2_hi  = vpshufb(mask2_hi, chars_hi);
+    m256 c2_lo  = pshufb_m256(mask2_lo, chars_lo);
+    m256 c2_hi  = pshufb_m256(mask2_hi, chars_hi);
     m256 t2 = or256(t, rshift128_m256(or256(c2_lo, c2_hi), 1));
 
 #ifdef DEBUG
@@ -662,8 +662,8 @@ const u8 *fwdBlockShort2(m256 mask1, m256 mask2, m128 chars, const u8 *buf,
     // do the hi and lo shuffles in the one avx register
     m256 c = combine2x128(rshift64_m128(chars, 4), chars);
     c = and256(c, low4bits);
-    m256 c_shuf1 = vpshufb(mask1, c);
-    m256 c_shuf2 = rshift128_m256(vpshufb(mask2, c), 1);
+    m256 c_shuf1 = pshufb_m256(mask1, c);
+    m256 c_shuf2 = rshift128_m256(pshufb_m256(mask2, c), 1);
     m256 t0 = or256(c_shuf1, c_shuf2);
     m128 t = or128(movdq_hi(t0), cast256to128(t0));
     // the upper 32-bits can't match
index d31b1a5613eb9aeceef46c2c85335bf570f60648..335edd5bd70705f57670e1743115ca297981c0cb 100644 (file)
@@ -264,11 +264,11 @@ u32 block(m256 shuf_mask_lo_highclear, m256 shuf_mask_lo_highset, m256 v) {
     m256 shuf_mask_hi = _mm256_set1_epi64x(0x8040201008040201);
 
     // and now do the real work
-    m256 shuf1 = vpshufb(shuf_mask_lo_highclear, v);
+    m256 shuf1 = pshufb_m256(shuf_mask_lo_highclear, v);
     m256 t1 = xor256(v, highconst);
-    m256 shuf2 = vpshufb(shuf_mask_lo_highset, t1);
+    m256 shuf2 = pshufb_m256(shuf_mask_lo_highset, t1);
     m256 t2 = andnot256(highconst, rshift64_m256(v, 4));
-    m256 shuf3 = vpshufb(shuf_mask_hi, t2);
+    m256 shuf3 = pshufb_m256(shuf_mask_hi, t2);
     m256 tmp = and256(or256(shuf1, shuf2), shuf3);
     m256 tmp2 = eq256(tmp, zeroes256());
     u32 z = movemask256(tmp2);
index c67a4acbf51f74b6f08c4cdea73a4b05f71ccc6e..38700fbda22636a3b1b94fbf4daefe8ed06eafe0 100644 (file)
@@ -1334,11 +1334,11 @@ int roseCheckMultipathShufti32x8(const struct hs_scratch *scratch,
         DEBUG_PRINTF("expand_lo %llx\n", valid_lo);
         expand_valid = set64x4(valid_hi, valid_lo, valid_hi,
                                          valid_lo);
-        valid_path_mask = ~movemask256(vpshufb(expand_valid,
-                                               data_select_mask));
+        valid_path_mask = ~movemask256(pshufb_m256(expand_valid,
+                                                  data_select_mask));
     }
 
-    m256 data = vpshufb(data_double, data_select_mask);
+    m256 data = pshufb_m256(data_double, data_select_mask);
     m256 hi_mask = loadu2x128(ri->hi_mask);
     m256 lo_mask = loadu2x128(ri->lo_mask);
     m256 bucket_select_mask = loadu256(ri->bucket_select_mask);
@@ -1395,11 +1395,11 @@ int roseCheckMultipathShufti32x16(const struct hs_scratch *scratch,
         DEBUG_PRINTF("expand_lo %llx\n", valid_lo);
         expand_valid = set64x4(valid_hi, valid_lo, valid_hi,
                                          valid_lo);
-        valid_path_mask = ~movemask256(vpshufb(expand_valid,
-                                               data_select_mask));
+        valid_path_mask = ~movemask256(pshufb_m256(expand_valid,
+                                                   data_select_mask));
     }
 
-    m256 data = vpshufb(data_double, data_select_mask);
+    m256 data = pshufb_m256(data_double, data_select_mask);
 
     m256 hi_mask_1 = loadu2x128(ri->hi_mask);
     m256 hi_mask_2 = loadu2x128(ri->hi_mask + 16);
@@ -1463,15 +1463,15 @@ int roseCheckMultipathShufti64(const struct hs_scratch *scratch,
         DEBUG_PRINTF("expand_lo %llx\n", valid_lo);
         expand_valid = set64x4(valid_hi, valid_lo, valid_hi,
                                          valid_lo);
-        u32 valid_path_1 = movemask256(vpshufb(expand_valid,
-                                               data_select_mask_1));
-        u32 valid_path_2 = movemask256(vpshufb(expand_valid,
-                                               data_select_mask_2));
+        u32 valid_path_1 = movemask256(pshufb_m256(expand_valid,
+                                                   data_select_mask_1));
+        u32 valid_path_2 = movemask256(pshufb_m256(expand_valid,
+                                                   data_select_mask_2));
         valid_path_mask = ~((u64a)valid_path_1 | (u64a)valid_path_2 << 32);
     }
 
-    m256 data_1 = vpshufb(data_m256, data_select_mask_1);
-    m256 data_2 = vpshufb(data_m256, data_select_mask_2);
+    m256 data_1 = pshufb_m256(data_m256, data_select_mask_1);
+    m256 data_2 = pshufb_m256(data_m256, data_select_mask_2);
 
     m256 hi_mask = loadu2x128(ri->hi_mask);
     m256 lo_mask = loadu2x128(ri->lo_mask);
index e26d6c2bfdc8cc3dc4f6756570846ee858a6bcf8..1dc855d9933a3b878978da00b796cae9ca283beb 100644 (file)
@@ -48,8 +48,9 @@ int validateShuftiMask16x16(const m256 data, const m256 hi_mask,
                             const m256 lo_mask, const m256 and_mask,
                             const u32 neg_mask, const u32 valid_data_mask) {
     m256 low4bits = set32x8(0xf);
-    m256 c_lo = vpshufb(lo_mask, and256(data, low4bits));
-    m256 c_hi = vpshufb(hi_mask, rshift64_m256(andnot256(low4bits, data), 4));
+    m256 c_lo = pshufb_m256(lo_mask, and256(data, low4bits));
+    m256 c_hi = pshufb_m256(hi_mask,
+                            rshift64_m256(andnot256(low4bits, data), 4));
     m256 t = and256(c_lo, c_hi);
     u32 nresult = movemask256(eq256(and256(t, and_mask), zeroes256()));
 #ifdef DEBUG
@@ -78,7 +79,7 @@ int validateShuftiMask16x8(const m128 data, const m256 nib_mask,
                            const u32 valid_data_mask) {
     m256 data_m256 = combine2x128(rshift64_m128(data, 4), data);
     m256 low4bits = set32x8(0xf);
-    m256 c_nib = vpshufb(nib_mask, and256(data_m256, low4bits));
+    m256 c_nib = pshufb_m256(nib_mask, and256(data_m256, low4bits));
     m128 t = and128(movdq_hi(c_nib), movdq_lo(c_nib));
     m128 nresult = eq128(and128(t, and_mask), zeroes128());
 #ifdef DEBUG
@@ -101,8 +102,9 @@ int validateShuftiMask32x8(const m256 data, const m256 hi_mask,
                            const m256 lo_mask, const m256 and_mask,
                            const u32 neg_mask, const u32 valid_data_mask) {
     m256 low4bits = set32x8(0xf);
-    m256 c_lo = vpshufb(lo_mask, and256(data, low4bits));
-    m256 c_hi = vpshufb(hi_mask, rshift64_m256(andnot256(low4bits, data), 4));
+    m256 c_lo = pshufb_m256(lo_mask, and256(data, low4bits));
+    m256 c_hi = pshufb_m256(hi_mask,
+                            rshift64_m256(andnot256(low4bits, data), 4));
     m256 t = and256(c_lo, c_hi);
     m256 nresult = eq256(and256(t, and_mask), zeroes256());
 #ifdef DEBUG
@@ -134,10 +136,10 @@ int validateShuftiMask32x16(const m256 data,
     m256 low4bits = set32x8(0xf);
     m256 data_lo = and256(data, low4bits);
     m256 data_hi = and256(rshift64_m256(data, 4), low4bits);
-    m256 c_lo_1 = vpshufb(lo_mask_1, data_lo);
-    m256 c_lo_2 = vpshufb(lo_mask_2, data_lo);
-    m256 c_hi_1 = vpshufb(hi_mask_1, data_hi);
-    m256 c_hi_2 = vpshufb(hi_mask_2, data_hi);
+    m256 c_lo_1 = pshufb_m256(lo_mask_1, data_lo);
+    m256 c_lo_2 = pshufb_m256(lo_mask_2, data_lo);
+    m256 c_hi_1 = pshufb_m256(hi_mask_1, data_hi);
+    m256 c_hi_2 = pshufb_m256(hi_mask_2, data_hi);
     m256 t1 = and256(c_lo_1, c_hi_1);
     m256 t2 = and256(c_lo_2, c_hi_2);
     m256 result = or256(and256(t1, bucket_mask_lo), and256(t2, bucket_mask_hi));
@@ -200,7 +202,7 @@ int validateMultipathShuftiMask16x8(const m128 data,
                                     const u32 valid_path_mask) {
     m256 data_256 = combine2x128(rshift64_m128(data, 4), data);
     m256 low4bits = set32x8(0xf);
-    m256 c_nib = vpshufb(nib_mask, and256(data_256, low4bits));
+    m256 c_nib = pshufb_m256(nib_mask, and256(data_256, low4bits));
     m128 t = and128(movdq_hi(c_nib), movdq_lo(c_nib));
     m128 result = and128(t, bucket_select_mask);
     u32 nresult = movemask128(eq128(result, zeroes128()));
@@ -221,8 +223,8 @@ int validateMultipathShuftiMask32x8(const m256 data,
     m256 low4bits = set32x8(0xf);
     m256 data_lo = and256(data, low4bits);
     m256 data_hi = and256(rshift64_m256(data, 4), low4bits);
-    m256 c_lo = vpshufb(lo_mask, data_lo);
-    m256 c_hi = vpshufb(hi_mask, data_hi);
+    m256 c_lo = pshufb_m256(lo_mask, data_lo);
+    m256 c_hi = pshufb_m256(hi_mask, data_hi);
     m256 c = and256(c_lo, c_hi);
     m256 result = and256(c, bucket_select_mask);
     u32 nresult = movemask256(eq256(result, zeroes256()));
@@ -245,10 +247,10 @@ int validateMultipathShuftiMask32x16(const m256 data,
     m256 low4bits = set32x8(0xf);
     m256 data_lo = and256(data, low4bits);
     m256 data_hi = and256(rshift64_m256(data, 4), low4bits);
-    m256 c_lo_1 = vpshufb(lo_mask_1, data_lo);
-    m256 c_lo_2 = vpshufb(lo_mask_2, data_lo);
-    m256 c_hi_1 = vpshufb(hi_mask_1, data_hi);
-    m256 c_hi_2 = vpshufb(hi_mask_2, data_hi);
+    m256 c_lo_1 = pshufb_m256(lo_mask_1, data_lo);
+    m256 c_lo_2 = pshufb_m256(lo_mask_2, data_lo);
+    m256 c_hi_1 = pshufb_m256(hi_mask_1, data_hi);
+    m256 c_hi_2 = pshufb_m256(hi_mask_2, data_hi);
     m256 t1 = and256(c_lo_1, c_hi_1);
     m256 t2 = and256(c_lo_2, c_hi_2);
     m256 result = or256(and256(t1, bucket_select_mask_lo),
@@ -270,12 +272,12 @@ int validateMultipathShuftiMask64(const m256 data_1, const m256 data_2,
                                   const u64a neg_mask,
                                   const u64a valid_path_mask) {
     m256 low4bits = set32x8(0xf);
-    m256 c_lo_1 = vpshufb(lo_mask, and256(data_1, low4bits));
-    m256 c_lo_2 = vpshufb(lo_mask, and256(data_2, low4bits));
-    m256 c_hi_1 = vpshufb(hi_mask,
-                          rshift64_m256(andnot256(low4bits, data_1), 4));
-    m256 c_hi_2 = vpshufb(hi_mask,
-                          rshift64_m256(andnot256(low4bits, data_2), 4));
+    m256 c_lo_1 = pshufb_m256(lo_mask, and256(data_1, low4bits));
+    m256 c_lo_2 = pshufb_m256(lo_mask, and256(data_2, low4bits));
+    m256 c_hi_1 = pshufb_m256(hi_mask,
+                              rshift64_m256(andnot256(low4bits, data_1), 4));
+    m256 c_hi_2 = pshufb_m256(hi_mask,
+                              rshift64_m256(andnot256(low4bits, data_2), 4));
     m256 t1 = and256(c_lo_1, c_hi_1);
     m256 t2 = and256(c_lo_2, c_hi_2);
     m256 nresult_1 = eq256(and256(t1, bucket_select_mask_1), zeroes256());
index b51ff6323c72aaea77a98a6b0eb60e3b84e36558..4c877ca9e57343220d76edfa127511e9e77db470 100644 (file)
@@ -70,7 +70,8 @@ masked_move256_len(const u8 *buf, const u32 len) {
     u32 end = unaligned_load_u32(buf + len - 4);
     m256 preshufend = _mm256_broadcastq_epi64(_mm_cvtsi32_si128(end));
     m256 v = _mm256_maskload_epi32((const int *)buf, lmask);
-    m256 shufend = vpshufb(preshufend, loadu256(&mm_shuffle_end[len - 4]));
+    m256 shufend = pshufb_m256(preshufend,
+                               loadu256(&mm_shuffle_end[len - 4]));
     m256 target = or256(v, shufend);
 
     return target;
index 5f4fe9213a5a49d8687208b9fe69a84d4fd326f7..6eafe48897293239bc7ad2afabf00b932a283285 100644 (file)
@@ -279,7 +279,7 @@ m128 pshufb(m128 a, m128 b) {
 }
 
 static really_inline
-m256 vpshufb(m256 a, m256 b) {
+m256 pshufb_m256(m256 a, m256 b) {
 #if defined(HAVE_AVX2)
     return _mm256_shuffle_epi8(a, b);
 #else