]> git.ipfire.org Git - thirdparty/gcc.git/commitdiff
[arm] complete vmsr/vmrs blank and case adjustments
authorAlexandre Oliva <oliva@adacore.com>
Fri, 3 Mar 2023 18:59:17 +0000 (15:59 -0300)
committerAlexandre Oliva <oliva@gnu.org>
Fri, 3 Mar 2023 18:59:17 +0000 (15:59 -0300)
Back in September last year, some of the vmsr and vmrs patterns had an
extraneous blank removed, and the case of register names lowered, but
another instance remained, and so did a testcase.

for  gcc/ChangeLog

* config/arm/vfp.md (*thumb2_movsi_vfp): Drop blank after tab
after vmsr and vmrs, and lower the case of P0.

for  gcc/testsuite/ChangeLog

* gcc.target/arm/acle/cde-mve-full-assembly.c: Drop blank
after tab after vmsr, and lower the case of P0.

gcc/config/arm/vfp.md
gcc/testsuite/gcc.target/arm/acle/cde-mve-full-assembly.c

index f34f35e1185e2b0974df965affb113772ea9282d..60e7ba35d8b2525c3a255e8039a500d0f79b29e4 100644 (file)
     case 12: case 13:
       return output_move_vfp (operands);
     case 14:
-      return \"vmsr\\t P0, %1\";
+      return \"vmsr\\tp0, %1\";
     case 15:
-      return \"vmrs\\t %0, P0\";
+      return \"vmrs\\t%0, p0\";
     case 16:
       return \"mcr\\tp10, 7, %1, cr1, cr0, 0\\t @SET_FPSCR\";
     case 17:
index d025c3391fbe5241972cfcdda372150bea621602..72f330185944ad27a5e3c11e6e6514a333365c41 100644 (file)
    contain back references).  */
 /*
 ** test_cde_vcx1q_mfloat16x8_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_mfloat32x4_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_muint8x16_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_muint16x8_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_muint32x4_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_muint64x2_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_mint8x16_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_mint16x8_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_mint32x4_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1q_mint64x2_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1t   p0, q0, #32
 **     bx      lr
 
 /*
 ** test_cde_vcx1qa_mfloat16x8_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_mfloat32x4_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_muint8x16_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_muint16x8_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_muint32x4_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_muint64x2_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_mint8x16_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_mint16x8_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_mint32x4_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 */
 /*
 ** test_cde_vcx1qa_mint64x2_tintint:
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
-**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr     P0, r2 @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
+**     (?:vmov\.i32    q0, #0  @ v16qi|vmsr    p0, r2  @ movhi)
 **     vpst
 **     vcx1at  p0, q0, #32
 **     bx      lr
 
 /*
 ** test_cde_vcx2q_mfloat16x8_tuint16x8_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_mfloat16x8_tfloat32x4_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_mfloat32x4_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_mint64x2_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_mint8x16_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_muint16x8_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_muint8x16_tint64x2_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_muint8x16_tint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_muint8x16_tuint16x8_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2q_muint8x16_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2t   p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 
 /*
 ** test_cde_vcx2qa_mfloat16x8_tuint16x8_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_mfloat16x8_tfloat32x4_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_mfloat32x4_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_mint64x2_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_mint8x16_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_muint16x8_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_muint8x16_tint64x2_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_muint8x16_tint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_muint8x16_tuint16x8_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx2qa_muint8x16_tuint8x16_tint:
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
-**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr         P0, r1 @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
+**     (?:vmov\.i32    q[1-7], #0  @ v16qi|vmsr        p0, r1  @ movhi)
 **     vpst
 **     vcx2at  p0, (q[1-7]), q0, #32
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 
 /*
 ** test_cde_vcx3q_muint8x16_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_mfloat16x8_tfloat16x8_tfloat16x8_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_mfloat32x4_tuint64x2_tfloat16x8_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint16x8_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint8x16_tuint16x8_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint8x16_tuint8x16_tuint16x8_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_mint8x16_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint8x16_tint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint8x16_tuint8x16_tint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_mint64x2_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint8x16_tint64x2_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint8x16_tuint8x16_tint64x2_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3q_muint8x16_tint64x2_tint64x2_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3t   p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 
 /*
 ** test_cde_vcx3qa_muint8x16_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_mfloat16x8_tfloat16x8_tfloat16x8_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_mfloat32x4_tuint64x2_tfloat16x8_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint16x8_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint8x16_tuint16x8_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint8x16_tuint8x16_tuint16x8_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_mint8x16_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint8x16_tint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint8x16_tuint8x16_tint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_mint64x2_tuint8x16_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint8x16_tint64x2_tuint8x16_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint8x16_tuint8x16_tint64x2_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?
 */
 /*
 ** test_cde_vcx3qa_muint8x16_tint64x2_tint64x2_t:
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
-**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr         P0, r0 @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
+**     (?:vmov\.i32    q[2-7], #0  @ v16qi|vmsr        p0, r0  @ movhi)
 **     vpst
 **     vcx3at  p0, (q[2-7]), q0, q1, #15
 **     vmov    q0, \1([[:space:]]+@ [^\n]*)?