]> git.ipfire.org Git - thirdparty/gcc.git/commitdiff
[AArch64 costs 11/18] Improve costs for rotate and shift operations.
authorJames Greenhalgh <james.greenhalgh@arm.com>
Fri, 16 May 2014 09:03:19 +0000 (09:03 +0000)
committerJames Greenhalgh <jgreenhalgh@gcc.gnu.org>
Fri, 16 May 2014 09:03:19 +0000 (09:03 +0000)
* config/aarch64/aarch64.c (aarch64_rtx_costs): Improve costs for
rotates and shifts.

Co-Authored-By: Philipp Tomsich <philipp.tomsich@theobroma-systems.com>
From-SVN: r210503

gcc/ChangeLog
gcc/config/aarch64/aarch64.c

index 38a66e730cdae246aa115ccc159987537cfc3372..a31e4a3a1dd2c72a0e1a6e0239cdc3de2d3c0dad 100644 (file)
@@ -1,3 +1,9 @@
+2014-05-16  James Greenhalgh  <james.greenhalgh@arm.com>
+           Philipp Tomsich  <philipp.tomsich@theobroma-systems.com>
+
+       * config/aarch64/aarch64.c (aarch64_rtx_costs): Improve costs for
+       rotates and shifts.
+
 2014-05-16  James Greenhalgh  <james.greenhalgh@arm.com>
            Philipp Tomsich  <philipp.tomsich@theobroma-systems.com>
 
index 76ef7ce89bfde8c5c1875933b3792ec92e2fe4dc..34084a913237d24f4025cfb524783469159fad62 100644 (file)
@@ -5339,21 +5339,59 @@ cost_minus:
        *cost += extra_cost->alu.extend;
       return false;
 
+    case ASHIFT:
+      op0 = XEXP (x, 0);
+      op1 = XEXP (x, 1);
+
+      if (CONST_INT_P (op1))
+        {
+         /* LSL (immediate), UBMF, UBFIZ and friends.  These are all
+            aliases.  */
+         if (speed)
+           *cost += extra_cost->alu.shift;
+
+          /* We can incorporate zero/sign extend for free.  */
+          if (GET_CODE (op0) == ZERO_EXTEND
+              || GET_CODE (op0) == SIGN_EXTEND)
+            op0 = XEXP (op0, 0);
+
+          *cost += rtx_cost (op0, ASHIFT, 0, speed);
+          return true;
+        }
+      else
+        {
+         /* LSLV.  */
+         if (speed)
+           *cost += extra_cost->alu.shift_reg;
+
+         return false;  /* All arguments need to be in registers.  */
+        }
+
     case ROTATE:
-      if (!CONST_INT_P (XEXP (x, 1)))
-       *cost += COSTS_N_INSNS (2);
-      /* Fall through.  */
     case ROTATERT:
     case LSHIFTRT:
-    case ASHIFT:
     case ASHIFTRT:
+      op0 = XEXP (x, 0);
+      op1 = XEXP (x, 1);
 
-      /* Shifting by a register often takes an extra cycle.  */
-      if (speed && !CONST_INT_P (XEXP (x, 1)))
-       *cost += extra_cost->alu.arith_shift_reg;
+      if (CONST_INT_P (op1))
+       {
+         /* ASR (immediate) and friends.  */
+         if (speed)
+           *cost += extra_cost->alu.shift;
 
-      *cost += rtx_cost (XEXP (x, 0), ASHIFT, 0, speed);
-      return true;
+         *cost += rtx_cost (op0, (enum rtx_code) code, 0, speed);
+         return true;
+       }
+      else
+       {
+
+         /* ASR (register) and friends.  */
+         if (speed)
+           *cost += extra_cost->alu.shift_reg;
+
+         return false;  /* All arguments need to be in registers.  */
+       }
 
     case HIGH:
       if (!CONSTANT_P (XEXP (x, 0)))