]> git.ipfire.org Git - thirdparty/gcc.git/blobdiff - gcc/cfgloopanal.c
Update copyright years.
[thirdparty/gcc.git] / gcc / cfgloopanal.c
index 2739f44a3a62489faa8b9a0c4e7025253cabed1e..392b1c337c4769f04265a8ed094c66c364fd0521 100644 (file)
@@ -1,5 +1,5 @@
 /* Natural loop analysis code for GNU compiler.
-   Copyright (C) 2002-2016 Free Software Foundation, Inc.
+   Copyright (C) 2002-2020 Free Software Foundation, Inc.
 
 This file is part of GCC.
 
@@ -24,12 +24,15 @@ along with GCC; see the file COPYING3.  If not see
 #include "rtl.h"
 #include "tree.h"
 #include "predict.h"
+#include "memmodel.h"
 #include "emit-rtl.h"
 #include "cfgloop.h"
 #include "explow.h"
 #include "expr.h"
 #include "graphds.h"
-#include "params.h"
+#include "sreal.h"
+#include "regs.h"
+#include "function-abi.h"
 
 struct target_cfgloop default_target_cfgloop;
 #if SWITCHABLE_TARGET
@@ -39,7 +42,7 @@ struct target_cfgloop *this_target_cfgloop = &default_target_cfgloop;
 /* Checks whether BB is executed exactly once in each LOOP iteration.  */
 
 bool
-just_once_each_iteration_p (const struct loop *loop, const_basic_block bb)
+just_once_each_iteration_p (const class loop *loop, const_basic_block bb)
 {
   /* It must be executed at least once each iteration.  */
   if (!dominated_by_p (CDI_DOMINATORS, loop->latch, bb))
@@ -79,7 +82,7 @@ mark_irreducible_loops (void)
   unsigned depth;
   struct graph *g;
   int num = number_of_loops (cfun);
-  struct loop *cloop;
+  class loop *cloop;
   bool irred_loop_found = false;
   int i;
 
@@ -171,7 +174,7 @@ mark_irreducible_loops (void)
 
 /* Counts number of insns inside LOOP.  */
 int
-num_loop_insns (const struct loop *loop)
+num_loop_insns (const class loop *loop)
 {
   basic_block *bbs, bb;
   unsigned i, ninsns = 0;
@@ -195,10 +198,11 @@ num_loop_insns (const struct loop *loop)
 
 /* Counts number of insns executed on average per iteration LOOP.  */
 int
-average_num_loop_insns (const struct loop *loop)
+average_num_loop_insns (const class loop *loop)
 {
   basic_block *bbs, bb;
-  unsigned i, binsns, ninsns, ratio;
+  unsigned i, binsns;
+  sreal ninsns;
   rtx_insn *insn;
 
   ninsns = 0;
@@ -212,88 +216,94 @@ average_num_loop_insns (const struct loop *loop)
        if (NONDEBUG_INSN_P (insn))
          binsns++;
 
-      ratio = loop->header->frequency == 0
-             ? BB_FREQ_MAX
-             : (bb->frequency * BB_FREQ_MAX) / loop->header->frequency;
-      ninsns += binsns * ratio;
+      ninsns += (sreal)binsns * bb->count.to_sreal_scale (loop->header->count);
+      /* Avoid overflows.   */
+      if (ninsns > 1000000)
+       return 100000;
     }
   free (bbs);
 
-  ninsns /= BB_FREQ_MAX;
-  if (!ninsns)
-    ninsns = 1; /* To avoid division by zero.  */
+  int64_t ret = ninsns.to_int ();
+  if (!ret)
+    ret = 1; /* To avoid division by zero.  */
 
-  return ninsns;
+  return ret;
 }
 
 /* Returns expected number of iterations of LOOP, according to
-   measured or guessed profile.  No bounding is done on the
-   value.  */
+   measured or guessed profile.
+
+   This functions attempts to return "sane" value even if profile
+   information is not good enough to derive osmething.
+   If BY_PROFILE_ONLY is set, this logic is bypassed and function
+   return -1 in those scenarios.  */
 
 gcov_type
-expected_loop_iterations_unbounded (const struct loop *loop,
-                                   bool *read_profile_p)
+expected_loop_iterations_unbounded (const class loop *loop,
+                                   bool *read_profile_p,
+                                   bool by_profile_only)
 {
   edge e;
   edge_iterator ei;
-  gcov_type expected;
+  gcov_type expected = -1;
   
   if (read_profile_p)
     *read_profile_p = false;
 
   /* If we have no profile at all, use AVG_LOOP_NITER.  */
   if (profile_status_for_fn (cfun) == PROFILE_ABSENT)
-    expected = PARAM_VALUE (PARAM_AVG_LOOP_NITER);
-  else if (loop->latch->count || loop->header->count)
     {
-      gcov_type count_in, count_latch;
-
-      count_in = 0;
-      count_latch = 0;
+      if (by_profile_only)
+       return -1;
+      expected = param_avg_loop_niter;
+    }
+  else if (loop->latch && (loop->latch->count.initialized_p ()
+                          || loop->header->count.initialized_p ()))
+    {
+      profile_count count_in = profile_count::zero (),
+                   count_latch = profile_count::zero ();
 
       FOR_EACH_EDGE (e, ei, loop->header->preds)
        if (e->src == loop->latch)
-         count_latch = e->count;
+         count_latch = e->count ();
        else
-         count_in += e->count;
+         count_in += e->count ();
 
-      if (count_in == 0)
-       expected = count_latch * 2;
+      if (!count_latch.initialized_p ())
+       {
+          if (by_profile_only)
+           return -1;
+         expected = param_avg_loop_niter;
+       }
+      else if (!count_in.nonzero_p ())
+       {
+          if (by_profile_only)
+           return -1;
+         expected = count_latch.to_gcov_type () * 2;
+       }
       else
        {
-         expected = (count_latch + count_in - 1) / count_in;
-         if (read_profile_p)
+         expected = (count_latch.to_gcov_type () + count_in.to_gcov_type ()
+                     - 1) / count_in.to_gcov_type ();
+         if (read_profile_p
+             && count_latch.reliable_p () && count_in.reliable_p ())
            *read_profile_p = true;
        }
     }
   else
     {
-      int freq_in, freq_latch;
-
-      freq_in = 0;
-      freq_latch = 0;
-
-      FOR_EACH_EDGE (e, ei, loop->header->preds)
-       if (e->src == loop->latch)
-         freq_latch = EDGE_FREQUENCY (e);
-       else
-         freq_in += EDGE_FREQUENCY (e);
-
-      if (freq_in == 0)
-       {
-         /* If we have no profile at all, use AVG_LOOP_NITER iterations.  */
-         if (!freq_latch)
-           expected = PARAM_VALUE (PARAM_AVG_LOOP_NITER);
-         else
-           expected = freq_latch * 2;
-       }
-      else
-        expected = (freq_latch + freq_in - 1) / freq_in;
+      if (by_profile_only)
+       return -1;
+      expected = param_avg_loop_niter;
     }
 
-  HOST_WIDE_INT max = get_max_loop_iterations_int (loop);
-  if (max != -1 && max < expected)
-    return max;
+  if (!by_profile_only)
+    {
+      HOST_WIDE_INT max = get_max_loop_iterations_int (loop);
+      if (max != -1 && max < expected)
+        return max;
+    }
   return expected;
 }
 
@@ -301,7 +311,7 @@ expected_loop_iterations_unbounded (const struct loop *loop,
    by REG_BR_PROB_BASE.  */
 
 unsigned
-expected_loop_iterations (struct loop *loop)
+expected_loop_iterations (class loop *loop)
 {
   gcov_type expected = expected_loop_iterations_unbounded (loop);
   return (expected > REG_BR_PROB_BASE ? REG_BR_PROB_BASE : expected);
@@ -310,9 +320,9 @@ expected_loop_iterations (struct loop *loop)
 /* Returns the maximum level of nesting of subloops of LOOP.  */
 
 unsigned
-get_loop_level (const struct loop *loop)
+get_loop_level (const class loop *loop)
 {
-  const struct loop *ploop;
+  const class loop *ploop;
   unsigned mx = 0, l;
 
   for (ploop = loop->inner; ploop; ploop = ploop->next)
@@ -344,7 +354,10 @@ init_set_costs (void)
        && !fixed_regs[i])
       {
        target_avail_regs++;
-       if (call_used_regs[i])
+       /* ??? This is only a rough heuristic.  It doesn't cope well
+          with alternative ABIs, but that's an optimization rather than
+          correctness issue.  */
+       if (default_function_abi.clobbers_full_reg_p (i))
          target_clobbered_regs++;
       }
 
@@ -413,7 +426,7 @@ estimate_reg_pressure_cost (unsigned n_new, unsigned n_old, bool speed,
 
   if (optimize && (flag_ira_region == IRA_REGION_ALL
                   || flag_ira_region == IRA_REGION_MIXED)
-      && number_of_loops (cfun) <= (unsigned) IRA_MAX_LOOPS_NUM)
+      && number_of_loops (cfun) <= (unsigned) param_ira_max_loops_num)
     /* IRA regional allocation deals with high register pressure
        better.  So decrease the cost (to do more accurate the cost
        calculation for IRA, we need to know how many registers lives
@@ -454,36 +467,28 @@ mark_loop_exit_edges (void)
    to noreturn call.  */
 
 edge
-single_likely_exit (struct loop *loop)
+single_likely_exit (class loop *loop, vec<edge> exits)
 {
   edge found = single_exit (loop);
-  vec<edge> exits;
   unsigned i;
   edge ex;
 
   if (found)
     return found;
-  exits = get_loop_exit_edges (loop);
   FOR_EACH_VEC_ELT (exits, i, ex)
     {
-      if (ex->flags & (EDGE_EH | EDGE_ABNORMAL_CALL))
-       continue;
-      /* The constant of 5 is set in a way so noreturn calls are
-        ruled out by this test.  The static branch prediction algorithm
-         will not assign such a low probability to conditionals for usual
-         reasons.  */
-      if (profile_status_for_fn (cfun) != PROFILE_ABSENT
-         && ex->probability < 5 && !ex->count)
+      if (probably_never_executed_edge_p (cfun, ex)
+         /* We want to rule out paths to noreturns but not low probabilities
+            resulting from adjustments or combining.
+            FIXME: once we have better quality tracking, make this more
+            robust.  */
+         || ex->probability <= profile_probability::very_unlikely ())
        continue;
       if (!found)
        found = ex;
       else
-       {
-         exits.release ();
-         return NULL;
-       }
+       return NULL;
     }
-  exits.release ();
   return found;
 }
 
@@ -493,7 +498,7 @@ single_likely_exit (struct loop *loop)
    header != latch, latch is the 1-st block.  */
 
 vec<basic_block>
-get_loop_hot_path (const struct loop *loop)
+get_loop_hot_path (const class loop *loop)
 {
   basic_block bb = loop->header;
   vec<basic_block> path = vNULL;