]> git.ipfire.org Git - thirdparty/postgresql.git/commitdiff
Make the overflow guards in ExecChooseHashTableSize be more protective.
authorTom Lane <tgl@sss.pgh.pa.us>
Fri, 30 Oct 2009 20:59:10 +0000 (20:59 +0000)
committerTom Lane <tgl@sss.pgh.pa.us>
Fri, 30 Oct 2009 20:59:10 +0000 (20:59 +0000)
The original coding ensured nbuckets and nbatch didn't exceed INT_MAX,
which while not insane on its own terms did nothing to protect subsequent
code like "palloc(nbatch * sizeof(BufFile *))".  Since enormous join size
estimates might well be planner error rather than reality, it seems best
to constrain the initial sizes to be not more than work_mem/sizeof(pointer),
thus ensuring the allocated arrays don't exceed work_mem.  We will allow
nbatch to get bigger than that during subsequent ExecHashIncreaseNumBatches
calls, but we should still guard against integer overflow in those palloc
requests.  Per bug #5145 from Bernt Marius Johnsen.

Although the given test case only seems to fail back to 8.2, previous
releases have variants of this issue, so patch all supported branches.

src/backend/executor/nodeHash.c

index 826cafe87373df29bc3978d2641ee56621f10491..37487baec1afedac1aedbce97f23d12189093041 100644 (file)
@@ -8,7 +8,7 @@
  *
  *
  * IDENTIFICATION
- *       $PostgreSQL: pgsql/src/backend/executor/nodeHash.c,v 1.96.2.3 2007/06/01 15:58:09 tgl Exp $
+ *       $PostgreSQL: pgsql/src/backend/executor/nodeHash.c,v 1.96.2.4 2009/10/30 20:59:10 tgl Exp $
  *
  *-------------------------------------------------------------------------
  */
@@ -345,6 +345,7 @@ ExecChooseHashTableSize(double ntuples, int tupwidth,
        int                     tupsize;
        double          inner_rel_bytes;
        long            hash_table_bytes;
+       long            max_pointers;
        int                     nbatch;
        int                     nbuckets;
        int                     i;
@@ -371,8 +372,13 @@ ExecChooseHashTableSize(double ntuples, int tupwidth,
        /*
         * Set nbuckets to achieve an average bucket load of NTUP_PER_BUCKET when
         * memory is filled.  Set nbatch to the smallest power of 2 that appears
-        * sufficient.
+        * sufficient.  The Min() steps limit the results so that the pointer
+        * arrays we'll try to allocate do not exceed work_mem.
         */
+       max_pointers = (work_mem * 1024L) / sizeof(void *);
+       /* also ensure we avoid integer overflow in nbatch and nbuckets */
+       max_pointers = Min(max_pointers, INT_MAX / 2);
+
        if (inner_rel_bytes > hash_table_bytes)
        {
                /* We'll need multiple batches */
@@ -381,11 +387,11 @@ ExecChooseHashTableSize(double ntuples, int tupwidth,
                int                     minbatch;
 
                lbuckets = (hash_table_bytes / tupsize) / NTUP_PER_BUCKET;
-               lbuckets = Min(lbuckets, INT_MAX);
+               lbuckets = Min(lbuckets, max_pointers);
                nbuckets = (int) lbuckets;
 
                dbatch = ceil(inner_rel_bytes / hash_table_bytes);
-               dbatch = Min(dbatch, INT_MAX / 2);
+               dbatch = Min(dbatch, max_pointers);
                minbatch = (int) dbatch;
                nbatch = 2;
                while (nbatch < minbatch)
@@ -397,7 +403,7 @@ ExecChooseHashTableSize(double ntuples, int tupwidth,
                double          dbuckets;
 
                dbuckets = ceil(ntuples / NTUP_PER_BUCKET);
-               dbuckets = Min(dbuckets, INT_MAX);
+               dbuckets = Min(dbuckets, max_pointers);
                nbuckets = (int) dbuckets;
 
                nbatch = 1;
@@ -476,7 +482,7 @@ ExecHashIncreaseNumBatches(HashJoinTable hashtable)
                return;
 
        /* safety check to avoid overflow */
-       if (oldnbatch > INT_MAX / 2)
+       if (oldnbatch > Min(INT_MAX / 2, MaxAllocSize / (sizeof(void *) * 2)))
                return;
 
        nbatch = oldnbatch * 2;