]> git.ipfire.org Git - thirdparty/postgresql.git/commitdiff
Fix a few duplicate words in comments
authorDavid Rowley <drowley@postgresql.org>
Sun, 20 Apr 2025 22:41:18 +0000 (10:41 +1200)
committerDavid Rowley <drowley@postgresql.org>
Sun, 20 Apr 2025 22:41:18 +0000 (10:41 +1200)
These are all new to v18

Author: David Rowley <dgrowleyml@gmail.com>
Discussion: https://postgr.es/m/CAApHDvrMcr8XD107H3NV=WHgyBcu=sx5+7=WArr-n_cWUqdFXQ@mail.gmail.com

contrib/amcheck/verify_heapam.c
contrib/pg_buffercache/pg_buffercache_pages.c
src/backend/access/nbtree/nbtpreprocesskeys.c
src/backend/access/nbtree/nbtutils.c
src/backend/executor/execPartition.c
src/backend/utils/adt/pg_locale.c
src/backend/utils/mmgr/mcxt.c
src/bin/pg_upgrade/relfilenumber.c
src/include/storage/aio.h

index 2152d8ee577cbd6f2c0067f5fde90412b8f577e3..aa9cccd1da4fe308ca966db90038284586a309bc 100644 (file)
@@ -460,7 +460,7 @@ verify_heapam(PG_FUNCTION_ARGS)
        else
        {
                /*
-                * It would not be safe to naively use use batchmode, as
+                * It would not be safe to naively use batchmode, as
                 * heapcheck_read_stream_next_unskippable takes locks. It shouldn't be
                 * too hard to convert though.
                 */
index 6bfb9fb669e225dc631d457d34e98367f189bef7..4b007f6e1b06a622559c7e14d83450afbcb54d4b 100644 (file)
@@ -450,8 +450,8 @@ pg_buffercache_numa_pages(PG_FUNCTION_ARGS)
                 * locks, so the information of each buffer is self-consistent.
                 *
                 * This loop touches and stores addresses into os_page_ptrs[] as input
-                * to one big big move_pages(2) inquiry system call. Basically we ask
-                * for all memory pages for NBuffers.
+                * to one big move_pages(2) inquiry system call. Basically we ask for
+                * all memory pages for NBuffers.
                 */
                startptr = (char *) TYPEALIGN_DOWN(os_page_size, (char *) BufferGetBlock(1));
                idx = 0;
index 4f525f7b26f58188d760d1e1a5eb8ca049f5a730..1cc99e6cdf2b7d27a7e7440689b8bec7c16cbdb5 100644 (file)
@@ -2051,7 +2051,7 @@ _bt_preprocess_array_keys_final(IndexScanDesc scan, int *keyDataMap)
  * the scan's BTArrayKeyInfo array, which is guaranteed to be large enough to
  * fit every so->arrayKeys[] entry.
  *
- * Also sets *numSkipArrayKeys_out to the number of of skip arrays caller must
+ * Also sets *numSkipArrayKeys_out to the number of skip arrays caller must
  * add to the scan keys it'll output.  Caller must add this many skip arrays:
  * one array for each of the most significant attributes that lack a = input
  * key (IS NULL keys count as = input keys here).  The specific attributes
index 9e27302fe810638474ef45a7e95f5ba205e43948..8b0257961276ac5f4a34c32a6b0b6647ea3f9b3d 100644 (file)
@@ -2597,7 +2597,7 @@ _bt_set_startikey(IndexScanDesc scan, BTReadPageState *pstate)
                        continue;
                }
 
-               /* Some = key (could be a scalar = key, could be an array = key) */
+               /* Some = key (could be a scalar = key, could be an array = key) */
                Assert(key->sk_strategy == BTEqualStrategyNumber);
 
                if (!(key->sk_flags & SK_SEARCHARRAY))
index 9435cc21fe724621f7d9569d035682e108fa0f74..3f8a4cb52441ad769d52714b194018d353ea1b8d 100644 (file)
@@ -1983,8 +1983,8 @@ ExecInitPartitionExecPruning(PlanState *planstate,
         * account for any that were removed due to initial pruning; refer to the
         * condition in InitExecPartitionPruneContexts() that is used to determine
         * whether to do this.  If no exec pruning needs to be done, we would thus
-        * leave the maps to be in an invalid invalid state, but that's ok since
-        * that data won't be consulted again (cf initial Assert in
+        * leave the maps to be in an invalid state, but that's ok since that data
+        * won't be consulted again (cf initial Assert in
         * ExecFindMatchingSubPlans).
         */
        if (prunestate->do_exec_prune)
index ab6317de5aef8249ec8fd46796b68294314afc81..a858f27cadcdd4d4f9c19ab6315b6901b1b0a438 100644 (file)
@@ -551,7 +551,7 @@ PGLC_localeconv(void)
                         "could not get lconv for LC_MONETARY = \"%s\", LC_NUMERIC = \"%s\": %m",
                         locale_monetary, locale_numeric);
 
-       /* Must copy data now now so we can re-encode it. */
+       /* Must copy data now so we can re-encode it. */
        extlconv = &tmp;
        worklconv.decimal_point = strdup(extlconv->decimal_point);
        worklconv.thousands_sep = strdup(extlconv->thousands_sep);
index 468d0250b2ee64505285ea95240863864e6b0135..68f1cbcf9c28611399f9f34d27260a0627320c61 100644 (file)
@@ -1478,7 +1478,7 @@ ProcessGetMemoryContextInterrupt(void)
                                                                   summary);
 
        /*
-        * Allocate memory in this process's DSA for storing statistics of the the
+        * Allocate memory in this process's DSA for storing statistics of the
         * memory contexts upto max_stats, for contexts that don't fit within a
         * limit, a cumulative total is written as the last record in the DSA
         * segment.
@@ -1488,8 +1488,8 @@ ProcessGetMemoryContextInterrupt(void)
        LWLockAcquire(&memCxtArea->lw_lock, LW_EXCLUSIVE);
 
        /*
-        * Create a DSA and send handle to the the client process after storing
-        * the context statistics. If number of contexts exceed a predefined
+        * Create a DSA and send handle to the client process after storing the
+        * context statistics. If number of contexts exceed a predefined
         * limit(8MB), a cumulative total is stored for such contexts.
         */
        if (memCxtArea->memstats_dsa_handle == DSA_HANDLE_INVALID)
index 79bc474a0bbda4071fff4b1789e529a3ff83898b..2959c07f0b8d129a3902ba7de28d64e8eeed85bf 100644 (file)
@@ -424,8 +424,8 @@ swap_catalog_files(FileNameMap *maps, int size, const char *old_catalog_dir,
                 * stage of pg_upgrade in swap mode, so we need to synchronize them
                 * ourselves.  We only do this for the catalog files because they were
                 * created during pg_restore with fsync=off.  We assume that the user
-                * data files files were properly persisted to disk when the user last
-                * shut it down.
+                * data files were properly persisted to disk when the user last shut
+                * it down.
                 */
                if (user_opts.do_sync)
                        sync_queue_push(dest);
index 9fe9d9ad9fa49fe6d76eb9affa8257f2cbf07f55..f3726bc3dc511bf5f1671ae4edb3e1abddb7463d 100644 (file)
@@ -159,7 +159,7 @@ struct PgAioTargetInfo
 {
        /*
         * To support executing using worker processes, the file descriptor for an
-        * IO may need to be be reopened in a different process.
+        * IO may need to be reopened in a different process.
         */
        void            (*reopen) (PgAioHandle *ioh);