]> git.ipfire.org Git - thirdparty/postgresql.git/commitdiff
doc: use wording "restore" instead of "reload" of dumps
authorBruce Momjian <bruce@momjian.us>
Thu, 21 Jul 2022 18:55:22 +0000 (14:55 -0400)
committerBruce Momjian <bruce@momjian.us>
Thu, 21 Jul 2022 18:55:22 +0000 (14:55 -0400)
Reported-by: axel.kluener@gmail.com
Discussion: https://postgr.es/m/164736074430.660.3645615289283943146@wrigleys.postgresql.org

Backpatch-through: 11

13 files changed:
doc/src/sgml/ddl.sgml
doc/src/sgml/extend.sgml
doc/src/sgml/perform.sgml
doc/src/sgml/plhandler.sgml
doc/src/sgml/ref/alter_type.sgml
doc/src/sgml/ref/create_domain.sgml
doc/src/sgml/ref/pg_dump.sgml
doc/src/sgml/ref/pg_dumpall.sgml
doc/src/sgml/ref/pg_resetwal.sgml
doc/src/sgml/ref/pg_restore.sgml
doc/src/sgml/ref/pgupgrade.sgml
doc/src/sgml/runtime.sgml
doc/src/sgml/textsearch.sgml

index b4e080aac42b2b7c27c7581dc472f2f6132b1789..562c98e2d34c9022723bf8729a36a0244b503a27 100644 (file)
@@ -413,7 +413,7 @@ CREATE TABLE products (
      tests, it cannot guarantee that the database will not reach a state
      in which the constraint condition is false (due to subsequent changes
      of the other row(s) involved).  This would cause a database dump and
-     reload to fail.  The reload could fail even when the complete
+     restore to fail.  The restore could fail even when the complete
      database state is consistent with the constraint, due to rows not
      being loaded in an order that will satisfy the constraint.  If
      possible, use <literal>UNIQUE</literal>, <literal>EXCLUDE</literal>,
@@ -425,10 +425,10 @@ CREATE TABLE products (
      If what you desire is a one-time check against other rows at row
      insertion, rather than a continuously-maintained consistency
      guarantee, a custom <link linkend="triggers">trigger</link> can be used
-     to implement that.  (This approach avoids the dump/reload problem because
+     to implement that.  (This approach avoids the dump/restore problem because
      <application>pg_dump</application> does not reinstall triggers until after
-     reloading data, so that the check will not be enforced during a
-     dump/reload.)
+     restoring data, so that the check will not be enforced during a
+     dump/restore.)
     </para>
    </note>
 
@@ -450,7 +450,7 @@ CREATE TABLE products (
      function.  <productname>PostgreSQL</productname> does not disallow
      that, but it will not notice if there are rows in the table that now
      violate the <literal>CHECK</literal> constraint. That would cause a
-     subsequent database dump and reload to fail.
+     subsequent database dump and restore to fail.
      The recommended way to handle such a change is to drop the constraint
      (using <command>ALTER TABLE</command>), adjust the function definition,
      and re-add the constraint, thereby rechecking it against all table rows.
index 5c28d5aeb0f3d2c902f32b904cc4cefc9218bf79..0bb03e050805537be3ee10e2b8a7cc4c8738c535 100644 (file)
@@ -756,7 +756,7 @@ SET LOCAL search_path TO @extschema@, pg_temp;
      <application>pg_dump</application>.  But that behavior is undesirable for a
      configuration table; any data changes made by the user need to be
      included in dumps, or the extension will behave differently after a dump
-     and reload.
+     and restore.
     </para>
 
    <indexterm>
index f1a322d0788eaa307f6f2248bec491441a88891e..d4dadc2e437a5a2cf727ef6fa258d3dd6c011de4 100644 (file)
@@ -1700,7 +1700,7 @@ SELECT * FROM x, y, a, b, c WHERE something AND somethingelse;
 
    <para>
     Dump scripts generated by <application>pg_dump</application> automatically apply
-    several, but not all, of the above guidelines.  To reload a
+    several, but not all, of the above guidelines.  To restore a
     <application>pg_dump</application> dump as quickly as possible, you need to
     do a few extra things manually.  (Note that these points apply while
     <emphasis>restoring</emphasis> a dump, not while <emphasis>creating</emphasis> it.
index 73cd7d13875f383b4acde1f5a38619c9b9ca22a3..b18d9fbb4cea1731cd5f3683f6b3b19e3cf05dbd 100644 (file)
@@ -208,7 +208,7 @@ CREATE LANGUAGE plsample
     attached to a function when <varname>check_function_bodies</varname> is on.
     Therefore, checks whose results might be affected by GUC parameters
     definitely should be skipped when <varname>check_function_bodies</varname> is
-    off, to avoid false failures when reloading a dump.
+    off, to avoid false failures when restoring a dump.
    </para>
 
    <para>
index 9127dfd88de9cda924ace90c597cc626596ccd4a..eb4093bfada755dff6a2ddf1335cd87e4da0f49d 100644 (file)
@@ -304,7 +304,7 @@ ALTER TYPE <replaceable class="parameter">name</replaceable> RENAME VALUE <repla
    around</quote> since the original creation of the enum type).  The slowdown is
    usually insignificant; but if it matters, optimal performance can be
    regained by dropping and recreating the enum type, or by dumping and
-   reloading the database.
+   restoring the database.
   </para>
  </refsect1>
 
index e4b856d630cdbde604427e76b2234be3cd3efb9f..82a0b87492932b55ab72d3b82b314cd19c5aa274 100644 (file)
@@ -234,7 +234,7 @@ INSERT INTO tab (domcol) VALUES ((SELECT domcol FROM tab WHERE false));
    function.  <productname>PostgreSQL</productname> does not disallow that,
    but it will not notice if there are stored values of the domain type that
    now violate the <literal>CHECK</literal> constraint. That would cause a
-   subsequent database dump and reload to fail.  The recommended way to
+   subsequent database dump and restore to fail.  The recommended way to
    handle such a change is to drop the constraint (using <command>ALTER
    DOMAIN</command>), adjust the function definition, and re-add the
    constraint, thereby rechecking it against stored data.
index dbeddf11bc6ab1452ec92ca7f30e965649fa8a38..1ee11b0580c6351337ff688de703270de108f98f 100644 (file)
@@ -676,7 +676,7 @@ PostgreSQL documentation
         useful for making dumps that can be loaded into
         non-<productname>PostgreSQL</productname> databases.
         However, since this option generates a separate command for each row,
-        an error in reloading a row causes only that row to be lost rather
+        an error in restoring a row causes only that row to be lost rather
         than the entire table contents.
        </para>
       </listitem>
@@ -699,9 +699,9 @@ PostgreSQL documentation
         This option is relevant only when creating a data-only dump.
         It instructs <application>pg_dump</application> to include commands
         to temporarily disable triggers on the target tables while
-        the data is reloaded.  Use this if you have referential
+        the data is restored.  Use this if you have referential
         integrity checks or other triggers on the tables that you
-        do not want to invoke during data reload.
+        do not want to invoke during data restore.
        </para>
 
        <para>
@@ -779,7 +779,7 @@ PostgreSQL documentation
         it is mainly useful for making dumps that can be loaded into
         non-<productname>PostgreSQL</productname> databases.
         However, since this option generates a separate command for each row,
-        an error in reloading a row causes only that row to be lost rather
+        an error in restoring a row causes only that row to be lost rather
         than the entire table contents.
         Note that
         the restore might fail altogether if you have rearranged column order.
@@ -798,7 +798,7 @@ PostgreSQL documentation
         target the root of the partitioning hierarchy that contains it, rather
         than the partition itself.  This causes the appropriate partition to
         be re-determined for each row when the data is loaded.  This may be
-        useful when reloading data on a server where rows do not always fall
+        useful when restoring data on a server where rows do not always fall
         into the same partitions as they did on the original server.  That
         could happen, for example, if the partitioning column is of type text
         and the two systems have different definitions of the collation used
@@ -810,7 +810,7 @@ PostgreSQL documentation
         with this option, because <application>pg_restore</application> will
         not know exactly which partition(s) a given archive data item will
         load data into.  This could result in inefficiency due to lock
-        conflicts between parallel jobs, or perhaps even reload failures due
+        conflicts between parallel jobs, or perhaps even restore failures due
         to foreign key constraints being set up before all the relevant data
         is loaded.
        </para>
index 3fc37c42ba780546dea89086a536bc471656af25..175e1fbed7dc218537d3170c6b8c15a1d80d3fe3 100644 (file)
@@ -287,9 +287,9 @@ PostgreSQL documentation
         This option is relevant only when creating a data-only dump.
         It instructs <application>pg_dumpall</application> to include commands
         to temporarily disable triggers on the target tables while
-        the data is reloaded.  Use this if you have referential
+        the data is restored.  Use this if you have referential
         integrity checks or other triggers on the tables that you
-        do not want to invoke during data reload.
+        do not want to invoke during data restore.
        </para>
 
        <para>
@@ -336,7 +336,7 @@ PostgreSQL documentation
         target the root of the partitioning hierarchy that contains it, rather
         than the partition itself.  This causes the appropriate partition to
         be re-determined for each row when the data is loaded.  This may be
-        useful when reloading data on a server where rows do not always fall
+        useful when restoring data on a server where rows do not always fall
         into the same partitions as they did on the original server.  That
         could happen, for example, if the partitioning column is of type text
         and the two systems have different definitions of the collation used
@@ -723,7 +723,7 @@ PostgreSQL documentation
   </para>
 
   <para>
-   To reload database(s) from this file, you can use:
+   To restore database(s) from this file, you can use:
 <screen>
 <prompt>$</prompt> <userinput>psql -f db.out postgres</userinput>
 </screen>
index 25d817b36025546acaed4769f8c3724c36c4b53b..92224ca044eee9dfa6c19aca21cbd9d3053f5e2d 100644 (file)
@@ -55,7 +55,7 @@ PostgreSQL documentation
    After running this command, it should be possible to start the server,
    but bear in mind that the database might contain inconsistent data due to
    partially-committed transactions.  You should immediately dump your data,
-   run <command>initdb</command>, and reload.  After reload, check for
+   run <command>initdb</command>, and restore.  After restore, check for
    inconsistencies and repair as needed.
   </para>
 
@@ -78,7 +78,7 @@ PostgreSQL documentation
    discussed below. If you are not able to determine correct values for all
    these fields, <option>-f</option> can still be used, but
    the recovered database must be treated with even more suspicion than
-   usual: an immediate dump and reload is imperative.  <emphasis>Do not</emphasis>
+   usual: an immediate dump and restore is imperative.  <emphasis>Do not</emphasis>
    execute any data-modifying operations in the database before you dump,
    as any such action is likely to make the corruption worse.
   </para>
index 23a94bcc717549edaf54523c47e5d4f373482b6a..fbd2ffe700511c8295b86050103a1cec16604e5d 100644 (file)
@@ -532,9 +532,9 @@ PostgreSQL documentation
         This option is relevant only when performing a data-only restore.
         It instructs <application>pg_restore</application> to execute commands
         to temporarily disable triggers on the target tables while
-        the data is reloaded.  Use this if you have referential
+        the data is restored.  Use this if you have referential
         integrity checks or other triggers on the tables that you
-        do not want to invoke during data reload.
+        do not want to invoke during data restore.
        </para>
 
        <para>
@@ -941,7 +941,7 @@ CREATE DATABASE foo WITH TEMPLATE template0;
   </para>
 
   <para>
-   To reload the dump into a new database called <literal>newdb</literal>:
+   To restore the dump into a new database called <literal>newdb</literal>:
 
 <screen>
 <prompt>$</prompt> <userinput>createdb -T template0 newdb</userinput>
index 7d656af1da7cf1504d7bcafd18c77e577c274f35..acfff1e8b5da12f513e1a99b4234c6d39b5d96cc 100644 (file)
@@ -40,7 +40,7 @@ PostgreSQL documentation
  <para>
   <application>pg_upgrade</application> (formerly called <application>pg_migrator</application>) allows data
   stored in <productname>PostgreSQL</productname> data files to be upgraded to a later <productname>PostgreSQL</productname>
-  major version without the data dump/reload typically required for
+  major version without the data dump/restore typically required for
   major version upgrades, e.g., from 9.5.8 to 9.6.4 or from 10.7 to 11.2.
   It is not required for minor version upgrades, e.g., from 9.6.2 to 9.6.3
   or from 10.1 to 10.2.
@@ -371,7 +371,7 @@ NET STOP postgresql-&majorversion;
 
     <para>
      The <option>--jobs</option> option allows multiple CPU cores to be used
-     for copying/linking of files and to dump and reload database schemas
+     for copying/linking of files and to dump and restore database schemas
      in parallel;  a good place to start is the maximum of the number of
      CPU cores and tablespaces.  This option can dramatically reduce the
      time to upgrade a multi-database server running on a multiprocessor
index 05668c87cc561a8f5dfff737dabbf3604c3276ff..c9616848121ccfdf9496777f30f14a3250c157f6 100644 (file)
@@ -1712,7 +1712,7 @@ $ <userinput>kill -INT `head -1 /usr/local/pgsql/data/postmaster.pid`</userinput
    For <emphasis>major</emphasis> releases of <productname>PostgreSQL</productname>, the
    internal data storage format is subject to change, thus complicating
    upgrades.  The traditional method for moving data to a new major version
-   is to dump and reload the database, though this can be slow.  A
+   is to dump and restore the database, though this can be slow.  A
    faster method is <xref linkend="pgupgrade"/>.  Replication methods are
    also available, as discussed below.
   </para>
@@ -1794,7 +1794,7 @@ $ <userinput>kill -INT `head -1 /usr/local/pgsql/data/postmaster.pid`</userinput
 
    <para>
     One upgrade method is to dump data from one major version of
-    <productname>PostgreSQL</productname> and reload it in another &mdash;  to do
+    <productname>PostgreSQL</productname> and restore it in another &mdash;  to do
     this, you must use a <emphasis>logical</emphasis> backup tool like
     <application>pg_dumpall</application>; file system
     level backup methods will not work. (There are checks in place that prevent
index 7007031c71e80e8ce0af99c8bf24d7d82dd67d5a..5b089dab1b03cf0abe32dfe5ebad34464fed39d6 100644 (file)
@@ -1959,7 +1959,7 @@ CREATE TRIGGER tsvectorupdate BEFORE INSERT OR UPDATE
     explicitly when creating <type>tsvector</type> values inside triggers,
     so that the column's contents will not be affected by changes to
     <varname>default_text_search_config</varname>.  Failure to do this is likely to
-    lead to problems such as search results changing after a dump and reload.
+    lead to problems such as search results changing after a dump and restore.
    </para>
 
   </sect2>