]> git.ipfire.org Git - thirdparty/paperless-ngx.git/commitdiff
Documentation: Fix typos (#4737)
authoromahs <73983677+omahs@users.noreply.github.com>
Fri, 1 Dec 2023 14:55:03 +0000 (15:55 +0100)
committerGitHub <noreply@github.com>
Fri, 1 Dec 2023 14:55:03 +0000 (14:55 +0000)
docs/administration.md
docs/advanced_usage.md
docs/development.md
docs/faq.md

index c5659a94c2607121f8c42a2f016d372a3915e0ca..808d6afaf11a111ef3efc6ca2f120097c8d7d540 100644 (file)
@@ -34,7 +34,7 @@ Options available to docker installations:
     Paperless uses 4 volumes:
 
     -   `paperless_media`: This is where your documents are stored.
-    -   `paperless_data`: This is where auxillary data is stored. This
+    -   `paperless_data`: This is where auxiliary data is stored. This
         folder also contains the SQLite database, if you use it.
     -   `paperless_pgdata`: Exists only if you use PostgreSQL and
         contains the database.
@@ -408,7 +408,7 @@ that don't match a document anymore get removed as well.
 ### Managing the Automatic matching algorithm
 
 The _Auto_ matching algorithm requires a trained neural network to work.
-This network needs to be updated whenever somethings in your data
+This network needs to be updated whenever something in your data
 changes. The docker image takes care of that automatically with the task
 scheduler. You can manually renew the classifier by invoking the
 following management command:
@@ -597,7 +597,7 @@ This tool does a fuzzy match over document content, looking for
 those which look close according to a given ratio.
 
 At this time, other metadata (such as correspondent or type) is not
-take into account by the detection.
+taken into account by the detection.
 
 ```
 document_fuzzy_match [--ratio] [--processes N]
index ac8c1549d2c5785f8574fb0669658001d92612cd..ca5ed4321886f103646c3ff58f8ca0bbe35214de 100644 (file)
@@ -510,7 +510,7 @@ existing tables) with:
 
 ## Barcodes {#barcodes}
 
-Paperless is able to utilize barcodes for automatically preforming some tasks.
+Paperless is able to utilize barcodes for automatically performing some tasks.
 
 At this time, the library utilized for detection of barcodes supports the following types:
 
@@ -566,7 +566,7 @@ collating two separate scans into one document, reordering the pages as necessar
 
 Suppose you have a double-sided document with 6 pages (3 sheets of paper). First,
 put the stack into your ADF as normal, ensuring that page 1 is scanned first. Your ADF
-will now scan pages 1, 3, and 5. Then you (or your the scanner, if it supports it) upload
+will now scan pages 1, 3, and 5. Then you (or your scanner, if it supports it) upload
 the scan into the correct sub-directory of the consume folder (`double-sided` by default;
 keep in mind that Paperless will _not_ automatically create the directory for you.)
 Paperless will then process the scan and move it into an internal staging area.
index e4eb36d94c6d008aa970bdb64cce43bb5c3fdd3c..16933a172ed832fbe495190bd0e910b6b1114ef6 100644 (file)
@@ -9,7 +9,7 @@ following way:
 - `main` always represents the latest release and will only see
   changes when a new release is made.
 - `dev` contains the code that will be in the next release.
-- `feature-X` contain bigger changes that will be in some release, but
+- `feature-X` contains bigger changes that will be in some release, but
   not necessarily the next one.
 
 When making functional changes to Paperless-ngx, _always_ make your changes
index 9dff29dac8303c6d98ce90f1e89b7c67ce80a7d4..5d59e29adb505e781562da126884c42f1c69792a 100644 (file)
@@ -87,7 +87,7 @@ follow the [Docker Compose instructions](https://docs.paperless-ngx.com/setup/#i
 space compared to a bare metal installation, docker comes with close to
 zero overhead, even on Raspberry Pi.
 
-If you decide to got with the bare metal route, be aware that some of
+If you decide to go with the bare metal route, be aware that some of
 the python requirements do not have precompiled packages for ARM /
 ARM64. Installation of these will require additional development
 libraries and compilation will take a long time.