]> git.ipfire.org Git - thirdparty/zstd.git/commitdiff
Fix new typos found by codespell
authorDimitri Papadopoulos <3234522+DimitriPapadopoulos@users.noreply.github.com>
Wed, 5 Jun 2024 17:41:43 +0000 (19:41 +0200)
committerDimitri Papadopoulos <3234522+DimitriPapadopoulos@users.noreply.github.com>
Thu, 20 Jun 2024 18:12:16 +0000 (20:12 +0200)
doc/zstd_manual.html
lib/compress/zstd_lazy.c
lib/zstd.h
tests/zstreamtest.c

index bc4a240364899e612b5818b3740a7e517de3fd21..56bfbcd81c014cdbb6df4ef9cdcb951165a6c56b 100644 (file)
@@ -298,7 +298,7 @@ size_t     ZSTD_freeDCtx(ZSTD_DCtx* dctx);  </b>/* accept NULL pointer */<b>
                               * Special: value 0 means "use default strategy". */
 
     ZSTD_c_targetCBlockSize=130, </b>/* v1.5.6+<b>
-                                  * Attempts to fit compressed block size into approximatively targetCBlockSize.
+                                  * Attempts to fit compressed block size into approximately targetCBlockSize.
                                   * Bound by ZSTD_TARGETCBLOCKSIZE_MIN and ZSTD_TARGETCBLOCKSIZE_MAX.
                                   * Note that it's not a guarantee, just a convergence target (default:0).
                                   * No target when targetCBlockSize == 0.
index 9efaf4b25d0b315577842344bcf21ea9177bce2b..cfbadf458f7af4a10d381750b03454285419fb66 100644 (file)
@@ -1123,9 +1123,9 @@ ZSTD_row_getMatchMask(const BYTE* const tagRow, const BYTE tag, const U32 headGr
 
 /* The high-level approach of the SIMD row based match finder is as follows:
  * - Figure out where to insert the new entry:
- *      - Generate a hash for current input posistion and split it into a one byte of tag and `rowHashLog` bits of index.
- *           - The hash is salted by a value that changes on every contex reset, so when the same table is used
- *             we will avoid collisions that would otherwise slow us down by intorducing phantom matches.
+ *      - Generate a hash for current input position and split it into a one byte of tag and `rowHashLog` bits of index.
+ *           - The hash is salted by a value that changes on every context reset, so when the same table is used
+ *             we will avoid collisions that would otherwise slow us down by introducing phantom matches.
  *      - The hashTable is effectively split into groups or "rows" of 15 or 31 entries of U32, and the index determines
  *        which row to insert into.
  *      - Determine the correct position within the row to insert the entry into. Each row of 15 or 31 can
index ce2b1c7ded3bbd274d8c31bca3c83fac35e0720c..3a88c74d1d7d6d9aa3229a331e791d1508112830 100644 (file)
@@ -395,7 +395,7 @@ typedef enum {
                               * Special: value 0 means "use default strategy". */
 
     ZSTD_c_targetCBlockSize=130, /* v1.5.6+
-                                  * Attempts to fit compressed block size into approximatively targetCBlockSize.
+                                  * Attempts to fit compressed block size into approximately targetCBlockSize.
                                   * Bound by ZSTD_TARGETCBLOCKSIZE_MIN and ZSTD_TARGETCBLOCKSIZE_MAX.
                                   * Note that it's not a guarantee, just a convergence target (default:0).
                                   * No target when targetCBlockSize == 0.
index e4110eb211163a594b9237f9f5685ed7e7b79ae3..8625b4a23730d1bb84de0011d6da939252847d71 100644 (file)
@@ -2478,7 +2478,7 @@ static int basicUnitTests(U32 seed, double compressibility, int bigTests)
 
     DISPLAYLEVEL(3, "test%3i : Test single-shot fallback for magicless mode: ", testNb++);
     {
-        // Aquire resources
+        // Acquire resources
         size_t const srcSize = COMPRESSIBLE_NOISE_LENGTH;
         void* src = malloc(srcSize);
         size_t const dstSize = ZSTD_compressBound(srcSize);