]> git.ipfire.org Git - thirdparty/zstd.git/commitdiff
modification in line51 355/head
authorcodeshef <mukulanchal@gmail.com>
Thu, 8 Sep 2016 20:53:29 +0000 (02:23 +0530)
committerGitHub <noreply@github.com>
Thu, 8 Sep 2016 20:53:29 +0000 (02:23 +0530)
README.md

index fa59de83fc590d3293a162ad7c8a06b382d335a0..2c8e707e9225f21b99fc84840bb83a42bc87ffdd 100644 (file)
--- a/README.md
+++ b/README.md
@@ -48,7 +48,7 @@ For a larger picture including very slow modes, [click on this link](images/DCsp
 
 Previous charts provide results applicable to typical file and stream scenarios (several MB). Small data comes with different perspectives. The smaller the amount of data to compress, the more difficult it is to achieve any significant compression.
 
-This problem is common to any compression algorithm. The reason is, compression algorithms learn from past data how to compress future data. But at the beginning of a new file, there is no "past" to build upon.
+This problem is common to many compression algorithms. The reason is, compression algorithms learn from past data how to compress future data. But at the beginning of a new file, there is no "past" to build upon.
 
 To solve this situation, Zstd offers a __training mode__, which can be used to tune the algorithm for a selected type of data, by providing it with a few samples. The result of the training is stored in a file called "dictionary", which can be loaded before compression and decompression. Using this dictionary, the compression ratio achievable on small data improves dramatically: