]> git.ipfire.org Git - thirdparty/coreutils.git/commitdiff
wc: speedup counting of short lines
authorKristoffer Brånemyr <ztion1@yahoo.se>
Wed, 18 Mar 2015 15:32:19 +0000 (15:32 +0000)
committerPádraig Brady <P@draigBrady.com>
Fri, 20 Mar 2015 00:48:52 +0000 (00:48 +0000)
Using a test file generated with:
  yes | head -n100M > 2x100M.txt

before> time wc -l 2x100M.txt
  real 0.842s
  user 0.810s
  sys  0.033s

after> time wc -l 2x100M.txt
  real 0.142s
  user 0.111s
  sys  0.031s

* src/wc.c (wc): Split the loop that deals with -l into 3.
The first is used at the start of the input to determine if
the average line length is < 15, and if so the second loop is
used to look for '\n' internally to wc.  For longer lines,
memchr is used as before to take advantage of system specific
optimizations which any outweigh function call overhead.
Note the first 2 loops could be combined, though in testing,
GCC 4.9.2 at least, wasn't sophisticated enough to separate
the loops based on the "check_len" invariant.
Note also __builtin_memchr() isn't significant here as
GCC currently only applies constant folding with that.
* NEWS: Mention the improvement.

NEWS
src/wc.c

diff --git a/NEWS b/NEWS
index 1a5123574612768f71c1efd26d712a5035570a53..81031c6b0b567587e31ef80fc0578742d417f98b 100644 (file)
--- a/NEWS
+++ b/NEWS
@@ -94,6 +94,8 @@ GNU coreutils NEWS                                    -*- outline -*-
   stat and tail now know about IBRIX.  stat -f --format=%T now reports the file
   system type, and tail -f uses polling for files on IBRIX file systems.
 
+  wc -l processes short lines much more efficiently.
+
   References from --help and the man pages of utilities have been corrected
   in various cases, and more direct links to the corresponding online
   documentation are provided.
index 8cb5163dcfa0a2436173917970d278fc660b4397..ceb48ed899c6c6e9661f1178b73f5f1dec0ac313 100644 (file)
--- a/src/wc.c
+++ b/src/wc.c
@@ -264,6 +264,8 @@ wc (int fd, char const *file_x, struct fstatus *fstatus, off_t current_pos)
     {
       /* Use a separate loop when counting only lines or lines and bytes --
          but not chars or words.  */
+      bool long_lines = false;
+      bool check_len = true;
       while ((bytes_read = safe_read (fd, buf, BUFFER_SIZE)) > 0)
         {
           char *p = buf;
@@ -275,12 +277,41 @@ wc (int fd, char const *file_x, struct fstatus *fstatus, off_t current_pos)
               break;
             }
 
+          char *end = p + bytes_read;
+
+          /* Avoid function call overhead for shorter lines.  */
+          if (check_len)
+            while (p != end)
+              {
+                lines += *p++ == '\n';
+                /* If there are more than 150 chars in the first 10 lines,
+                   then use memchr, where system specific optimizations
+                   may outweigh function call overhead.
+                   FIXME: This line length was determined in 2015, on both
+                   x86_64 and ppc64, but it's worth re-evaluating in future with
+                   newer compilers, CPUs, or memchr() implementations etc.  */
+                if (lines <= 10)
+                  {
+                    if (p - buf > 150)
+                      {
+                        long_lines = true;
+                        break;
+                      }
+                  }
+              }
+          else if (! long_lines)
+            while (p != end)
+              lines += *p++ == '\n';
+
+          /* memchr is more efficient with longer lines.  */
           while ((p = memchr (p, '\n', (buf + bytes_read) - p)))
             {
               ++p;
               ++lines;
             }
+
           bytes += bytes_read;
+          check_len = false;
         }
     }
 #if MB_LEN_MAX > 1