]> git.ipfire.org Git - thirdparty/squid.git/log
thirdparty/squid.git
4 years agoSupply ALE with HttpReply before checking http_reply_access (#398)
Eduard Bagdasaryan [Tue, 10 Sep 2019 05:36:25 +0000 (05:36 +0000)] 
Supply ALE with HttpReply before checking http_reply_access (#398)

Before this fix, Squid warned "ALE missing HttpReply object",
because ALE::reply was initialized too late. This problem affected
both HTTP and FTP code paths.

To avoid these problems, ALE::reply is initialized early with the
available (received) response.

Also:

* Fixed logging control (1xx) responses in case these responses
  are final. Before this fix, '-' was logged.

* All reply headers ('<h') were logged with a single CR separator,
  instead of CRLF.

* Supply ALE for send_hit ACL. cb36505 already covered many (but not
  all) similar cases.

4 years agoFix "BUG: Lost previously bumped from-Squid connection" (#460)
Christos Tsantilas [Mon, 9 Sep 2019 14:14:50 +0000 (14:14 +0000)] 
Fix "BUG: Lost previously bumped from-Squid connection" (#460)

FwdState assumed that PeerSelector always returns the connection pinned
by previous SslBump steps. That assumption was wrong in two cases:

1. The previously pinned connection got closed.
2. PeerSelector policies prevent pinned connection reuse. For example,
    connection destination is now denied by cache_peer_access rules.

PeerSelector now returns a PINNED selection even if a pinned connection
cannot or should not be used. The initiator is now fully responsible for
checking the returned connection usability, including the new
ConnStateData::pinning::peerAccessDenied flag. Unusable pinned
connection is now treated as any other fatal (for the transaction)
forwarding problem rather than an internal BUG.

The above changes do not change traffic on the wire but remove bogus
level-1 BUG messages from cache.log.

We also polished which error page is returned depending on the pinning
validation problem: ERR_ZERO_SIZE_OBJECT is returned when the validation
failed because of the peer disappearance or to-server connection
closure. Other cases use ERR_CANNOT_FORWARD. Eventually, these errors
can be detailed further to distinguish various problems. We may also
want to generalize ERR_CONFLICT_HOST and/or ERR_FORWARDING_DENIED to
make them applicable in this context.

This is a Measurement Factory project.

4 years agoSource Format Enforcement (#467)
squidadm [Sat, 7 Sep 2019 01:43:07 +0000 (01:43 +0000)] 
Source Format Enforcement (#467)

4 years agoSupply ALE for note ACL (#463)
Eduard Bagdasaryan [Thu, 5 Sep 2019 05:46:59 +0000 (05:46 +0000)] 
Supply ALE for note ACL (#463)

The following cache.log WARNING is a symptom of this bug:

    ACL is used in context without an ALE state. Assuming mismatch.

Commit cb36505 already covered many (but not all) similar cases.

4 years agoFix cross-compilation (#464)
Fabrice Fontaine [Fri, 23 Aug 2019 20:22:19 +0000 (20:22 +0000)] 
Fix cross-compilation (#464)

Do not check check file descriptor maximum value through AC_RUN_IFELSE
when cross-compiling as this will raise an error

Signed-off-by: Fabrice Fontaine <fontaine.fabrice@gmail.com>
4 years agoBug 4918: Crashes when using OpenSSL prior to v1.0.2 (#465)
Eneas U de Queiroz [Wed, 21 Aug 2019 18:01:24 +0000 (18:01 +0000)] 
Bug 4918: Crashes when using OpenSSL prior to v1.0.2 (#465)

The implementation of x509_get0_signature() replacement in 24b30fd was
based on OpenSSL v1.1.0 where `signature` and `sig_alg` members of
`x509_st` structure stopped being raw pointers and became structures.
The mismatch caused segfaults when using OpenSSL versions that lacked
x509_get0_signature() -- anything earlier than OpenSSL v1.0.2.

    // OpenSSL < v1.1.0
    struct x509_st {
        X509_CINF *cert_info;
        X509_ALGOR *sig_alg;
        ASN1_BIT_STRING *signature;
        ...
    }

    // OpenSSL >= v1.1.0
    struct x509_st {
        X509_CINF cert_info;
        X509_ALGOR sig_alg;
        ASN1_BIT_STRING signature;
        ...
    }

A C-style reinterpreting cast hid the type mismatch from the compilers
and reviewers.

Tested with OpenSSL v1.0.1f. The types of the two data members were
checked back to OpenSSL v0.9.6.

Signed-off-by: Eneas U de Queiroz <cotequeiroz@gmail.com>
4 years agoBug 3552 pt3: Happy Eyeballs: Parallel TCP connection attempts (#386)
Christos Tsantilas [Thu, 15 Aug 2019 08:21:08 +0000 (08:21 +0000)] 
Bug 3552 pt3: Happy Eyeballs: Parallel TCP connection attempts (#386)

A site with both AAAA and A DNS records may only be available via one of
the IP address families; attempts to connect to that site over the other
IP family will fail, sometimes after painful timeouts. Prior to these
changes, Squid tried to connect to resolved addresses sequentially,
which often resulted in unhappy user eyeballs and aborted (by clients)
client-Squid connections, especially when the first DNS answer contained
multiple unusable IP addresses.

To reduce user-visible delays, Squid now follows the Happy Eyeballs (RFC
8305) strategy: Start opening a to-server TCP connection using IPvX and,
if that "primary" connection was not established fast enough, initiate a
parallel "spare" connection opening attempt using IPvY. As before, X is
the IP protocol family in the first/fastest DNS response received by
Squid. As more IP addresses (from each family) become known, they feed
subsequent connection opening attempts on primary and spare tracks.

No changes in peer selection. No changes in peer usage: Squid still
exhausts all paths to peer[N] before using peer[N+1] IPs, even if it
means waiting for DNS A answer for peer[N] while sitting on an AAAA
answer for peer[N+1].

Happy Eyeballs implementations must balance the desire to improve
response times (by opening as many parallel connections as fast as
possible) with the dangers of triggering DoS alarms and creating
significant traffic overheads. To control that balance, Squid never uses
more than two parallel tracks for forwarding a single request and
provides three admin-configurable parameters (with reasonable defaults).

* happy_eyeballs_connect_timeout forces spare connection establishment
  track to wait a little (to give the primary track a chance to
  establish a connection).

* happy_eyeballs_connect_gap spaces out spare connection openings (to
  minimize spare traffic).

* happy_eyeballs_connect_limit caps the total number of spare
  connections (to reduce stress on Squid resources).

This is a Measurement Factory project.

4 years agoFixed parsing of TLS messages that span multiple records (#457)
Christos Tsantilas [Tue, 13 Aug 2019 14:44:22 +0000 (14:44 +0000)] 
Fixed parsing of TLS messages that span multiple records (#457)

Squid fed the TLS message parser with one TLS record fragment
at a time but allowed InsufficientInput exceptions to bubble up
beyond the TLS message parsing code. If a server handshake
message spans multiple TLS records, and Squid reads all those
records together with the end of the TLS server handshake, then
the higher-level code interprets InsufficientInput as the need
for more TLS records for the record parser (rather than more
fragments for the TLS message parser). The affected transaction
would then time out or otherwise fail while waiting for those
non-existent TLS records to come from the server.

We now parse TLS messages only after accumulating all same-type
TLS records. For truncated handshakes, this may reduce the
level of information extracted by Squid in some cases, but
this approach keeps the code simple. The handshake is still
available for logging if that partial info is needed for triage.

Test case: 1000-sans.badssl.com which sends a huge server certificate.

This is a Measurement Factory project.

4 years agoIgnore malformed Host header in intercept and reverse proxy mode (#456)
Amos Jeffries [Tue, 13 Aug 2019 13:50:06 +0000 (13:50 +0000)] 
Ignore malformed Host header in intercept and reverse proxy mode (#456)

4 years agoFixed on_unsupported_protocol tunnel action (#339)
Christos Tsantilas [Mon, 12 Aug 2019 15:48:10 +0000 (15:48 +0000)] 
Fixed on_unsupported_protocol tunnel action (#339)

Instead of tunneling traffic, a matching on_unsupported_protocol
"tunnel" action resulted in a Squid error response sent to the client
(or, where an error response was not possible, in a connection closure).
The following three cases were fixed:

    * port: http_port (real CONNECT)
    * ssl_bump action: client-first or step1 bump
    * handling phase: parsing TLS client handshake
    * expected data: TLS Client Hello

    * port: http_port (real CONNECT)
    * ssl_bump action: client-first or step1 bump
    * handling phase: parsing the first bumped HTTP request
    * expected data: HTTP request header

    * port: https_port (fake CONNECT)
    * ssl_bump action: any action except terminate
    * handling phase: parsing TLS client handshake
    * expected data: TLS Client Hello

Also, when on_unsupported_protocol was configured, Squid wasted RAM and
CPU cycles to buffer client HTTP requests beyond the point of no return
(i.e., roughly, beyond the first HTTP request on a connection or in a
tunnel), when on_unsupported_protocol settings no longer apply.

Client handshake accumulation is now driven by preservingClientData_. We
set that data member when the connection is accepted (because we may
decide to start preserving bytes right away) and reset it whenever that
decision may change, including when switching to a new protocol inside
CONNECT tunnel and confirming the expected/supported protocol by
successfully parsing its handshake.

Squid does not stop handshake preservation when on_unsupported_protocol
gets disabled during reconfiguration, but Squid will not tunnel
preserved bytes if that happens (and will not tunnel a partial handshake
if on_unsupported_protocol configuration keeps changing).

Also changed how IPv6-based certificates are generated. Their CN field
value is no longer surrounded by [square brackets]. This change was done
to improve Squid code that had to be modified to fix
on_unsupported_protocol. It affects certificate cache key so old
IPv6-based certificates will never be found (and will eventually be
purged) while new ones will be generated and cached instead. We believe
these IPv6-based certificates are rare and untrusted by browsers so the
change in their CN should not have a significant affect on users.

This is a Measurement Factory project.

4 years agoFixed MemStore::copyFromShm() debugging (#454)
Eduard Bagdasaryan [Sun, 11 Aug 2019 20:17:53 +0000 (20:17 +0000)] 
Fixed MemStore::copyFromShm() debugging (#454)

* Level-9 is reserved for data dumps.

* The "mem-loaded all" message was printing -1 instead of the
  accumulated object size. It also deserves a lower debugging level
  because it happens at most once per transaction.

4 years agoAdded ENTRY_REQUIRES_COLLAPSING debugging (#453)
Eduard Bagdasaryan [Sat, 10 Aug 2019 15:46:19 +0000 (15:46 +0000)] 
Added ENTRY_REQUIRES_COLLAPSING debugging (#453)

...  forgotten in master d2a6dcb.

4 years agoFix parsing of certificate validator responses (#452)
Christos Tsantilas [Fri, 9 Aug 2019 04:18:37 +0000 (04:18 +0000)] 
Fix parsing of certificate validator responses (#452)

If a certificate validator did not end its response with an end-of-line
or whitespace character, then Squid, while parsing the response,
accessed the bytes after the end of the buffer where the response is
stored.

This is a Measurement Factory project.

4 years agoFix openSUSE ./configure-time Linux PAM authentication detection (#450)
Adam Majer [Thu, 8 Aug 2019 09:47:59 +0000 (09:47 +0000)] 
Fix openSUSE ./configure-time Linux PAM authentication detection (#450)

Recently, openSUSE Factory enabled -Wreturn-type in CFLAGS which
resulted in ./configure failing to detect Linux type of PAM
authentication.

4 years agoFix rock disk entry contamination related to aborted swapouts (#444)
Eduard Bagdasaryan [Wed, 7 Aug 2019 12:04:30 +0000 (12:04 +0000)] 
Fix rock disk entry contamination related to aborted swapouts (#444)

Also probably fixed hit response corruption related to aborted rock
swapins.

The following disk entry contamination sequence was observed in detailed
cache logs during high-load Polygraph tests. Some of the observed
level-1 errors matched those in real-world deployments.

1. Worker A schedules AX – a request to write a piece of entry A to disk
   slot X. The disker is busy writing and reading other slots for worker
   A and other workers so AX stays in the A-to-Disker queue for a while.
2. Entry A aborts swapout (for any reason, including network errors
   while receiving the being-stored response). Squid makes disk slot X
   available for other entries to use. AX stays queued.
3. Another worker B picks up disk slot X (from the shared free disk slot
   pool) and schedules BX, a request to write a piece of entry B to disk
   slot X. BX gets queued in an B-to-Disker queue. AX stays queued.
4. The disker satisfies write request BX. Disk slot X contains entry B
   contents now. AX stays queued.
5. The disker satisfies write request AX. Disk slot X is a part of entry
   B slot chain but contains former entry A contents now! HTTP requests
   for entry B now read entry A leftovers from disk and complain about
   metadata mismatches (at best) or get wrong response contents (at
   worst).

To prevent premature disk slot reuse, we now keep disk slots reserved
while they are in the disk queue, even if the corresponding cache entry
is long gone: Individual disk write requests now "own" the slot they are
writing. The Rock::IoState object owns reserved but not yet used slots
so that they can be freed when the object is gone. The disk entry owns
the (successfully written) slots added to its chain in the map.

The new slot ownership scheme required changes in what metadata the
writing code has to maintain. For example, we now keep the address of
the previous slot in the entry chain so that we can update its .next
field after a successful disk write. Also, the old code detecting
dropped write requests could no longer rely on the now-empty .next field
in the previous map entry. The rewritten code numbers I/O transactions
so that out-of-order replies can be detected without using the map.

I tried to simplify the metadata maintenance code by shortening
reservation lifetimes and using just-in-time [first] slot reservations.
The new code may also leak fewer slots when facing C++ exceptions.

As for reading, I realized that we had no protection from dropped rock
read requests. If the first read request is dropped, the metadata
decoding would probably fail but if subsequent reads are skipped, the
client may be fed with data that is missing those skipped blocks. I did
not try to reproduce these problems, but they are now fixed using the
same I/O transaction numbering mechanism that the writing code now uses.
Negative length checks in store_client.cc treat dropped reads as errors.

I also removed commented out "partial writing" code because IoState
class member changes should expose any dangerous merge problems.

4 years agoBug 4978: eCAP crash after using MyHost().newRequest() (#449)
Vadim Salavatov [Tue, 6 Aug 2019 23:11:36 +0000 (23:11 +0000)] 
Bug 4978: eCAP crash after using MyHost().newRequest() (#449)

Since commit 8babada, Squid was using a c_str() result after its
std::string toString() source went out of scope.

4 years agoDocs: Fix Programming Guide typos (#448)
Emil Hessman [Mon, 5 Aug 2019 18:39:23 +0000 (18:39 +0000)] 
Docs: Fix Programming Guide typos (#448)

4 years agoRefactor RefCount tests to use cppunit (#442)
josepjones [Mon, 29 Jul 2019 12:20:15 +0000 (12:20 +0000)] 
Refactor RefCount tests to use cppunit (#442)

4 years agoBug 4969: GCC-9 build failure: stringop-truncation (#441)
Amos Jeffries [Fri, 19 Jul 2019 15:11:49 +0000 (15:11 +0000)] 
Bug 4969: GCC-9 build failure: stringop-truncation (#441)

GCC-9 with Squid use of -Werror makes these warning hard
errors which can no longer be ignored. We are thus required
to alter this third-party code when built for Squid.

Truncation of these strings is fine. Rather than suppress
GCC warnings, switch to xstrncpy() which has similar
behaviour but guarantees c-string terminator exists within
the copied range limit (removing need for two -1 hacks).

This change will add terminators on path and device_type
values in the rare case of overly long configured values.
It is not clear what ancient Domain Controllers would do
when handed un-terminated c-string in those cases, but was
unlikely to be good.

4 years agoDisabled partial rock cache_dir writes (#440)
Eduard Bagdasaryan [Fri, 19 Jul 2019 09:23:55 +0000 (09:23 +0000)] 
Disabled partial rock cache_dir writes (#440)

Partial disk writes may be useful for CF disk slaves and SMP disk hit
readers, but their correct implementation requires a lot of additional
work, the current implementation is insufficient/buggy, and partially
written entries were probably never read because Rock writers do not
enable shared/appending locks.

Here is a brief (but complicated) history of the issue, for the record:

    1. 807feb1 adds partial disk writes "in order to propagate data from
       the hit writer to the collapsed hit readers". The readers
       probably could not read any data though because the disk entry
       was still exclusively locked for writing. The developers either
       did not realize that or intended to address it later, but did not
       document their intentions -- all this development was happening
       on a fast-moving CF development branch.

    2. 0b8be48 makes those partial disk writes conditional on CF being
       enabled. It is not clear whether the developers wanted to reduce
       the scope of a risky feature or did not realize that non-CF use
       cases also benefit from partial writes (when fully supported).

    3. ce49546 adds low-level appending lock support but does not
       actually use append locks for any caches.

    4. 4475555 adds appending support to the shared memory cache.

    5. 4976925 explicitly disables partial disk writes, acknowledging
       that they were probably never used (by readers) anyway due to the
       lack of a Ipc::StoreMap::startAppending() call. The same commit
       documents that partial writes caused problems (for writers) in
       performance tests.

    6. 5296bbd re-enables partial disk writes (for writers) after fixing
       problems detected earlier in performance tests. This commit does
       not add the critical (for readers) startAppending() call. It
       looks like the lack of that call was overlooked, again!

4 years agoBug 4970: excessive gnutls_certificate_credentials debug msgs (#439)
Thomas Zajic [Fri, 19 Jul 2019 00:51:45 +0000 (00:51 +0000)] 
Bug 4970: excessive gnutls_certificate_credentials debug msgs (#439)

Also fixed destruction message text format for consistency sake and to
match scripts/find-alive.pl expectations.

Broken since commit 60fcfad.

4 years agoDetail validation errors for loaded-from-file certificate chains (#438)
ghulands [Wed, 17 Jul 2019 01:06:33 +0000 (01:06 +0000)] 
Detail validation errors for loaded-from-file certificate chains (#438)

4 years agoBug 4966: Lower cache_peer hostname (#420)
uhliarik [Mon, 15 Jul 2019 03:42:39 +0000 (03:42 +0000)] 
Bug 4966: Lower cache_peer hostname (#420)

When parsing entries from /etc/hosts file, they are all lowered
(see bug 3040). If cache_peer hostname is uppercase, it will
lead to DNS resolution failure. Lowering cache_peer host fixes
this issue.

This change may expose broken Squid configurations that
incorrectly relied on non-lowercase peer host names to
bypass Squid's "is this cache_peer different from me?"
check. Though such configurations should encounter
forwarding loop errors later anyway.

4 years agoRename allow_t to Acl::Answer (#425)
josepjones [Fri, 12 Jul 2019 14:09:48 +0000 (14:09 +0000)] 
Rename allow_t to Acl::Answer (#425)

Enact the TODO item asking to rename class to Acl::Answer

4 years agoPrevent truncation for large origin-relative domains (#427)
Amos Jeffries [Fri, 12 Jul 2019 03:08:00 +0000 (03:08 +0000)] 
Prevent truncation for large origin-relative domains (#427)

The domain in a URL must obey hostname length restrictions after
append_domain is applied, not just MAX_URL for the normalized
absolute-URL.

4 years ago4.8 Release prep (#431)
Amos Jeffries [Mon, 8 Jul 2019 09:07:47 +0000 (21:07 +1200)] 
4.8 Release prep (#431)

* Fix date for v4.6 release

4 years agoBug 4957: Multiple XSS issues in cachemgr.cgi (#429)
Amos Jeffries [Fri, 5 Jul 2019 03:17:26 +0000 (03:17 +0000)] 
Bug 4957: Multiple XSS issues in cachemgr.cgi (#429)

The cachemgr.cgi web module of the squid proxy is vulnerable
to XSS issue. The vulnerable parameters "user_name" and "auth"
have insufficient sanitization in place.

4 years agoPrevent TLS transaction stalls by preserving flags.read_pending (#423)
Eduard Bagdasaryan [Sun, 30 Jun 2019 10:57:58 +0000 (10:57 +0000)] 
Prevent TLS transaction stalls by preserving flags.read_pending (#423)

DoSelect() cleared flags.read_pending just like it clears the read
handler, but that was wrong: Unlike the read handler, the "pending read"
state is not managed by the read _handler_. It is managed by the reading
_method_. DoSelect() calls read handler so it has the right to clear the
handler before that call -- the called handler is given an opportunity
to set another read handler as needed. DoSelect() does not call the
reading method.

In most cases, the reading method is called by the reading handler so
the code appears to "work". However, if the reading handler has to defer
the read, it will not call the reading method. Deferred reads are
naturally ignorant about the high-level read_pending flag so they cannot
(and should not) attempt to preserve that flag. The flag and the
associated "I have buffered data to give to the reader" state get lost.
When the deferred read is kicked, it starts waiting for socket I/O.

The loss of the flag usually leads to (minor) response time increases
because the peer socket will have more data available for reading,
triggering a call to the read handler which (this time) calls the
reading method which supplies the previously buffered data. Thus, the
code usually appears to "work" even when the bug is triggered.

However, when the buffered data contained the _last_ response byte, the
peer socket often remains idle (not ready for reading), the transaction
gets stalled and eventually timeouts/aborts without delivering the last
byte(s) to the client. Such bugs have been observed in the wild.

This change delegates read_pending management to the reading method.
When the method is not called (e.g., because reading is deferred), the
flag remains set and continues to reflect the current reading state.

When the reading method is "downgraded" from tls_read_method() to
default_read_method(), the new code clears flags.read_pending to avoid
endless "this FD is ready for reading" looping. The downgrade itself is
a dangerous operation because it may result in the loss of the already
buffered data. I hope Squid does not lose data when downgrading (and
added comments to justify that hope), but I cannot guarantee that. This
change itself does not introduce data losses.

I also made fde I/O methods private to improve our chances of preventing
a similar bug if future code changes carelessly reset them.

4 years agoFix macro name clash on freebsd (#426)
Francesco Chemolli [Sat, 29 Jun 2019 16:01:32 +0000 (16:01 +0000)] 
Fix macro name clash on freebsd (#426)

FreeBSD defines FD_NONE in /usr/include/fcntl.h to be magic to
the system. We are not using that name explicitly anywhere, but
it may make sense to keep it around as a default value for
fd_type. Rename the symbol to avoid the clash and fix the build
on FreeBSD.

4 years agoBug 4842: Memory leak when http_reply_access uses external_acl (#424)
Christos Tsantilas [Sat, 29 Jun 2019 07:15:34 +0000 (07:15 +0000)] 
Bug 4842: Memory leak when http_reply_access uses external_acl (#424)

Http::One::Server::handleReply() sets AccessLogEntry::reply which may
already be set. It is already set, for example, when the ACL code
has already called syncAle() because external ACLs require an ALE.

This bug was introduced by commit fbbea6620.

This is a Measurement Factory project.

4 years agoRemove userinfo support from old protocols (#419)
Amos Jeffries [Sun, 23 Jun 2019 15:15:56 +0000 (15:15 +0000)] 
Remove userinfo support from old protocols (#419)

RFC 1738 defines the URL schemes for gopher and wais as not
having the userinfo@ segment.

coap, coaps, whois and cache_object also do not use this segment.

For these cases we can obey the RFC7230 requirement to ignore the
segment when producing normalized absolute URL.

Of the supported protocols only FTP requires userinfo, and because
we cannot be certain for unknown protocols allow it as well.

4 years agoFix handling of tiny invalid responses (#422)
Eduard Bagdasaryan [Sun, 23 Jun 2019 14:14:47 +0000 (14:14 +0000)] 
Fix handling of tiny invalid responses (#422)

Squid converted any invalid response shorter than 4 bytes into an
invalid "HTTP/1.1 0 Init" response (with those received characters and a
CRLFCRLF suffix as a body). In some cases (e.g., with ICAP RESPMOD), the
resulting body was not sent to the client at all.

Now Squid handles such responses the same way it handles any non-HTTP/1
(and non-ICY) response, converting it into a valid HTTP/200 response
with an X-Transformed-From:HTTP/0.9 header and received bytes as
a message body.

4 years agoSend Connection:close with the known-last request on a connection (#421)
Eduard Bagdasaryan [Fri, 21 Jun 2019 13:03:30 +0000 (13:03 +0000)] 
Send Connection:close with the known-last request on a connection (#421)

Squid did not send Connection:close request header on a to-be-closed
HTTP/1.1 connection, violating RFC 7230 Section 6.6 "SHOULD send"
requirement.

4 years agoUpdate HttpHeader::getAuth to SBuf (#416)
Amos Jeffries [Wed, 19 Jun 2019 05:58:36 +0000 (05:58 +0000)] 
Update HttpHeader::getAuth to SBuf (#416)

Replace the fixed-size buffer for decoding base64 tokens with an
SBuf to avoid decoder issues on large inputs.

Update callers to SBuf API operations for more efficient memory
management.

4 years agoAdd the NO_TLSv1_3 option to available tls-options values (#418)
Christos Tsantilas [Sat, 15 Jun 2019 08:19:15 +0000 (08:19 +0000)] 
Add the NO_TLSv1_3 option to available  tls-options values (#418)

... also fix the deprecated sslversion option to exclude tls v1.3 from
allowed protocols where required.

This is a Measurement Factory project

4 years agoFix Digest auth parameter parsing (#415)
Amos Jeffries [Sat, 8 Jun 2019 21:09:23 +0000 (21:09 +0000)] 
Fix Digest auth parameter parsing (#415)

Only remove quoting if the domain=, uri= or qop= parameter
value is surrounded by double-quotes.

4 years agoFix GCC-9 build issues (#413)
Amos Jeffries [Sat, 8 Jun 2019 11:40:40 +0000 (11:40 +0000)] 
Fix GCC-9 build issues (#413)

GCC-9 continues the development track started with GCC-8
producing more warnings and errors about possible code issues
which Squid use of "-Wall -Werror" turns into hard build
failures:

 error: ‘strncpy’ output may be truncated copying 6 bytes from a
   string of length 6 [-Werror=stringop-truncation]

 error: ‘%s’ directive argument is null
  [-Werror=format-overflow=]

 error: ‘void* memset(void*, int, size_t)’ clearing an object of
  type ... with no trivial copy-assignment; use assignment or
  value-initialization instead [-Werror=class-memaccess]

 error: ‘void* memset(void*, int, size_t)’ clearing an object of
  non-trivial type ...; use assignment or value-initialization
  instead [-Werror=class-memaccess]

Also, segmentation faults with minimal builds have been
identified as std::string template differences between
optimized and non-optimized object binaries. This results in
cppunit (built with optimizations) crashing unit tests when
freeing memory. Workaround that temporarily by removing the use
of --disable-optimizations from minimal builds.

4 years agoICAP stalls large HTTP transactions (#414)
Eduard Bagdasaryan [Thu, 6 Jun 2019 12:08:31 +0000 (12:08 +0000)] 
ICAP stalls large HTTP transactions (#414)

Calling virginBodySending.plan() has nothing to do with ICAP trailers
support. These (expensive!) plans are necessary if and only if we may
echo the virgin message back to Squid.

Since 6fbd6e, ICAP code always planned to echo the virgin body, even
when no echoing was needed. Echoing requires buffering the virgin
message body, so these plans stalled responses with bodies exceeding
~65K buffer capacity when, for example, the ICAP server did not respond
until getting the entire request body.

4 years agoBug 4953: to_localhost does not include :: (#410)
Amos Jeffries [Thu, 6 Jun 2019 12:06:41 +0000 (00:06 +1200)] 
Bug 4953: to_localhost does not include :: (#410)

5 years agoCall PeerOptions::parseOptions() as early as possible
Amos Jeffries [Thu, 4 Apr 2019 12:08:56 +0000 (01:08 +1300)] 
Call PeerOptions::parseOptions() as early as possible

5 years agoMove session tls-options= assignment out of CreateSession() function
Amos Jeffries [Sat, 29 Dec 2018 23:58:49 +0000 (12:58 +1300)] 
Move session tls-options= assignment out of CreateSession() function

The original implementation utilized OpenSSL inheritence of
library-specific options from SSL_CTX* to SSL* structures.
This does not work with GnuTLS which requires setting the
options on each session object.

The workaround of looking up the session options inside CreateSession()
was only looking for client connection details. Which is broken when
creating server sessions.

* Extend Security::CreateSession() to take a PeerOptions reference
  containing the specific config details to associate with the new
  session (if any).

* Move selection of CachePeer vs tls_outgoing_* options
  out to Security::CreateClientSession().

* Pass the Any::PortCfg::secure details into the
  Security::CreateServerSession().

5 years agoSeparate tls-min-version= config from options= config
Amos Jeffries [Sat, 29 Dec 2018 22:56:07 +0000 (11:56 +1300)] 
Separate tls-min-version= config from options= config

.. until later when parsing the library-specific strings
into their parsedOptions binary form.

This allows multiple options= and tls-min-version= settings
with only the latest of each being used independent of what
is going on with the other config settings.

Also, add nil definitions for the NO_TLSv* OpenSSL options
to make the tls-min-version= not result in fatal errors when
using minimalized OpenSSL library builds.

5 years agoDelay parsing of options= parameters
Amos Jeffries [Thu, 27 Dec 2018 09:17:49 +0000 (22:17 +1300)] 
Delay parsing of options= parameters

.. until context (or session) creation time after squid.conf parsing.

Since a nil value in parsedOptions has meaning as default settings
we cannot use that to indicate a re-parse required. Add a flag
to set indicating changes have been made and check for a re-parse
when using parsedOptions to update a context or session.

5 years agoUpdate PeekingPeerConnector to use PeerOptions API
Amos Jeffries [Thu, 27 Dec 2018 06:42:31 +0000 (19:42 +1300)] 
Update PeekingPeerConnector to use PeerOptions API

.. for SSL_set_options() call.

Allowing parsedOptions to be private within PeerOptions
which is needed to safely delay its value being set until
after squid.conf line is fully parsed.

5 years agoFix tls-min-version= being ignored
Amos Jeffries [Sat, 10 Nov 2018 04:00:12 +0000 (17:00 +1300)] 
Fix tls-min-version= being ignored

Audit required change to make PeerOptions::parse() call
parseOptions() when 'options=' altered sslOptions instead of
delaying the parse to context creation.
This missed the fact that for GnuTLS the tlsMinVersion was
also updating the sslOptions string rather than the
parsedOptions variable later in the configuration process.

Call parseOptions() to reset the parsedOptions value whenever
sslOptions string is altered.

5 years agoBug 4912: same-name notes being appended instead of replaced (#393)
Amish [Wed, 22 May 2019 05:42:06 +0000 (05:42 +0000)] 
Bug 4912: same-name notes being appended instead of replaced (#393)

When auth helper replies with clt_conn_tag=foo (or any KV pair) and
then later in future replaces it with clt_conn_tag=bar. The new pair
was getting appended instead of getting replaced.

i.e. notes would contain two KV pairs:
clt_conn_tag=foo
clt_conn_tag=bar

This fixes it and also fixes:
https://bugs.squid-cache.org/show_bug.cgi?id=4912

5 years agoReplace uudecode with libnettle base64 decoder (#406)
Amos Jeffries [Tue, 21 May 2019 21:31:31 +0000 (21:31 +0000)] 
Replace uudecode with libnettle base64 decoder (#406)

Since RFC 7235 updated the HTTP Authentication credentials token
to the token68 characterset it is possible that characters
uudecode cannot cope with are received.

The Nettle decoder better handles characters which are valid but
not to be used for Basic auth token.

5 years agoBug 4936: terminating c-strings beyond BASE64_DECODE_LENGTH (#409)
Amos Jeffries [Tue, 21 May 2019 05:02:06 +0000 (05:02 +0000)] 
Bug 4936: terminating c-strings beyond BASE64_DECODE_LENGTH (#409)

5 years agoESI: throw on large stack recursions (#408)
Amos Jeffries [Mon, 20 May 2019 11:23:13 +0000 (11:23 +0000)] 
ESI: throw on large stack recursions (#408)

This reduces the impact on concurrent clients to only those
accessing the malformed resource.

Depending on what type of recursion is being performed the
resource may appear to the client with missing segments, or
not at all.

5 years agoBug 4937: cachemgr.cgi: unallocated memory access (#407)
Amos Jeffries [Sat, 18 May 2019 17:02:33 +0000 (17:02 +0000)] 
Bug 4937: cachemgr.cgi: unallocated memory access (#407)

... after base64_decode_update

Ensure that a terminator exists for the decoded string before
using str*() syscalls.

5 years agoRFC 7230 forbids generation of userinfo subcomponent of https URL (#405)
Amos Jeffries [Thu, 16 May 2019 15:22:54 +0000 (15:22 +0000)] 
RFC 7230 forbids generation of userinfo subcomponent of https URL (#405)

5 years agoIgnore ECONNABORTED in accept(2) (#404)
Matthieu Herrb [Mon, 13 May 2019 08:45:57 +0000 (08:45 +0000)] 
Ignore ECONNABORTED in accept(2) (#404)

An aborted connection attempt does not affect listening socket's
ability to accept other connections. If the error is not ignored, Squid
gets stuck after logging an oldAccept error like this one:

    oldAccept ...: (53) Software caused connection abort

This bug fix was motivated by accept(2) changes in OpenBSD v6.5 that
resulted in new ECONNABORTED errors under regular deployment conditions:
https://github.com/openbsd/src/commit/c255b5a

5 years agoSourceFormat Enforcement (#399)
squidadm [Sun, 5 May 2019 06:10:32 +0000 (06:10 +0000)] 
SourceFormat Enforcement (#399)

5 years agoPrep for 4.7
Amos Jeffries [Sat, 4 May 2019 16:05:41 +0000 (04:05 +1200)] 
Prep for 4.7

5 years agoBug 4942: --with-filedescriptors does not do anything (#395)
Amos Jeffries [Sat, 4 May 2019 06:53:45 +0000 (06:53 +0000)] 
Bug 4942: --with-filedescriptors does not do anything (#395)

SQUID_CHECK_MAXFD has been unconditionally overwriting any
user-defined limit with an auto-detected limit from the build
machine. The change causing this was an incomplete fix for
bug 3970 added to v3.3 and later releases.

Fixing that problem has two notable side effects:

* the user-defined value now has the FD property checks applied
  to it (multiple of 64, too-few, etc). This means warnings will
  start to appear in build logs for a number of custom
  configurations. We should expect an increase in questions
  about that.

* builds which have previously been passing in outrageous values
  will actually start to use those values as the SQUID_MAXFD
  limit. This may result in surprising memory consumption or
  performance issues. Hopefully the warnings and new messages
  displaying auto-detected limit separate from the value used
  will reduce the admin surprise, but may not.

This PR also includes cleanup of the autoconf syntax within the
SQUID_CHECK_MAXFD macro and moves the ./configure warnings about
possible issues into that check macro.

5 years agoRFC 8586: Loop Detection in Content Delivery Networks (#396)
Amos Jeffries [Tue, 30 Apr 2019 16:08:52 +0000 (16:08 +0000)] 
RFC 8586: Loop Detection in Content Delivery Networks (#396)

Support the CDN-Loop header as a source for loop detection.

This header is only relevant to CDN installations. For which the
surrogate_id configuration directive specifies the authoritative
ID.

Squid does not add this header by default, preferring to use the
Via mechanism instead. Administrators may add it to requests
with the request_header_add directive or remove with
request_header_remove.

5 years agoFixed startup assertions when using a src_as or dst_as ACL (#397)
Eduard Bagdasaryan [Mon, 29 Apr 2019 18:59:23 +0000 (18:59 +0000)] 
Fixed startup assertions when using a src_as or dst_as ACL (#397)

Specify the port for generated whois URLs when requesting AS numbers.

5 years agoCheck user-provided PATH for krb5-config (#390)
Amos Jeffries [Sat, 13 Apr 2019 08:46:49 +0000 (08:46 +0000)] 
Check user-provided PATH for krb5-config (#390)

When MIT or Heimdal Keberos libraries are installed at a custom
location there may be several krb5-config installed. The one
located at the user-provided path (if any) needs to have preference.

5 years agoSourceFormat Enforcement (#391)
squidadm [Fri, 12 Apr 2019 06:10:25 +0000 (06:10 +0000)] 
SourceFormat Enforcement (#391)

5 years agoRelease Notes: Q tag is not supported by linuxdoc (#389)
Amos Jeffries [Thu, 11 Apr 2019 02:38:14 +0000 (02:38 +0000)] 
Release Notes: Q tag is not supported by linuxdoc (#389)

5 years agoMade Coverity happier after f5e1794 (Peering for SslBump) (#387)
Francesco Chemolli [Fri, 5 Apr 2019 14:41:58 +0000 (14:41 +0000)] 
Made Coverity happier after f5e1794 (Peering for SslBump) (#387)

CID 1444393: Uninitialized members (UNINIT_CTOR)

From the current code point of view, this is a false positive because
the private constructor which lacked initialization was only used from
other constructors that do initialize httpStatus.

5 years agoFix build broken by missing <map> in 36c774 (#384)
Eduard Bagdasaryan [Wed, 3 Apr 2019 03:09:14 +0000 (03:09 +0000)] 
Fix build broken by missing <map> in 36c774 (#384)

In all tested environments, something else #included `<map>`.

5 years agoRemove unused SBufCaseInsensitiveLess (#385)
Amos Jeffries [Tue, 2 Apr 2019 07:34:00 +0000 (07:34 +0000)] 
Remove unused SBufCaseInsensitiveLess (#385)

This class has been replaced by a proper hash in the
sbuf/Algorithms.h current code.

If this is needed in future we can define a lambda instead.

5 years agoBug 4796: comm.cc !isOpen(conn->fd) assertion when rotating logs (#382)
Alex Rousskov [Mon, 1 Apr 2019 16:58:36 +0000 (16:58 +0000)] 
Bug 4796: comm.cc !isOpen(conn->fd) assertion when rotating logs (#382)

Squid abandoned cache.log file descriptor maintenance, calling fd_open()
but then closing the descriptor without fd_close(). If the original file
descriptor value was reused for another purpose, Squid would either hit
the reported assertion or log a "Closing open FD" WARNING (depending on
the new purpose). The cache.log file descriptor is closed on log
rotation and reconfiguration events.

This short-term solution avoids assertions and WARNINGs but sacrifices
cache.log listing in fd_table and, hence, mgr:filedescriptors reports.

The correct long-term solution is to properly maintain descriptor meta
information across cache.log closures/openings, but doing so from inside
of debug.cc is technically difficult due to linking boundaries/problems.

5 years agoRelease Notes update for v5 (#357)
Amos Jeffries [Mon, 1 Apr 2019 02:52:44 +0000 (02:52 +0000)] 
Release Notes update for v5 (#357)

5 years agoPeering support for SslBump (#380)
Christos Tsantilas [Mon, 25 Mar 2019 09:37:42 +0000 (09:37 +0000)] 
Peering support for SslBump (#380)

Support forwarding of bumped, re­encrypted HTTPS requests through a
cache_peer using a standard HTTP CONNECT tunnel.

The new Http::Tunneler class establishes HTTP CONNECT tunnels through
forward proxies. It is used by TunnelStateData and FwdState classes.

Just like before these changes, when a cache_peer replies to CONNECT
with an error response, only the HTTP response headers are forwarded to
the client, and then the connection is closed.

No support for triggering client authentication when a cache_peer
configuration instructs the bumping Squid to relay authentication info
contained in client CONNECT request. The bumping Squid still responds
with HTTP 200 (Connection Established) to the client CONNECT request (to
see TLS client handshake) _before_ selecting the cache_peer.

HTTPS cache_peers are not yet supported primarily because Squid cannot
do TLS-in-TLS with a single fde::ssl state; SslBump and the HTTPS proxy
client/tunneling code would need a dedicated TLS connection each.

Also fixed delay pools for tunneled traffic.

This is a Measurement Factory project.

5 years agoWhen using OpenSSL, trust intermediate CAs from trusted stores (#383)
Alex Rousskov [Tue, 19 Mar 2019 20:30:55 +0000 (20:30 +0000)] 
When using OpenSSL, trust intermediate CAs from trusted stores (#383)

According to [1], GnuTLS and NSS do that by default.

Use case: Chrome and Mozilla no longer trust Semantic root CAs _but_
still trust several whitelisted Semantic intermediate CAs[2]. Squid
built with OpenSSL cannot do that without X509_V_FLAG_PARTIAL_CHAIN.

[1] https://www.openldap.org/lists/openldap-devel/201506/msg00012.html
[2] https://wiki.mozilla.org/CA/Additional_Trust_Changes#Symantec

5 years agoFix incremental parsing of chunked quoted extensions (#310)
Eduard Bagdasaryan [Mon, 18 Mar 2019 17:48:21 +0000 (17:48 +0000)] 
Fix incremental parsing of chunked quoted extensions (#310)

Before this change, incremental parsing of quoted chunked extensions
was broken for two reasons:

* Http::One::Parser::skipLineTerminator() unexpectedly threw after
  partially received quoted chunk extension value.

* When Http::One::Tokenizer was unable to parse a quoted extension,
  it incorrectly restored the input buffer to the beginning of the
  extension value (instead of the extension itself), thus making
  further incremental parsing iterations impossible.

IMO, the reason for this problem was that Http::One::Tokenizer::qdText()
could not distinguish two cases (returning false in both):

* the end of the quoted string not yet reached

* an input error, e.g., wrong/unexpected character

A possible approach could be to improve Http::One::Tokenizer, making it
aware about "needs more data" state.  However, to be acceptable,
these improvements should be done in the base Parser::Tokenizer
class instead. These changes seem to be non-trivial and could be
done separately and later.

Another approach, used here, is to simplify the complex and error-prone
chunked extensions parsing algorithm, fixing incremental parsing bugs
and still parse incrementally in almost all cases. The performance
regression could be expected only in relatively rare cases of partially
received or malformed extensions.

Also:
* fixed parsing of partial use-original-body extension values
* do not treat an invalid use-original-body as an unknown extension
* optimization: parse use-original-body extension only in ICAP context
  (i.e., where it is expected)
* improvement: added a new API to TeChunkedParser to specify known
  chunked extensions list

5 years agoBug 4928: Cannot convert non-IPv4 to IPv4 (#379)
Amos Jeffries [Thu, 7 Mar 2019 13:50:38 +0000 (13:50 +0000)] 
Bug 4928: Cannot convert non-IPv4 to IPv4 (#379)

… when reaching client_ip_max_connections

The client_ip_max_connections limit is checked before the TCP
dst-IP is located for the newly received TCP connection. This
leaves Squid unable to fetch the NFMARK or similar details later
on (they do not exist for [::]).

Move client_ip_max_connections test later in the TCP accept
process to ensure dst-IP is known when the error is produced.

5 years agoSupport logformat %codes in error page templates (#365) M-staged-PR365
Christos Tsantilas [Mon, 4 Mar 2019 12:43:27 +0000 (12:43 +0000)] 
Support logformat %codes in error page templates (#365)

... using `@Squid{%code}` syntax which allows Squid to distinguish newly
supported logformat %codes like `%http::<rm` from classic single-letter
error page %codes like `%M` (that are never enclosed in `@Squid{}`).

This improvement gives error pages access to more information about the
failed transaction and paves the way towards unifying the two partially
duplicated %code interfaces (and underlying code).

Some single-letter error page %codes have similar logformat %codes. For
example, error page `%i` will often be replaced with the same characters
as `@Squid{%>a}`. However, admins should not rely on expansion
equivalence because most codes may be rendered differently under some
conditions, and the two rendering algorithms are not kept in sync. For
example, error page `%i` does not account for log_uses_indirect_client.

Only a few letters remain unused by the error page %codes. Most
(possibly all) new codes should be added to the logformat instead,
within an appropriate error_page:: namespace if needed.

Side effects of updating error page parsing and assembly code include:

* Leave bad %codes in deny_info URLs instead of removing them. This
  helps in triage and is consistent with how bad %codes are already
  handled in error pages.

* Report bad deny_info %codes at startup and reconfiguration. Startup
  errors should eventually become fatal, just like logformat errors are.

* Report bad error page %codes at startup and reconfiguration (except
  for `%;` sequences found in all existing error pages templates).

* Fixed parsing of non-default error-details.txt that did not end with
  an empty line.

* Fixed unterminated c-string printing when reporting error-details.txt
  parsing problems.

* Upgraded MsgBody to use SBuf.

This is a Measurement Factory project.

5 years agoBug 4823: assertion failed: "lowestOffset () <= target_offset" (#370) M-staged-PR370
Eduard Bagdasaryan [Sun, 24 Feb 2019 21:25:25 +0000 (21:25 +0000)] 
Bug 4823: assertion failed: "lowestOffset () <= target_offset" (#370)

This assertion could be triggered by various swapout failures for
ufs/aufs/diskd cache_dir entries.

The bug was caused by 4310f8b change related to storeSwapOutFileClosed()
method. Before that change, swapout failures resulted in
StoreEntry::swap_status set to SWAPOUT_NONE, preventing
another/asserting iteration of StoreEntry::swapOut().

This fix adds SWAPOUT_FAILED swap status for marking swapout failures
(instead of reviving and abusing SWAPOUT_NONE), making the code more
reliable.

Also removed storeSwapOutFileNotify() implementation.  We should not
waste time on maintaining an unused method that now contains conflicting
assertions: swappingOut() and !hasDisk().

5 years agoFixed build after 36c774f (PROXY protocol TLVs improvements) (#376) M-staged-PR376
Alex Rousskov [Sun, 24 Feb 2019 12:55:18 +0000 (12:55 +0000)] 
Fixed build after 36c774f (PROXY protocol TLVs improvements) (#376)

5 years agoFixed build after a56fcf0 (Reuse helpers after timeout) (#375) M-staged-PR375
Alex Rousskov [Sun, 24 Feb 2019 09:54:44 +0000 (09:54 +0000)] 
Fixed build after a56fcf0 (Reuse helpers after timeout) (#375)

In all tested environments, something else #included `<map>`,
apparently, but that old explicit #include should not have been removed.

Also fixed STL #include order.

5 years agoMade Coverity happier after e863656 (timestamps for FATAL) (#374)
Alex Rousskov [Sun, 24 Feb 2019 09:01:53 +0000 (09:01 +0000)] 
Made Coverity happier after e863656 (timestamps for FATAL) (#374)

CID 1441976: Uninitialized scalar field (UNINIT_CTOR)

The forgotten stub data member is currently unused.

5 years agoFixed squidclient authentication after 4b19fa9 (Bug 4843 pt2) (#373) M-staged-PR373
Alex Rousskov [Sun, 24 Feb 2019 03:28:47 +0000 (03:28 +0000)] 
Fixed squidclient authentication after 4b19fa9 (Bug 4843 pt2) (#373)

* squidclient -U sent Proxy-Authorization instead of Authorization.
  Code duplication bites again.

* squidclient -U and -u could sent random garbage after the correct
  [Proxy-]Authorization value as exposed by Coverity CID 1441999: Unused
  value (UNUSED_VALUE). Coverity missed this deeper problem, but
  analyzing its report lead to discovery of the two bugs fixed here.

Also reduced authentication-related code duplication.

5 years agoMade Coverity happier after PROXY protocol TLVs improvements (#372) M-staged-PR372
Alex Rousskov [Sat, 23 Feb 2019 23:58:15 +0000 (23:58 +0000)] 
Made Coverity happier after PROXY protocol TLVs improvements (#372)

CID 1210957: Uninitialized scalar field (UNINIT_CTOR)

5 years agoMade Coverity happier after Bug 4864 fix (#371)
Alex Rousskov [Thu, 21 Feb 2019 21:56:48 +0000 (21:56 +0000)] 
Made Coverity happier after Bug 4864 fix (#371)

... by addressing the following false-positive:
CID 1442832: Null pointer dereferences (FORWARD_NULL)

The Comm::IsConnOpen() test guarantees that connManager is not nil. An
explicit assert() might reduce bugs when this code is refactored.

5 years agoFix stack-based buffer-overflow when parsing SNMP messages (#319) M-staged-PR319
flozilla [Tue, 19 Feb 2019 12:41:00 +0000 (12:41 +0000)] 
Fix stack-based buffer-overflow when parsing SNMP messages (#319)

Fortunately, this off-by-one bug seems to have no runtime effect.

5 years agoMaintenance 5 (#366) M-staged-PR366
squidadm [Mon, 18 Feb 2019 18:10:26 +0000 (18:10 +0000)] 
Maintenance 5 (#366)

5 years agoBug 4864: !Comm::MonitorsRead assertion in maybeReadVirginBody() (#351) M-staged-PR351
Christos Tsantilas [Fri, 15 Feb 2019 15:50:45 +0000 (15:50 +0000)] 
Bug 4864: !Comm::MonitorsRead assertion in maybeReadVirginBody() (#351)

This assertion is probably triggered when Squid retries/reforwards
server-first or step2+ bumped connections (after they fail).
Retrying/reforwarding such pinned connections is wrong because the
corresponding client-to-Squid TLS connection was negotiated based on the
now-failed Squid-to-server TLS connection, and there is no mechanism to
ensure that the new Squid-to-server TLS connection will have exactly the
same properties. Squid should forward the error to client instead.

Also fixed peer selection code that could return more than one PINNED
paths with only the first path having the destination of the actual
pinned connection. To reduce the chances of similar future bugs, and to
polish the code, peer selection now returns a nil path to indicate a
PINNED decision. After all, the selection code decides to use a pinned
connection (whatever it is) rather than a specific pinned _destination_.

This is a Measurement Factory project.

5 years agoLog PROXY protocol v2 TLVs; fix PROXY protocol parsing bugs (#342) M-staged-PR342
Eduard Bagdasaryan [Fri, 15 Feb 2019 00:17:41 +0000 (00:17 +0000)] 
Log PROXY protocol v2 TLVs; fix PROXY protocol parsing bugs (#342)

Added %proxy_protocol::>h logformat code for logging received PROXY
protocol TLV values and passing them to adaptation services and helpers.
For simplicity, this implementation treats TLV values as text and reuses
the existing HTTP header field logging interfaces. Support for binary
TLV value logging can be added later if needed.

Also support logging of metadata extracted from the fixed portion of a
PROXY protocol header and referenced as "pseudo headers": :command,
:version, :src_addr, :dst_addr, :src_port, and :dst_port.

Also fixed several bugs in the old PROXY protocol v1/v2 parsing code:

* Buffer overrun in ConnStateData::parseProxy2p0(). The available
  local SBuf could be less than sizeof(pax), resulting in copying
  excessive bytes with SBuf::rawContent().

* Incorrect processing of malformed v1 headers lacking CRLF in
  ConnStateData::parseProxy1p0(), which waited for more data
  even if the buffer size already exceeded the maximum v1 header
  size.

* Incorrect processing of partial-buffered v1 headers, when only
  the initial (magic) part of the header has been received. The old
  code resulted with an error instead of waiting for more data in this
  case.

* Incorrect v1 header framing for proto=UNKNOWN headers.
  The code used only LF while the protocol requires CRLF for it.

* Do not use address information from v2 header if the header
  proto is UNSPEC.

* Incorrect v1 magic expectations (a 6-character `PROXY ` instead of the
  proper 5-character `PROXY` sequence) leading to mishandling of
  non-PROXY input. For example, receiving `PROXY\r\n` would result in
  "need more data" outcome (and long timeout) instead of an immediate
  error.

Also eliminated code duplication in HttpHeader::getByNameListMember()
and HttpHeader::getListMember(), moving the common part into a
separate getListMember() method.

Also eliminated code duplication and probably fixed a bug with applying
client_netmask parameter in ConnStateData constructor. The mask should
not be applied to localhost and IPv6 addresses but was.

Also parse PROXY protocol v2 LOCAL addresses (for logging purposes). In
compliance with the PROXY protocol specs, LOCAL addresses are still
unused for connection routing.

5 years agoBug 4919: master commit b599471 leaks memory (#364) M-staged-PR364
Alex Rousskov [Thu, 14 Feb 2019 18:48:56 +0000 (18:48 +0000)] 
Bug 4919: master commit b599471 leaks memory (#364)

Restored the natural order of the following two notifications:
* BodyConsumer::noteMoreBodyDataAvailable() and
* BodyConsumer::noteBodyProductionEnded() or noteBodyProducerAborted().

Commit b599471 unintentionally reordered those two notifications. Client
kids (and possibly other BodyConsumers) relied on the natural order to
end their work. If an HttpStateData job was done with the Squid-to-peer
connection and only waiting for the last adapted body bytes, it would
get stuck and leak many objects. This use case was not tested during
b599471 work.

5 years agoReuse reserved Negotiate and NTLM helpers after an idle timeout (#59)
Christos Tsantilas [Tue, 12 Feb 2019 17:16:23 +0000 (17:16 +0000)] 
Reuse reserved Negotiate and NTLM helpers after an idle timeout (#59)

Squid can be killed or maimed by enough clients that start multi-step
connection authentication but never follow up with the second HTTP
request while keeping their HTTP connection open. Affected helpers
remain in the "reserved" state and cannot be reused for other clients.
Observed helper exhaustion has happened without any malicious intent.

To address the problem, we add a helper reservation timeout. Timed out
reserved helpers may be reused by new clients/connections. To minimize
problems with slow-to-resume-authentication clients, timed out reserved
helpers are not reused until there are no unreserved running helpers
left. The reservations are tracked using unique integer IDs.

Also fixed Squid crashes caused by unexpected helper termination -- the
raw UserRequest::authserver pointer could point to a deleted helper.

This is a Measurement Factory project.

5 years agoAdd support for buffer-size= to UDP logging (#359) M-staged-PR359
mahdi1001 [Sun, 10 Feb 2019 08:08:55 +0000 (08:08 +0000)] 
Add support for buffer-size= to UDP logging (#359)

Allow admin control of buffering for log outputs written to UDP
receivers using the buffer-size= parameter.

buffer-size=0byte disables buffering and sends UDP packets
immediately regardless of line size.

When non-0 values are used lines shorter than the buffer may be
delayed and aggregated into a later UDP packet.

Log lines larger than the buffer size will be sent immediately
and may trigger delivery of previously buffered content to
retain log order (at time of send, not UDP arrival).

To avoid truncation problems known with common recipients
the buffer size remains capped at 1400 bytes.

5 years agoPrep for 4.6 (#361)
Amos Jeffries [Fri, 8 Feb 2019 11:22:38 +0000 (00:22 +1300)] 
Prep for 4.6 (#361)

5 years agoSourceFormat Enforcement
SquidAdm [Sun, 27 Jan 2019 03:00:02 +0000 (03:00 +0000)] 
SourceFormat Enforcement

5 years agoSourceFormat Enforcement
SquidAdm [Tue, 1 Jan 2019 06:12:41 +0000 (06:12 +0000)] 
SourceFormat Enforcement

5 years agoSourceFormat Enforcement
SquidAdm [Tue, 1 Jan 2019 00:12:49 +0000 (00:12 +0000)] 
SourceFormat Enforcement

5 years agoCleanup and simplify unit tests (#336)
Amos Jeffries [Fri, 25 Jan 2019 16:21:38 +0000 (16:21 +0000)] 
Cleanup and simplify unit tests (#336)

Polish unit tests to reduce their dependency lists inline with
the updated test documentation requirements.

Some further cleanup of unit tests documentation based on
experience pruning existing unit tests.

 * Only the test logic files actually need to be distributed by
   a test. All files being tested are supposed to be distributed
   from elsewhere and the test should rely on that to prevent
   future issues like the base/RefCount.h bug mentioned below.

 * Starting to deprecate TESTSOURCES which is causing more
   trouble than benefit by pulling in too many needless
   dependencies. eg the globals.cc objects and symbols. Tools it
   used to provide are largely superseded by the stub mechanisms.

Add missing stub files necessary for pruning dependencies. Also
fix some bugs in existing stub files.

Fix base/RefCount.h distribution. This file was not included in
the base/libbase.la dependency list but indirectly being
distributed by the unit-test existence. Which in some builds
could cause it not to exist in generated minimal tarballs.

5 years agoBug 4915: Detect IPv6 loopback binding errors (#355)
Amos Jeffries [Thu, 24 Jan 2019 16:43:47 +0000 (16:43 +0000)] 
Bug 4915: Detect IPv6 loopback binding errors (#355)

Systems which have been partially 'IPv6 disabled' may allow
sockets to be opened and used but missing the IPv6 loopback
address.

Implement the outstanding TODO to detect such failures and
disable IPv6 support properly within Squid when they are found.

This should fix bug 4915 auth_param helper startup and similar
external_acl_type helper issues. For security such helpers are
not permitted to use the machine default IP address which is
globally accessible.

5 years agoBug 4914: Do not call setsid() in --foreground mode (#354)
Marcos Mello [Wed, 23 Jan 2019 15:18:43 +0000 (15:18 +0000)] 
Bug 4914: Do not call setsid() in --foreground mode (#354)

Squid executed in --foreground is always a process group leader. Thus,
setsid(2) is unnecessary and always fails (with EPERM) for such Squids.

5 years agoFail Rock swapout if the disk dropped some of the write requests (#352)
Eduard Bagdasaryan [Wed, 23 Jan 2019 04:30:40 +0000 (04:30 +0000)] 
Fail Rock swapout if the disk dropped some of the write requests (#352)

Detecting dropped writes earlier is more than a TODO: If the last entry
write was successful, the whole entry becomes available for hits
immediately.  IpcIoFile::checkTimeouts() that runs every 7 seconds
(IpcIoFile::Timeout) would eventually notify Rock about the timeout,
allowing Rock to release the failed entry, but that notification may
be too late.

The precise outcome of hitting an entry with a missing on-disk slice is
unknown (because the bug was detected by temporary hit validation code
that turned such hits into misses), but SWAPFAIL is the best we could
hope for.

5 years agoInitialize StoreMapSlice when reserving a new cache slot (#350)
Eduard Bagdasaryan [Wed, 23 Jan 2019 03:51:12 +0000 (03:51 +0000)] 
Initialize StoreMapSlice when reserving a new cache slot (#350)

Rock sets the StoreMapSlice::next field when sending a slice to disk. To
avoid writing slice A twice, Rock allocates a new slice B to prime
A.next right before writing A. Scheduling A's writing and, sometimes,
lack of data to fill B create a gap between B's allocation and B's
writing (which sets B.next). During that time, A.next points to B, but
B.next is untouched.

If writing slice A or swapout in general fails, the chain of failed
entry slices (now containing both A and B) is freed. If untouched B.next
contains garbage, then freeChainAt() adds "random" slices after B to the
free slice pool. Subsequent swapouts use those incorrectly freed slices,
effectively overwriting portions of random cache entries, corrupting the
cache.

How did B.next get dirty in the first place? freeChainAt() cleans the
slices it frees, but Rock also makes direct noteFreeMapSlice() calls.
Shared memory cache may have avoided this corruption because it makes no
such calls.

Ipc::StoreMap::prepFreeSlice() now clears allocated slices. Long-term,
we may be able to move free slice management into StoreMap to automate
this cleanup.

Also simplified and polished slot allocation code a little, removing the
Rock::IoState::reserveSlotForWriting() middleman. This change also
improves the symmetry between Rock and shared memory cache code.

5 years agoFixed disker-to-worker queue overflows (#353)
Eduard Bagdasaryan [Sat, 12 Jan 2019 10:05:30 +0000 (10:05 +0000)] 
Fixed disker-to-worker queue overflows (#353)

Before this fix, Squid sometimes logged the following error:

    BUG: Worker I/O pop queue for ... overflow: ...

The bug could result in truncated hit responses, reduced hit ratio, and,
combined with buggy lost I/O handling code (GitHub PR #352), even cache
corruption.

The bug could be triggered by the following sequence of events:

* Disker dequeues one I/O request from the worker push queue.
* Worker pushes more I/O requests to that disker, reaching 1024 requests
  in its push queue (QueueCapacity or just "N" below). No overflow here!
* Worker process is suspended (or is just too busy to pop I/O results).
* Disker satisfies all 1+N requests, adding each to the worker pop queue
  and overflows that queue when adding the last processed request.

This fix limits worker push so that the sum of all pending requests
never exceeds (pop) queue capacity. This approach will continue to work
even if diskers are enhanced to dequeue multiple requests for seek
optimization and/or priority-based scheduling.

Pop queue and push queue can still accommodate N requests each. The fix
appears to reduce supported disker "concurrency" levels from 2N down to
N pending I/O requests, reducing queue memory utilization. However, the
actual reduction is from N+1 to N: Since a worker pops all its satisfied
requests before queuing a new one, there could never be more than N+1
pending requests (N in the push queue and 1 worked on by the disker).

We left the BUG reporting and handling intact. There are no known bugs
in that code now. If the bug never surfaces again, it can be replaced
with code that translates low-level queue overflow exception into a
user-friendly TextException.

5 years agoFix OpenSSL builds that define OPENSSL_NO_ENGINE (#349)
Rosen Penev [Wed, 9 Jan 2019 17:42:21 +0000 (17:42 +0000)] 
Fix OpenSSL builds that define OPENSSL_NO_ENGINE (#349)

Even with ENGINE support disabled, OpenSSL provides the openssl/engine.h
header. We have to use OPENSSL_NO_ENGINE to detect ENGINE support.

5 years agoFix BodyPipe/Sink memory leaks associated with auto-consumption (#348) M-staged-PR348
Alex Rousskov [Tue, 8 Jan 2019 15:14:18 +0000 (15:14 +0000)] 
Fix BodyPipe/Sink memory leaks associated with auto-consumption (#348)

Auto-consumption happens (and could probably leak memory) in many cases,
but this leak was exposed by an eCAP service that blocked or replaced
virgin messages.

The BodySink job termination algorithm relies on body production
notifications. A BodySink job created after the body production had
ended can never stop and, hence, leaks (leaking the associated BodyPipe
object with it). Such a job is also useless:  If production is over,
there is no need to free space for more body data!  This change avoids
creating such leaking and useless jobs.

5 years agoBug 4856: Exit when GoIntoBackground() fork() call fails (#344)
Marcos Mello [Tue, 8 Jan 2019 10:14:09 +0000 (10:14 +0000)] 
Bug 4856: Exit when GoIntoBackground() fork() call fails (#344)

Ignoring the (implicit/default) command-line instruction to background
Squid is wrong in general and confuses at least some daemon managers.

5 years agoBug 4875 pt2: GCC-8 compile errors with -O3 optimization (#288)
Amos Jeffries [Sun, 6 Jan 2019 13:22:19 +0000 (13:22 +0000)] 
Bug 4875 pt2: GCC-8 compile errors with -O3 optimization (#288)

GCC-8 warnings exposed at -O3 optimization causes its
own static analyzer to detect optimized code is eliding
initialization on paths that do not use the
configuration variables.

Refactor the parseTimeLine() API to return the parsed
values so that there is no need to initialize anything prior
to parsing.

5 years agoTranslatons: Initial translation to ka/georgian language (#345) M-staged-PR345
George Machitidze [Sun, 6 Jan 2019 08:38:43 +0000 (08:38 +0000)] 
Translatons: Initial translation to ka/georgian language (#345)

5 years agobasic_ldap_auth: Return BH on internal errors; polished messages (#347)
Amish [Wed, 2 Jan 2019 11:51:45 +0000 (11:51 +0000)] 
basic_ldap_auth: Return BH on internal errors; polished messages (#347)

Basic LDAP auth helper now returns BH instead of ERR in case of errors
other than LDAP_SECURITY_ERROR, per helper guidelines.

Motivation: I have a wrapper around Basic LDAP auth helper. If an LDAP
server is down, then the helper returns BH, and the wrapper uses
a fallback authentication source.

Also converted printf() to SEND_*() macros and reduced message
verbosity.