]> git.ipfire.org Git - thirdparty/curl.git/commitdiff
docs: do not start lines/sentences with So, But nor And
authorDaniel Stenberg <daniel@haxx.se>
Fri, 26 Jan 2024 09:19:30 +0000 (10:19 +0100)
committerDaniel Stenberg <daniel@haxx.se>
Fri, 26 Jan 2024 09:38:58 +0000 (10:38 +0100)
Closes #12802

.github/scripts/badwords.txt
docs/BUFQ.md
docs/CONNECTION-FILTERS.md
docs/MANUAL.md
docs/NEW-PROTOCOL.md
docs/cmdline-opts/_GLOBBING.md

index a48fd9c79b994756cdceab9e2880c913dc90e98e..0e6be76c6c060fb6502a65989a2c43684fa01f6b 100644 (file)
@@ -28,6 +28,7 @@ isation:ization
 it's:it is
 there's:there is
 [^.]\. And: Rewrite it somehow?
+^(And|So|But) = Rewrite it somehow?
 \. But: Rewrite it somehow?
 file name :filename
 \. So : Rewrite without "so" ?
index 5ff9e28b8cbadfce9976ee9e5aa9b168c4759db2..1a95a884c6981178ecd052b152933c602fbcfcb4 100644 (file)
@@ -115,11 +115,18 @@ Note that a `bufq` length and it being "full" are only loosely related. A simple
 * read 1 bytes from it, it will still report "full"
 * read 999 more bytes from it, and it will no longer be "full"
 
-The reason for this is that full really means: *bufq uses max_chunks and the last one cannot be written to*.
-
-So when you read 1 byte from the head chunk in the example above, the head still hold 999 unread bytes. Only when those are also read, can the head chunk be removed and a new tail be added.
-
-There is another variation to this. If you initialized a `bufq` with option `BUFQ_OPT_SOFT_LIMIT`, it will allow writes **beyond** the `max_chunks`. It will report **full**, but one can **still** write. This option is necessary, if partial writes need to be avoided. But it means that you will need other checks to keep the `bufq` from growing ever larger and larger.
+The reason for this is that full really means: *bufq uses max_chunks and the
+last one cannot be written to*.
+
+When you read 1 byte from the head chunk in the example above, the head still
+hold 999 unread bytes. Only when those are also read, can the head chunk be
+removed and a new tail be added.
+
+There is another variation to this. If you initialized a `bufq` with option
+`BUFQ_OPT_SOFT_LIMIT`, it will allow writes **beyond** the `max_chunks`. It
+will report **full**, but one can **still** write. This option is necessary,
+if partial writes need to be avoided. It means that you will need other checks
+to keep the `bufq` from growing ever larger and larger.
 
 
 ## pools
index a8b6d4304f093c61ffbe922eba9965fd91604901..a145d42c098b16e7b5d53877b4e175078dce6bdd 100644 (file)
@@ -1,16 +1,26 @@
 # curl connection filters
 
-Connection filters is a design in the internals of curl, not visible in its public API. They were added
-in curl v7.87.0. This document describes the concepts, its high level implementation and the motivations.
+Connection filters is a design in the internals of curl, not visible in its
+public API. They were added in curl v7.87.0. This document describes the
+concepts, its high level implementation and the motivations.
 
 ## Filters
 
-A "connection filter" is a piece of code that is responsible for handling a range of operations
-of curl's connections: reading, writing, waiting on external events, connecting and closing down - to name the most important ones.
+A "connection filter" is a piece of code that is responsible for handling a
+range of operations of curl's connections: reading, writing, waiting on
+external events, connecting and closing down - to name the most important
+ones.
 
-The most important feat of connection filters is that they can be stacked on top of each other (or "chained" if you prefer that metaphor). In the common scenario that you want to retrieve a `https:` url with curl, you need 2 basic things to send the request and get the response: a TCP connection, represented by a `socket` and a SSL instance en- and decrypt over that socket. You write your request to the SSL instance, which encrypts and writes that data to the socket, which then sends the bytes over the network.
+The most important feat of connection filters is that they can be stacked on
+top of each other (or "chained" if you prefer that metaphor). In the common
+scenario that you want to retrieve a `https:` URL with curl, you need 2 basic
+things to send the request and get the response: a TCP connection, represented
+by a `socket` and a SSL instance en- and decrypt over that socket. You write
+your request to the SSL instance, which encrypts and writes that data to the
+socket, which then sends the bytes over the network.
 
-With connection filters, curl's internal setup will look something like this (cf for connection filter):
+With connection filters, curl's internal setup will look something like this
+(cf for connection filter):
 
 ```
 Curl_easy *data         connectdata *conn        cf-ssl        cf-socket
@@ -27,7 +37,7 @@ While connection filters all do different things, they look the same from the "o
 
 Same is true for filters. Each filter has a pointer to the `next` filter. When SSL has encrypted the data, it does not write to a socket, it writes to the next filter. If that is indeed a socket, or a file, or an HTTP/2 connection is of no concern to the SSL filter.
 
-And this allows the stacking, as in:
+This allows stacking, as in:
 
 ```
 Direct:
@@ -210,7 +220,9 @@ conn[curl.se] --> SETUP[QUIC] --> HAPPY-EYEBALLS --> HTTP/3[2a04:4e42:c00::347]:
 * transfer
 ```
 
-And when we plug these two variants together, we get the `HTTPS-CONNECT` filter type that is used for `--http3` when **both** HTTP/3 and HTTP/2 or HTTP/1.1 shall be attempted:
+When we plug these two variants together, we get the `HTTPS-CONNECT` filter
+type that is used for `--http3` when **both** HTTP/3 and HTTP/2 or HTTP/1.1
+shall be attempted:
 
 ```
 * create connection for --http3 https://curl.se
index d25d6ce7e1fdc73afbd3f310fa923c2bfe51d3b0..e7b4bb7af79e00f14fe10e4a22a8179d25a96536 100644 (file)
@@ -888,7 +888,7 @@ command line similar to:
 
     curl telnet://remote.example.com
 
-And enter the data to pass to the server on stdin. The result will be sent to
+Enter the data to pass to the server on stdin. The result will be sent to
 stdout or to the file you specify with `-o`.
 
 You might want the `-N`/`--no-buffer` option to switch off the buffered output
index a8b227d3c0b010e92160df1c5b5c025799641e28..223815b6d711f23472aef78e3b348c4073a7cc27 100644 (file)
@@ -7,7 +7,7 @@ protocols and it is the Internet transfer machine for the world.
 In the curl project we love protocols and we love supporting many protocols
 and doing it well.
 
-So how do you proceed to add a new protocol and what are the requirements?
+How do you proceed to add a new protocol and what are the requirements?
 
 ## No fixed set of requirements
 
index 66fc5dbb7e72096cb246dd9be77b9315db1f20e0..282356c3efbac48a4e3185d49eecfebd7471a62f 100644 (file)
@@ -8,15 +8,15 @@ Provide a list with three different names like this:
 
     "http://site.{one,two,three}.com"
 
-or you can get sequences of alphanumeric series by using [] as in:
+Do sequences of alphanumeric series by using [] as in:
 
     "ftp://ftp.example.com/file[1-100].txt"
 
-And with leading zeroes:
+With leading zeroes:
 
     "ftp://ftp.example.com/file[001-100].txt"
 
-Or with letters through the alphabet:
+With letters through the alphabet:
 
     "ftp://ftp.example.com/file[a-z].txt"