]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
nvme: fix various comment typos
authorBjorn Helgaas <bhelgaas@google.com>
Wed, 30 Jul 2025 20:32:45 +0000 (15:32 -0500)
committerChristoph Hellwig <hch@lst.de>
Thu, 31 Jul 2025 13:35:58 +0000 (06:35 -0700)
Fix typos in comments.

Signed-off-by: Bjorn Helgaas <bhelgaas@google.com>
Reviewed-by: Chaitanya Kulkarni <kch@nvidia.com>
Signed-off-by: Christoph Hellwig <hch@lst.de>
drivers/nvme/host/fc.c
drivers/nvme/host/tcp.c
drivers/nvme/target/fc.c
drivers/nvme/target/rdma.c

index 08a5ea3e93836b9f79dc73d724b07be4076e4473..3e12d4683ac72f9ef9c6dff64d22d5d97e6f3d60 100644 (file)
@@ -1363,7 +1363,7 @@ nvme_fc_disconnect_assoc_done(struct nvmefc_ls_req *lsreq, int status)
  * down, and the related FC-NVME Association ID and Connection IDs
  * become invalid.
  *
- * The behavior of the fc-nvme initiator is such that it's
+ * The behavior of the fc-nvme initiator is such that its
  * understanding of the association and connections will implicitly
  * be torn down. The action is implicit as it may be due to a loss of
  * connectivity with the fc-nvme target, so you may never get a
@@ -2777,7 +2777,7 @@ nvme_fc_queue_rq(struct blk_mq_hw_ctx *hctx,
         * as WRITE ZEROES will return a non-zero rq payload_bytes yet
         * there is no actual payload to be transferred.
         * To get it right, key data transmission on there being 1 or
-        * more physical segments in the sg list. If there is no
+        * more physical segments in the sg list. If there are no
         * physical segments, there is no payload.
         */
        if (blk_rq_nr_phys_segments(rq)) {
index 9233f088fac8855430229ea1ae1529e6e412024f..c0fe8cfb7229e16af41286f5edb01586ad617291 100644 (file)
@@ -2179,7 +2179,7 @@ static int nvme_tcp_configure_io_queues(struct nvme_ctrl *ctrl, bool new)
 
        /*
         * Only start IO queues for which we have allocated the tagset
-        * and limitted it to the available queues. On reconnects, the
+        * and limited it to the available queues. On reconnects, the
         * queue number might have changed.
         */
        nr_queues = min(ctrl->tagset->nr_hw_queues + 1, ctrl->queue_count);
index 25598a46bf0d66789d4ce38869400b2885059281..a9b18c051f5bd830a6ae45ff0f4892c3f28c8608 100644 (file)
@@ -459,7 +459,7 @@ nvmet_fc_disconnect_assoc_done(struct nvmefc_ls_req *lsreq, int status)
  * down, and the related FC-NVME Association ID and Connection IDs
  * become invalid.
  *
- * The behavior of the fc-nvme target is such that it's
+ * The behavior of the fc-nvme target is such that its
  * understanding of the association and connections will implicitly
  * be torn down. The action is implicit as it may be due to a loss of
  * connectivity with the fc-nvme host, so the target may never get a
@@ -2313,7 +2313,7 @@ nvmet_fc_transfer_fcp_data(struct nvmet_fc_tgtport *tgtport,
        ret = tgtport->ops->fcp_op(&tgtport->fc_target_port, fod->fcpreq);
        if (ret) {
                /*
-                * should be ok to set w/o lock as its in the thread of
+                * should be ok to set w/o lock as it's in the thread of
                 * execution (not an async timer routine) and doesn't
                 * contend with any clearing action
                 */
@@ -2629,7 +2629,7 @@ transport_error:
  * and the api of the FC LLDD which may issue a hw command to send the
  * response, but the LLDD may not get the hw completion for that command
  * and upcall the nvmet_fc layer before a new command may be
- * asynchronously received - its possible for a command to be received
+ * asynchronously received - it's possible for a command to be received
  * before the LLDD and nvmet_fc have recycled the job structure. It gives
  * the appearance of more commands received than fits in the sq.
  * To alleviate this scenario, a temporary queue is maintained in the
index 67f61c67c167d7baaa6a1114e834a342e9871f3a..0485e25ab797c0c64099c03b9d3b665acfba308b 100644 (file)
@@ -1731,7 +1731,7 @@ static void nvmet_rdma_queue_connect_fail(struct rdma_cm_id *cm_id,
  * We registered an ib_client to handle device removal for queues,
  * so we only need to handle the listening port cm_ids. In this case
  * we nullify the priv to prevent double cm_id destruction and destroying
- * the cm_id implicitely by returning a non-zero rc to the callout.
+ * the cm_id implicitly by returning a non-zero rc to the callout.
  */
 static int nvmet_rdma_device_removal(struct rdma_cm_id *cm_id,
                struct nvmet_rdma_queue *queue)
@@ -1742,7 +1742,7 @@ static int nvmet_rdma_device_removal(struct rdma_cm_id *cm_id,
                /*
                 * This is a queue cm_id. we have registered
                 * an ib_client to handle queues removal
-                * so don't interfear and just return.
+                * so don't interfere and just return.
                 */
                return 0;
        }
@@ -1760,7 +1760,7 @@ static int nvmet_rdma_device_removal(struct rdma_cm_id *cm_id,
 
        /*
         * We need to return 1 so that the core will destroy
-        * it's own ID.  What a great API design..
+        * its own ID.  What a great API design..
         */
        return 1;
 }