]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
nvme: spelling fixes
authorYi Zhang <yi.zhang@redhat.com>
Fri, 25 Apr 2025 10:01:07 +0000 (06:01 -0400)
committerChristoph Hellwig <hch@lst.de>
Wed, 4 Jun 2025 08:23:28 +0000 (10:23 +0200)
Fix various spelling errors in comments.

Signed-off-by: Yi Zhang <yi.zhang@redhat.com>
Reviewed-by: Chaitanya Kulkarni <kch@nvidia.com>
Signed-off-by: Christoph Hellwig <hch@lst.de>
16 files changed:
drivers/nvme/common/auth.c
drivers/nvme/host/Kconfig
drivers/nvme/host/core.c
drivers/nvme/host/fabrics.c
drivers/nvme/host/fabrics.h
drivers/nvme/host/fc.c
drivers/nvme/host/ioctl.c
drivers/nvme/host/multipath.c
drivers/nvme/host/nvme.h
drivers/nvme/host/pci.c
drivers/nvme/host/rdma.c
drivers/nvme/target/admin-cmd.c
drivers/nvme/target/core.c
drivers/nvme/target/fc.c
drivers/nvme/target/io-cmd-bdev.c
drivers/nvme/target/passthru.c

index 3b6d759bcdf26cd6416680bb38d68f6b0d4144d5..91e273b89fea3860f521aaa4127eb23f7f09bc60 100644 (file)
@@ -471,7 +471,7 @@ EXPORT_SYMBOL_GPL(nvme_auth_generate_key);
  * @c1: Value of challenge C1
  * @c2: Value of challenge C2
  * @hash_len: Hash length of the hash algorithm
- * @ret_psk: Pointer too the resulting generated PSK
+ * @ret_psk: Pointer to the resulting generated PSK
  * @ret_len: length of @ret_psk
  *
  * Generate a PSK for TLS as specified in NVMe base specification, section
@@ -759,8 +759,8 @@ int nvme_auth_derive_tls_psk(int hmac_id, u8 *psk, size_t psk_len,
                goto out_free_prk;
 
        /*
-        * 2 addtional bytes for the length field from HDKF-Expand-Label,
-        * 2 addtional bytes for the HMAC ID, and one byte for the space
+        * 2 additional bytes for the length field from HDKF-Expand-Label,
+        * 2 additional bytes for the HMAC ID, and one byte for the space
         * separator.
         */
        info_len = strlen(psk_digest) + strlen(psk_prefix) + 5;
index 4d64b6935bb91571139a53a4f6925f90ee54555f..3df9af641906e2fc3f003bd2a2194e1c545fdb33 100644 (file)
@@ -106,7 +106,7 @@ config NVME_TCP_TLS
        help
          Enables TLS encryption for NVMe TCP using the netlink handshake API.
 
-         The TLS handshake daemon is availble at
+         The TLS handshake daemon is available at
          https://github.com/oracle/ktls-utils.
 
          If unsure, say N.
index 7ba35b573335de3f68886d3f062e94b0e64aa4e9..92697f98c601d4b89a1681bdfa1adca45e86af4a 100644 (file)
@@ -1026,7 +1026,7 @@ static inline blk_status_t nvme_setup_rw(struct nvme_ns *ns,
 
        if (ns->head->ms) {
                /*
-                * If formated with metadata, the block layer always provides a
+                * If formatted with metadata, the block layer always provides a
                 * metadata buffer if CONFIG_BLK_DEV_INTEGRITY is enabled.  Else
                 * we enable the PRACT bit for protection information or set the
                 * namespace capacity to zero to prevent any I/O.
index 93e9041b9657eb9de836a60ba5bf0c28a351cb44..2e58a7ce109052ecdda433f13162911459a81fb3 100644 (file)
@@ -582,7 +582,7 @@ EXPORT_SYMBOL_GPL(nvmf_connect_io_queue);
  * Do not retry when:
  *
  * - the DNR bit is set and the specification states no further connect
- *   attempts with the same set of paramenters should be attempted.
+ *   attempts with the same set of parameters should be attempted.
  *
  * - when the authentication attempt fails, because the key was invalid.
  *   This error code is set on the host side.
index 9cf5b020adba27b73535590ed159c594a02e107a..1b58ee7d0dcee420a1cf7d1a4b8e7e558b69ecae 100644 (file)
@@ -80,7 +80,7 @@ enum {
  * @transport: Holds the fabric transport "technology name" (for a lack of
  *             better description) that will be used by an NVMe controller
  *             being added.
- * @subsysnqn: Hold the fully qualified NQN subystem name (format defined
+ * @subsysnqn: Hold the fully qualified NQN subsystem name (format defined
  *             in the NVMe specification, "NVMe Qualified Names").
  * @traddr:    The transport-specific TRADDR field for a port on the
  *              subsystem which is adding a controller.
@@ -156,7 +156,7 @@ struct nvmf_ctrl_options {
  * @create_ctrl():     function pointer that points to a non-NVMe
  *                     implementation-specific fabric technology
  *                     that would go into starting up that fabric
- *                     for the purpose of conneciton to an NVMe controller
+ *                     for the purpose of connection to an NVMe controller
  *                     using that fabric technology.
  *
  * Notes:
@@ -165,7 +165,7 @@ struct nvmf_ctrl_options {
  *     2. create_ctrl() must be defined (even if it does nothing)
  *     3. struct nvmf_transport_ops must be statically allocated in the
  *        modules .bss section so that a pure module_get on @module
- *        prevents the memory from beeing freed.
+ *        prevents the memory from being freed.
  */
 struct nvmf_transport_ops {
        struct list_head        entry;
index fdafa3e9e66fa9b8954209efa14d3b207cb8653c..014b387f1e8b1f1df1b9fcaaaf3fbff879abb564 100644 (file)
@@ -1955,7 +1955,7 @@ nvme_fc_fcpio_done(struct nvmefc_fcp_req *req)
        }
 
        /*
-        * For the linux implementation, if we have an unsuccesful
+        * For the linux implementation, if we have an unsucceesful
         * status, they blk-mq layer can typically be called with the
         * non-zero status and the content of the cqe isn't important.
         */
@@ -2479,7 +2479,7 @@ __nvme_fc_abort_outstanding_ios(struct nvme_fc_ctrl *ctrl, bool start_queues)
         * writing the registers for shutdown and polling (call
         * nvme_disable_ctrl()). Given a bunch of i/o was potentially
         * just aborted and we will wait on those contexts, and given
-        * there was no indication of how live the controlelr is on the
+        * there was no indication of how live the controller is on the
         * link, don't send more io to create more contexts for the
         * shutdown. Let the controller fail via keepalive failure if
         * its still present.
index 5d5f8b07cdec28e9a1e25b918d018db02545f0cd..0b50da2f1175316950af37fd7cf3c89594107474 100644 (file)
@@ -729,7 +729,7 @@ int nvme_ns_head_ioctl(struct block_device *bdev, blk_mode_t mode,
 
        /*
         * Handle ioctls that apply to the controller instead of the namespace
-        * seperately and drop the ns SRCU reference early.  This avoids a
+        * separately and drop the ns SRCU reference early.  This avoids a
         * deadlock when deleting namespaces using the passthrough interface.
         */
        if (is_ctrl_ioctl(cmd))
index 878ea8b1a0acf72cca9b4aa5006e6a2181adbd72..140079ff86e6b80e8be5394301edddc8d4c52a45 100644 (file)
@@ -760,7 +760,7 @@ int nvme_mpath_alloc_disk(struct nvme_ctrl *ctrl, struct nvme_ns_head *head)
         * controller's scan_work context. If a path error occurs here, the IO
         * will wait until a path becomes available or all paths are torn down,
         * but that action also occurs within scan_work, so it would deadlock.
-        * Defer the partion scan to a different context that does not block
+        * Defer the partition scan to a different context that does not block
         * scan_work.
         */
        set_bit(GD_SUPPRESS_PART_SCAN, &head->disk->state);
index ad0c1f834f09eb72ce58ed15244e11034c759a6b..a468cdc5b5cb7b97346559b8610e86d8454d29b3 100644 (file)
@@ -523,7 +523,7 @@ static inline bool nvme_ns_head_multipath(struct nvme_ns_head *head)
 enum nvme_ns_features {
        NVME_NS_EXT_LBAS = 1 << 0, /* support extended LBA format */
        NVME_NS_METADATA_SUPPORTED = 1 << 1, /* support getting generated md */
-       NVME_NS_DEAC = 1 << 2,          /* DEAC bit in Write Zeores supported */
+       NVME_NS_DEAC = 1 << 2,          /* DEAC bit in Write Zeroes supported */
 };
 
 struct nvme_ns {
index e0bfe04a2bc2a7eda6002299263a74824b5fa6f4..8ff12e415cb5d1529d760b33f3e0cf3b8d1555f1 100644 (file)
@@ -3015,7 +3015,7 @@ static void nvme_reset_work(struct work_struct *work)
                goto out;
 
        /*
-        * Freeze and update the number of I/O queues as thos might have
+        * Freeze and update the number of I/O queues as those might have
         * changed.  If there are no I/O queues left after this reset, keep the
         * controller around but remove all namespaces.
         */
@@ -3186,7 +3186,7 @@ static unsigned long check_vendor_combination_bug(struct pci_dev *pdev)
                /*
                 * Exclude some Kingston NV1 and A2000 devices from
                 * NVME_QUIRK_SIMPLE_SUSPEND. Do a full suspend to save a
-                * lot fo energy with s2idle sleep on some TUXEDO platforms.
+                * lot of energy with s2idle sleep on some TUXEDO platforms.
                 */
                if (dmi_match(DMI_BOARD_NAME, "NS5X_NS7XAU") ||
                    dmi_match(DMI_BOARD_NAME, "NS5x_7xAU") ||
index b5a0295b5bf457628812401e5c6d509f776f70d6..9bd3646568d03c23d02cb9096d05479aaf3f8f37 100644 (file)
@@ -221,7 +221,7 @@ static struct nvme_rdma_qe *nvme_rdma_alloc_ring(struct ib_device *ibdev,
 
        /*
         * Bind the CQEs (post recv buffers) DMA mapping to the RDMA queue
-        * lifetime. It's safe, since any chage in the underlying RDMA device
+        * lifetime. It's safe, since any change in the underlying RDMA device
         * will issue error recovery and queue re-creation.
         */
        for (i = 0; i < ib_queue_size; i++) {
@@ -800,7 +800,7 @@ static int nvme_rdma_configure_admin_queue(struct nvme_rdma_ctrl *ctrl,
 
        /*
         * Bind the async event SQE DMA mapping to the admin queue lifetime.
-        * It's safe, since any chage in the underlying RDMA device will issue
+        * It's safe, since any change in the underlying RDMA device will issue
         * error recovery and queue re-creation.
         */
        error = nvme_rdma_alloc_qe(ctrl->device->dev, &ctrl->async_event_sqe,
index c7317299078d3a173aed19b28b37570b5575c6ac..3e378153a78174a10d3dc9bb6e17b5074faf146b 100644 (file)
@@ -1165,7 +1165,7 @@ static void nvmet_execute_identify(struct nvmet_req *req)
  * A "minimum viable" abort implementation: the command is mandatory in the
  * spec, but we are not required to do any useful work.  We couldn't really
  * do a useful abort, so don't bother even with waiting for the command
- * to be exectuted and return immediately telling the command to abort
+ * to be executed and return immediately telling the command to abort
  * wasn't found.
  */
 static void nvmet_execute_abort(struct nvmet_req *req)
index e824f149746a7f3d9883cce1ab29571f414b5d61..175c5b6d4dd587f92b36d522f9e579c943b246dd 100644 (file)
@@ -644,7 +644,7 @@ void nvmet_ns_disable(struct nvmet_ns *ns)
         * Now that we removed the namespaces from the lookup list, we
         * can kill the per_cpu ref and wait for any remaining references
         * to be dropped, as well as a RCU grace period for anyone only
-        * using the namepace under rcu_read_lock().  Note that we can't
+        * using the namespace under rcu_read_lock().  Note that we can't
         * use call_rcu here as we need to ensure the namespaces have
         * been fully destroyed before unloading the module.
         */
index 254537b93e633cea9746101d9c2389bf08fffcab..25598a46bf0d66789d4ce38869400b2885059281 100644 (file)
@@ -1339,7 +1339,7 @@ nvmet_fc_portentry_rebind_tgt(struct nvmet_fc_tgtport *tgtport)
 /**
  * nvmet_fc_register_targetport - transport entry point called by an
  *                              LLDD to register the existence of a local
- *                              NVME subystem FC port.
+ *                              NVME subsystem FC port.
  * @pinfo:     pointer to information about the port to be registered
  * @template:  LLDD entrypoints and operational parameters for the port
  * @dev:       physical hardware device node port corresponds to. Will be
index 1cfa13d029bfa2a2c536a0155294dd2ca78e1d1e..eba42df2f8215e41277102a922d2a67a72243f1e 100644 (file)
@@ -133,7 +133,7 @@ u16 blk_to_nvme_status(struct nvmet_req *req, blk_status_t blk_sts)
         * Right now there exists M : 1 mapping between block layer error
         * to the NVMe status code (see nvme_error_status()). For consistency,
         * when we reverse map we use most appropriate NVMe Status code from
-        * the group of the NVMe staus codes used in the nvme_error_status().
+        * the group of the NVMe status codes used in the nvme_error_status().
         */
        switch (blk_sts) {
        case BLK_STS_NOSPC:
index 26e2907ce8bb09b6a50848eb345ca76e76ecc3b3..b7515c53829b89d960ce182f7b09bbdfad89d627 100644 (file)
@@ -99,7 +99,7 @@ static u16 nvmet_passthru_override_id_ctrl(struct nvmet_req *req)
 
        /*
         * The passthru NVMe driver may have a limit on the number of segments
-        * which depends on the host's memory fragementation. To solve this,
+        * which depends on the host's memory fragmentation. To solve this,
         * ensure mdts is limited to the pages equal to the number of segments.
         */
        max_hw_sectors = min_not_zero(pctrl->max_segments << PAGE_SECTORS_SHIFT,