]> git.ipfire.org Git - thirdparty/linux.git/blobdiff - block/blk-settings.c
Merge tag '6.10-rc-smb-fix' of git://git.samba.org/sfrench/cifs-2.6
[thirdparty/linux.git] / block / blk-settings.c
index d2731843f2fccb481eda94e1a1dc980051d2486a..a7fe8e90240a6eea7a841e58de4ae355265feeb2 100644 (file)
@@ -188,7 +188,10 @@ static int blk_validate_limits(struct queue_limits *lim)
         * bvec and lower layer bio splitting is supposed to handle the two
         * correctly.
         */
-       if (!lim->virt_boundary_mask) {
+       if (lim->virt_boundary_mask) {
+               if (!lim->max_segment_size)
+                       lim->max_segment_size = UINT_MAX;
+       } else {
                /*
                 * The maximum segment size has an odd historic 64k default that
                 * drivers probably should override.  Just like the I/O size we
@@ -279,72 +282,6 @@ int queue_limits_set(struct request_queue *q, struct queue_limits *lim)
 }
 EXPORT_SYMBOL_GPL(queue_limits_set);
 
-/**
- * blk_queue_bounce_limit - set bounce buffer limit for queue
- * @q: the request queue for the device
- * @bounce: bounce limit to enforce
- *
- * Description:
- *    Force bouncing for ISA DMA ranges or highmem.
- *
- *    DEPRECATED, don't use in new code.
- **/
-void blk_queue_bounce_limit(struct request_queue *q, enum blk_bounce bounce)
-{
-       q->limits.bounce = bounce;
-}
-EXPORT_SYMBOL(blk_queue_bounce_limit);
-
-/**
- * blk_queue_max_hw_sectors - set max sectors for a request for this queue
- * @q:  the request queue for the device
- * @max_hw_sectors:  max hardware sectors in the usual 512b unit
- *
- * Description:
- *    Enables a low level driver to set a hard upper limit,
- *    max_hw_sectors, on the size of requests.  max_hw_sectors is set by
- *    the device driver based upon the capabilities of the I/O
- *    controller.
- *
- *    max_dev_sectors is a hard limit imposed by the storage device for
- *    READ/WRITE requests. It is set by the disk driver.
- *
- *    max_sectors is a soft limit imposed by the block layer for
- *    filesystem type requests.  This value can be overridden on a
- *    per-device basis in /sys/block/<device>/queue/max_sectors_kb.
- *    The soft limit can not exceed max_hw_sectors.
- **/
-void blk_queue_max_hw_sectors(struct request_queue *q, unsigned int max_hw_sectors)
-{
-       struct queue_limits *limits = &q->limits;
-       unsigned int max_sectors;
-
-       if ((max_hw_sectors << 9) < PAGE_SIZE) {
-               max_hw_sectors = 1 << (PAGE_SHIFT - 9);
-               pr_info("%s: set to minimum %u\n", __func__, max_hw_sectors);
-       }
-
-       max_hw_sectors = round_down(max_hw_sectors,
-                                   limits->logical_block_size >> SECTOR_SHIFT);
-       limits->max_hw_sectors = max_hw_sectors;
-
-       max_sectors = min_not_zero(max_hw_sectors, limits->max_dev_sectors);
-
-       if (limits->max_user_sectors)
-               max_sectors = min(max_sectors, limits->max_user_sectors);
-       else
-               max_sectors = min(max_sectors, BLK_DEF_MAX_SECTORS_CAP);
-
-       max_sectors = round_down(max_sectors,
-                                limits->logical_block_size >> SECTOR_SHIFT);
-       limits->max_sectors = max_sectors;
-
-       if (!q->disk)
-               return;
-       q->disk->bdi->io_pages = max_sectors >> (PAGE_SHIFT - 9);
-}
-EXPORT_SYMBOL(blk_queue_max_hw_sectors);
-
 /**
  * blk_queue_chunk_sectors - set size of the chunk for this queue
  * @q:  the request queue for the device
@@ -408,88 +345,37 @@ EXPORT_SYMBOL(blk_queue_max_write_zeroes_sectors);
  * blk_queue_max_zone_append_sectors - set max sectors for a single zone append
  * @q:  the request queue for the device
  * @max_zone_append_sectors: maximum number of sectors to write per command
+ *
+ * Sets the maximum number of sectors allowed for zone append commands. If
+ * Specifying 0 for @max_zone_append_sectors indicates that the queue does
+ * not natively support zone append operations and that the block layer must
+ * emulate these operations using regular writes.
  **/
 void blk_queue_max_zone_append_sectors(struct request_queue *q,
                unsigned int max_zone_append_sectors)
 {
-       unsigned int max_sectors;
+       unsigned int max_sectors = 0;
 
        if (WARN_ON(!blk_queue_is_zoned(q)))
                return;
 
-       max_sectors = min(q->limits.max_hw_sectors, max_zone_append_sectors);
-       max_sectors = min(q->limits.chunk_sectors, max_sectors);
+       if (max_zone_append_sectors) {
+               max_sectors = min(q->limits.max_hw_sectors,
+                                 max_zone_append_sectors);
+               max_sectors = min(q->limits.chunk_sectors, max_sectors);
 
-       /*
-        * Signal eventual driver bugs resulting in the max_zone_append sectors limit
-        * being 0 due to a 0 argument, the chunk_sectors limit (zone size) not set,
-        * or the max_hw_sectors limit not set.
-        */
-       WARN_ON(!max_sectors);
+               /*
+                * Signal eventual driver bugs resulting in the max_zone_append
+                * sectors limit being 0 due to the chunk_sectors limit (zone
+                * size) not set or the max_hw_sectors limit not set.
+                */
+               WARN_ON_ONCE(!max_sectors);
+       }
 
        q->limits.max_zone_append_sectors = max_sectors;
 }
 EXPORT_SYMBOL_GPL(blk_queue_max_zone_append_sectors);
 
-/**
- * blk_queue_max_segments - set max hw segments for a request for this queue
- * @q:  the request queue for the device
- * @max_segments:  max number of segments
- *
- * Description:
- *    Enables a low level driver to set an upper limit on the number of
- *    hw data segments in a request.
- **/
-void blk_queue_max_segments(struct request_queue *q, unsigned short max_segments)
-{
-       if (!max_segments) {
-               max_segments = 1;
-               pr_info("%s: set to minimum %u\n", __func__, max_segments);
-       }
-
-       q->limits.max_segments = max_segments;
-}
-EXPORT_SYMBOL(blk_queue_max_segments);
-
-/**
- * blk_queue_max_discard_segments - set max segments for discard requests
- * @q:  the request queue for the device
- * @max_segments:  max number of segments
- *
- * Description:
- *    Enables a low level driver to set an upper limit on the number of
- *    segments in a discard request.
- **/
-void blk_queue_max_discard_segments(struct request_queue *q,
-               unsigned short max_segments)
-{
-       q->limits.max_discard_segments = max_segments;
-}
-EXPORT_SYMBOL_GPL(blk_queue_max_discard_segments);
-
-/**
- * blk_queue_max_segment_size - set max segment size for blk_rq_map_sg
- * @q:  the request queue for the device
- * @max_size:  max size of segment in bytes
- *
- * Description:
- *    Enables a low level driver to set an upper limit on the size of a
- *    coalesced segment
- **/
-void blk_queue_max_segment_size(struct request_queue *q, unsigned int max_size)
-{
-       if (max_size < PAGE_SIZE) {
-               max_size = PAGE_SIZE;
-               pr_info("%s: set to minimum %u\n", __func__, max_size);
-       }
-
-       /* see blk_queue_virt_boundary() for the explanation */
-       WARN_ON_ONCE(q->limits.virt_boundary_mask);
-
-       q->limits.max_segment_size = max_size;
-}
-EXPORT_SYMBOL(blk_queue_max_segment_size);
-
 /**
  * blk_queue_logical_block_size - set logical block size for the queue
  * @q:  the request queue for the device
@@ -656,29 +542,6 @@ void blk_limits_io_opt(struct queue_limits *limits, unsigned int opt)
 }
 EXPORT_SYMBOL(blk_limits_io_opt);
 
-/**
- * blk_queue_io_opt - set optimal request size for the queue
- * @q: the request queue for the device
- * @opt:  optimal request size in bytes
- *
- * Description:
- *   Storage devices may report an optimal I/O size, which is the
- *   device's preferred unit for sustained I/O.  This is rarely reported
- *   for disk drives.  For RAID arrays it is usually the stripe width or
- *   the internal track size.  A properly aligned multiple of
- *   optimal_io_size is the preferred request size for workloads where
- *   sustained throughput is desired.
- */
-void blk_queue_io_opt(struct request_queue *q, unsigned int opt)
-{
-       blk_limits_io_opt(&q->limits, opt);
-       if (!q->disk)
-               return;
-       q->disk->bdi->ra_pages =
-               max(queue_io_opt(q) * 2 / PAGE_SIZE, VM_READAHEAD_PAGES);
-}
-EXPORT_SYMBOL(blk_queue_io_opt);
-
 static int queue_limit_alignment_offset(const struct queue_limits *lim,
                sector_t sector)
 {
@@ -752,8 +615,8 @@ int blk_stack_limits(struct queue_limits *t, struct queue_limits *b,
        t->max_dev_sectors = min_not_zero(t->max_dev_sectors, b->max_dev_sectors);
        t->max_write_zeroes_sectors = min(t->max_write_zeroes_sectors,
                                        b->max_write_zeroes_sectors);
-       t->max_zone_append_sectors = min(t->max_zone_append_sectors,
-                                       b->max_zone_append_sectors);
+       t->max_zone_append_sectors = min(queue_limits_max_zone_append_sectors(t),
+                                        queue_limits_max_zone_append_sectors(b));
        t->bounce = max(t->bounce, b->bounce);
 
        t->seg_boundary_mask = min_not_zero(t->seg_boundary_mask,
@@ -928,81 +791,6 @@ void blk_queue_update_dma_pad(struct request_queue *q, unsigned int mask)
 }
 EXPORT_SYMBOL(blk_queue_update_dma_pad);
 
-/**
- * blk_queue_segment_boundary - set boundary rules for segment merging
- * @q:  the request queue for the device
- * @mask:  the memory boundary mask
- **/
-void blk_queue_segment_boundary(struct request_queue *q, unsigned long mask)
-{
-       if (mask < PAGE_SIZE - 1) {
-               mask = PAGE_SIZE - 1;
-               pr_info("%s: set to minimum %lx\n", __func__, mask);
-       }
-
-       q->limits.seg_boundary_mask = mask;
-}
-EXPORT_SYMBOL(blk_queue_segment_boundary);
-
-/**
- * blk_queue_virt_boundary - set boundary rules for bio merging
- * @q:  the request queue for the device
- * @mask:  the memory boundary mask
- **/
-void blk_queue_virt_boundary(struct request_queue *q, unsigned long mask)
-{
-       q->limits.virt_boundary_mask = mask;
-
-       /*
-        * Devices that require a virtual boundary do not support scatter/gather
-        * I/O natively, but instead require a descriptor list entry for each
-        * page (which might not be idential to the Linux PAGE_SIZE).  Because
-        * of that they are not limited by our notion of "segment size".
-        */
-       if (mask)
-               q->limits.max_segment_size = UINT_MAX;
-}
-EXPORT_SYMBOL(blk_queue_virt_boundary);
-
-/**
- * blk_queue_dma_alignment - set dma length and memory alignment
- * @q:     the request queue for the device
- * @mask:  alignment mask
- *
- * description:
- *    set required memory and length alignment for direct dma transactions.
- *    this is used when building direct io requests for the queue.
- *
- **/
-void blk_queue_dma_alignment(struct request_queue *q, int mask)
-{
-       q->limits.dma_alignment = mask;
-}
-EXPORT_SYMBOL(blk_queue_dma_alignment);
-
-/**
- * blk_queue_update_dma_alignment - update dma length and memory alignment
- * @q:     the request queue for the device
- * @mask:  alignment mask
- *
- * description:
- *    update required memory and length alignment for direct dma transactions.
- *    If the requested alignment is larger than the current alignment, then
- *    the current queue alignment is updated to the new value, otherwise it
- *    is left alone.  The design of this is to allow multiple objects
- *    (driver, device, transport etc) to set their respective
- *    alignments without having them interfere.
- *
- **/
-void blk_queue_update_dma_alignment(struct request_queue *q, int mask)
-{
-       BUG_ON(mask > PAGE_SIZE);
-
-       if (mask > q->limits.dma_alignment)
-               q->limits.dma_alignment = mask;
-}
-EXPORT_SYMBOL(blk_queue_update_dma_alignment);
-
 /**
  * blk_set_queue_depth - tell the block layer about the device queue depth
  * @q:         the request queue for the device
@@ -1040,44 +828,6 @@ void blk_queue_write_cache(struct request_queue *q, bool wc, bool fua)
 }
 EXPORT_SYMBOL_GPL(blk_queue_write_cache);
 
-/**
- * blk_queue_required_elevator_features - Set a queue required elevator features
- * @q:         the request queue for the target device
- * @features:  Required elevator features OR'ed together
- *
- * Tell the block layer that for the device controlled through @q, only the
- * only elevators that can be used are those that implement at least the set of
- * features specified by @features.
- */
-void blk_queue_required_elevator_features(struct request_queue *q,
-                                         unsigned int features)
-{
-       q->required_elevator_features = features;
-}
-EXPORT_SYMBOL_GPL(blk_queue_required_elevator_features);
-
-/**
- * blk_queue_can_use_dma_map_merging - configure queue for merging segments.
- * @q:         the request queue for the device
- * @dev:       the device pointer for dma
- *
- * Tell the block layer about merging the segments by dma map of @q.
- */
-bool blk_queue_can_use_dma_map_merging(struct request_queue *q,
-                                      struct device *dev)
-{
-       unsigned long boundary = dma_get_merge_boundary(dev);
-
-       if (!boundary)
-               return false;
-
-       /* No need to update max_segment_size. see blk_queue_virt_boundary() */
-       blk_queue_virt_boundary(q, boundary);
-
-       return true;
-}
-EXPORT_SYMBOL_GPL(blk_queue_can_use_dma_map_merging);
-
 /**
  * disk_set_zoned - inidicate a zoned device
  * @disk:      gendisk to configure