]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
crypto: qat - add WQ_PERCPU to alloc_workqueue users
authorMarco Crivellari <marco.crivellari@suse.com>
Fri, 7 Nov 2025 11:23:54 +0000 (12:23 +0100)
committerHerbert Xu <herbert@gondor.apana.org.au>
Fri, 14 Nov 2025 10:15:49 +0000 (18:15 +0800)
Currently if a user enqueues a work item using schedule_delayed_work() the
used wq is "system_wq" (per-cpu wq) while queue_delayed_work() use
WORK_CPU_UNBOUND (used when a cpu is not specified). The same applies to
schedule_work() that is using system_wq and queue_work(), that makes use
again of WORK_CPU_UNBOUND.
This lack of consistency cannot be addressed without refactoring the API.

alloc_workqueue() treats all queues as per-CPU by default, while unbound
workqueues must opt-in via WQ_UNBOUND.

This default is suboptimal: most workloads benefit from unbound queues,
allowing the scheduler to place worker threads where they’re needed and
reducing noise when CPUs are isolated.

This continues the effort to refactor workqueue APIs, which began with
the introduction of new workqueues and a new alloc_workqueue flag in:

commit 128ea9f6ccfb ("workqueue: Add system_percpu_wq and system_dfl_wq")
commit 930c2ea566af ("workqueue: Add new WQ_PERCPU flag")

This change adds a new WQ_PERCPU flag to explicitly request alloc_workqueue()
to be per-cpu when WQ_UNBOUND has not been specified.

With the introduction of the WQ_PERCPU flag (equivalent to !WQ_UNBOUND),
any alloc_workqueue() caller that doesn’t explicitly specify WQ_UNBOUND
must now use WQ_PERCPU.

Once migration is complete, WQ_UNBOUND can be removed and unbound will
become the implicit default.

Suggested-by: Tejun Heo <tj@kernel.org>
Signed-off-by: Marco Crivellari <marco.crivellari@suse.com>
Acked-by: Giovanni Cabiddu <giovanni.cabiddu@intel.com>
Signed-off-by: Herbert Xu <herbert@gondor.apana.org.au>
drivers/crypto/intel/qat/qat_common/adf_aer.c
drivers/crypto/intel/qat/qat_common/adf_isr.c
drivers/crypto/intel/qat/qat_common/adf_sriov.c
drivers/crypto/intel/qat/qat_common/adf_vf_isr.c

index 35679b21ff63bb2c2ef83f12855b2856d2d0eea7..667d5e320f509ccac923270453702691df5d5339 100644 (file)
@@ -276,11 +276,11 @@ int adf_notify_fatal_error(struct adf_accel_dev *accel_dev)
 int adf_init_aer(void)
 {
        device_reset_wq = alloc_workqueue("qat_device_reset_wq",
-                                         WQ_MEM_RECLAIM, 0);
+                                         WQ_MEM_RECLAIM | WQ_PERCPU, 0);
        if (!device_reset_wq)
                return -EFAULT;
 
-       device_sriov_wq = alloc_workqueue("qat_device_sriov_wq", 0, 0);
+       device_sriov_wq = alloc_workqueue("qat_device_sriov_wq", WQ_PERCPU, 0);
        if (!device_sriov_wq) {
                destroy_workqueue(device_reset_wq);
                device_reset_wq = NULL;
index 12e5656136610cd8ac7592f9b5426ccaccbb6196..4639d7fd93e6e88fdd40d23de43848c44b4b4b4e 100644 (file)
@@ -384,7 +384,8 @@ EXPORT_SYMBOL_GPL(adf_isr_resource_alloc);
  */
 int __init adf_init_misc_wq(void)
 {
-       adf_misc_wq = alloc_workqueue("qat_misc_wq", WQ_MEM_RECLAIM, 0);
+       adf_misc_wq = alloc_workqueue("qat_misc_wq",
+                                     WQ_MEM_RECLAIM | WQ_PERCPU, 0);
 
        return !adf_misc_wq ? -ENOMEM : 0;
 }
index 31d1ef0cb1f52e1e672e3e6adb269e918bb78efa..bb904ba4bf840b7e8c9740d80fb230134e56181f 100644 (file)
@@ -299,7 +299,8 @@ EXPORT_SYMBOL_GPL(adf_sriov_configure);
 int __init adf_init_pf_wq(void)
 {
        /* Workqueue for PF2VF responses */
-       pf2vf_resp_wq = alloc_workqueue("qat_pf2vf_resp_wq", WQ_MEM_RECLAIM, 0);
+       pf2vf_resp_wq = alloc_workqueue("qat_pf2vf_resp_wq",
+                                       WQ_MEM_RECLAIM | WQ_PERCPU, 0);
 
        return !pf2vf_resp_wq ? -ENOMEM : 0;
 }
index a4636ec9f9cac0ff996d67a9dda0f1312f80f4d3..d0fef20a3df4a2d9a2b1509363503af6c51b025a 100644 (file)
@@ -299,7 +299,8 @@ EXPORT_SYMBOL_GPL(adf_flush_vf_wq);
  */
 int __init adf_init_vf_wq(void)
 {
-       adf_vf_stop_wq = alloc_workqueue("adf_vf_stop_wq", WQ_MEM_RECLAIM, 0);
+       adf_vf_stop_wq = alloc_workqueue("adf_vf_stop_wq",
+                                        WQ_MEM_RECLAIM | WQ_PERCPU, 0);
 
        return !adf_vf_stop_wq ? -EFAULT : 0;
 }