]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
net: Slightly simplify net_mp_{open,close}_rxq
authorDaniel Borkmann <daniel@iogearbox.net>
Thu, 2 Apr 2026 23:10:22 +0000 (01:10 +0200)
committerJakub Kicinski <kuba@kernel.org>
Fri, 10 Apr 2026 01:21:46 +0000 (18:21 -0700)
net_mp_open_rxq is currently not used in the tree as all callers are
using __net_mp_open_rxq directly, and net_mp_close_rxq is only used
once while all other locations use __net_mp_close_rxq.

Consolidate into a single API, netif_mp_{open,close}_rxq, using the
netif_ prefix to indicate that the caller is responsible for locking.

Signed-off-by: Daniel Borkmann <daniel@iogearbox.net>
Co-developed-by: David Wei <dw@davidwei.uk>
Signed-off-by: David Wei <dw@davidwei.uk>
Reviewed-by: Nikolay Aleksandrov <razor@blackwall.org>
Link: https://patch.msgid.link/20260402231031.447597-6-daniel@iogearbox.net
Signed-off-by: Jakub Kicinski <kuba@kernel.org>
include/net/page_pool/memory_provider.h
io_uring/zcrx.c
net/core/devmem.c
net/core/netdev_rx_queue.c

index ada4f968960aec851f8a4c66180d0811dede074a..255ce4cfd975539c7d460ffc0f8461a76c667243 100644 (file)
@@ -23,14 +23,10 @@ bool net_mp_niov_set_dma_addr(struct net_iov *niov, dma_addr_t addr);
 void net_mp_niov_set_page_pool(struct page_pool *pool, struct net_iov *niov);
 void net_mp_niov_clear_page_pool(struct net_iov *niov);
 
-int net_mp_open_rxq(struct net_device *dev, unsigned ifq_idx,
-                   struct pp_memory_provider_params *p);
-int __net_mp_open_rxq(struct net_device *dev, unsigned int rxq_idx,
+int netif_mp_open_rxq(struct net_device *dev, unsigned int rxq_idx,
                      const struct pp_memory_provider_params *p,
                      struct netlink_ext_ack *extack);
-void net_mp_close_rxq(struct net_device *dev, unsigned ifq_idx,
-                     struct pp_memory_provider_params *old_p);
-void __net_mp_close_rxq(struct net_device *dev, unsigned int rxq_idx,
+void netif_mp_close_rxq(struct net_device *dev, unsigned int rxq_idx,
                        const struct pp_memory_provider_params *old_p);
 
 /**
index 62d693287457fe291c885092cfeec5df63169253..d3ec63c83d0ca12aaf1af1a9e895a23aa97b3f3b 100644 (file)
@@ -552,8 +552,11 @@ static void io_close_queue(struct io_zcrx_ifq *ifq)
        }
 
        if (netdev) {
-               if (ifq->if_rxq != -1)
-                       net_mp_close_rxq(netdev, ifq->if_rxq, &p);
+               if (ifq->if_rxq != -1) {
+                       netdev_lock(netdev);
+                       netif_mp_close_rxq(netdev, ifq->if_rxq, &p);
+                       netdev_unlock(netdev);
+               }
                netdev_put(netdev, &netdev_tracker);
        }
        ifq->if_rxq = -1;
@@ -841,7 +844,7 @@ int io_register_zcrx_ifq(struct io_ring_ctx *ctx,
                mp_param.rx_page_size = 1U << ifq->niov_shift;
        mp_param.mp_ops = &io_uring_pp_zc_ops;
        mp_param.mp_priv = ifq;
-       ret = __net_mp_open_rxq(ifq->netdev, reg.if_rxq, &mp_param, NULL);
+       ret = netif_mp_open_rxq(ifq->netdev, reg.if_rxq, &mp_param, NULL);
        if (ret)
                goto netdev_put_unlock;
        netdev_unlock(ifq->netdev);
index 69d79aee07ef6f25c6f14415e801b8e00a7e5b94..cde4c89bc146ae2b92e388a897683bb17d6c4357 100644 (file)
@@ -145,7 +145,7 @@ void net_devmem_unbind_dmabuf(struct net_devmem_dmabuf_binding *binding)
 
                rxq_idx = get_netdev_rx_queue_index(rxq);
 
-               __net_mp_close_rxq(binding->dev, rxq_idx, &mp_params);
+               netif_mp_close_rxq(binding->dev, rxq_idx, &mp_params);
        }
 
        percpu_ref_kill(&binding->ref);
@@ -163,7 +163,7 @@ int net_devmem_bind_dmabuf_to_queue(struct net_device *dev, u32 rxq_idx,
        u32 xa_idx;
        int err;
 
-       err = __net_mp_open_rxq(dev, rxq_idx, &mp_params, extack);
+       err = netif_mp_open_rxq(dev, rxq_idx, &mp_params, extack);
        if (err)
                return err;
 
@@ -176,7 +176,7 @@ int net_devmem_bind_dmabuf_to_queue(struct net_device *dev, u32 rxq_idx,
        return 0;
 
 err_close_rxq:
-       __net_mp_close_rxq(dev, rxq_idx, &mp_params);
+       netif_mp_close_rxq(dev, rxq_idx, &mp_params);
        return err;
 }
 
index a4d8cad6db746f793d3745da476d77640fcb4f41..06ac3bd5507fa08ead6ce85ae9f148cd58fd7bfc 100644 (file)
@@ -200,7 +200,7 @@ int netdev_rx_queue_restart(struct net_device *dev, unsigned int rxq_idx)
 }
 EXPORT_SYMBOL_NS_GPL(netdev_rx_queue_restart, "NETDEV_INTERNAL");
 
-int __net_mp_open_rxq(struct net_device *dev, unsigned int rxq_idx,
+int netif_mp_open_rxq(struct net_device *dev, unsigned int rxq_idx,
                      const struct pp_memory_provider_params *p,
                      struct netlink_ext_ack *extack)
 {
@@ -264,18 +264,7 @@ err_clear_mp:
        return ret;
 }
 
-int net_mp_open_rxq(struct net_device *dev, unsigned int rxq_idx,
-                   struct pp_memory_provider_params *p)
-{
-       int ret;
-
-       netdev_lock(dev);
-       ret = __net_mp_open_rxq(dev, rxq_idx, p, NULL);
-       netdev_unlock(dev);
-       return ret;
-}
-
-void __net_mp_close_rxq(struct net_device *dev, unsigned int ifq_idx,
+void netif_mp_close_rxq(struct net_device *dev, unsigned int ifq_idx,
                        const struct pp_memory_provider_params *old_p)
 {
        struct netdev_queue_config qcfg[2];
@@ -305,11 +294,3 @@ void __net_mp_close_rxq(struct net_device *dev, unsigned int ifq_idx,
        err = netdev_rx_queue_reconfig(dev, ifq_idx, &qcfg[0], &qcfg[1]);
        WARN_ON(err && err != -ENETDOWN);
 }
-
-void net_mp_close_rxq(struct net_device *dev, unsigned ifq_idx,
-                     struct pp_memory_provider_params *old_p)
-{
-       netdev_lock(dev);
-       __net_mp_close_rxq(dev, ifq_idx, old_p);
-       netdev_unlock(dev);
-}