]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
net: ipv4: Add ip_mr_output()
authorPetr Machata <petrm@nvidia.com>
Mon, 16 Jun 2025 22:44:12 +0000 (00:44 +0200)
committerJakub Kicinski <kuba@kernel.org>
Wed, 18 Jun 2025 01:18:45 +0000 (18:18 -0700)
Multicast routing is today handled in the input path. Locally generated MC
packets don't hit the IPMR code today. Thus if a VXLAN remote address is
multicast, the driver needs to set an OIF during route lookup. Thus MC
routing configuration needs to be kept in sync with the VXLAN FDB and MDB.
Ideally, the VXLAN packets would be routed by the MC routing code instead.

To that end, this patch adds support to route locally generated multicast
packets. The newly-added routines do largely what ip_mr_input() and
ip_mr_forward() do: make an MR cache lookup to find where to send the
packets, and use ip_mc_output() to send each of them. When no cache entry
is found, the packet is punted to the daemon for resolution.

However, an installation that uses a VXLAN underlay netdevice for which it
also has matching MC routes, would get a different routing with this patch.
Previously, the MC packets would be delivered directly to the underlay
port, whereas now they would be MC-routed. In order to avoid this change in
behavior, introduce an IPCB flag. Only if the flag is set will
ip_mr_output() actually engage, otherwise it reverts to ip_mc_output().

This code is based on work by Roopa Prabhu and Nikolay Aleksandrov.

Signed-off-by: Roopa Prabhu <roopa@nvidia.com>
Signed-off-by: Nikolay Aleksandrov <razor@blackwall.org>
Signed-off-by: Benjamin Poirier <bpoirier@nvidia.com>
Signed-off-by: Petr Machata <petrm@nvidia.com>
Reviewed-by: Ido Schimmel <idosch@nvidia.com>
Link: https://patch.msgid.link/0aadbd49330471c0f758d54afb05eb3b6e3a6b65.1750113335.git.petrm@nvidia.com
Signed-off-by: Jakub Kicinski <kuba@kernel.org>
include/net/ip.h
net/ipv4/ipmr.c
net/ipv4/route.c

index 47ed6d23853d7712aec4df15771d71ab80b80cf9..375304bb99f690adb16b874abd9a562e17684f35 100644 (file)
@@ -59,6 +59,7 @@ struct inet_skb_parm {
 #define IPSKB_L3SLAVE          BIT(7)
 #define IPSKB_NOPOLICY         BIT(8)
 #define IPSKB_MULTIPATH                BIT(9)
+#define IPSKB_MCROUTE          BIT(10)
 
        u16                     frag_max_size;
 };
@@ -167,6 +168,7 @@ void ip_list_rcv(struct list_head *head, struct packet_type *pt,
 int ip_local_deliver(struct sk_buff *skb);
 void ip_protocol_deliver_rcu(struct net *net, struct sk_buff *skb, int proto);
 int ip_mr_input(struct sk_buff *skb);
+int ip_mr_output(struct net *net, struct sock *sk, struct sk_buff *skb);
 int ip_output(struct net *net, struct sock *sk, struct sk_buff *skb);
 int ip_mc_output(struct net *net, struct sock *sk, struct sk_buff *skb);
 int ip_do_fragment(struct net *net, struct sock *sk, struct sk_buff *skb,
index 74d45fd5d11ea3ad94cf6657f666e03b18ddc086..f78c4e53dc8c161e334781970bbff6069c084ebb 100644 (file)
@@ -1965,6 +1965,19 @@ out_free:
        kfree_skb(skb);
 }
 
+static void ipmr_queue_output_xmit(struct net *net, struct mr_table *mrt,
+                                  struct sk_buff *skb, int vifi)
+{
+       if (ipmr_prepare_xmit(net, mrt, skb, vifi))
+               goto out_free;
+
+       ip_mc_output(net, NULL, skb);
+       return;
+
+out_free:
+       kfree_skb(skb);
+}
+
 /* Called with mrt_lock or rcu_read_lock() */
 static int ipmr_find_vif(const struct mr_table *mrt, struct net_device *dev)
 {
@@ -2224,6 +2237,110 @@ dont_forward:
        return 0;
 }
 
+static void ip_mr_output_finish(struct net *net, struct mr_table *mrt,
+                               struct net_device *dev, struct sk_buff *skb,
+                               struct mfc_cache *c)
+{
+       int psend = -1;
+       int ct;
+
+       atomic_long_inc(&c->_c.mfc_un.res.pkt);
+       atomic_long_add(skb->len, &c->_c.mfc_un.res.bytes);
+       WRITE_ONCE(c->_c.mfc_un.res.lastuse, jiffies);
+
+       /* Forward the frame */
+       if (c->mfc_origin == htonl(INADDR_ANY) &&
+           c->mfc_mcastgrp == htonl(INADDR_ANY)) {
+               if (ip_hdr(skb)->ttl >
+                   c->_c.mfc_un.res.ttls[c->_c.mfc_parent]) {
+                       /* It's an (*,*) entry and the packet is not coming from
+                        * the upstream: forward the packet to the upstream
+                        * only.
+                        */
+                       psend = c->_c.mfc_parent;
+                       goto last_xmit;
+               }
+               goto dont_xmit;
+       }
+
+       for (ct = c->_c.mfc_un.res.maxvif - 1;
+            ct >= c->_c.mfc_un.res.minvif; ct--) {
+               if (ip_hdr(skb)->ttl > c->_c.mfc_un.res.ttls[ct]) {
+                       if (psend != -1) {
+                               struct sk_buff *skb2;
+
+                               skb2 = skb_clone(skb, GFP_ATOMIC);
+                               if (skb2)
+                                       ipmr_queue_output_xmit(net, mrt,
+                                                              skb2, psend);
+                       }
+                       psend = ct;
+               }
+       }
+
+last_xmit:
+       if (psend != -1) {
+               ipmr_queue_output_xmit(net, mrt, skb, psend);
+               return;
+       }
+
+dont_xmit:
+       kfree_skb(skb);
+}
+
+/* Multicast packets for forwarding arrive here
+ * Called with rcu_read_lock();
+ */
+int ip_mr_output(struct net *net, struct sock *sk, struct sk_buff *skb)
+{
+       struct rtable *rt = skb_rtable(skb);
+       struct mfc_cache *cache;
+       struct net_device *dev;
+       struct mr_table *mrt;
+       int vif;
+
+       WARN_ON_ONCE(!rcu_read_lock_held());
+       dev = rt->dst.dev;
+
+       if (IPCB(skb)->flags & IPSKB_FORWARDED)
+               goto mc_output;
+       if (!(IPCB(skb)->flags & IPSKB_MCROUTE))
+               goto mc_output;
+
+       skb->dev = dev;
+
+       mrt = ipmr_rt_fib_lookup(net, skb);
+       if (IS_ERR(mrt))
+               goto mc_output;
+
+       /* already under rcu_read_lock() */
+       cache = ipmr_cache_find(mrt, ip_hdr(skb)->saddr, ip_hdr(skb)->daddr);
+       if (!cache) {
+               vif = ipmr_find_vif(mrt, dev);
+               if (vif >= 0)
+                       cache = ipmr_cache_find_any(mrt, ip_hdr(skb)->daddr,
+                                                   vif);
+       }
+
+       /* No usable cache entry */
+       if (!cache) {
+               vif = ipmr_find_vif(mrt, dev);
+               if (vif >= 0)
+                       return ipmr_cache_unresolved(mrt, vif, skb, dev);
+               goto mc_output;
+       }
+
+       vif = cache->_c.mfc_parent;
+       if (rcu_access_pointer(mrt->vif_table[vif].dev) != dev)
+               goto mc_output;
+
+       ip_mr_output_finish(net, mrt, dev, skb, cache);
+       return 0;
+
+mc_output:
+       return ip_mc_output(net, sk, skb);
+}
+
 #ifdef CONFIG_IP_PIMSM_V1
 /* Handle IGMP messages of PIMv1 */
 int pim_rcv_v1(struct sk_buff *skb)
index fccb05fb3a794bdb71456f5cd38d9ec0b9665c43..3ddf6bf4035790d6a19dd6e27f5ade5a6f2bb432 100644 (file)
@@ -2660,7 +2660,7 @@ add:
                        if (IN_DEV_MFORWARD(in_dev) &&
                            !ipv4_is_local_multicast(fl4->daddr)) {
                                rth->dst.input = ip_mr_input;
-                               rth->dst.output = ip_mc_output;
+                               rth->dst.output = ip_mr_output;
                        }
                }
 #endif