]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
io_uring/net: allow filtering on IORING_OP_SOCKET data
authorJens Axboe <axboe@kernel.dk>
Fri, 16 Jan 2026 21:50:05 +0000 (14:50 -0700)
committerJens Axboe <axboe@kernel.dk>
Tue, 27 Jan 2026 18:10:46 +0000 (11:10 -0700)
Example population method for the BPF based opcode filtering. This
exposes the socket family, type, and protocol to a registered BPF
filter. This in turn enables the filter to make decisions based on
what was passed in to the IORING_OP_SOCKET request type.

Signed-off-by: Jens Axboe <axboe@kernel.dk>
include/uapi/linux/io_uring/bpf_filter.h
io_uring/bpf_filter.c
io_uring/net.c
io_uring/net.h

index 2d4d0e5743e47ad5271074bf8468cf060304b1b4..4dbc89bbbf10dc34045ace6a8b3d8318045fb76a 100644 (file)
@@ -16,6 +16,13 @@ struct io_uring_bpf_ctx {
        __u8    sqe_flags;
        __u8    pdu_size;       /* size of aux data for filter */
        __u8    pad[5];
+       union {
+               struct {
+                       __u32   family;
+                       __u32   type;
+                       __u32   protocol;
+               } socket;
+       };
 };
 
 enum {
index 5207226d72ea91a93f15c0afa84def05272c1703..889fa915fa54c41ba98ca138aac8294ec5fbd641 100644 (file)
@@ -30,6 +30,17 @@ static void io_uring_populate_bpf_ctx(struct io_uring_bpf_ctx *bctx,
        /* clear residual, anything from pdu_size and below */
        memset((void *) bctx + offsetof(struct io_uring_bpf_ctx, pdu_size), 0,
                sizeof(*bctx) - offsetof(struct io_uring_bpf_ctx, pdu_size));
+
+       /*
+        * Opcodes can provide a handler fo populating more data into bctx,
+        * for filters to use.
+        */
+       switch (req->opcode) {
+       case IORING_OP_SOCKET:
+               bctx->pdu_size = sizeof(bctx->socket);
+               io_socket_bpf_populate(bctx, req);
+               break;
+       }
 }
 
 /*
index 519ea055b76197480a48f039049e39baddd5ee04..4fcba36bd0bbf465f502e4b1870ef93a0534fc71 100644 (file)
@@ -1699,6 +1699,15 @@ retry:
        return IOU_COMPLETE;
 }
 
+void io_socket_bpf_populate(struct io_uring_bpf_ctx *bctx, struct io_kiocb *req)
+{
+       struct io_socket *sock = io_kiocb_to_cmd(req, struct io_socket);
+
+       bctx->socket.family = sock->domain;
+       bctx->socket.type = sock->type;
+       bctx->socket.protocol = sock->protocol;
+}
+
 int io_socket_prep(struct io_kiocb *req, const struct io_uring_sqe *sqe)
 {
        struct io_socket *sock = io_kiocb_to_cmd(req, struct io_socket);
index 43e5ce5416b7ec68c6523f7f59462a6c126f9b19..a862960a3bb993b722415928e8614342739392c3 100644 (file)
@@ -3,6 +3,7 @@
 #include <linux/net.h>
 #include <linux/uio.h>
 #include <linux/io_uring_types.h>
+#include <uapi/linux/io_uring/bpf_filter.h>
 
 struct io_async_msghdr {
 #if defined(CONFIG_NET)
@@ -44,6 +45,7 @@ int io_accept(struct io_kiocb *req, unsigned int issue_flags);
 
 int io_socket_prep(struct io_kiocb *req, const struct io_uring_sqe *sqe);
 int io_socket(struct io_kiocb *req, unsigned int issue_flags);
+void io_socket_bpf_populate(struct io_uring_bpf_ctx *bctx, struct io_kiocb *req);
 
 int io_connect_prep(struct io_kiocb *req, const struct io_uring_sqe *sqe);
 int io_connect(struct io_kiocb *req, unsigned int issue_flags);
@@ -64,4 +66,8 @@ void io_netmsg_cache_free(const void *entry);
 static inline void io_netmsg_cache_free(const void *entry)
 {
 }
+static inline void io_socket_bpf_populate(struct io_uring_bpf_ctx *bctx,
+                                         struct io_kiocb *req)
+{
+}
 #endif