]> git.ipfire.org Git - thirdparty/suricata.git/commitdiff
doc: change eBPF directory path 4188/head
authorEric Leblond <eric@regit.org>
Tue, 10 Sep 2019 09:42:43 +0000 (11:42 +0200)
committerVictor Julien <victor@inliniac.net>
Tue, 10 Sep 2019 11:45:07 +0000 (13:45 +0200)
doc/userguide/capture-hardware/ebpf-xdp.rst

index 1490a42a4b51dc52fab05cf51f084cf2ba6fed8c..0b67d8c35a7c2d7e1107593291a71dfb4fd20ca4 100644 (file)
@@ -120,7 +120,7 @@ compiler for building all C sources, including the eBPF programs ::
  make clean && make
  sudo  make install-full
  sudo ldconfig
- sudo mkdir /usr/share/suricata/ebpf/
+ sudo mkdir /usr/libexec/suricata/ebpf/
 
 The ``clang`` compiler is needed if you want to build eBPF files as the build
 is done via a specific eBPF backend available only in llvm/clang suite. If you
@@ -175,7 +175,7 @@ Suricata can load as eBPF filter any eBPF code exposing a ``filter`` section.
 Once modifications and build via `make` are done, you can copy the resulting
 eBPF filter as needed ::
 
- cp ebpf/vlan_filter.bpf /usr/share/suricata/ebpf/
+ cp ebpf/vlan_filter.bpf /usr/libexec/suricata/ebpf/
 
 Then setup the `ebpf-filter-file` variable in af-packet section in ``suricata.yaml`` ::
 
@@ -186,7 +186,7 @@ Then setup the `ebpf-filter-file` variable in af-packet section in ``suricata.ya
     defrag: yes
     # eBPF file containing a 'filter' function that will be inserted into the
     # kernel and used as load balancing function
-    ebpf-filter-file:  /usr/share/suricata/ebpf/vlan_filter.bpf
+    ebpf-filter-file:  /usr/libexec/suricata/ebpf/vlan_filter.bpf
     use-mmap: yes
     ring-size: 200000
 
@@ -206,7 +206,7 @@ update af-packet configuration in ``suricata.yaml`` to set bypass to yes ::
     cluster-type: cluster_qm # symmetric RSS hashing is mandatory to use this mode
     # eBPF file containing a 'filter' function that will be inserted into the
     # kernel and used as packet filter function
-    ebpf-filter-file:  /usr/share/suricata/ebpf/bypass_filter.bpf
+    ebpf-filter-file:  /usr/libexec/suricata/ebpf/bypass_filter.bpf
     bypass: yes
     use-mmap: yes
     ring-size: 200000
@@ -232,7 +232,7 @@ file.
 
 Copy the resulting eBPF filter as needed ::
 
- cp ebpf/lb.bpf /usr/share/suricata/ebpf/
+ cp ebpf/lb.bpf /usr/libexec/suricata/ebpf/
 
 Then use ``cluster_ebpf`` as load balancing method in the interface section of af-packet
 and point the ``ebpf-lb-file`` variable to the ``lb.bpf`` file ::
@@ -244,7 +244,7 @@ and point the ``ebpf-lb-file`` variable to the ``lb.bpf`` file ::
     defrag: yes
     # eBPF file containing a 'loadbalancer' function that will be inserted into the
     # kernel and used as load balancing function
-    ebpf-lb-file:  /usr/share/suricata/ebpf/lb.bpf
+    ebpf-lb-file:  /usr/libexec/suricata/ebpf/lb.bpf
     use-mmap: yes
     ring-size: 200000
 
@@ -261,12 +261,12 @@ on older kernel if you set ``BUILD_CPUMAP`` to 0 in ``ebpf/xdp_filter.c``.
 
 Copy the resulting xdp filter as needed::
 
- cp ebpf/xdp_filter.bpf /usr/share/suricata/ebpf/
+ cp ebpf/xdp_filter.bpf /usr/libexec/suricata/ebpf/
 
 Setup af-packet section/interface in ``suricata.yaml``.
 
 We will use ``cluster_qm`` as we have symmetric hashing on the NIC, ``xdp-mode: driver`` and we will
-also use the ``/usr/share/suricata/ebpf/xdp_filter.bpf`` (in our example TCP offloading/bypass) ::
+also use the ``/usr/libexec/suricata/ebpf/xdp_filter.bpf`` (in our example TCP offloading/bypass) ::
 
   - interface: eth3
     threads: 16
@@ -276,7 +276,7 @@ also use the ``/usr/share/suricata/ebpf/xdp_filter.bpf`` (in our example TCP off
     # Xdp mode, "soft" for skb based version, "driver" for network card based
     # and "hw" for card supporting eBPF.
     xdp-mode: driver
-    xdp-filter-file:  /usr/share/suricata/ebpf/xdp_filter.bpf
+    xdp-filter-file:  /usr/libexec/suricata/ebpf/xdp_filter.bpf
     # if the ebpf filter implements a bypass function, you can set 'bypass' to
     # yes and benefit from these feature
     bypass: yes
@@ -381,7 +381,7 @@ A sample configuration for pure XDP load balancing could look like ::
     cluster-id: 97
     cluster-type: cluster_cpu
     xdp-mode: driver
-    xdp-filter-file:  /usr/share/suricata/ebpf/xdp_lb.bpf
+    xdp-filter-file:  /usr/libexec/suricata/ebpf/xdp_lb.bpf
     xdp-cpu-redirect: ["1-17"] # or ["all"] to load balance on all CPUs
     use-mmap: yes
     ring-size: 200000
@@ -414,7 +414,7 @@ Confirm you have the XDP filter engaged in the output (example)::
  (runmode-af-packet.c:220) <Config> (ParseAFPConfig) -- Enabling locked memory for mmap on iface eth3
  (runmode-af-packet.c:231) <Config> (ParseAFPConfig) -- Enabling tpacket v3 capture on iface eth3
  (runmode-af-packet.c:326) <Config> (ParseAFPConfig) -- Using queue based cluster mode for AF_PACKET (iface eth3)
- (runmode-af-packet.c:424) <Info> (ParseAFPConfig) -- af-packet will use '/usr/share/suricata/ebpf/xdp_filter.bpf' as XDP filter file
+ (runmode-af-packet.c:424) <Info> (ParseAFPConfig) -- af-packet will use '/usr/libexec/suricata/ebpf/xdp_filter.bpf' as XDP filter file
  (runmode-af-packet.c:429) <Config> (ParseAFPConfig) -- Using bypass kernel functionality for AF_PACKET (iface eth3)
  (runmode-af-packet.c:609) <Config> (ParseAFPConfig) -- eth3: enabling zero copy mode by using data release call
  (util-runmodes.c:296) <Info> (RunModeSetLiveCaptureWorkersForDevice) -- Going to use 8 thread(s)
@@ -477,7 +477,7 @@ for, that will be used to check for the presence of the XDP filter ::
   - interface: eth3
     pinned-maps: true
     pinned-maps-name: ipv4_drop
-    xdp-filter-file: /usr/share/suricata/ebpf/xdp_filter.bpf
+    xdp-filter-file: /usr/libexec/suricata/ebpf/xdp_filter.bpf
 
 If XDP bypass is used in IPS mode stopping Suricata will trigger an interruption in the traffic.
 To fix that, the provided XDP filter `xdp_filter.bpf` is containing a map that will trigger