]> git.ipfire.org Git - thirdparty/linux.git/commitdiff
ixgbe: check for MDD events
authorDon Skidmore <donald.c.skidmore@intel.com>
Mon, 17 Feb 2025 09:06:34 +0000 (10:06 +0100)
committerTony Nguyen <anthony.l.nguyen@intel.com>
Thu, 3 Jul 2025 16:39:03 +0000 (09:39 -0700)
When an event is detected it is logged and, for the time being, the
queue is immediately re-enabled.  This is due to the lack of an API
to the hypervisor so it could deal with it as it chooses.

Reviewed-by: Przemek Kitszel <przemyslaw.kitszel@intel.com>
Reviewed-by: Jedrzej Jagielski <jedrzej.jagielski@intel.com>
Reviewed-by: Marcin Szycik <marcin.szycik@linux.intel.com>
Signed-off-by: Don Skidmore <donald.c.skidmore@intel.com>
Signed-off-by: Michal Swiatkowski <michal.swiatkowski@linux.intel.com>
Reviewed-by: Simon Horman <horms@kernel.org>
Tested-by: Rafal Romanowski <rafal.romanowski@intel.com>
Signed-off-by: Tony Nguyen <anthony.l.nguyen@intel.com>
drivers/net/ethernet/intel/ixgbe/ixgbe_main.c
drivers/net/ethernet/intel/ixgbe/ixgbe_sriov.c
drivers/net/ethernet/intel/ixgbe/ixgbe_sriov.h
drivers/net/ethernet/intel/ixgbe/ixgbe_type.h

index 991cf24f3b9bdfbb2fbc42afb20e679ab2198073..4db8e71365713a972dc5e0c4cccb930f4ae50175 100644 (file)
@@ -7964,6 +7964,9 @@ static void ixgbe_watchdog_link_is_up(struct ixgbe_adapter *adapter)
        netif_carrier_on(netdev);
        ixgbe_check_vf_rate_limit(adapter);
 
+       if (adapter->num_vfs && hw->mac.ops.enable_mdd)
+               hw->mac.ops.enable_mdd(hw);
+
        /* enable transmits */
        netif_tx_wake_all_queues(adapter->netdev);
 
index 0dbbd2befd4df6b815f3336042ad7a76e8cc19df..bd9a054d7d94cb7a0b3cc1c68f33a674df16e02d 100644 (file)
@@ -207,6 +207,7 @@ void ixgbe_enable_sriov(struct ixgbe_adapter *adapter, unsigned int max_vfs)
 int ixgbe_disable_sriov(struct ixgbe_adapter *adapter)
 {
        unsigned int num_vfs = adapter->num_vfs, vf;
+       struct ixgbe_hw *hw = &adapter->hw;
        unsigned long flags;
        int rss;
 
@@ -237,6 +238,9 @@ int ixgbe_disable_sriov(struct ixgbe_adapter *adapter)
        if (!(adapter->flags & IXGBE_FLAG_SRIOV_ENABLED))
                return 0;
 
+       if (hw->mac.ops.disable_mdd)
+               hw->mac.ops.disable_mdd(hw);
+
 #ifdef CONFIG_PCI_IOV
        /*
         * If our VFs are assigned we cannot shut down SR-IOV
@@ -1353,12 +1357,59 @@ static void ixgbe_rcv_ack_from_vf(struct ixgbe_adapter *adapter, u32 vf)
                ixgbe_write_mbx(hw, &msg, 1, vf);
 }
 
+/**
+ * ixgbe_check_mdd_event - check for MDD event on all VFs
+ * @adapter: pointer to ixgbe adapter
+ *
+ * Return: true if there is a VF on which MDD event occurred, false otherwise.
+ */
+bool ixgbe_check_mdd_event(struct ixgbe_adapter *adapter)
+{
+       struct ixgbe_hw *hw = &adapter->hw;
+       DECLARE_BITMAP(vf_bitmap, 64);
+       bool ret = false;
+       int i;
+
+       if (!hw->mac.ops.handle_mdd)
+               return false;
+
+       /* Did we have a malicious event */
+       bitmap_zero(vf_bitmap, 64);
+       hw->mac.ops.handle_mdd(hw, vf_bitmap);
+
+       /* Log any blocked queues and release lock */
+       for_each_set_bit(i, vf_bitmap, 64) {
+               dev_warn(&adapter->pdev->dev,
+                        "Malicious event on VF %d tx:%x rx:%x\n", i,
+                        IXGBE_READ_REG(hw, IXGBE_LVMMC_TX),
+                        IXGBE_READ_REG(hw, IXGBE_LVMMC_RX));
+
+               if (hw->mac.ops.restore_mdd_vf) {
+                       u32 ping;
+
+                       hw->mac.ops.restore_mdd_vf(hw, i);
+
+                       /* get the VF to rebuild its queues */
+                       adapter->vfinfo[i].clear_to_send = 0;
+                       ping = IXGBE_PF_CONTROL_MSG |
+                              IXGBE_VT_MSGTYPE_CTS;
+                       ixgbe_write_mbx(hw, &ping, 1, i);
+               }
+
+               ret = true;
+       }
+
+       return ret;
+}
+
 void ixgbe_msg_task(struct ixgbe_adapter *adapter)
 {
        struct ixgbe_hw *hw = &adapter->hw;
        unsigned long flags;
        u32 vf;
 
+       ixgbe_check_mdd_event(adapter);
+
        spin_lock_irqsave(&adapter->vfs_lock, flags);
        for (vf = 0; vf < adapter->num_vfs; vf++) {
                /* process any reset requests */
index 0690ecb8dfa348e9493fe9e9003bc3b8225a928e..bc4cab976bf95dbb180b265691efa34d4efda6cb 100644 (file)
@@ -15,6 +15,7 @@
 #ifdef CONFIG_PCI_IOV
 void ixgbe_restore_vf_multicasts(struct ixgbe_adapter *adapter);
 #endif
+bool ixgbe_check_mdd_event(struct ixgbe_adapter *adapter);
 void ixgbe_msg_task(struct ixgbe_adapter *adapter);
 int ixgbe_vf_configuration(struct pci_dev *pdev, unsigned int event_mask);
 void ixgbe_ping_all_vfs(struct ixgbe_adapter *adapter);
index 2a25abc0b17a03e88a8f09c11b3ba0d4787cecac..89df6f462302a1e6e09814edf5f16661c25cbfa6 100644 (file)
@@ -402,6 +402,8 @@ struct ixgbe_nvm_version {
 #define IXGBE_MRCTL(_i)      (0x0F600 + ((_i) * 4))
 #define IXGBE_VMRVLAN(_i)    (0x0F610 + ((_i) * 4))
 #define IXGBE_VMRVM(_i)      (0x0F630 + ((_i) * 4))
+#define IXGBE_LVMMC_RX      0x2FA8
+#define IXGBE_LVMMC_TX      0x8108
 #define IXGBE_WQBR_RX(_i)    (0x2FB0 + ((_i) * 4)) /* 4 total */
 #define IXGBE_WQBR_TX(_i)    (0x8130 + ((_i) * 4)) /* 4 total */
 #define IXGBE_L34T_IMIR(_i)  (0x0E800 + ((_i) * 4)) /*128 of these (0-127)*/