]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
cxl/port: Move endpoint component register management to cxl_port
authorDan Williams <dan.j.williams@intel.com>
Sat, 31 Jan 2026 00:04:02 +0000 (16:04 -0800)
committerDave Jiang <dave.jiang@intel.com>
Mon, 2 Feb 2026 15:46:17 +0000 (08:46 -0700)
In preparation for generic protocol error handling across CXL endpoints,
whether they be memory expander class devices or accelerators, drop the
endpoint component management from cxl_dev_state.

Organize all CXL port component management through the common cxl_port
driver.

Note that the end game is that drivers/cxl/core/ras.c loses all
dependencies on a 'struct cxl_dev_state' parameter and operates only on
port resources. The removal of component register mapping from cxl_pci is
an incremental step towards that.

Reviewed-by: Terry Bowman <terry.bowman@amd.com>
Reviewed-by: Dave Jiang <dave.jiang@intel.com>
Reviewed-by: Jonathan Cameron <jonathan.cameron@huawei.com>
Tested-by: Terry Bowman <terry.bowman@amd.com>
Signed-off-by: Dan Williams <dan.j.williams@intel.com>
Link: https://patch.msgid.link/20260131000403.2135324-9-dan.j.williams@intel.com
Signed-off-by: Dave Jiang <dave.jiang@intel.com>
drivers/cxl/core/ras.c
drivers/cxl/cxlmem.h
drivers/cxl/pci.c
drivers/cxl/port.c

index b4be9c5715a60ef86fef5be564b9c5f5e22f2e6b..f6a8f4a355f1a87bae0341fe03d09d16ac4ae82a 100644 (file)
@@ -255,6 +255,7 @@ bool cxl_handle_ras(struct device *dev, void __iomem *ras_base)
 void cxl_cor_error_detected(struct pci_dev *pdev)
 {
        struct cxl_dev_state *cxlds = pci_get_drvdata(pdev);
+       struct cxl_memdev *cxlmd = cxlds->cxlmd;
        struct device *dev = &cxlds->cxlmd->dev;
 
        scoped_guard(device, dev) {
@@ -268,7 +269,7 @@ void cxl_cor_error_detected(struct pci_dev *pdev)
                if (cxlds->rcd)
                        cxl_handle_rdport_errors(cxlds);
 
-               cxl_handle_cor_ras(&cxlds->cxlmd->dev, cxlds->regs.ras);
+               cxl_handle_cor_ras(&cxlds->cxlmd->dev, cxlmd->endpoint->regs.ras);
        }
 }
 EXPORT_SYMBOL_NS_GPL(cxl_cor_error_detected, "CXL");
@@ -297,10 +298,9 @@ pci_ers_result_t cxl_error_detected(struct pci_dev *pdev,
                 * chance the situation is recoverable dump the status of the RAS
                 * capability registers and bounce the active state of the memdev.
                 */
-               ue = cxl_handle_ras(&cxlds->cxlmd->dev, cxlds->regs.ras);
+               ue = cxl_handle_ras(&cxlds->cxlmd->dev, cxlmd->endpoint->regs.ras);
        }
 
-
        switch (state) {
        case pci_channel_io_normal:
                if (ue) {
index 434031a0c1f74aac2ebe31b5721cfa6354f28538..ab7201ef3ea68d3b16edc498339564f818da3669 100644 (file)
@@ -415,7 +415,7 @@ struct cxl_dpa_partition {
  * @dev: The device associated with this CXL state
  * @cxlmd: The device representing the CXL.mem capabilities of @dev
  * @reg_map: component and ras register mapping parameters
- * @regs: Parsed register blocks
+ * @regs: Class device "Device" registers
  * @cxl_dvsec: Offset to the PCIe device DVSEC
  * @rcd: operating in RCD mode (CXL 3.0 9.11.8 CXL Devices Attached to an RCH)
  * @media_ready: Indicate whether the device media is usable
@@ -431,7 +431,7 @@ struct cxl_dev_state {
        struct device *dev;
        struct cxl_memdev *cxlmd;
        struct cxl_register_map reg_map;
-       struct cxl_regs regs;
+       struct cxl_device_regs regs;
        int cxl_dvsec;
        bool rcd;
        bool media_ready;
index b7f694bda913eccd915af221c354b5df399bd41e..acb0eb2a13c3f82730fb5dc1c1d6622d20d3f887 100644 (file)
@@ -535,52 +535,6 @@ static int cxl_pci_setup_regs(struct pci_dev *pdev, enum cxl_regloc_type type,
        return cxl_setup_regs(map);
 }
 
-static int cxl_pci_ras_unmask(struct pci_dev *pdev)
-{
-       struct cxl_dev_state *cxlds = pci_get_drvdata(pdev);
-       void __iomem *addr;
-       u32 orig_val, val, mask;
-       u16 cap;
-       int rc;
-
-       if (!cxlds->regs.ras) {
-               dev_dbg(&pdev->dev, "No RAS registers.\n");
-               return 0;
-       }
-
-       /* BIOS has PCIe AER error control */
-       if (!pcie_aer_is_native(pdev))
-               return 0;
-
-       rc = pcie_capability_read_word(pdev, PCI_EXP_DEVCTL, &cap);
-       if (rc)
-               return rc;
-
-       if (cap & PCI_EXP_DEVCTL_URRE) {
-               addr = cxlds->regs.ras + CXL_RAS_UNCORRECTABLE_MASK_OFFSET;
-               orig_val = readl(addr);
-
-               mask = CXL_RAS_UNCORRECTABLE_MASK_MASK |
-                      CXL_RAS_UNCORRECTABLE_MASK_F256B_MASK;
-               val = orig_val & ~mask;
-               writel(val, addr);
-               dev_dbg(&pdev->dev,
-                       "Uncorrectable RAS Errors Mask: %#x -> %#x\n",
-                       orig_val, val);
-       }
-
-       if (cap & PCI_EXP_DEVCTL_CERE) {
-               addr = cxlds->regs.ras + CXL_RAS_CORRECTABLE_MASK_OFFSET;
-               orig_val = readl(addr);
-               val = orig_val & ~CXL_RAS_CORRECTABLE_MASK_MASK;
-               writel(val, addr);
-               dev_dbg(&pdev->dev, "Correctable RAS Errors Mask: %#x -> %#x\n",
-                       orig_val, val);
-       }
-
-       return 0;
-}
-
 static void free_event_buf(void *buf)
 {
        kvfree(buf);
@@ -912,13 +866,6 @@ static int cxl_pci_probe(struct pci_dev *pdev, const struct pci_device_id *id)
        unsigned int i;
        bool irq_avail;
 
-       /*
-        * Double check the anonymous union trickery in struct cxl_regs
-        * FIXME switch to struct_group()
-        */
-       BUILD_BUG_ON(offsetof(struct cxl_regs, memdev) !=
-                    offsetof(struct cxl_regs, device_regs.memdev));
-
        rc = pcim_enable_device(pdev);
        if (rc)
                return rc;
@@ -942,7 +889,7 @@ static int cxl_pci_probe(struct pci_dev *pdev, const struct pci_device_id *id)
        if (rc)
                return rc;
 
-       rc = cxl_map_device_regs(&map, &cxlds->regs.device_regs);
+       rc = cxl_map_device_regs(&map, &cxlds->regs);
        if (rc)
                return rc;
 
@@ -957,11 +904,6 @@ static int cxl_pci_probe(struct pci_dev *pdev, const struct pci_device_id *id)
        else if (!cxlds->reg_map.component_map.ras.valid)
                dev_dbg(&pdev->dev, "RAS registers not found\n");
 
-       rc = cxl_map_component_regs(&cxlds->reg_map, &cxlds->regs.component,
-                                   BIT(CXL_CM_CAP_CAP_ID_RAS));
-       if (rc)
-               dev_dbg(&pdev->dev, "Failed to map RAS capability.\n");
-
        rc = cxl_pci_type3_init_mailbox(cxlds);
        if (rc)
                return rc;
@@ -1052,9 +994,6 @@ static int cxl_pci_probe(struct pci_dev *pdev, const struct pci_device_id *id)
        if (rc)
                return rc;
 
-       if (cxl_pci_ras_unmask(pdev))
-               dev_dbg(&pdev->dev, "No RAS reporting unmasked\n");
-
        pci_save_state(pdev);
 
        return rc;
index 6ebd665fb347da9dca075337fd5cff6fe327d2fe..0ae78469207a310b5aea0ee3781c6059ecf4a907 100644 (file)
@@ -1,5 +1,6 @@
 // SPDX-License-Identifier: GPL-2.0-only
 /* Copyright(c) 2022 Intel Corporation. All rights reserved. */
+#include <linux/aer.h>
 #include <linux/device.h>
 #include <linux/module.h>
 #include <linux/slab.h>
@@ -68,6 +69,55 @@ static int cxl_switch_port_probe(struct cxl_port *port)
        return 0;
 }
 
+static int cxl_ras_unmask(struct cxl_port *port)
+{
+       struct pci_dev *pdev;
+       void __iomem *addr;
+       u32 orig_val, val, mask;
+       u16 cap;
+       int rc;
+
+       if (!dev_is_pci(port->uport_dev))
+               return 0;
+       pdev = to_pci_dev(port->uport_dev);
+
+       if (!port->regs.ras) {
+               pci_dbg(pdev, "No RAS registers.\n");
+               return 0;
+       }
+
+       /* BIOS has PCIe AER error control */
+       if (!pcie_aer_is_native(pdev))
+               return 0;
+
+       rc = pcie_capability_read_word(pdev, PCI_EXP_DEVCTL, &cap);
+       if (rc)
+               return rc;
+
+       if (cap & PCI_EXP_DEVCTL_URRE) {
+               addr = port->regs.ras + CXL_RAS_UNCORRECTABLE_MASK_OFFSET;
+               orig_val = readl(addr);
+
+               mask = CXL_RAS_UNCORRECTABLE_MASK_MASK |
+                      CXL_RAS_UNCORRECTABLE_MASK_F256B_MASK;
+               val = orig_val & ~mask;
+               writel(val, addr);
+               pci_dbg(pdev, "Uncorrectable RAS Errors Mask: %#x -> %#x\n",
+                       orig_val, val);
+       }
+
+       if (cap & PCI_EXP_DEVCTL_CERE) {
+               addr = port->regs.ras + CXL_RAS_CORRECTABLE_MASK_OFFSET;
+               orig_val = readl(addr);
+               val = orig_val & ~CXL_RAS_CORRECTABLE_MASK_MASK;
+               writel(val, addr);
+               pci_dbg(pdev, "Correctable RAS Errors Mask: %#x -> %#x\n",
+                       orig_val, val);
+       }
+
+       return 0;
+}
+
 static int cxl_endpoint_port_probe(struct cxl_port *port)
 {
        struct cxl_memdev *cxlmd = to_cxl_memdev(port->uport_dev);
@@ -98,6 +148,10 @@ static int cxl_endpoint_port_probe(struct cxl_port *port)
        if (dport->rch)
                devm_cxl_dport_rch_ras_setup(dport);
 
+       devm_cxl_port_ras_setup(port);
+       if (cxl_ras_unmask(port))
+               dev_dbg(&port->dev, "failed to unmask RAS interrupts\n");
+
        /*
         * Now that all endpoint decoders are successfully enumerated, try to
         * assemble regions from committed decoders