]> git.ipfire.org Git - thirdparty/kernel/stable.git/commitdiff
x86/resctrl: Calculate bandwidth from the previous __mon_event_count() chunks
authorJames Morse <james.morse@arm.com>
Fri, 2 Sep 2022 15:48:20 +0000 (15:48 +0000)
committerBorislav Petkov <bp@suse.de>
Thu, 22 Sep 2022 15:44:57 +0000 (17:44 +0200)
mbm_bw_count() is only called by the mbm_handle_overflow() worker once a
second. It reads the hardware register, calculates the bandwidth and
updates m->prev_bw_msr which is used to hold the previous hardware register
value.

Operating directly on hardware register values makes it difficult to make
this code architecture independent, so that it can be moved to /fs/,
making the mba_sc feature something resctrl supports with no additional
support from the architecture.
Prior to calling mbm_bw_count(), mbm_update() reads from the same hardware
register using __mon_event_count().

Change mbm_bw_count() to use the current chunks value most recently saved
by __mon_event_count(). This removes an extra call to __rmid_read().
Instead of using m->prev_msr to calculate the number of chunks seen,
use the rr->val that was updated by __mon_event_count(). This removes an
extra call to mbm_overflow_count() and get_corrected_mbm_count().
Calculating bandwidth like this means mbm_bw_count() no longer operates
on hardware register values directly.

Signed-off-by: James Morse <james.morse@arm.com>
Signed-off-by: Borislav Petkov <bp@suse.de>
Reviewed-by: Jamie Iles <quic_jiles@quicinc.com>
Reviewed-by: Shaopeng Tan <tan.shaopeng@fujitsu.com>
Reviewed-by: Reinette Chatre <reinette.chatre@intel.com>
Tested-by: Xin Hao <xhao@linux.alibaba.com>
Tested-by: Shaopeng Tan <tan.shaopeng@fujitsu.com>
Tested-by: Cristian Marussi <cristian.marussi@arm.com>
Link: https://lore.kernel.org/r/20220902154829.30399-13-james.morse@arm.com
arch/x86/kernel/cpu/resctrl/internal.h
arch/x86/kernel/cpu/resctrl/monitor.c

index 3b9e43ba7590345420fe06edf916705d86a57c37..46062099d69e9009cfb52a53339884df3da99c8d 100644 (file)
@@ -289,7 +289,7 @@ struct rftype {
  * struct mbm_state - status for each MBM counter in each domain
  * @chunks:    Total data moved (multiply by rdt_group.mon_scale to get bytes)
  * @prev_msr:  Value of IA32_QM_CTR for this RMID last time we read it
- * @prev_bw_msr:Value of previous IA32_QM_CTR for bandwidth counting
+ * @prev_bw_chunks: Previous chunks value read for bandwidth calculation
  * @prev_bw:   The most recent bandwidth in MBps
  * @delta_bw:  Difference between the current and previous bandwidth
  * @delta_comp:        Indicates whether to compute the delta_bw
@@ -297,7 +297,7 @@ struct rftype {
 struct mbm_state {
        u64     chunks;
        u64     prev_msr;
-       u64     prev_bw_msr;
+       u64     prev_bw_chunks;
        u32     prev_bw;
        u32     delta_bw;
        bool    delta_comp;
index 3e69386cfe00ee3d35cbc180bd8c1342221e71f8..2d81b6cd96320f479853f9fba7700e117833adf5 100644 (file)
@@ -315,7 +315,7 @@ static u64 __mon_event_count(u32 rmid, struct rmid_read *rr)
 
        if (rr->first) {
                memset(m, 0, sizeof(struct mbm_state));
-               m->prev_bw_msr = m->prev_msr = tval;
+               m->prev_msr = tval;
                return 0;
        }
 
@@ -329,27 +329,32 @@ static u64 __mon_event_count(u32 rmid, struct rmid_read *rr)
 }
 
 /*
+ * mbm_bw_count() - Update bw count from values previously read by
+ *                 __mon_event_count().
+ * @rmid:      The rmid used to identify the cached mbm_state.
+ * @rr:                The struct rmid_read populated by __mon_event_count().
+ *
  * Supporting function to calculate the memory bandwidth
- * and delta bandwidth in MBps.
+ * and delta bandwidth in MBps. The chunks value previously read by
+ * __mon_event_count() is compared with the chunks value from the previous
+ * invocation. This must be called once per second to maintain values in MBps.
  */
 static void mbm_bw_count(u32 rmid, struct rmid_read *rr)
 {
        struct rdt_hw_resource *hw_res = resctrl_to_arch_res(rr->r);
        struct mbm_state *m = &rr->d->mbm_local[rmid];
-       u64 tval, cur_bw, chunks;
+       u64 cur_bw, chunks, cur_chunks;
 
-       tval = __rmid_read(rmid, rr->evtid);
-       if (tval & (RMID_VAL_ERROR | RMID_VAL_UNAVAIL))
-               return;
+       cur_chunks = rr->val;
+       chunks = cur_chunks - m->prev_bw_chunks;
+       m->prev_bw_chunks = cur_chunks;
 
-       chunks = mbm_overflow_count(m->prev_bw_msr, tval, hw_res->mbm_width);
-       cur_bw = (get_corrected_mbm_count(rmid, chunks) * hw_res->mon_scale) >> 20;
+       cur_bw = (chunks * hw_res->mon_scale) >> 20;
 
        if (m->delta_comp)
                m->delta_bw = abs(cur_bw - m->prev_bw);
        m->delta_comp = false;
        m->prev_bw = cur_bw;
-       m->prev_bw_msr = tval;
 }
 
 /*
@@ -516,10 +521,12 @@ static void mbm_update(struct rdt_resource *r, struct rdt_domain *d, int rmid)
         */
        if (is_mbm_total_enabled()) {
                rr.evtid = QOS_L3_MBM_TOTAL_EVENT_ID;
+               rr.val = 0;
                __mon_event_count(rmid, &rr);
        }
        if (is_mbm_local_enabled()) {
                rr.evtid = QOS_L3_MBM_LOCAL_EVENT_ID;
+               rr.val = 0;
                __mon_event_count(rmid, &rr);
 
                /*