]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
drm/xe: Add some members to xe_vma_ops
authorMatthew Brost <matthew.brost@intel.com>
Thu, 25 Apr 2024 04:55:08 +0000 (21:55 -0700)
committerMatthew Brost <matthew.brost@intel.com>
Fri, 26 Apr 2024 19:10:03 +0000 (12:10 -0700)
This will help with moving to single jobs for many bind operations.

v2:
 - Rebase

Cc: Oak Zeng <oak.zeng@intel.com>
Signed-off-by: Matthew Brost <matthew.brost@intel.com>
Reviewed-by: Oak Zeng <oak.zeng@intel.com>
Link: https://patchwork.freedesktop.org/patch/msgid/20240425045513.1913039-9-matthew.brost@intel.com
drivers/gpu/drm/xe/xe_vm.c
drivers/gpu/drm/xe/xe_vm_types.h

index cb38acabe6825a7bcf1c80e6bb7513270fefee51..45258d38d4eefd45536865840f14066a5dc06bee 100644 (file)
@@ -745,7 +745,9 @@ static int xe_vm_ops_add_rebind(struct xe_vma_ops *vops, struct xe_vma *vma,
 
 static struct dma_fence *ops_execute(struct xe_vm *vm,
                                     struct xe_vma_ops *vops);
-static void xe_vma_ops_init(struct xe_vma_ops *vops);
+static void xe_vma_ops_init(struct xe_vma_ops *vops, struct xe_vm *vm,
+                           struct xe_exec_queue *q,
+                           struct xe_sync_entry *syncs, u32 num_syncs);
 
 int xe_vm_rebind(struct xe_vm *vm, bool rebind_worker)
 {
@@ -760,7 +762,7 @@ int xe_vm_rebind(struct xe_vm *vm, bool rebind_worker)
            list_empty(&vm->rebind_list))
                return 0;
 
-       xe_vma_ops_init(&vops);
+       xe_vma_ops_init(&vops, vm, NULL, NULL, 0);
 
        xe_vm_assert_held(vm);
        list_for_each_entry(vma, &vm->rebind_list, combined_links.rebind) {
@@ -806,7 +808,7 @@ struct dma_fence *xe_vma_rebind(struct xe_vm *vm, struct xe_vma *vma, u8 tile_ma
        xe_vm_assert_held(vm);
        xe_assert(vm->xe, xe_vm_in_fault_mode(vm));
 
-       xe_vma_ops_init(&vops);
+       xe_vma_ops_init(&vops, vm, NULL, NULL, 0);
 
        err = xe_vm_ops_add_rebind(&vops, vma, tile_mask);
        if (err)
@@ -3014,9 +3016,16 @@ static int vm_bind_ioctl_signal_fences(struct xe_vm *vm,
        return err;
 }
 
-static void xe_vma_ops_init(struct xe_vma_ops *vops)
+static void xe_vma_ops_init(struct xe_vma_ops *vops, struct xe_vm *vm,
+                           struct xe_exec_queue *q,
+                           struct xe_sync_entry *syncs, u32 num_syncs)
 {
+       memset(vops, 0, sizeof(*vops));
        INIT_LIST_HEAD(&vops->list);
+       vops->vm = vm;
+       vops->q = q;
+       vops->syncs = syncs;
+       vops->num_syncs = num_syncs;
 }
 
 int xe_vm_bind_ioctl(struct drm_device *dev, void *data, struct drm_file *file)
@@ -3183,7 +3192,7 @@ int xe_vm_bind_ioctl(struct drm_device *dev, void *data, struct drm_file *file)
                goto free_syncs;
        }
 
-       xe_vma_ops_init(&vops);
+       xe_vma_ops_init(&vops, vm, q, syncs, num_syncs);
        for (i = 0; i < args->num_binds; ++i) {
                u64 range = bind_ops[i].range;
                u64 addr = bind_ops[i].addr;
index e9cd6da6263a60d20a2417713be16abdb3225429..ce1a63a5e3e7038fcb7e6c115628e165758548b6 100644 (file)
@@ -360,6 +360,14 @@ struct xe_vma_op {
 struct xe_vma_ops {
        /** @list: list of VMA operations */
        struct list_head list;
+       /** @vm: VM */
+       struct xe_vm *vm;
+       /** @q: exec queue these operations */
+       struct xe_exec_queue *q;
+       /** @syncs: syncs these operation */
+       struct xe_sync_entry *syncs;
+       /** @num_syncs: number of syncs */
+       u32 num_syncs;
 };
 
 #endif