]> git.ipfire.org Git - thirdparty/kernel/linux.git/commitdiff
drm/amdgpu/userq: use consistent function naming
authorAlex Deucher <alexander.deucher@amd.com>
Wed, 16 Apr 2025 21:49:45 +0000 (17:49 -0400)
committerAlex Deucher <alexander.deucher@amd.com>
Tue, 22 Apr 2025 12:51:46 +0000 (08:51 -0400)
s/userqueue/userq/

1. remove the mix of amdgpu_userqueue and amdgpu_userq
2. to be consistent with other amdgpu_userq_fence.c
3. it's shorter

Reviewed-by: Prike Liang <Prike.Liang@amd.com>
Signed-off-by: Alex Deucher <alexander.deucher@amd.com>
drivers/gpu/drm/amd/amdgpu/Makefile
drivers/gpu/drm/amd/amdgpu/amdgpu.h
drivers/gpu/drm/amd/amdgpu/amdgpu_drv.c
drivers/gpu/drm/amd/amdgpu/amdgpu_eviction_fence.c
drivers/gpu/drm/amd/amdgpu/amdgpu_kms.c
drivers/gpu/drm/amd/amdgpu/amdgpu_userq.c [moved from drivers/gpu/drm/amd/amdgpu/amdgpu_userqueue.c with 86% similarity]
drivers/gpu/drm/amd/amdgpu/amdgpu_userq.h [moved from drivers/gpu/drm/amd/amdgpu/amdgpu_userqueue.h with 80% similarity]
drivers/gpu/drm/amd/amdgpu/amdgpu_userq_fence.c
drivers/gpu/drm/amd/amdgpu/amdgpu_userq_fence.h
drivers/gpu/drm/amd/amdgpu/mes_userqueue.c
drivers/gpu/drm/amd/amdgpu/mes_userqueue.h

index 513c4d64f5542254ebf93d64277cfd8a838152a6..8595e05c691b16139106c857fa6878a6910ef342 100644 (file)
@@ -257,7 +257,7 @@ amdgpu-y += \
 amdgpu-y += amdgpu_amdkfd.o
 
 # add gfx usermode queue
-amdgpu-y += amdgpu_userqueue.o
+amdgpu-y += amdgpu_userq.o
 
 ifneq ($(CONFIG_HSA_AMD),)
 AMDKFD_PATH := ../amdkfd
index decf66c2a71870d82b082d4ceb6915abc0e5e2e9..cc26cf1bd843ee6445a35153a7767e4c162b4da9 100644 (file)
 #include "amdgpu_xcp.h"
 #include "amdgpu_seq64.h"
 #include "amdgpu_reg_state.h"
-#include "amdgpu_userqueue.h"
+#include "amdgpu_userq.h"
 #include "amdgpu_eviction_fence.h"
 #if defined(CONFIG_DRM_AMD_ISP)
 #include "amdgpu_isp.h"
index e24b0c730baf52cc20aa0103d552ad79fdc5ead5..b9a1ef343c79cf451c7217d9e303daed1f26cff9 100644 (file)
@@ -51,7 +51,7 @@
 #include "amdgpu_reset.h"
 #include "amdgpu_sched.h"
 #include "amdgpu_xgmi.h"
-#include "amdgpu_userqueue.h"
+#include "amdgpu_userq.h"
 #include "amdgpu_userq_fence.h"
 #include "../amdxcp/amdgpu_xcp_drv.h"
 
index 02164bca51a7dc9786a2fd1898255324cdb56454..faa3f59b20c5ca876ce8efbbc78ab3eae305abce 100644 (file)
@@ -112,7 +112,7 @@ amdgpu_eviction_fence_suspend_worker(struct work_struct *work)
        if (!ev_fence)
                goto unlock;
 
-       amdgpu_userqueue_evict(uq_mgr, ev_fence);
+       amdgpu_userq_evict(uq_mgr, ev_fence);
 
 unlock:
        mutex_unlock(&uq_mgr->userq_mutex);
index 151366ecc0af6127c6f9be68ecfeadf5ff62286d..8f992314c5a1e3ce261bf3ec32d7f8664aeba683 100644 (file)
@@ -45,7 +45,7 @@
 #include "amdgpu_ras.h"
 #include "amdgpu_reset.h"
 #include "amd_pcie.h"
-#include "amdgpu_userqueue.h"
+#include "amdgpu_userq.h"
 
 void amdgpu_unregister_gpu_instance(struct amdgpu_device *adev)
 {
@@ -1009,7 +1009,7 @@ out:
                        }
                }
 
-               dev_info->userq_ip_mask = amdgpu_userqueue_get_supported_ip_mask(adev);
+               dev_info->userq_ip_mask = amdgpu_userq_get_supported_ip_mask(adev);
 
                ret = copy_to_user(out, dev_info,
                                   min((size_t)size, sizeof(*dev_info))) ? -EFAULT : 0;
similarity index 86%
rename from drivers/gpu/drm/amd/amdgpu/amdgpu_userqueue.c
rename to drivers/gpu/drm/amd/amdgpu/amdgpu_userq.c
index 82741dcb2a458360726f4c3877971c34a327717c..4be72bebcf342c4718641ad1d22b285f10ad54c0 100644 (file)
 
 #include "amdgpu.h"
 #include "amdgpu_vm.h"
-#include "amdgpu_userqueue.h"
+#include "amdgpu_userq.h"
 #include "amdgpu_userq_fence.h"
 
-u32 amdgpu_userqueue_get_supported_ip_mask(struct amdgpu_device *adev)
+u32 amdgpu_userq_get_supported_ip_mask(struct amdgpu_device *adev)
 {
        int i;
        u32 userq_ip_mask = 0;
@@ -45,8 +45,8 @@ u32 amdgpu_userqueue_get_supported_ip_mask(struct amdgpu_device *adev)
 }
 
 static int
-amdgpu_userqueue_unmap_helper(struct amdgpu_userq_mgr *uq_mgr,
-                             struct amdgpu_usermode_queue *queue)
+amdgpu_userq_unmap_helper(struct amdgpu_userq_mgr *uq_mgr,
+                         struct amdgpu_usermode_queue *queue)
 {
        struct amdgpu_device *adev = uq_mgr->adev;
        const struct amdgpu_userq_funcs *userq_funcs =
@@ -64,8 +64,8 @@ amdgpu_userqueue_unmap_helper(struct amdgpu_userq_mgr *uq_mgr,
 }
 
 static int
-amdgpu_userqueue_map_helper(struct amdgpu_userq_mgr *uq_mgr,
-                           struct amdgpu_usermode_queue *queue)
+amdgpu_userq_map_helper(struct amdgpu_userq_mgr *uq_mgr,
+                       struct amdgpu_usermode_queue *queue)
 {
        struct amdgpu_device *adev = uq_mgr->adev;
        const struct amdgpu_userq_funcs *userq_funcs =
@@ -84,8 +84,8 @@ amdgpu_userqueue_map_helper(struct amdgpu_userq_mgr *uq_mgr,
 }
 
 static void
-amdgpu_userqueue_wait_for_last_fence(struct amdgpu_userq_mgr *uq_mgr,
-                                    struct amdgpu_usermode_queue *queue)
+amdgpu_userq_wait_for_last_fence(struct amdgpu_userq_mgr *uq_mgr,
+                                struct amdgpu_usermode_queue *queue)
 {
        struct amdgpu_device *adev = uq_mgr->adev;
        struct dma_fence *f = queue->last_fence;
@@ -99,9 +99,9 @@ amdgpu_userqueue_wait_for_last_fence(struct amdgpu_userq_mgr *uq_mgr,
 }
 
 static void
-amdgpu_userqueue_cleanup(struct amdgpu_userq_mgr *uq_mgr,
-                        struct amdgpu_usermode_queue *queue,
-                        int queue_id)
+amdgpu_userq_cleanup(struct amdgpu_userq_mgr *uq_mgr,
+                    struct amdgpu_usermode_queue *queue,
+                    int queue_id)
 {
        struct amdgpu_device *adev = uq_mgr->adev;
        const struct amdgpu_userq_funcs *uq_funcs = adev->userq_funcs[queue->queue_type];
@@ -113,7 +113,7 @@ amdgpu_userqueue_cleanup(struct amdgpu_userq_mgr *uq_mgr,
 }
 
 int
-amdgpu_userqueue_active(struct amdgpu_userq_mgr *uq_mgr)
+amdgpu_userq_active(struct amdgpu_userq_mgr *uq_mgr)
 {
        struct amdgpu_usermode_queue *queue;
        int queue_id;
@@ -130,14 +130,14 @@ amdgpu_userqueue_active(struct amdgpu_userq_mgr *uq_mgr)
 
 #ifdef CONFIG_DRM_AMDGPU_NAVI3X_USERQ
 static struct amdgpu_usermode_queue *
-amdgpu_userqueue_find(struct amdgpu_userq_mgr *uq_mgr, int qid)
+amdgpu_userq_find(struct amdgpu_userq_mgr *uq_mgr, int qid)
 {
        return idr_find(&uq_mgr->userq_idr, qid);
 }
 
 void
-amdgpu_userqueue_ensure_ev_fence(struct amdgpu_userq_mgr *uq_mgr,
-                                struct amdgpu_eviction_fence_mgr *evf_mgr)
+amdgpu_userq_ensure_ev_fence(struct amdgpu_userq_mgr *uq_mgr,
+                            struct amdgpu_eviction_fence_mgr *evf_mgr)
 {
        struct amdgpu_eviction_fence *ev_fence;
 
@@ -160,9 +160,9 @@ retry:
        }
 }
 
-int amdgpu_userqueue_create_object(struct amdgpu_userq_mgr *uq_mgr,
-                                  struct amdgpu_userq_obj *userq_obj,
-                                  int size)
+int amdgpu_userq_create_object(struct amdgpu_userq_mgr *uq_mgr,
+                              struct amdgpu_userq_obj *userq_obj,
+                              int size)
 {
        struct amdgpu_device *adev = uq_mgr->adev;
        struct amdgpu_bo_param bp;
@@ -215,17 +215,17 @@ free_obj:
        return r;
 }
 
-void amdgpu_userqueue_destroy_object(struct amdgpu_userq_mgr *uq_mgr,
-                                  struct amdgpu_userq_obj *userq_obj)
+void amdgpu_userq_destroy_object(struct amdgpu_userq_mgr *uq_mgr,
+                                struct amdgpu_userq_obj *userq_obj)
 {
        amdgpu_bo_kunmap(userq_obj->obj);
        amdgpu_bo_unref(&userq_obj->obj);
 }
 
 uint64_t
-amdgpu_userqueue_get_doorbell_index(struct amdgpu_userq_mgr *uq_mgr,
-                                    struct amdgpu_db_info *db_info,
-                                    struct drm_file *filp)
+amdgpu_userq_get_doorbell_index(struct amdgpu_userq_mgr *uq_mgr,
+                               struct amdgpu_db_info *db_info,
+                               struct drm_file *filp)
 {
        uint64_t index;
        struct drm_gem_object *gobj;
@@ -292,7 +292,7 @@ unref_bo:
 }
 
 static int
-amdgpu_userqueue_destroy(struct drm_file *filp, int queue_id)
+amdgpu_userq_destroy(struct drm_file *filp, int queue_id)
 {
        struct amdgpu_fpriv *fpriv = filp->driver_priv;
        struct amdgpu_userq_mgr *uq_mgr = &fpriv->userq_mgr;
@@ -303,17 +303,17 @@ amdgpu_userqueue_destroy(struct drm_file *filp, int queue_id)
        cancel_delayed_work(&uq_mgr->resume_work);
        mutex_lock(&uq_mgr->userq_mutex);
 
-       queue = amdgpu_userqueue_find(uq_mgr, queue_id);
+       queue = amdgpu_userq_find(uq_mgr, queue_id);
        if (!queue) {
                DRM_DEBUG_DRIVER("Invalid queue id to destroy\n");
                mutex_unlock(&uq_mgr->userq_mutex);
                return -EINVAL;
        }
-       amdgpu_userqueue_wait_for_last_fence(uq_mgr, queue);
-       r = amdgpu_userqueue_unmap_helper(uq_mgr, queue);
+       amdgpu_userq_wait_for_last_fence(uq_mgr, queue);
+       r = amdgpu_userq_unmap_helper(uq_mgr, queue);
        amdgpu_bo_unpin(queue->db_obj.obj);
        amdgpu_bo_unref(&queue->db_obj.obj);
-       amdgpu_userqueue_cleanup(uq_mgr, queue, queue_id);
+       amdgpu_userq_cleanup(uq_mgr, queue, queue_id);
        mutex_unlock(&uq_mgr->userq_mutex);
 
        pm_runtime_mark_last_busy(adev_to_drm(adev)->dev);
@@ -338,7 +338,7 @@ static int amdgpu_userq_priority_permit(struct drm_file *filp,
 }
 
 static int
-amdgpu_userqueue_create(struct drm_file *filp, union drm_amdgpu_userq *args)
+amdgpu_userq_create(struct drm_file *filp, union drm_amdgpu_userq *args)
 {
        struct amdgpu_fpriv *fpriv = filp->driver_priv;
        struct amdgpu_userq_mgr *uq_mgr = &fpriv->userq_mgr;
@@ -387,7 +387,7 @@ amdgpu_userqueue_create(struct drm_file *filp, union drm_amdgpu_userq *args)
         *
         * This will also make sure we have a valid eviction fence ready to be used.
         */
-       amdgpu_userqueue_ensure_ev_fence(&fpriv->userq_mgr, &fpriv->evf_mgr);
+       amdgpu_userq_ensure_ev_fence(&fpriv->userq_mgr, &fpriv->evf_mgr);
 
        uq_funcs = adev->userq_funcs[args->in.ip_type];
        if (!uq_funcs) {
@@ -413,7 +413,7 @@ amdgpu_userqueue_create(struct drm_file *filp, union drm_amdgpu_userq *args)
        db_info.doorbell_offset = args->in.doorbell_offset;
 
        /* Convert relative doorbell offset into absolute doorbell index */
-       index = amdgpu_userqueue_get_doorbell_index(uq_mgr, &db_info, filp);
+       index = amdgpu_userq_get_doorbell_index(uq_mgr, &db_info, filp);
        if (index == (uint64_t)-EINVAL) {
                DRM_ERROR("Failed to get doorbell for queue\n");
                kfree(queue);
@@ -456,7 +456,7 @@ amdgpu_userqueue_create(struct drm_file *filp, union drm_amdgpu_userq *args)
        else
                skip_map_queue = false;
        if (!skip_map_queue) {
-               r = amdgpu_userqueue_map_helper(uq_mgr, queue);
+               r = amdgpu_userq_map_helper(uq_mgr, queue);
                if (r) {
                        mutex_unlock(&adev->userq_mutex);
                        DRM_ERROR("Failed to map Queue\n");
@@ -489,7 +489,7 @@ int amdgpu_userq_ioctl(struct drm_device *dev, void *data,
                if (args->in.flags & ~(AMDGPU_USERQ_CREATE_FLAGS_QUEUE_PRIORITY_MASK |
                                       AMDGPU_USERQ_CREATE_FLAGS_QUEUE_SECURE))
                        return -EINVAL;
-               r = amdgpu_userqueue_create(filp, args);
+               r = amdgpu_userq_create(filp, args);
                if (r)
                        DRM_ERROR("Failed to create usermode queue\n");
                break;
@@ -507,7 +507,7 @@ int amdgpu_userq_ioctl(struct drm_device *dev, void *data,
                    args->in.mqd ||
                    args->in.mqd_size)
                        return -EINVAL;
-               r = amdgpu_userqueue_destroy(filp, args->in.queue_id);
+               r = amdgpu_userq_destroy(filp, args->in.queue_id);
                if (r)
                        DRM_ERROR("Failed to destroy usermode queue\n");
                break;
@@ -528,7 +528,7 @@ int amdgpu_userq_ioctl(struct drm_device *dev, void *data,
 #endif
 
 static int
-amdgpu_userqueue_restore_all(struct amdgpu_userq_mgr *uq_mgr)
+amdgpu_userq_restore_all(struct amdgpu_userq_mgr *uq_mgr)
 {
        struct amdgpu_device *adev = uq_mgr->adev;
        struct amdgpu_usermode_queue *queue;
@@ -537,7 +537,7 @@ amdgpu_userqueue_restore_all(struct amdgpu_userq_mgr *uq_mgr)
 
        /* Resume all the queues for this process */
        idr_for_each_entry(&uq_mgr->userq_idr, queue, queue_id) {
-               r = amdgpu_userqueue_map_helper(uq_mgr, queue);
+               r = amdgpu_userq_map_helper(uq_mgr, queue);
                if (r)
                        ret = r;
        }
@@ -548,7 +548,7 @@ amdgpu_userqueue_restore_all(struct amdgpu_userq_mgr *uq_mgr)
 }
 
 static int
-amdgpu_userqueue_validate_vm_bo(void *_unused, struct amdgpu_bo *bo)
+amdgpu_userq_validate_vm_bo(void *_unused, struct amdgpu_bo *bo)
 {
        struct ttm_operation_ctx ctx = { false, false };
        int ret;
@@ -563,7 +563,7 @@ amdgpu_userqueue_validate_vm_bo(void *_unused, struct amdgpu_bo *bo)
 }
 
 static int
-amdgpu_userqueue_validate_bos(struct amdgpu_userq_mgr *uq_mgr)
+amdgpu_userq_validate_bos(struct amdgpu_userq_mgr *uq_mgr)
 {
        struct amdgpu_fpriv *fpriv = uq_mgr_to_fpriv(uq_mgr);
        struct amdgpu_vm *vm = &fpriv->vm;
@@ -619,7 +619,7 @@ amdgpu_userqueue_validate_bos(struct amdgpu_userq_mgr *uq_mgr)
                spin_unlock(&vm->status_lock);
 
                bo = bo_va->base.bo;
-               ret = amdgpu_userqueue_validate_vm_bo(NULL, bo);
+               ret = amdgpu_userq_validate_vm_bo(NULL, bo);
                if (ret) {
                        DRM_ERROR("Failed to validate BO\n");
                        goto unlock_all;
@@ -659,7 +659,7 @@ unlock_all:
        return ret;
 }
 
-static void amdgpu_userqueue_restore_worker(struct work_struct *work)
+static void amdgpu_userq_restore_worker(struct work_struct *work)
 {
        struct amdgpu_userq_mgr *uq_mgr = work_to_uq_mgr(work, resume_work.work);
        struct amdgpu_fpriv *fpriv = uq_mgr_to_fpriv(uq_mgr);
@@ -669,13 +669,13 @@ static void amdgpu_userqueue_restore_worker(struct work_struct *work)
 
        mutex_lock(&uq_mgr->userq_mutex);
 
-       ret = amdgpu_userqueue_validate_bos(uq_mgr);
+       ret = amdgpu_userq_validate_bos(uq_mgr);
        if (ret) {
                DRM_ERROR("Failed to validate BOs to restore\n");
                goto unlock;
        }
 
-       ret = amdgpu_userqueue_restore_all(uq_mgr);
+       ret = amdgpu_userq_restore_all(uq_mgr);
        if (ret) {
                DRM_ERROR("Failed to restore all queues\n");
                goto unlock;
@@ -686,7 +686,7 @@ unlock:
 }
 
 static int
-amdgpu_userqueue_evict_all(struct amdgpu_userq_mgr *uq_mgr)
+amdgpu_userq_evict_all(struct amdgpu_userq_mgr *uq_mgr)
 {
        struct amdgpu_device *adev = uq_mgr->adev;
        struct amdgpu_usermode_queue *queue;
@@ -695,7 +695,7 @@ amdgpu_userqueue_evict_all(struct amdgpu_userq_mgr *uq_mgr)
 
        /* Try to unmap all the queues in this process ctx */
        idr_for_each_entry(&uq_mgr->userq_idr, queue, queue_id) {
-               r = amdgpu_userqueue_unmap_helper(uq_mgr, queue);
+               r = amdgpu_userq_unmap_helper(uq_mgr, queue);
                if (r)
                        ret = r;
        }
@@ -706,7 +706,7 @@ amdgpu_userqueue_evict_all(struct amdgpu_userq_mgr *uq_mgr)
 }
 
 static int
-amdgpu_userqueue_wait_for_signal(struct amdgpu_userq_mgr *uq_mgr)
+amdgpu_userq_wait_for_signal(struct amdgpu_userq_mgr *uq_mgr)
 {
        struct amdgpu_usermode_queue *queue;
        int queue_id, ret;
@@ -728,21 +728,21 @@ amdgpu_userqueue_wait_for_signal(struct amdgpu_userq_mgr *uq_mgr)
 }
 
 void
-amdgpu_userqueue_evict(struct amdgpu_userq_mgr *uq_mgr,
-                      struct amdgpu_eviction_fence *ev_fence)
+amdgpu_userq_evict(struct amdgpu_userq_mgr *uq_mgr,
+                  struct amdgpu_eviction_fence *ev_fence)
 {
        int ret;
        struct amdgpu_fpriv *fpriv = uq_mgr_to_fpriv(uq_mgr);
        struct amdgpu_eviction_fence_mgr *evf_mgr = &fpriv->evf_mgr;
 
        /* Wait for any pending userqueue fence work to finish */
-       ret = amdgpu_userqueue_wait_for_signal(uq_mgr);
+       ret = amdgpu_userq_wait_for_signal(uq_mgr);
        if (ret) {
                DRM_ERROR("Not evicting userqueue, timeout waiting for work\n");
                return;
        }
 
-       ret = amdgpu_userqueue_evict_all(uq_mgr);
+       ret = amdgpu_userq_evict_all(uq_mgr);
        if (ret) {
                DRM_ERROR("Failed to evict userqueue\n");
                return;
@@ -770,7 +770,7 @@ int amdgpu_userq_mgr_init(struct amdgpu_userq_mgr *userq_mgr, struct amdgpu_devi
        list_add(&userq_mgr->list, &adev->userq_mgr_list);
        mutex_unlock(&adev->userq_mutex);
 
-       INIT_DELAYED_WORK(&userq_mgr->resume_work, amdgpu_userqueue_restore_worker);
+       INIT_DELAYED_WORK(&userq_mgr->resume_work, amdgpu_userq_restore_worker);
        return 0;
 }
 
@@ -785,9 +785,9 @@ void amdgpu_userq_mgr_fini(struct amdgpu_userq_mgr *userq_mgr)
 
        mutex_lock(&userq_mgr->userq_mutex);
        idr_for_each_entry(&userq_mgr->userq_idr, queue, queue_id) {
-               amdgpu_userqueue_wait_for_last_fence(userq_mgr, queue);
-               amdgpu_userqueue_unmap_helper(userq_mgr, queue);
-               amdgpu_userqueue_cleanup(userq_mgr, queue, queue_id);
+               amdgpu_userq_wait_for_last_fence(userq_mgr, queue);
+               amdgpu_userq_unmap_helper(userq_mgr, queue);
+               amdgpu_userq_cleanup(userq_mgr, queue, queue_id);
        }
        mutex_lock(&adev->userq_mutex);
        list_for_each_entry_safe(uqm, tmp, &adev->userq_mgr_list, list) {
@@ -804,7 +804,7 @@ void amdgpu_userq_mgr_fini(struct amdgpu_userq_mgr *userq_mgr)
 
 int amdgpu_userq_suspend(struct amdgpu_device *adev)
 {
-       u32 ip_mask = amdgpu_userqueue_get_supported_ip_mask(adev);
+       u32 ip_mask = amdgpu_userq_get_supported_ip_mask(adev);
        struct amdgpu_usermode_queue *queue;
        struct amdgpu_userq_mgr *uqm, *tmp;
        int queue_id;
@@ -817,7 +817,7 @@ int amdgpu_userq_suspend(struct amdgpu_device *adev)
        list_for_each_entry_safe(uqm, tmp, &adev->userq_mgr_list, list) {
                cancel_delayed_work_sync(&uqm->resume_work);
                idr_for_each_entry(&uqm->userq_idr, queue, queue_id) {
-                       r = amdgpu_userqueue_unmap_helper(uqm, queue);
+                       r = amdgpu_userq_unmap_helper(uqm, queue);
                        if (r)
                                ret = r;
                }
@@ -828,7 +828,7 @@ int amdgpu_userq_suspend(struct amdgpu_device *adev)
 
 int amdgpu_userq_resume(struct amdgpu_device *adev)
 {
-       u32 ip_mask = amdgpu_userqueue_get_supported_ip_mask(adev);
+       u32 ip_mask = amdgpu_userq_get_supported_ip_mask(adev);
        struct amdgpu_usermode_queue *queue;
        struct amdgpu_userq_mgr *uqm, *tmp;
        int queue_id;
@@ -840,7 +840,7 @@ int amdgpu_userq_resume(struct amdgpu_device *adev)
        mutex_lock(&adev->userq_mutex);
        list_for_each_entry_safe(uqm, tmp, &adev->userq_mgr_list, list) {
                idr_for_each_entry(&uqm->userq_idr, queue, queue_id) {
-                       r = amdgpu_userqueue_map_helper(uqm, queue);
+                       r = amdgpu_userq_map_helper(uqm, queue);
                        if (r)
                                ret = r;
                }
@@ -852,7 +852,7 @@ int amdgpu_userq_resume(struct amdgpu_device *adev)
 int amdgpu_userq_stop_sched_for_enforce_isolation(struct amdgpu_device *adev,
                                                  u32 idx)
 {
-       u32 ip_mask = amdgpu_userqueue_get_supported_ip_mask(adev);
+       u32 ip_mask = amdgpu_userq_get_supported_ip_mask(adev);
        struct amdgpu_usermode_queue *queue;
        struct amdgpu_userq_mgr *uqm, *tmp;
        int queue_id;
@@ -872,7 +872,7 @@ int amdgpu_userq_stop_sched_for_enforce_isolation(struct amdgpu_device *adev,
                        if (((queue->queue_type == AMDGPU_HW_IP_GFX) ||
                             (queue->queue_type == AMDGPU_HW_IP_COMPUTE)) &&
                            (queue->xcp_id == idx)) {
-                               r = amdgpu_userqueue_unmap_helper(uqm, queue);
+                               r = amdgpu_userq_unmap_helper(uqm, queue);
                                if (r)
                                        ret = r;
                        }
@@ -885,7 +885,7 @@ int amdgpu_userq_stop_sched_for_enforce_isolation(struct amdgpu_device *adev,
 int amdgpu_userq_start_sched_for_enforce_isolation(struct amdgpu_device *adev,
                                                   u32 idx)
 {
-       u32 ip_mask = amdgpu_userqueue_get_supported_ip_mask(adev);
+       u32 ip_mask = amdgpu_userq_get_supported_ip_mask(adev);
        struct amdgpu_usermode_queue *queue;
        struct amdgpu_userq_mgr *uqm, *tmp;
        int queue_id;
@@ -904,7 +904,7 @@ int amdgpu_userq_start_sched_for_enforce_isolation(struct amdgpu_device *adev,
                        if (((queue->queue_type == AMDGPU_HW_IP_GFX) ||
                             (queue->queue_type == AMDGPU_HW_IP_COMPUTE)) &&
                            (queue->xcp_id == idx)) {
-                               r = amdgpu_userqueue_map_helper(uqm, queue);
+                               r = amdgpu_userq_map_helper(uqm, queue);
                                if (r)
                                        ret = r;
                        }
similarity index 80%
rename from drivers/gpu/drm/amd/amdgpu/amdgpu_userqueue.h
rename to drivers/gpu/drm/amd/amdgpu/amdgpu_userq.h
index a9f0e46bcec052c3658ef5fb809c51bf159b1057..4d3eb651acf1a0091f973d4337c6cc3c90205a66 100644 (file)
@@ -22,8 +22,8 @@
  *
  */
 
-#ifndef AMDGPU_USERQUEUE_H_
-#define AMDGPU_USERQUEUE_H_
+#ifndef AMDGPU_USERQ_H_
+#define AMDGPU_USERQ_H_
 #include "amdgpu_eviction_fence.h"
 
 #define AMDGPU_MAX_USERQ_COUNT 512
@@ -32,7 +32,7 @@
 #define uq_mgr_to_fpriv(u) container_of(u, struct amdgpu_fpriv, userq_mgr)
 #define work_to_uq_mgr(w, name) container_of(w, struct amdgpu_userq_mgr, name)
 
-enum amdgpu_userqueue_state {
+enum amdgpu_userq_state {
        AMDGPU_USERQ_STATE_UNMAPPED = 0,
        AMDGPU_USERQ_STATE_MAPPED,
        AMDGPU_USERQ_STATE_PREEMPTED,
@@ -49,7 +49,7 @@ struct amdgpu_userq_obj {
 
 struct amdgpu_usermode_queue {
        int                     queue_type;
-       enum amdgpu_userqueue_state state;
+       enum amdgpu_userq_state state;
        uint64_t                doorbell_handle;
        uint64_t                doorbell_index;
        uint64_t                flags;
@@ -101,26 +101,26 @@ int amdgpu_userq_mgr_init(struct amdgpu_userq_mgr *userq_mgr, struct amdgpu_devi
 
 void amdgpu_userq_mgr_fini(struct amdgpu_userq_mgr *userq_mgr);
 
-int amdgpu_userqueue_create_object(struct amdgpu_userq_mgr *uq_mgr,
-                                  struct amdgpu_userq_obj *userq_obj,
-                                  int size);
+int amdgpu_userq_create_object(struct amdgpu_userq_mgr *uq_mgr,
+                              struct amdgpu_userq_obj *userq_obj,
+                              int size);
 
-void amdgpu_userqueue_destroy_object(struct amdgpu_userq_mgr *uq_mgr,
-                                    struct amdgpu_userq_obj *userq_obj);
+void amdgpu_userq_destroy_object(struct amdgpu_userq_mgr *uq_mgr,
+                                struct amdgpu_userq_obj *userq_obj);
 
-void amdgpu_userqueue_evict(struct amdgpu_userq_mgr *uq_mgr,
-                           struct amdgpu_eviction_fence *ev_fence);
+void amdgpu_userq_evict(struct amdgpu_userq_mgr *uq_mgr,
+                       struct amdgpu_eviction_fence *ev_fence);
 
-int amdgpu_userqueue_active(struct amdgpu_userq_mgr *uq_mgr);
+int amdgpu_userq_active(struct amdgpu_userq_mgr *uq_mgr);
 
-void amdgpu_userqueue_ensure_ev_fence(struct amdgpu_userq_mgr *userq_mgr,
-                                     struct amdgpu_eviction_fence_mgr *evf_mgr);
+void amdgpu_userq_ensure_ev_fence(struct amdgpu_userq_mgr *userq_mgr,
+                                 struct amdgpu_eviction_fence_mgr *evf_mgr);
 
-uint64_t amdgpu_userqueue_get_doorbell_index(struct amdgpu_userq_mgr *uq_mgr,
-                                            struct amdgpu_db_info *db_info,
+uint64_t amdgpu_userq_get_doorbell_index(struct amdgpu_userq_mgr *uq_mgr,
+                                        struct amdgpu_db_info *db_info,
                                             struct drm_file *filp);
 
-u32 amdgpu_userqueue_get_supported_ip_mask(struct amdgpu_device *adev);
+u32 amdgpu_userq_get_supported_ip_mask(struct amdgpu_device *adev);
 
 int amdgpu_userq_suspend(struct amdgpu_device *adev);
 int amdgpu_userq_resume(struct amdgpu_device *adev);
index ca198360cfdad9142ae6b1c2701449673cbcd6e5..be068e8e37d17613d3fa3c4751b1e6ac62d64dbc 100644 (file)
@@ -292,7 +292,7 @@ static int amdgpu_userq_fence_create(struct amdgpu_usermode_queue *userq,
 
 static const char *amdgpu_userq_fence_get_driver_name(struct dma_fence *f)
 {
-       return "amdgpu_userqueue_fence";
+       return "amdgpu_userq_fence";
 }
 
 static const char *amdgpu_userq_fence_get_timeline_name(struct dma_fence *f)
@@ -513,7 +513,7 @@ int amdgpu_userq_signal_ioctl(struct drm_device *dev, void *data,
                goto put_gobj_write;
 
        /* We are here means UQ is active, make sure the eviction fence is valid */
-       amdgpu_userqueue_ensure_ev_fence(&fpriv->userq_mgr, &fpriv->evf_mgr);
+       amdgpu_userq_ensure_ev_fence(&fpriv->userq_mgr, &fpriv->evf_mgr);
 
        /* Create a new fence */
        r = amdgpu_userq_fence_create(queue, userq_fence, wptr, &fence);
index 2af4e0c157732be3504da98a67ec2771d87094f3..97a125ab8a78696958c45fa8f566e1872f88746f 100644 (file)
@@ -27,7 +27,7 @@
 
 #include <linux/types.h>
 
-#include "amdgpu_userqueue.h"
+#include "amdgpu_userq.h"
 
 struct amdgpu_userq_fence {
        struct dma_fence base;
index 4c01c3a0309565390a950e137eff1a21d79d200c..d6f50b13e2ba0f02d4cfab668589d7c7c99cd193 100644 (file)
@@ -189,7 +189,7 @@ static int mes_userq_create_ctx_space(struct amdgpu_userq_mgr *uq_mgr,
         * for the same.
         */
        size = AMDGPU_USERQ_PROC_CTX_SZ + AMDGPU_USERQ_GANG_CTX_SZ;
-       r = amdgpu_userqueue_create_object(uq_mgr, ctx, size);
+       r = amdgpu_userq_create_object(uq_mgr, ctx, size);
        if (r) {
                DRM_ERROR("Failed to allocate ctx space bo for userqueue, err:%d\n", r);
                return r;
@@ -222,7 +222,7 @@ static int mes_userq_mqd_create(struct amdgpu_userq_mgr *uq_mgr,
                goto free_props;
        }
 
-       r = amdgpu_userqueue_create_object(uq_mgr, &queue->mqd, mqd_hw_default->mqd_size);
+       r = amdgpu_userq_create_object(uq_mgr, &queue->mqd, mqd_hw_default->mqd_size);
        if (r) {
                DRM_ERROR("Failed to create MQD object for userqueue\n");
                goto free_props;
@@ -327,10 +327,10 @@ static int mes_userq_mqd_create(struct amdgpu_userq_mgr *uq_mgr,
        return 0;
 
 free_ctx:
-       amdgpu_userqueue_destroy_object(uq_mgr, &queue->fw_obj);
+       amdgpu_userq_destroy_object(uq_mgr, &queue->fw_obj);
 
 free_mqd:
-       amdgpu_userqueue_destroy_object(uq_mgr, &queue->mqd);
+       amdgpu_userq_destroy_object(uq_mgr, &queue->mqd);
 
 free_props:
        kfree(userq_props);
@@ -342,9 +342,9 @@ static void
 mes_userq_mqd_destroy(struct amdgpu_userq_mgr *uq_mgr,
                      struct amdgpu_usermode_queue *queue)
 {
-       amdgpu_userqueue_destroy_object(uq_mgr, &queue->fw_obj);
+       amdgpu_userq_destroy_object(uq_mgr, &queue->fw_obj);
        kfree(queue->userq_prop);
-       amdgpu_userqueue_destroy_object(uq_mgr, &queue->mqd);
+       amdgpu_userq_destroy_object(uq_mgr, &queue->mqd);
 }
 
 const struct amdgpu_userq_funcs userq_mes_funcs = {
index d0a521312ad4bf1092c002bc6d5d25c1c3983cfa..090ae889777059afd08fb1b0753c1c41eb8d3434 100644 (file)
@@ -24,7 +24,7 @@
 
 #ifndef MES_USERQ_H
 #define MES_USERQ_H
-#include "amdgpu_userqueue.h"
+#include "amdgpu_userq.h"
 
 extern const struct amdgpu_userq_funcs userq_mes_funcs;
 #endif