Symbol: gt_to_xe
drivers/gpu/drm/xe/tests/xe_gt_sriov_pf_config_kunit.c
111
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_gt_sriov_pf_config_kunit.c
126
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_gt_sriov_pf_config_kunit.c
151
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_gt_sriov_pf_config_kunit.c
166
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_gt_sriov_pf_config_kunit.c
71
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_gt_sriov_pf_config_kunit.c
86
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_guc_g2g_test.c
301
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_guc_g2g_test.c
540
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_guc_g2g_test.c
567
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_migrate.c
374
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/tests/xe_mocs.c
30
flags = get_mocs_settings(gt_to_xe(gt), &arg->table);
drivers/gpu/drm/xe/xe_bb.c
19
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_bb.c
66
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_devcoredump.c
210
xe_pm_runtime_get(gt_to_xe(ss->gt));
drivers/gpu/drm/xe/xe_devcoredump.c
244
xe_pm_runtime_put(gt_to_xe(ss->gt));
drivers/gpu/drm/xe/xe_devcoredump.c
284
dev_coredumpm_timeout(gt_to_xe(ss->gt)->drm.dev, THIS_MODULE, coredump, 0, GFP_KERNEL,
drivers/gpu/drm/xe/xe_devcoredump.c
377
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_eu_stall.c
235
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_eu_stall.c
438
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_eu_stall.c
667
xe_pm_runtime_get(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_eu_stall.c
671
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_eu_stall.c
760
stream->data_record_size = xe_eu_stall_data_record_size(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_eu_stall.c
836
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_exec_queue.c
1077
if (IS_SRIOV_PF(gt_to_xe(gt)) && xe_gt_sriov_pf_sched_groups_enabled(gt))
drivers/gpu/drm/xe/xe_exec_queue.c
1080
if (IS_SRIOV_VF(gt_to_xe(gt)) && xe_gt_sriov_vf_sched_groups_enabled(gt))
drivers/gpu/drm/xe/xe_exec_queue.c
1354
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_exec_queue.c
150
xe_pxp_exec_queue_remove(gt_to_xe(q->gt)->pxp, q);
drivers/gpu/drm/xe/xe_exec_queue.c
292
if (GRAPHICS_VER(gt_to_xe(q->gt)) >= 20)
drivers/gpu/drm/xe/xe_exec_queue.c
477
xe_assert(gt_to_xe(q->gt), atomic_read(&q->job_cnt) == 0);
drivers/gpu/drm/xe/xe_exec_queue.c
483
xe_pxp_exec_queue_remove(gt_to_xe(q->gt)->pxp, q);
drivers/gpu/drm/xe/xe_execlist.c
100
struct xe_device *xe = gt_to_xe(port->hwe->gt);
drivers/gpu/drm/xe/xe_execlist.c
302
spin_lock_irq(&gt_to_xe(port->hwe->gt)->irq.lock);
drivers/gpu/drm/xe/xe_execlist.c
304
spin_unlock_irq(&gt_to_xe(port->hwe->gt)->irq.lock);
drivers/gpu/drm/xe/xe_execlist.c
345
.dev = gt_to_xe(q->gt)->drm.dev,
drivers/gpu/drm/xe/xe_execlist.c
348
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_execlist.c
403
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_execlist.c
48
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_execlist.c
488
if (xe_device_uc_enabled(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_execlist.c
85
if (xe_device_has_msix(gt_to_xe(hwe->gt)))
drivers/gpu/drm/xe/xe_force_wake.c
109
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_force_wake.c
47
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_force_wake.c
98
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gsc.c
132
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc.c
205
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc.c
343
xe_device_declare_wedged(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gsc.c
354
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc.c
425
else if (gt_to_xe(gt)->info.platform >= XE_BATTLEMAGE && !xe_uc_fw_is_available(&gsc->fw))
drivers/gpu/drm/xe/xe_gsc.c
460
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc.c
48
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc.c
517
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc_debugfs.c
25
return gt_to_xe(gsc_to_gt(gsc));
drivers/gpu/drm/xe/xe_gsc_proxy.c
224
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc_proxy.c
415
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc_proxy.c
441
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gsc_proxy.c
461
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt.c
1138
xe_gt_assert(gt, gt_to_xe(gt)->wedged.mode);
drivers/gpu/drm/xe/xe_gt.c
143
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt.c
381
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt.c
459
if (IS_SRIOV_PF(gt_to_xe(gt))) {
drivers/gpu/drm/xe/xe_gt.c
465
if (IS_SRIOV_VF(gt_to_xe(gt))) {
drivers/gpu/drm/xe/xe_gt.c
471
xe_reg_sr_init(&gt->reg_sr, "GT", gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.c
519
p = drm_dbg_printer(&gt_to_xe(gt)->drm, DRM_UT_DRIVER, prefix);
drivers/gpu/drm/xe/xe_gt.c
545
if (IS_SRIOV_PF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
613
if (gt_to_xe(gt)->info.has_usm) {
drivers/gpu/drm/xe/xe_gt.c
614
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt.c
641
if (IS_SRIOV_PF(gt_to_xe(gt)) && xe_gt_is_main_type(gt))
drivers/gpu/drm/xe/xe_gt.c
644
if (IS_SRIOV_PF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
660
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.c
680
err = devm_add_action_or_reset(gt_to_xe(gt)->drm.dev, xe_gt_fini, gt);
drivers/gpu/drm/xe/xe_gt.c
712
if (IS_SRIOV_VF(gt_to_xe(gt))) {
drivers/gpu/drm/xe/xe_gt.c
772
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
813
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
839
if (IS_SRIOV_PF(gt_to_xe(gt)) && xe_gt_is_main_type(gt))
drivers/gpu/drm/xe/xe_gt.c
842
if (IS_SRIOV_PF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
860
if (IS_SRIOV_PF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
872
if (xe_device_wedged(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
876
if (!xe_device_uc_enabled(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
894
if (IS_SRIOV_PF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt.c
899
xe_pagefault_reset(gt_to_xe(gt), gt);
drivers/gpu/drm/xe/xe_gt.c
916
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.c
928
xe_device_declare_wedged(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.c
930
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.c
944
xe_pm_runtime_get_noresume(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.c
946
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.h
125
xe_device_uc_enabled(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt.h
140
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt.h
154
return IS_SRIOV_VF(gt_to_xe(gt)) &&
drivers/gpu/drm/xe/xe_gt.h
37
struct xe_device *xe = gt_to_xe(gt_); \
drivers/gpu/drm/xe/xe_gt_ccs_mode.c
117
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_ccs_mode.c
193
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_ccs_mode.c
22
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_ccs_mode.c
86
if (!gt->ccs_mode || IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_debugfs.c
106
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_debugfs.c
259
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_debugfs.c
286
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_debugfs.c
313
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_debugfs.c
314
struct drm_minor *minor = gt_to_xe(gt)->drm.primary;
drivers/gpu/drm/xe/xe_gt_freq.c
276
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_freq.c
63
return gt_to_xe(kobj_to_gt(dev->kobj.parent));
drivers/gpu/drm/xe/xe_gt_idle.c
103
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_idle.c
116
xe_device_assert_mem_access(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_idle.c
161
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_idle.c
164
xe_device_assert_mem_access(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_idle.c
183
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_idle.c
330
if (gt_to_xe(gt)->info.skip_guc_pc)
drivers/gpu/drm/xe/xe_gt_idle.c
340
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_idle.c
378
xe_device_assert_mem_access(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_idle.c
381
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_idle.c
393
xe_device_assert_mem_access(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_idle.c
395
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_idle.c
54
return gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_mcr.c
285
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_mcr.c
393
if (GRAPHICS_VERx100(gt_to_xe(gt)) >= 2000 &&
drivers/gpu/drm/xe/xe_gt_mcr.c
394
!gt_to_xe(gt)->info.force_execlist)
drivers/gpu/drm/xe/xe_gt_mcr.c
397
if (gt_to_xe(gt)->info.platform == XE_PVC)
drivers/gpu/drm/xe/xe_gt_mcr.c
399
else if (GRAPHICS_VERx100(gt_to_xe(gt)) >= 1250)
drivers/gpu/drm/xe/xe_gt_mcr.c
501
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_mcr.c
571
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_mcr.c
592
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_mcr.c
641
drm_WARN(&gt_to_xe(gt)->drm, !gt->steering[type].initialized,
drivers/gpu/drm/xe/xe_gt_mcr.c
662
drm_WARN(&gt_to_xe(gt)->drm, true,
drivers/gpu/drm/xe/xe_gt_mcr.c
678
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_mcr.c
699
if (GRAPHICS_VERx100(gt_to_xe(gt)) >= 1270)
drivers/gpu/drm/xe/xe_gt_mcr.c
720
if (GRAPHICS_VERx100(gt_to_xe(gt)) >= 1270) {
drivers/gpu/drm/xe/xe_gt_mcr.c
785
xe_gt_assert(gt, !IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_mcr.c
818
xe_gt_assert(gt, !IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_mcr.c
841
xe_gt_assert(gt, !IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_mcr.c
861
xe_gt_assert(gt, !IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
105
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
158
if (pf_needs_enable_ggtt_guest_update(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
189
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
196
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
201
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
218
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
240
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
266
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
299
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
42
gt->sriov.pf.vfs = drmm_kcalloc(&gt_to_xe(gt)->drm, 1 + num_vfs,
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
52
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
58
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf.c
63
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1144
bool admin_only_pf = xe_sriov_pf_admin_only(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1215
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1226
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1329
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1330
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1356
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1357
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1408
bool admin_only_pf = xe_sriov_pf_admin_only(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1486
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1497
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1518
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1630
xe_gt_assert(gt, IS_DGFX(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1645
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1741
if (!xe_device_has_lmtt(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
1878
if (!xe_device_has_lmtt(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
252
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2529
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
253
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2616
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2689
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2729
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2756
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2837
if (!IS_DGFX(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2892
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2951
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2970
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
2997
unsigned int n, total_vfs = xe_sriov_pf_get_totalvfs(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3032
unsigned int n, total_vfs = xe_sriov_pf_get_totalvfs(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3066
unsigned int n, total_vfs = xe_sriov_pf_get_totalvfs(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3069
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3101
unsigned int n, total_vfs = xe_sriov_pf_get_totalvfs(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3104
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3136
unsigned int n, total_vfs = xe_sriov_pf_get_totalvfs(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3140
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
3174
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
432
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
449
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
461
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
516
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
750
bool admin_only_pf = xe_sriov_pf_admin_only(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
816
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
846
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
867
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
878
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
1127
wake_up_all(xe_sriov_pf_migration_waitqueue(gt_to_xe(gt), vfid));
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
1564
xe_sriov_pf_control_sync_flr(gt_to_xe(gt), vfid);
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
1646
xe_sriov_pf_service_reset_vf(gt_to_xe(gt), vfid);
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
1737
ret = xe_sriov_pf_control_sync_flr(gt_to_xe(gt), vfid);
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
1874
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
1970
if (unlikely(!xe_device_is_sriov_pf(gt_to_xe(gt))))
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
2089
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
2095
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
2116
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
2147
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
234
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
358
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
369
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_control.c
850
wake_up_all(xe_sriov_pf_migration_waitqueue(gt_to_xe(gt), vfid));
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
120
struct xe_device *xe = gt_to_xe(gt); \
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
256
guard(xe_pm_runtime)(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
328
guard(xe_pm_runtime)(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
478
struct xe_device *xe = gt_to_xe(gt); \
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
537
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
629
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
786
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
808
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
852
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
854
xe_gt_assert(gt, extract_priv(parent->d_parent) == gt_to_xe(gt) ||
drivers/gpu/drm/xe/xe_gt_sriov_pf_debugfs.c
911
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_helpers.h
23
#define xe_gt_sriov_pf_assert_vfid(gt, vfid) xe_sriov_pf_assert_vfid(gt_to_xe(gt), (vfid))
drivers/gpu/drm/xe/xe_gt_sriov_pf_helpers.h
27
return xe_sriov_pf_get_totalvfs(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_helpers.h
32
return xe_sriov_pf_master_mutex(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
1030
xe_sriov_pf_migration_disable(gt_to_xe(gt), "requires GuC version >= 70.54.0");
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
1043
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
126
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
128
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
146
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
148
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
237
return xe_sriov_pf_migration_supported(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
252
data = xe_sriov_packet_alloc(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
313
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
315
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
34
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
357
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
359
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
36
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
427
data = xe_sriov_packet_alloc(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
483
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
485
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
503
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
505
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
562
data = xe_sriov_packet_alloc(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
694
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
696
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
71
data = xe_sriov_packet_alloc(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
714
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
716
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
735
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
737
xe_gt_assert(gt, vfid <= xe_sriov_pf_get_totalvfs(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
892
wake_up_all(xe_sriov_pf_migration_waitqueue(gt_to_xe(gt), vfid));
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
914
struct wait_queue_head *wq = xe_sriov_pf_migration_waitqueue(gt_to_xe(gt), vfid);
drivers/gpu/drm/xe/xe_gt_sriov_pf_migration.c
963
ret = wait_event_interruptible(*xe_sriov_pf_migration_waitqueue(gt_to_xe(gt), vfid),
drivers/gpu/drm/xe/xe_gt_sriov_pf_monitor.c
124
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_monitor.c
28
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_monitor.c
38
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_monitor.c
80
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
161
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
172
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
187
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
195
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
233
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
244
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
253
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
261
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
299
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
310
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
319
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
327
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
365
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
393
if (gt_to_xe(gt)->info.platform > XE_BATTLEMAGE)
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
429
values = drmm_kcalloc(&gt_to_xe(gt)->drm, group, sizeof(struct guc_sched_group),
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
472
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
480
gt_to_xe(gt)->info.platform >= XE_BATTLEMAGE;
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
576
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
590
if (xe_sriov_pf_num_vfs(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
617
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
629
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
704
xe_pm_runtime_get_noresume(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
715
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_pf_policy.c
756
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_service.c
152
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_pf_service.c
265
err = xe_sriov_pf_service_handshake_vf(gt_to_xe(gt), origin, wanted_major, wanted_minor,
drivers/gpu/drm/xe/xe_gt_sriov_pf_service.c
296
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_pf_service.c
326
if (!xe_sriov_pf_service_is_negotiated(gt_to_xe(gt), origin, 1, 0))
drivers/gpu/drm/xe/xe_gt_sriov_pf_service.c
412
xe_gt_assert(gt, IS_SRIOV_PF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_printk.h
16
xe_sriov_##_level(gt_to_xe(gt), __XE_GT_SRIOV_PRINTK_FMT((gt), fmt, ##__VA_ARGS__))
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1015
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1062
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1084
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1118
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1141
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1145
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
117
if (!xe_device_uc_enabled(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1179
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1194
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1200
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1226
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1265
xe_sriov_vf_ccs_rebase(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1284
xe_irq_resume(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1335
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1346
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1432
if (!xe_sriov_vf_migration_supported(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1435
buf = drmm_kmalloc(&gt_to_xe(gt)->drm,
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1436
post_migration_scratch_size(gt_to_xe(gt)),
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1457
if (!xe_sriov_vf_migration_supported(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1465
return devm_add_action_or_reset(gt_to_xe(gt)->drm.dev,
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1485
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1488
if (xe_device_uses_memirq(gt_to_xe(gt)) &&
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1498
bool irq_pending = xe_device_uses_memirq(gt_to_xe(gt)) &&
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1501
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1517
if (!IS_SRIOV_VF(gt_to_xe(gt)) ||
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
1518
!xe_sriov_vf_migration_supported(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
172
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
206
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
296
if (!xe_device_uc_enabled(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
323
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
352
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
380
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
473
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
474
xe_gt_assert(gt, !GRAPHICS_VERx100(gt_to_xe(gt)) || has_gmdid(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
497
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
532
if (xe_sriov_vf_migration_supported(gt_to_xe(gt))) {
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
549
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
577
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
608
xe_gt_assert(gt, has_gmdid(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
609
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
649
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
672
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
710
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
726
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
745
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
780
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
846
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
876
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
892
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
904
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sriov_vf.c
940
xe_gt_assert(gt, IS_SRIOV_VF(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_gt_sriov_vf_debugfs.c
54
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_sysfs.c
35
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_throttle.c
124
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_throttle.c
250
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_throttle.c
258
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_throttle.c
86
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_topology.c
135
if (xe_gt_is_media_type(gt) && MEDIA_VER(gt_to_xe(gt)) >= 30)
drivers/gpu/drm/xe/xe_gt_topology.c
144
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_topology.c
240
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_topology.c
333
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_gt_topology.c
37
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc.c
1599
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_guc.c
1694
if (!IS_SRIOV_VF(gt_to_xe(gt))) {
drivers/gpu/drm/xe/xe_guc.c
1764
if (xe_gt_is_media_type(gt) && MEDIA_VER(gt_to_xe(gt)) == 35) {
drivers/gpu/drm/xe/xe_guc.c
178
if (CCS_INSTANCES(gt) && GRAPHICS_VERx100(gt_to_xe(gt)) >= 1270)
drivers/gpu/drm/xe/xe_guc.c
296
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc.c
316
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc.c
406
struct xe_device *xe = gt_to_xe(near_gt);
drivers/gpu/drm/xe/xe_guc.c
417
xe_assert(xe, xe == gt_to_xe(far_gt));
drivers/gpu/drm/xe/xe_guc.c
444
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc.c
466
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc.c
520
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc.c
912
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_guc.h
98
return gt_to_xe(guc_to_gt(guc));
drivers/gpu/drm/xe/xe_guc_ads.c
462
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_ads.c
51
return gt_to_xe(ads_to_gt(ads));
drivers/gpu/drm/xe/xe_guc_ads.c
531
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_ads.c
544
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_ads.c
563
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_capture.c
1606
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_capture.c
1699
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_capture.c
1820
xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_capture.c
1888
xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_guc_capture.c
1945
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_guc_capture.c
355
reglists = guc_capture_get_device_reglist(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_guc_capture.c
430
bool has_xehpg_extregs = GRAPHICS_VERx100(gt_to_xe(gt)) >= 1255;
drivers/gpu/drm/xe/xe_guc_capture.c
431
struct drm_device *drm = &gt_to_xe(gt)->drm;
drivers/gpu/drm/xe/xe_guc_ct.c
57
return gt_to_xe(ct_to_gt(ct));
drivers/gpu/drm/xe/xe_guc_db_mgr.c
43
return gt_to_xe(dbm_to_gt(dbm));
drivers/gpu/drm/xe/xe_guc_debugfs.c
70
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_engine_activity.c
105
bo = xe_bo_create_pin_map_novm(gt_to_xe(gt), tile, PAGE_ALIGN(size),
drivers/gpu/drm/xe/xe_guc_engine_activity.c
131
if (IS_SRIOV_VF(gt_to_xe(gt))) {
drivers/gpu/drm/xe/xe_guc_engine_activity.c
519
return devm_add_action_or_reset(gt_to_xe(gt)->drm.dev, engine_activity_fini,
drivers/gpu/drm/xe/xe_guc_engine_activity.c
97
metadata_bo = xe_bo_create_pin_map_novm(gt_to_xe(gt), tile, PAGE_ALIGN(metadata_size),
drivers/gpu/drm/xe/xe_guc_id_mgr.c
29
return gt_to_xe(idm_to_gt(idm));
drivers/gpu/drm/xe/xe_guc_log.c
110
return gt_to_xe(log_to_gt(log));
drivers/gpu/drm/xe/xe_guc_pc.c
1362
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_pc.c
450
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_pc.c
536
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_pc.c
730
if (GRAPHICS_VERx100(gt_to_xe(gt)) >= 1270) {
drivers/gpu/drm/xe/xe_guc_pc.c
796
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_pc.c
812
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_guc_relay.c
55
return gt_to_xe(relay_to_gt(relay));
drivers/gpu/drm/xe/xe_guc_submit.c
1348
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_guc_submit.c
1963
q->name, gt_to_xe(q->gt)->drm.dev);
drivers/gpu/drm/xe/xe_guc_submit.c
2428
struct xe_device *xe = gt_to_xe(lrc->gt);
drivers/gpu/drm/xe/xe_guc_tlb_inval.c
137
if (!gt_to_xe(gt)->info.has_range_tlb_inval ||
drivers/gpu/drm/xe/xe_huc.c
159
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_huc.c
36
return gt_to_xe(huc_to_gt(huc));
drivers/gpu/drm/xe/xe_huc.c
49
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_huc.c
68
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_huc_debugfs.c
25
return gt_to_xe(huc_to_gt(huc));
drivers/gpu/drm/xe/xe_hw_engine.c
1026
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_engine.c
340
if (xe_device_has_msix(gt_to_xe(hwe->gt)))
drivers/gpu/drm/xe/xe_hw_engine.c
356
if (GRAPHICS_VER(gt_to_xe(gt)) >= 35)
drivers/gpu/drm/xe/xe_hw_engine.c
418
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_engine.c
521
hwe->irq_offset = xe_device_has_msix(gt_to_xe(gt)) ?
drivers/gpu/drm/xe/xe_hw_engine.c
570
xe_reg_sr_init(&hwe->reg_sr, hwe->name, gt_to_xe(gt));
drivers/gpu/drm/xe/xe_hw_engine.c
575
xe_reg_sr_init(&hwe->reg_whitelist, hwe->name, gt_to_xe(gt));
drivers/gpu/drm/xe/xe_hw_engine.c
587
if (!IS_SRIOV_VF(gt_to_xe(hwe->gt)) && XE_GT_WA(gt, 16023105232)) {
drivers/gpu/drm/xe/xe_hw_engine.c
609
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_engine.c
677
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_engine.c
744
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_engine.c
815
if (GRAPHICS_VER(gt_to_xe(gt)) >= 20)
drivers/gpu/drm/xe/xe_hw_engine.c
844
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_engine.c
901
wake_up_all(&gt_to_xe(hwe->gt)->ufence_wq);
drivers/gpu/drm/xe/xe_hw_engine.c
945
if (IS_SRIOV_VF(gt_to_xe(hwe->gt)))
drivers/gpu/drm/xe/xe_hw_engine.c
952
struct xe_device *xe = gt_to_xe(hwe->gt);
drivers/gpu/drm/xe/xe_hw_engine_class_sysfs.c
625
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_engine_group.c
128
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_hw_engine_group.c
168
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_hw_engine_group.c
80
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_hw_fence.c
239
hw_fence->xe = gt_to_xe(ctx->gt);
drivers/gpu/drm/xe/xe_irq.c
140
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_lrc.c
1013
if (!xe_device_uses_memirq(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_lrc.c
1017
regs_len = xe_lrc_reg_size(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_lrc.c
1018
xe_map_memcpy_from(gt_to_xe(gt), regs, &map, 0, regs_len);
drivers/gpu/drm/xe/xe_lrc.c
1020
xe_map_memcpy_to(gt_to_xe(gt), &map, 0, regs, regs_len);
drivers/gpu/drm/xe/xe_lrc.c
1071
if (IS_SRIOV_VF(gt_to_xe(lrc->gt)))
drivers/gpu/drm/xe/xe_lrc.c
110
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_lrc.c
1138
struct xe_device *xe = gt_to_xe(lrc->gt);
drivers/gpu/drm/xe/xe_lrc.c
1167
struct xe_device *xe = gt_to_xe(lrc->gt);
drivers/gpu/drm/xe/xe_lrc.c
1274
xe_map_memcpy_to(gt_to_xe(state->lrc->gt), &state->lrc->bo->vmap,
drivers/gpu/drm/xe/xe_lrc.c
1412
struct xe_device *xe = gt_to_xe(lrc->gt);
drivers/gpu/drm/xe/xe_lrc.c
1443
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_lrc.c
2205
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_lrc.c
651
struct xe_device *xe = gt_to_xe(hwe->gt);
drivers/gpu/drm/xe/xe_lrc.c
678
struct xe_device *xe = gt_to_xe(hwe->gt);
drivers/gpu/drm/xe/xe_lrc.c
79
return gt_to_xe(lrc->fence_ctx.gt);
drivers/gpu/drm/xe/xe_lrc.c
85
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_lrc.c
969
set_offsets(regs, reg_offsets(gt_to_xe(gt), hwe->class), hwe);
drivers/gpu/drm/xe/xe_migrate.c
1107
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
1392
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
1415
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
1510
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
2123
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
670
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
685
num_ccs_blks = DIV_ROUND_UP(xe_device_ccs_bytes(gt_to_xe(gt), size),
drivers/gpu/drm/xe/xe_migrate.c
710
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
784
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_migrate.c
866
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_mocs.c
260
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_mocs.c
767
get_mocs_settings(gt_to_xe(gt), &table);
drivers/gpu/drm/xe/xe_mocs.c
777
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_mocs.c
788
flags = get_mocs_settings(gt_to_xe(gt), &table);
drivers/gpu/drm/xe/xe_mocs.c
791
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_mocs.c
809
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_oa.c
1660
xe_pm_runtime_get(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_oa.c
1664
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_oa.c
1667
drm_dev_put(&gt_to_xe(gt)->drm);
drivers/gpu/drm/xe/xe_oa.c
1920
xe_pm_runtime_get(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_oa.c
1922
xe_pm_runtime_put(gt_to_xe(gt));
drivers/gpu/drm/xe/xe_oa.c
2527
if (xe_gt_is_main_type(gt) || GRAPHICS_VER(gt_to_xe(gt)) < 20)
drivers/gpu/drm/xe/xe_oa.c
2533
return xe_device_has_mert(gt_to_xe(gt)) ? 2 : 1;
drivers/gpu/drm/xe/xe_oa.c
2534
else if (!IS_DGFX(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_oa.c
2542
if (GRAPHICS_VERx100(gt_to_xe(hwe->gt)) < 1270)
drivers/gpu/drm/xe/xe_oa.c
2547
if (GRAPHICS_VER(gt_to_xe(hwe->gt)) < 20)
drivers/gpu/drm/xe/xe_oa.c
2558
else if (!IS_DGFX(gt_to_xe(hwe->gt)))
drivers/gpu/drm/xe/xe_oa.c
2650
xe_gt_assert(gt, xe_device_has_mert(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_oa.c
2651
xe_gt_assert(gt, gt == xe_root_mmio_gt(gt_to_xe(gt)));
drivers/gpu/drm/xe/xe_oa.c
2656
xe_gt_assert(gt, GRAPHICS_VERx100(gt_to_xe(gt)) >= 1270);
drivers/gpu/drm/xe/xe_oa.c
2658
u->type = i == XE_OAM_UNIT_SAG && GRAPHICS_VER(gt_to_xe(gt)) >= 20 ?
drivers/gpu/drm/xe/xe_oa.c
2671
u->oa_unit_id = gt_to_xe(gt)->oa.oa_unit_ids++;
drivers/gpu/drm/xe/xe_oa.c
2682
u = drmm_kcalloc(&gt_to_xe(gt)->drm, num_oa_units, sizeof(*u), GFP_KERNEL);
drivers/gpu/drm/xe/xe_oa.c
2701
drmm_mutex_init(&gt_to_xe(gt)->drm, &gt->oa.gt_lock);
drivers/gpu/drm/xe/xe_page_reclaim.h
95
vm_dbg(&gt_to_xe(__gt)->drm, "PRL aborted: " fmt, ##__VA_ARGS__); \
drivers/gpu/drm/xe/xe_pagefault.c
160
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pagefault.c
276
queue_work(gt_to_xe(pf.gt)->usm.pf_wq, w);
drivers/gpu/drm/xe/xe_pat.c
277
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
294
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
310
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
335
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
360
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
385
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
443
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
487
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
614
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
634
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pat.c
651
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_pxp_submit.c
370
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_reg_sr.c
174
if (IS_SRIOV_VF(gt_to_xe(gt)))
drivers/gpu/drm/xe/xe_ring_ops.c
269
i = emit_copy_timestamp(gt_to_xe(gt), lrc, dw, i);
drivers/gpu/drm/xe/xe_ring_ops.c
322
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_ring_ops.c
378
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_ring_ops.c
430
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_rtp.c
221
*xe = gt_to_xe(*gt);
drivers/gpu/drm/xe/xe_rtp.c
226
*xe = gt_to_xe(*gt);
drivers/gpu/drm/xe/xe_sched_job.c
280
xe_assert(gt_to_xe(q->gt), job->lrc_seqno == fence->seqno);
drivers/gpu/drm/xe/xe_sched_job.c
79
return gt_to_xe(job->q->gt);
drivers/gpu/drm/xe/xe_sriov_pf_provision.c
219
xe_sriov_dbg(gt_to_xe(gt), "%s on GT%u has %s=%u (expected %u)\n",
drivers/gpu/drm/xe/xe_sriov_vf_ccs.c
393
struct xe_device *xe = gt_to_xe(ctx->mig_q->gt);
drivers/gpu/drm/xe/xe_tlb_inval.c
125
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_tlb_inval_job.c
141
xe_pm_runtime_get_noresume(gt_to_xe(q->gt));
drivers/gpu/drm/xe/xe_tlb_inval_job.c
166
struct xe_device *xe = gt_to_xe(job->q->gt);
drivers/gpu/drm/xe/xe_tlb_inval_job.c
181
struct xe_device *xe = gt_to_xe(q->gt);
drivers/gpu/drm/xe/xe_tlb_inval_job.c
212
xe_assert(gt_to_xe(job->q->gt), !xa_load(&job->dep.drm.dependencies, 0));
drivers/gpu/drm/xe/xe_tlb_inval_job.c
248
xe_assert(gt_to_xe(job->q->gt),
drivers/gpu/drm/xe/xe_tlb_inval_job.c
255
xe_assert(gt_to_xe(job->q->gt), !xa_is_err(ptr));
drivers/gpu/drm/xe/xe_trace.h
26
#define __dev_name_gt(gt) __dev_name_xe(gt_to_xe((gt)))
drivers/gpu/drm/xe/xe_trace_lrc.h
19
#define __dev_name_lrc(lrc) dev_name(gt_to_xe((lrc)->fence_ctx.gt)->drm.dev)
drivers/gpu/drm/xe/xe_tuning.c
157
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_uc.c
30
return gt_to_xe(uc_to_gt(uc));
drivers/gpu/drm/xe/xe_uc_fw.c
214
return gt_to_xe(uc_fw_to_gt(uc_fw));
drivers/gpu/drm/xe/xe_uc_fw.c
485
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_vram.c
65
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_wa.c
1016
struct xe_device *xe = gt_to_xe(gt);
drivers/gpu/drm/xe/xe_wopcm.c
81
return gt_to_xe(wopcm_to_gt(wopcm));