pc_to_xe
guard(xe_pm_runtime)(pc_to_xe(pc));
scoped_guard(xe_pm_runtime, pc_to_xe(pc))
scoped_guard(xe_pm_runtime, pc_to_xe(pc))
if (IS_SRIOV_VF(pc_to_xe(pc)) || pc_to_xe(pc)->info.skip_guc_pc)
struct xe_device *xe = pc_to_xe(pc);
guard(xe_pm_runtime)(pc_to_xe(pc));
guard(xe_pm_runtime)(pc_to_xe(pc));
guard(xe_pm_runtime_noresume)(pc_to_xe(pc));
struct xe_device *xe = pc_to_xe(pc);
xe_map_rd_field(pc_to_xe(pc_), pc_to_maps(pc_), 0, \
struct xe_device *xe = pc_to_xe(pc);
xe_map_wr_field(pc_to_xe(pc_), pc_to_maps(pc_), 0, \
struct xe_device *xe = pc_to_xe(pc);
struct xe_device *xe = pc_to_xe(pc);
xe_device_assert_mem_access(pc_to_xe(pc));
if (ret && !(xe_device_wedged(pc_to_xe(pc)) && ret == -ECANCELED))
if (ret && !(xe_device_wedged(pc_to_xe(pc)) && ret == -ECANCELED))
if (ret && !(xe_device_wedged(pc_to_xe(pc)) && ret == -ECANCELED))
if (ret && !(xe_device_wedged(pc_to_xe(pc)) && ret == -ECANCELED))
if (ret && !(xe_device_wedged(pc_to_xe(pc)) && ret == -ECANCELED))
struct xe_device *xe = pc_to_xe(pc);
xe_device_assert_mem_access(pc_to_xe(pc));
xe_device_assert_mem_access(pc_to_xe(pc));