xe_vma_start
u64 start = range ? xe_svm_range_start(range) : xe_vma_start(vma);
xe_vma_start(vma), xe_vma_end(vma) - 1);
xe_vma_start(vma),
xe_vma_start(vma), xe_vma_end(vma) - 1);
xe_pt_update_ops_rfence_interval(pt_update_ops, xe_vma_start(vma),
xe_vma_start(vma),
range ? xe_svm_range_start(range) : xe_vma_start(vma),
(void)xe_pt_walk_shared(&pt->base, pt->level, xe_vma_start(vma),
max(start, xe_vma_start(vma)),
r = drm_gpusvm_range_find_or_insert(&vm->svm.gpusvm, max(addr, xe_vma_start(vma)),
xe_vma_start(vma), xe_vma_end(vma), ctx);
xe_vma_start(vma), xe_vma_end(vma));
start = xe_vma_start(vma);
} else if (xe_vma_start(vma) == start && xe_vma_end(vma) == end) {
if (xe_vma_start(vma) == start && xe_vma_end(vma) == end && has_default_attr)
__entry->start = xe_vma_start(vma);
xe_vma_start(vma), xe_vma_size(vma));
attrs[i].start = xe_vma_start(vma);
page_addr + SZ_4K - 1 < xe_vma_start(vma))
(ULL)xe_vma_start(vma), (ULL)xe_vma_size(vma),
(ULL)xe_vma_start(vma), (ULL)xe_vma_size(vma),
(ULL)xe_vma_start(vma), (ULL)xe_vma_size(vma));
u64 start = xe_vma_start(old), end = xe_vma_end(old);
op->remap.start = xe_vma_start(old);
xe_vma_start(old);
IS_ALIGNED(xe_vma_start(vma),
xe_vma_start(vma);
xe_svm_has_mapping(vm, xe_vma_start(vma),
xe_vma_start(vma), xe_vma_size(vma));
ret = xe_vm_range_tilemask_tlb_inval(xe_vma_vm(vma), xe_vma_start(vma),
snap->snap[i].ofs = xe_vma_start(vma);
*start = xe_vma_start(prev);
return xe_vma_start(vma) + xe_vma_size(vma);
xe_vma_start(vma),