vabits_actual
#define KASAN_SHADOW_START _KASAN_SHADOW_START(vabits_actual)
__cpu_set_tcr_t0sz(TCR_T0SZ(vabits_actual));
return vabits_actual == VA_BITS;
#define VMEMMAP_UNUSED_NPAGES ((_PAGE_OFFSET(vabits_actual) - PAGE_OFFSET) >> PAGE_SHIFT)
return vabits_actual == VA_BITS;
#define ptrauth_user_pac_mask() GENMASK_ULL(54, vabits_actual)
#define ptrauth_kernel_pac_mask() GENMASK_ULL(63, vabits_actual)
#define TASK_SIZE_64 (UL(1) << vabits_actual)
.ia_bits = vabits_actual,
return max(IDMAP_VA_BITS, vabits_actual);
vabits_actual, mm_to_pgd_phys(mm));
s64 linear_region_size = PAGE_END - _PAGE_OFFSET(vabits_actual);
if (IS_ENABLED(CONFIG_KVM) && vabits_actual == 52 &&
if (IS_ENABLED(CONFIG_ARM64_VA_BITS_52) && (vabits_actual != 52))
memstart_addr -= _PAGE_OFFSET(vabits_actual) - _PAGE_OFFSET(52);
int shift = (ARM64_HW_PGTABLE_LEVELS(vabits_actual) - 1) * PTDESC_TABLE_SHIFT;
: vabits_actual;
int shift = (ARM64_HW_PGTABLE_LEVELS(vabits_actual) - 2) * PTDESC_TABLE_SHIFT;
phys_addr_t start_linear_pa = __pa(_PAGE_OFFSET(vabits_actual));
unsigned long lstart = _PAGE_OFFSET(vabits_actual);
{_PAGE_OFFSET(vabits_actual), ~0UL},
u64 page_offset = _PAGE_OFFSET(vabits_actual);
if (vabits_actual == 52) {
64ULL - vabits_actual) |