ESID_MASK
(((ssize) == MMU_SEGSIZE_256M) ? ESID_MASK : ESID_MASK_1T)
page = (eaddr & ~ESID_MASK) >> 12;
((eaddr & ~ESID_MASK) >> VPN_SHIFT);
slbe->orige = rb & (ESID_MASK | SLB_ESID_V);
else if ((svcpu->slb[i].esid & ESID_MASK) == esid) {
u64 slb_esid = (eaddr & ESID_MASK) | SLB_ESID_V;
slb_index = kvmppc_mmu_next_segment(vcpu, eaddr & ESID_MASK);
mask = ESID_MASK;
slb->esid = (ea & (ssize == MMU_SEGSIZE_1T ? ESID_MASK_1T : ESID_MASK)) | SLB_ESID_V;
slb->esid = (ea & ESID_MASK) | SLB_ESID_V;
if (!((slbs[i].esid ^ ea) & ESID_MASK))