X86EMUL_MODE_PROT64
if (ctxt->mode == X86EMUL_MODE_PROT64)
if (ctxt->mode != X86EMUL_MODE_PROT64 || rpl != cpl)
} else if (ctxt->mode == X86EMUL_MODE_PROT64) {
ctxt->mode == X86EMUL_MODE_PROT64)
case X86EMUL_MODE_PROT64:
case X86EMUL_MODE_PROT64:
case X86EMUL_MODE_PROT64:
if (ctxt->mode != X86EMUL_MODE_PROT64 &&
ctxt->mode == X86EMUL_MODE_PROT64 ?
if ((ctxt->mode != X86EMUL_MODE_PROT64) && (efer & EFER_LMA) &&
if (ctxt->mode == X86EMUL_MODE_PROT64)
ctxt->mode = X86EMUL_MODE_PROT64;
usermode = X86EMUL_MODE_PROT64;
case X86EMUL_MODE_PROT64:
if (ctxt->mode == X86EMUL_MODE_PROT64)
if (ctxt->mode == X86EMUL_MODE_PROT64)
if (ctxt->mode == X86EMUL_MODE_PROT64)
if (ctxt->mode == X86EMUL_MODE_PROT64 &&
if (ctxt->mode >= X86EMUL_MODE_PROT64)
if (ctxt->mode == X86EMUL_MODE_PROT64)
if (ctxt->mode == X86EMUL_MODE_PROT64)
if (ctxt->rex_bits && ctxt->mode != X86EMUL_MODE_PROT64)
case X86EMUL_MODE_PROT64:
if (mode == X86EMUL_MODE_PROT64)
if (mode != X86EMUL_MODE_PROT64)
if (mode != X86EMUL_MODE_PROT64 && (vex_2nd & 0xc0) != 0xc0) {
if (ctxt->mode == X86EMUL_MODE_PROT64)
if (mode == X86EMUL_MODE_PROT64) {
if (mode == X86EMUL_MODE_PROT64)
if (ctxt->mode == X86EMUL_MODE_PROT64 && seg < VCPU_SREG_FS)
if ((ctxt->mode == X86EMUL_MODE_PROT64 && (ctxt->d & No64)) ||
if (ctxt->mode != X86EMUL_MODE_PROT64)
case X86EMUL_MODE_PROT64:
ctxt->mode = X86EMUL_MODE_PROT64;
#define X86EMUL_MODE_HOST X86EMUL_MODE_PROT64
case X86EMUL_MODE_PROT64: \
if (ctxt->mode != X86EMUL_MODE_PROT64)
(cs_l && is_long_mode(vcpu)) ? X86EMUL_MODE_PROT64 :
if (ctxt->mode != X86EMUL_MODE_PROT64)