is_guest_mode
bool is_guest_mode;
tlb_flush_fifo = kvm_hv_get_tlb_flush_fifo(vcpu, is_guest_mode(vcpu));
if (!hc->fast && is_guest_mode(vcpu)) {
is_guest_mode(vcpu));
flush_ex.flags, is_guest_mode(vcpu));
if (all_cpus && !is_guest_mode(vcpu)) {
} else if (!is_guest_mode(vcpu)) {
if (hv_result_success(result) && is_guest_mode(vcpu) &&
bool is_guest_mode)
int i = is_guest_mode ? HV_L2_TLB_FLUSH_FIFO :
tlb_flush_fifo = kvm_hv_get_tlb_flush_fifo(vcpu, is_guest_mode(vcpu));
if (!is_guest_mode(v) && kvm_vcpu_apicv_active(v))
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu))
role.base.guest_mode = is_guest_mode(vcpu);
if (!is_guest_mode(vcpu))
if (ret != X86EMUL_CONTINUE && is_guest_mode(vcpu))
if (is_guest_mode(&svm->vcpu) &&
if (is_guest_mode(vcpu))
.is_guest_mode = kvm_vcpu_apicv_active(vcpu),
if (!is_guest_mode(&svm->vcpu))
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu)) {
if (!is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (WARN_ON(!is_guest_mode(vcpu)))
if (is_guest_mode(&svm->vcpu)) {
if ((error_code & PFERR_RSVD_MASK) && !is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu)) {
if (!is_guest_mode(vcpu))
if (!is_guest_mode(vcpu) ||
is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu) && nested_exit_on_nmi(svm))
if (for_injection && is_guest_mode(vcpu) && nested_exit_on_nmi(svm))
if (is_guest_mode(vcpu)) {
if (for_injection && is_guest_mode(vcpu) && nested_exit_on_intr(svm))
if (!is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu)) {
if (for_injection && is_guest_mode(vcpu) && nested_exit_on_smi(svm))
if (!is_guest_mode(vcpu))
void *msrpm = is_guest_mode(vcpu) ? to_svm(vcpu)->nested.msrpm :
(is_guest_mode(vcpu) && guest_cpu_cap_has(vcpu, X86_FEATURE_LBRV) &&
if (is_guest_mode(&svm->vcpu) && !nested_vgif_enabled(svm))
if (is_guest_mode(&svm->vcpu))
return is_guest_mode(vcpu) && (svm->nested.ctl.int_ctl & V_INTR_MASKING_MASK);
if (is_guest_mode(vcpu) && !nested_get_vmcs12_pages(vcpu))
if (WARN_ON_ONCE(!is_guest_mode(vcpu)))
struct vmcs12 *vmcs12 = is_guest_mode(vcpu) ? get_shadow_vmcs12(vcpu)
(is_guest_mode(vcpu) &&
if (!is_guest_mode(vcpu) && is_vmcs12_ext_field(field))
if (WARN_ON_ONCE(is_guest_mode(vcpu)))
struct vmcs12 *vmcs12 = is_guest_mode(vcpu) ? get_shadow_vmcs12(vcpu)
(is_guest_mode(vcpu) &&
if (!is_guest_mode(vcpu) && !is_shadow_field_rw(field))
if (!is_guest_mode(vcpu) && !is_shadow_field_rw(field)) {
if (WARN_ON_ONCE(!is_guest_mode(vcpu))) {
if (is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu)) {
if (!vmcs12 && is_guest_mode(vcpu))
if (!is_guest_mode(vcpu)) {
if (!is_guest_mode(vcpu))
if (!is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu) && get_vmcs12(vcpu)->vm_exit_controls &
if (is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu) &&
WARN_ON_ONCE(is_guest_mode(vcpu));
if (is_guest_mode(vcpu) && nested_cpu_has_vpid(get_vmcs12(vcpu)))
if (is_guest_mode(vcpu))
} else if (!is_guest_mode(vcpu)) {
} else if (!is_guest_mode(vcpu) ||
if (is_guest_mode(vcpu) &&
if (is_guest_mode(&vmx->vcpu))
if (is_guest_mode(vcpu) && nested_exit_on_nmi(vcpu))
if (for_injection && is_guest_mode(vcpu) && nested_exit_on_nmi(vcpu))
if (is_guest_mode(vcpu) && nested_exit_on_intr(vcpu))
if (for_injection && is_guest_mode(vcpu) && nested_exit_on_intr(vcpu))
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu)) {
if (!is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu))
WARN_ON_ONCE(!is_guest_mode(vcpu));
if (enable_pml && !is_guest_mode(vcpu))
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu) &&
if (!is_guest_mode(vcpu))
if (!is_guest_mode(vcpu) && kvm_vcpu_apicv_active(vcpu))
if (is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu)) {
vmx->nested.smm.guest_mode = is_guest_mode(vcpu);
return to_vmx(vcpu)->nested.vmxon && !is_guest_mode(vcpu);
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu))
return enable_unrestricted_guest && (!is_guest_mode(vcpu) ||
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu)) {
if (vcpu->arch.exception_from_userspace && is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu))
WARN_ON_ONCE(is_guest_mode(vcpu) || is_smm(vcpu));
if (is_guest_mode(vcpu)) {
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu))
if (is_guest_mode(vcpu) &&
if (!is_guest_mode(vcpu))
if (!is_guest_mode(vcpu) && kvm_x86_call(get_cpl)(vcpu) == 0) {
(WARN_ON_ONCE(is_guest_mode(vcpu)) ||
r = x86_emulate_insn(ctxt, is_guest_mode(vcpu) &&
if (is_guest_mode(vcpu) && fault->async_page_fault)
return vcpu->arch.last_vmentry_cpu == -1 && !is_guest_mode(vcpu);
if (pi_data->is_guest_mode)