cpumask_empty
while (!cpumask_empty(cpu_present_mask))
!cpumask_empty(mm_cpumask(next)) &&
if (WARN_ON(ret < 0) || !cpumask_empty(&debug_err_mask)) {
if (!cpumask_empty(&mask))
if (mm != current->active_mm || !cpumask_empty(&others)) {
if (!cpumask_empty(&this_leaf->shared_cpu_map))
if (cpumask_empty(mask))
return !cpumask_empty(&cpu_foreign_map[0]);
if (cpumask_empty(cmask))
if (cpumask_empty(cmask))
if (cpumask_empty(&cache->shared_cpu_map))
WARN_ON_ONCE(!cpumask_empty(&nmi_ipi_pending_mask));
while (!cpumask_empty(&nmi_ipi_pending_mask)) {
if (!cpumask_empty(&nmi_ipi_pending_mask)) {
if (cpumask_empty(&wd_smp_cpus_pending)) {
if (cpumask_empty(&wd_smp_cpus_ipi)) {
if (unlikely(cpumask_empty(&wd_smp_cpus_pending)))
if (cpumask_empty(&wd_smp_cpus_pending)) {
if (cpumask_empty(&wd_smp_cpus_pending)) {
if (cpumask_empty(&hv_24x7_cpumask))
if (cpumask_empty(&hv_gpci_cpumask))
if (cpumask_empty(candidate_mask))
while (!cpumask_empty(*cpu_mask)) {
if (!cpumask_empty(*cpu_mask))
if (cpumask_empty(mask))
return !cpumask_empty(&cpus_in_xmon);
if (!cpu_mask || cpumask_empty(cpu_mask))
if (!cpu_mask || cpumask_empty(cpu_mask))
if (cpumask_empty(&cpus))
if (cpumask_empty(&cpus))
local |= cpumask_empty(&others);
if (cpumask_empty(cmask))
if (cpumask_empty(&preq->mask)) {
if (cpumask_empty(&cpumask))
if (cpumask_empty(&h_pmu->supported_cpus))
if (!cpumask_empty(&pmu->supported_cpus))
if (WARN_ON_ONCE(cpumask_empty(vector_searchmask))) {
if (!cpumask_empty(mce_inject_cpumask)) {
while (!cpumask_empty(mce_inject_cpumask)) {
if (!cpumask_empty(&hdr->cpu_mask))
if (!cpumask_empty(&hdr->cpu_mask))
if (cpumask_empty(mask))
while (!cpumask_empty(mask) && --timeout)
if (!cpumask_empty(to_cpumask(nmi_ipi_mask)))
if (!cpumask_empty(&cpus_stop_mask)) {
while (!cpumask_empty(&cpus_stop_mask) && timeout--)
if (!cpumask_empty(&cpus_stop_mask)) {
while (!cpumask_empty(&cpus_stop_mask) && (wait || timeout--))
if (!cpumask_empty(packages)) {
if (!cpumask_available(downed_cpus) || cpumask_empty(downed_cpus))
if (!cpumask_empty(uv_nmi_cpu_mask))
if (cpumask_empty(cpus))
if (cpumask_empty(&hdev->irq_affinity_mask)) {
if (cpumask_empty(tmp))
if (cpumask_empty(tmp)) {
if (cpumask_empty(cpus_to_visit)) {
if (cpumask_empty(&scale_freq_counters_mask))
if ((attr == &dev_attr_shared_cpu_map.attr) && !cpumask_empty(mask))
if ((attr == &dev_attr_shared_cpu_list.attr) && !cpumask_empty(mask))
if (cpumask_empty(new_cpu_mask))
if (!cpumask_empty(node_mask)) {
if (unlikely(cpumask_empty(mask)))
if (!cpumask_empty(policy->real_cpus))
if (ret || cpumask_empty(priv->opp_shared_cpus)) {
if (cpumask_empty(&dev->coupled_cpus))
if (cpumask_empty(&dev->coupled_cpus))
if (cpumask_empty(&compat_mask))
WARN_ON(!cpumask_empty(offlined_cpus) ||
while (!cpumask_empty(tmp)) {
cpumask_empty(hk_mask)) {
if (cpumask_empty(cpumask_of_node(numa_node)))
if (cpumask_empty(available_mask)) {
if (cpumask_empty(&pd->cpumask)) {
if (WARN_ON(cpumask_empty(mask)))
if (cpumask_empty(available_mask)) {
if (cpumask_empty(&set->used) && set->gen) {
if (cpumask_empty(&entry->def_intr.mask))
if (cpumask_empty(&entry->comp_vect_mask))
if (cpumask_empty(&sde->cpu_mask))
if (cpumask_empty(&intc->cpumask)) {
if (cpumask_empty(tmpmask))
!cpumask_empty(enic->msix[i].affinity_mask)))
cpumask_empty(enic->msix[i].affinity_mask))
!cpumask_empty(enic->msix[wq_intr].affinity_mask))
if (cpumask_empty(&priv->dpio_cpumask)) {
if (!cpumask_empty(&ring->sp_affinity_mask))
cpumask_empty(eq->affinity_mask))
cpumask_empty(&auto_desc->mask) ? af_desc : auto_desc,
if (cpumask_empty(*affinity_mask)) {
if (!cpumask_empty(&nd_pmu->arch_cpumask)) {
WARN_ON(cpumask_empty(cpumask));
if (WARN_ON(cpumask_empty(cpumask)))
if (!ret && cpumask_empty(&cspmu->associated_cpus)) {
if (!cpumask_empty(&cspmu->active_cpu))
if (!cpumask_empty(&dsu_pmu->active_cpu))
if (cpumask_empty(&l3pmu->cpumask))
if (cpumask_empty(&starlink_pmu->cpumask))
if (cpumask_empty(&xgene_pmu->cpu))
if (cpumask_empty(&msc->accessibility)) {
if (cpumask_empty(affinity))
if (cpumask_empty(aff_mask)) {
if (cpumask_empty(hfi_instance->cpus))
if (cpumask_empty(new_mask) || check_invalid(new_mask, max_idle)) {
if (!cpumask_empty(ne_cpu_pool.avail_threads_per_core[i]))
if (!cpumask_empty(ne_cpu_pool.avail_threads_per_core[i])) {
if (!cpumask_empty(&rdtgrp->cpu_mask)) {
if (!cpumask_empty(tmpmask)) {
if (!cpumask_empty(tmpmask)) {
if (!cpumask_empty(&rdtgrp->cpu_mask) &&
if (!cpumask_empty(tmpmask)) {
if (!cpumask_empty(tmpmask)) {
if (!cpumask_empty(tmpmask)) {
if (!cpumask_empty(tmpmask1))
if (!cpumask_empty(tmpmask)) {
return cpumask_empty(policy->cpus);
cpumask_empty(sysctl_est_cpulist(ipvs)));
return cpumask_empty(cpumask);
if (!cpumask_empty(cs->cpus_allowed) &&
while (cpumask_empty(parent->cpus_allowed) ||
if (cpus_updated && !cpumask_empty(cs->cpus_allowed))
is_empty = cpumask_empty(cs->cpus_allowed) ||
if (!cpumask_empty(cur->cpus_allowed) &&
cpumask_empty(trial->cpus_allowed))
if (cpumask_empty(cp->cpus_allowed)) {
if (!cpumask_empty(cp->cpus_allowed) &&
!cpumask_empty(cp->effective_cpus))
if (cpumask_empty(cs->exclusive_cpus)) {
if (cpumask_empty(excpus))
sibling_xcpus = cpumask_empty(sibling->exclusive_cpus)
if (!cpumask_empty(cs->exclusive_cpus))
!cpumask_empty(subpartitions_cpus));
if (cpumask_empty(excpus)) {
WARN_ON_ONCE(!cpumask_empty(cs->exclusive_cpus));
if (cpumask_empty(xcpus))
if (cpumask_empty(newmask)) {
} else if (is_partition_invalid(cs) && !cpumask_empty(xcpus) &&
if (is_partition_valid(cp) && cpumask_empty(tmp->new_cpus)) {
if (is_in_v2_mode() && !remote && cpumask_empty(tmp->new_cpus))
if ((new_prs > 0) || !cpumask_empty(cp->exclusive_cpus))
if (!cpumask_empty(cp->cpus_allowed) &&
if (cpumask_empty(trialcs->effective_xcpus))
if (!cpumask_empty(trialcs->cpus_allowed) && balance_flag_changed) {
&& cpumask_empty(cs->effective_xcpus));
if (cpumask_empty(cs->effective_cpus) ||
if (!is_in_v2_mode() && cpumask_empty(oldcs->effective_cpus))
if (cpumask_empty(new_cpus) && !is_partition_valid(cs))
if (remote && (cpumask_empty(subpartitions_cpus) ||
(cpumask_empty(&new_cpus) &&
cpumask_empty(subpartitions_cpus)))
!cpumask_empty(cs->effective_xcpus))
!cpumask_empty(subpartitions_cpus);
if (!cpumask_empty(subpartitions_cpus)) {
if ((cs == &top_cpuset) || cpumask_empty(pmask)) {
return cpumask_empty(cs->exclusive_cpus) ? cs->cpus_allowed
return cpumask_empty(cs->cpus_allowed) &&
cpumask_empty(cs->exclusive_cpus);
if (xcpus_changed && !cpumask_empty(sibling->cpus_allowed) &&
if (cpumask_empty(subpartitions_cpus)) {
!cpumask_empty(cp->effective_cpus))
if (!is_partition_valid(cp) && cpumask_empty(cp->exclusive_cpus))
if (cpumask_empty(cs->effective_cpus)) {
if (cpumask_empty(frozen_cpus))
if (cpumask_empty(perf_online_mask)) {
if (!cpumask_empty(cpumask) &&
if (cpumask_empty(m))
if (cpumask_empty(irq_default_affinity))
if (cpumask_empty(&affinity[i].mask))
if (!cpumask_empty(m))
if (!force && !cpumask_empty(tmp_mask))
if (cpumask_empty(&mask))
if (cpumask_empty(msk))
if (cpumask_empty(msk))
if (unlikely(cpumask_empty(desc->pending_mask)))
if (cpumask_empty(cpumask))
return cpumask_available(mask) && !cpumask_empty(mask);
if (cpumask_empty(pd->cpumask.cbcpu))
if (cpumask_available(cm) && !cpumask_empty(cm))
if (tick_nohz_full_running && !cpumask_empty(tick_nohz_full_mask))
if (cpumask_empty(rcu_nocb_mask))
if (cpumask_available(rcu_nocb_mask) && !cpumask_empty(rcu_nocb_mask))
if (cpumask_empty(cur))
if (cpumask_empty(later_mask))
if (cpumask_empty(lowest_mask))
if (cpumask_empty(lowest_mask))
if (cpumask_empty(sd_sysctl_cpus))
if (cpumask_empty(donee_mask))
if (cpumask_empty(donee_mask))
if (!cpumask_empty(rq->scx.cpus_to_kick))
if (!cpumask_empty(rq->scx.cpus_to_kick_if_idle))
if (!cpumask_empty(rq->scx.cpus_to_preempt))
if (!cpumask_empty(rq->scx.cpus_to_wait))
if (!cpumask_empty(rq->scx.cpus_to_sync))
!cpumask_empty(idle_cpumask(waker_node)->cpu)) {
if (unlikely(cpumask_empty(nohz.idle_cpus_mask)))
WARN_ON_ONCE(cpumask_empty(omask));
if (cpumask_empty(non_housekeeping_mask))
if (cpumask_empty(cpu_capacity_span(entry))) {
if (WARN_ON(cpumask_empty(cpu_map)))
if (cpumask_empty(sched_group_span(group))) {
WARN_ON_ONCE(cpumask_empty(mask));
if (cpumask_empty(&cpus_chosen)) {
if (!cpumask_empty(&cpus_ahead))
if (!cpumask_empty(&cpus_behind))
if (!cpumask_empty(tick_broadcast_oneshot_mask))
if (!cpumask_empty(tick_broadcast_mask))
if (cpumask_empty(tick_broadcast_mask) && bc)
if (!cpumask_empty(mask)) {
bc_stopped = cpumask_empty(tick_broadcast_mask);
if (cpumask_empty(tick_broadcast_mask)) {
if (bc && cpumask_empty(tick_broadcast_mask))
if (!cpumask_empty(tick_broadcast_mask))
if (!cpumask_empty(tick_broadcast_mask))
cpumask_empty(tick_broadcast_oneshot_mask))
if (cpumask_empty(tr->pipe_cpumask)) {
if (unlikely(cpumask_empty(attrs->cpumask)))
if (!cpumask_empty(cpumask)) {
if (!cpumask_empty(&wq_cmdline_cpumask))
if (cpumask_empty(cpu_mask))
if (!cpumask_empty(to_cpumask(backtrace_mask))) {
if (cpumask_empty(to_cpumask(backtrace_mask)))
KUNIT_EXPECT_TRUE_MSG(test, cpumask_empty(&mask_empty), MASK_MSG(&mask_empty));
if (!cpumask_empty(cpumask))
if (!cpumask_empty(cpumask_of_node(n)))
for (group = 0; !cpumask_empty(&mask); group++) {
if (num_online_cpus() > 1 && !cpumask_empty(to_cpumask(l->cpus)))
if (!cpumask_empty(cpumask_of_node(node)))
if (!cpumask_empty(node_cpus))
if (!cpumask_empty(mask)) {
if (cpumask_empty(mask))
if (rps_default_mask && !cpumask_empty(rps_default_mask))
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask))
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (iucv_nonsmp_handler == 0 || cpumask_empty(&iucv_irq_cpumask))
if (cpumask_empty(&iucv_buffer_cpumask))
if (cpumask_empty(cpumask)) {
if (!cpumask_empty(&iucv_irq_cpumask))
if (cpumask_empty(&iucv_irq_cpumask))
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask)) {
if (cpumask_empty(&iucv_buffer_cpumask)) {
return cpumask_empty(srcp);
if (cpumask_empty(cpus))