cpumask_of_node
cpumask_of_node(pcibus_to_node(bus)))
cpumask_set_cpu(cpu, cpumask_of_node(nid));
if (!cpumask_subset(dest, cpumask_of_node(cd->ciu_node)))
#define cpumask_of_pcibus(bus) (cpumask_of_node(pcibus_to_node(bus)))
cpu = cpumask_first(cpumask_of_node(node));
cpumask_of_node(pcibus_to_node(bus)))
l_cpumask = cpumask_of_node(nid);
l_cpumask = cpumask_of_node(cpu_to_node(cpu));
const struct cpumask *mask = cpumask_of_node(node);
l_cpumask = cpumask_of_node(nid);
cpumask_of_node(node));
nd_pmu->arch_cpumask = *cpumask_of_node(nodeid);
cpumask_of_node(pcibus_to_node(bus)))
#define cpumask_of_node cpumask_of_node
cpumask_of_node(pcibus_to_node(bus)))
cpumask_of_node(pcibus_to_node(bus)))
irq_set_affinity(irq, cpumask_of_node(nid));
irq_set_affinity(irq, cpumask_of_node(nid));
cpumask_of_node(node);
extern const struct cpumask *cpumask_of_node(int node);
cpumask_and(vector_searchmask, cpumask_of_node(node), affmsk);
if (!assign_vector_locked(irqd, cpumask_of_node(node)))
cpu = cpumask_first(cpumask_of_node(nid));
const struct cpumask *cpus = cpumask_of_node(N + n);
EXPORT_SYMBOL(cpumask_of_node);
if (!cpumask_and(&cpu_mask, cpumask_of_node(numa_node), cpu_online_mask)) {
EXPORT_SYMBOL(cpumask_of_node);
const cpumask_t *core_mask = cpumask_of_node(cpu_to_node(cpu));
cpumask_and(mask, cpumask_of_node(node_dev->dev.id), cpu_online_mask);
cpumask_and(mask, cpumask_of_node(node_dev->dev.id), cpu_online_mask);
node_mask = cpumask_of_node(node);
node_mask = cpumask_of_node(dd->numa_node);
node_cpus = cpumask_of_node(node);
cpumask_test_cpu(cpu, cpumask_of_node(node));
cpumask = cpumask_of_node(numa_node_id);
return kfd_cpumask_to_apic_id(cpumask_of_node(numa_node_id));
if (cpumask_empty(cpumask_of_node(numa_node)))
cpumask_xor(available_mask, allocated_mask, cpumask_of_node(numa_node));
if (!cpumask_test_cpu(cpu, cpumask_of_node(dev_to_node(&hisi_ptt->pdev->dev))))
target = cpumask_any_but(cpumask_of_node(dev_to_node(&hisi_ptt->pdev->dev)), cpu);
const cpumask_t *cpumask = cpumask_of_node(dev_to_node(&hisi_ptt->pdev->dev));
node_mask = cpumask_of_node(node);
local_mask = cpumask_of_node(dd->node);
cpumask_and(node_cpu_mask, cpu_mask, cpumask_of_node(dd->node));
cpumask_first(cpumask_of_node(dd->node)));
cpumask_first(cpumask_of_node(ps.ppd->dd->node));
cpumask_first(cpumask_of_node(ps.ppd->dd->node));
cpumask_first(cpumask_of_node(dd->node)));
cpumask_first(cpumask_of_node(dd->node)),
cpumask_first(cpumask_of_node(rdi->dparms.node));
cpumask_and(tmpmask, cpumask_of_node(node), aff_mask);
cpumask_and(tmpmask, tmpmask, cpumask_of_node(node));
cpumask = cpumask_of_node(node);
for_each_cpu(cpu, cpumask_of_node(nid)) {
for_each_cpu(cpu, cpumask_of_node(nid)) {
return cpumask_of_node(priv->numa_node);
cpumask = cpumask_of_node(nodeid);
cpumask = cpumask_of_node(nodeid);
cpu = cpumask_any_and(cpumask_of_node(node),
mask = cpumask_of_node(dev_to_node(dev));
target = cpumask_any_and_but(cpumask_of_node(cpu_to_node(cpu)),
target = cpumask_any_and_but(cpumask_of_node(node), cpu_online_mask, cpu);
target = cpumask_any_and_but(cpumask_of_node(node), cpu_online_mask, cpu);
target = cpumask_any_and_but(cpumask_of_node(node), cpu_online_mask, cpu);
target = cpumask_any_and_but(cpumask_of_node(node), cpu_online_mask, cpu);
target = cpumask_any_and_but(cpumask_of_node(numa_node),
cpu = cpumask_any_and(cpumask_of_node(tx2_pmu->node),
new_cpu = cpumask_any_and_but(cpumask_of_node(tx2_pmu->node),
mask = cpumask_of_node(nid);
mask = cpumask_of_node(dev_to_node(&ioc->pdev->dev));
node_mask = cpumask_of_node(cpu_to_node(q_num));
node_mask = cpumask_of_node(cpu_to_node(q_num));
const struct cpumask *cpumask_of_node(int node);
#ifndef cpumask_of_node
cpumask_of_node(pcibus_to_node(bus)))
return cpumask_of_node(cpu_to_node(cpu));
#define nr_cpus_node(node) cpumask_weight(cpumask_of_node(node))
kthread_bind_mask(tsk[i], cpumask_of_node(node));
const struct cpumask *nodemask = cpumask_of_node(node);
pref = cpumask_of_node(kthread->node);
nodemask = cpumask_of_node(nid);
const struct cpumask *node_mask = cpumask_of_node(node);
cpu = cpumask_any_and_distribute(cpumask_of_node(node), cpus_allowed);
const struct cpumask *node_mask = cpumask_of_node(node);
for_each_cpu(cpu, cpumask_of_node(nid)) {
ns->weight = cpumask_weight(cpumask_of_node(nid));
for_each_cpu_wrap(cpu, cpumask_of_node(env->dst_nid), start + 1) {
for_each_cpu_and(cpu, cpumask_of_node(env->dst_nid), env->p->cpus_ptr) {
cpumask_or(mask, mask, cpumask_of_node(k));
if (cpumask_weight(cpumask_of_node(node)) != 1)
node_cpus = cpumask_weight_and(effective, cpumask_of_node(node));
cpu = cpumask_any_and(cpumask_of_node(node), cpu_online_mask);
cpumask_of_node(cpu_to_node(cpu)));
cpumask_of_node(cpu_to_node(cpu)), 3))
const struct cpumask *cpumask = cpumask_of_node(pgdat->node_id);
if (!cpumask_empty(cpumask_of_node(n)))
nr_split_cpus = cpumask_weight(cpumask_of_node(zone_to_nid(zone))) + cpu_online;
if (!cpumask_empty(cpumask_of_node(node)))
node_cpus = cpumask_of_node(node);
set_cpus_allowed_ptr(task, cpumask_of_node(node));