alloc_cpumask_var_node
ret = alloc_cpumask_var_node(&mask, GFP_ATOMIC, cpu_to_node(cpu));
if (!alloc_cpumask_var_node(&node_recorded_ids_map[node],
bool alloc_cpumask_var_node(cpumask_var_t *mask, gfp_t flags, int node);
return alloc_cpumask_var_node(mask, flags | __GFP_ZERO, node);
return alloc_cpumask_var_node(mask, flags, NUMA_NO_NODE);
BUG_ON(!alloc_cpumask_var_node(&scx_idle_node_masks[i]->cpu, GFP_KERNEL, i));
BUG_ON(!alloc_cpumask_var_node(&scx_idle_node_masks[i]->smt, GFP_KERNEL, i));
BUG_ON(!alloc_cpumask_var_node(&per_cpu(local_idle_cpumask, i),
BUG_ON(!alloc_cpumask_var_node(&per_cpu(local_llc_idle_cpumask, i),
BUG_ON(!alloc_cpumask_var_node(&per_cpu(local_numa_idle_cpumask, i),
EXPORT_SYMBOL(alloc_cpumask_var_node);
if (!alloc_cpumask_var_node(&per_cpu(cpu_kick_mask, cpu),