alloc_cpumask_var
if (!alloc_cpumask_var(&effective_mask, GFP_KERNEL)) {
if (!alloc_cpumask_var(&cpus_allowed, GFP_KERNEL)) {
if (!alloc_cpumask_var(&new_mask, GFP_KERNEL)) {
BUG_ON(!alloc_cpumask_var(&cpu_offline_mask, GFP_KERNEL));
if (!alloc_cpumask_var(&cpu_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
BUG_ON(!alloc_cpumask_var(&vector_searchmask, GFP_KERNEL));
if (!alloc_cpumask_var(&mce_inject_cpumask, GFP_KERNEL))
!alloc_cpumask_var(&downed_cpus, GFP_KERNEL)) {
BUG_ON(!alloc_cpumask_var(&uv_nmi_cpu_mask, GFP_KERNEL));
if (!alloc_cpumask_var(&mask, GFP_ATOMIC)) {
if (!alloc_cpumask_var(&xen_cpu_initialized_map, GFP_KERNEL))
if (!alloc_cpumask_var(&tmp, GFP_KERNEL))
if (!alloc_cpumask_var(&cpus_to_visit, GFP_KERNEL))
if (!alloc_cpumask_var(&offline, GFP_KERNEL))
if (!alloc_cpumask_var(&isolated, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL)) \
if (!alloc_cpumask_var(&mask, GFP_KERNEL)) \
if (!alloc_cpumask_var(&timer_cpus, GFP_KERNEL))
if (!alloc_cpumask_var(&policy->cpus, GFP_KERNEL))
if (!alloc_cpumask_var(&done, GFP_KERNEL))
if (!alloc_cpumask_var(&tmp, GFP_KERNEL))
if (!alloc_cpumask_var(&cpu_groups[num_groups], GFP_KERNEL)) {
if (!alloc_cpumask_var(&offlined_cpus, GFP_KERNEL))
!alloc_cpumask_var(&available_mask, GFP_KERNEL) ||
if (!alloc_cpumask_var(&xps_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&hw->affinity_mask[vec], GFP_KERNEL))
if (!alloc_cpumask_var(&priv->scratchpad.cpumask, GFP_KERNEL))
if (!alloc_cpumask_var(&cpus, GFP_KERNEL))
if (!alloc_cpumask_var(&tmp, GFP_ATOMIC)) {
if (alloc_cpumask_var(&mask, GFP_KERNEL)) {
if (!alloc_cpumask_var(&cpu_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&idle_injection_cpu_mask, GFP_KERNEL))
ret = alloc_cpumask_var(&new_mask, GFP_KERNEL);
if (!alloc_cpumask_var(&vp_dev->msix_affinity_masks[i],
return alloc_cpumask_var(mask, flags | __GFP_ZERO);
if (!alloc_cpumask_var(&wq->cpu_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&allowed_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&new_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&allowed_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&full_hk_cpus, GFP_KERNEL))
BUG_ON(!alloc_cpumask_var(&top_cpuset.cpus_allowed, GFP_KERNEL));
BUG_ON(!alloc_cpumask_var(&top_cpuset.effective_cpus, GFP_KERNEL));
BUG_ON(!alloc_cpumask_var(&top_cpuset.effective_xcpus, GFP_KERNEL));
BUG_ON(!alloc_cpumask_var(&top_cpuset.exclusive_cpus, GFP_KERNEL));
BUG_ON(!alloc_cpumask_var(&cpus_attach, GFP_KERNEL));
if (!alloc_cpumask_var(&new_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&frozen_cpus, GFP_KERNEL|__GFP_ZERO))
if (!alloc_cpumask_var(&mask, GFP_KERNEL)) {
if (!desc || !alloc_cpumask_var(&cpumask, GFP_KERNEL))
if (!alloc_cpumask_var(cm_bind, GFP_KERNEL)) {
if (!alloc_cpumask_var(&pd->cpumask.pcpu, GFP_KERNEL))
if (!alloc_cpumask_var(&pd->cpumask.cbcpu, GFP_KERNEL))
if (!alloc_cpumask_var(&new_cpumask, GFP_KERNEL))
if (!alloc_cpumask_var(&pinst->cpumask.pcpu, GFP_KERNEL))
if (!alloc_cpumask_var(&pinst->cpumask.cbcpu, GFP_KERNEL)) {
KUNIT_ASSERT_TRUE(test, alloc_cpumask_var(&test_cpus, GFP_KERNEL));
alloc_cpumask_var(&new_mask, GFP_KERNEL);
if (!alloc_cpumask_var(&sd_sysctl_cpus, GFP_KERNEL))
if (!alloc_cpumask_var(&scx_bypass_lb_donee_cpumask, GFP_KERNEL) ||
!alloc_cpumask_var(&scx_bypass_lb_resched_cpumask, GFP_KERNEL)) {
BUG_ON(!alloc_cpumask_var(&scx_idle_global_masks.cpu, GFP_KERNEL));
BUG_ON(!alloc_cpumask_var(&scx_idle_global_masks.smt, GFP_KERNEL));
if (!alloc_cpumask_var(&cpus_allowed, GFP_KERNEL))
if (!alloc_cpumask_var(&new_mask, GFP_KERNEL)) {
if (!alloc_cpumask_var(&new_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&doms[i], GFP_KERNEL)) {
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&cpumask, GFP_KERNEL))
if (!alloc_cpumask_var(&cpumask, GFP_KERNEL))
if (!alloc_cpumask_var(&shuffle_tmp_mask, GFP_KERNEL)) {
if (!alloc_cpumask_var(&cpu_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&tracing_buffer_mask, GFP_KERNEL))
if (!alloc_cpumask_var(&global_trace.tracing_cpumask, GFP_KERNEL))
if (!alloc_cpumask_var(&iter->started, GFP_KERNEL)) {
if (!alloc_cpumask_var(&tr->tracing_cpumask, GFP_KERNEL))
if (alloc_cpumask_var(&new_mask, GFP_KERNEL)) {
if (!alloc_cpumask_var(&attrs->cpumask, GFP_KERNEL))
if (!alloc_cpumask_var(&attrs->__pod_cpumask, GFP_KERNEL))
BUG_ON(!alloc_cpumask_var(&wq_online_cpumask, GFP_KERNEL));
BUG_ON(!alloc_cpumask_var(&wq_unbound_cpumask, GFP_KERNEL));
BUG_ON(!alloc_cpumask_var(&wq_requested_unbound_cpumask, GFP_KERNEL));
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&mask, GFP_KERNEL))
if (!alloc_cpumask_var(&cpumask, GFP_KERNEL))
return alloc_cpumask_var(mask, flags);