numa_node_id
irq_base = irq_alloc_descs(-1, 0, AVIC_NUM_IRQS, numa_node_id());
irq_base = irq_alloc_descs(-1, 0, TZIC_NUM_IRQS, numa_node_id());
16, numa_node_id()) < 0,
if (numa_node_id() != cpu_to_node(cpu))
#define numa_node_id numa_node_id
SE7724_FPGA_IRQ_NR, numa_node_id());
res = irq_alloc_desc_at(p->irq, numa_node_id());
if (i != numa_node_id())
irq = __irq_alloc_descs(-1, 1, 1, numa_node_id(), NULL, NULL);
gfp_flags, numa_node_id());
dev->irq = irq_alloc_desc(numa_node_id());
#define numa_node_id numa_node_id
int nid_of_current = numa_node_id();
return snp_safe_alloc_page_node(numa_node_id(), GFP_KERNEL_ACCOUNT);
return snp_safe_alloc_page_node(numa_node_id(), GFP_KERNEL_ACCOUNT);
dev_to_node(dev) != numa_node_id()) {
dev_to_node(dev), numa_node_id());
int node = numa_node_id();
int node = numa_node_id();
qat_crypto_get_instance_node(numa_node_id());
qat_crypto_get_instance_node(numa_node_id());
node = numa_node_id();
irq_base = devm_irq_alloc_descs(&pdev->dev, -1, 0, 32, numa_node_id());
irq_base = devm_irq_alloc_descs(&pdev->dev, -1, 0, 32, numa_node_id());
static int kfd_fill_cu_for_cpu(int numa_node_id, int *avail_size,
cpumask = cpumask_of_node(numa_node_id);
sub_type_hdr->processor_id_low = kfd_numa_node_to_apic_id(numa_node_id);
static int kfd_fill_mem_info_for_cpu(int numa_node_id, int *avail_size,
pgdat = NODE_DATA(numa_node_id);
static int kfd_fill_iolink_info_for_cpu(int numa_node_id, int *avail_size,
if (nid == numa_node_id) /* node itself */
sub_type_hdr->proximity_domain_from = numa_node_id;
int numa_node_id;
for_each_online_node(numa_node_id) {
if (kfd_numa_node_to_apic_id(numa_node_id) == -1)
ret = kfd_fill_cu_for_cpu(numa_node_id, &avail_size,
ret = kfd_fill_mem_info_for_cpu(numa_node_id, &avail_size,
ret = kfd_fill_iolink_info_for_cpu(numa_node_id, &avail_size,
int kfd_numa_node_to_apic_id(int numa_node_id);
int kfd_numa_node_to_apic_id(int numa_node_id)
if (numa_node_id == -1) {
return kfd_cpumask_to_apic_id(cpumask_of_node(numa_node_id));
ptr = memremap_pages(&chunk->pagemap, numa_node_id());
numa = numa_node_id();
err = irq_alloc_descs(-1, 0, ARRAY_SIZE(clps711x_irqs), numa_node_id());
irq_base = irq_alloc_descs(-1, 0, nr_irqs, numa_node_id());
int numa_node_id;
md->tag_set = kzalloc_node(sizeof(struct blk_mq_tag_set), GFP_KERNEL, md->numa_node_id);
md->tag_set->numa_node = md->numa_node_id;
pools = kzalloc_node(sizeof(*pools), GFP_KERNEL, md->numa_node_id);
int r, numa_node_id = dm_get_numa_node();
md = kvzalloc_node(sizeof(*md), GFP_KERNEL, numa_node_id);
md->numa_node_id = numa_node_id;
md->disk = blk_alloc_disk(NULL, md->numa_node_id);
td = kmalloc_node(sizeof(*td), GFP_KERNEL, md->numa_node_id);
unlikely(page_to_nid(pg_info->page) != numa_node_id())) {
if (unlikely(page_to_nid(desc_cb->priv) != numa_node_id()))
if (likely(page_to_nid(desc_cb->priv) == numa_node_id()))
int node = numa_node_id();
int node = numa_node_id();
irq = irq_alloc_desc(numa_node_id());
local_socket_id = numa_node_id();
return alloc_pages_node_noprof(numa_node_id(), gfp_mask, order);
return __folio_alloc_node_noprof(gfp, order, numa_node_id());
int n = numa_node_id() % 2;
#ifndef numa_node_id
return numa_node_id();
#ifndef numa_node_id
return numa_node_id();
if (node != NUMA_NO_NODE && numa_node_id() != node)
nid = numa_node_id();
node = numa_node_id();
addr = (long)&numa_node_id;
ptr = memremap_pages(&devmem->pagemap, numa_node_id());
NO_INTERLEAVE_INDEX, numa_node_id());
nid = numa_node_id();
return __alloc_frozen_pages_noprof(gfp, order, numa_node_id(), NULL);
numa_node_id(),
if (folio_nid(folio) == numa_node_id()) {
int nid = numa_node_id();
return numa_node_id();
return numa_node_id();
nid = numa_node_id();
init_nodemask_of_node(mask, numa_node_id());
folio = folio_alloc_mpol_noprof(gfp, order, pol, ilx, numa_node_id());
numa_node_id());
nr_allocated += alloc_pages_bulk_noprof(gfp, numa_node_id(), NULL,
numa_node_id(), pol, nr_pages, page_array);
nid = numa_node_id();
int thisnid = numa_node_id();
polnid = numa_node_id();
node = numa_node_id();
if (is_private_single_threaded && (nid == numa_node_id()))
reclaim_throttle(NODE_DATA(numa_node_id()),
if (zone_to_nid(z) != numa_node_id())
struct zonelist *zonelist = node_zonelist(numa_node_id(), GFP_KERNEL);
nid = numa_node_id();
folio = folio_alloc_mpol(gfp, order, mpol, ilx, numa_node_id());
folio = folio_alloc_mpol(gfp_mask, 0, mpol, ilx, numa_node_id());
node = numa_node_id();
struct zonelist *zonelist = node_zonelist(numa_node_id(), sc.gfp_mask);
struct zonelist *zonelist = node_zonelist(numa_node_id(), sc.gfp_mask);
if (node_state(pgdat->node_id, N_CPU) && pgdat->node_id != numa_node_id())
if (zone_to_nid(zone) == numa_node_id()) {
int i, j, tci, numa_node_id = -2;
if (numa_node_id == -2)
numa_node_id = cpu_to_node(j);
else if (numa_node_id != cpu_to_node(j))
numa_node_id = -1;
(numa_node_id >= 0) ?
numa_node_id : NUMA_NO_NODE);
int node = numa_node_id();
int node = pkt_dev->node >= 0 ? pkt_dev->node : numa_node_id();
sdn = per_cpu_ptr(net_hotdata.skb_defer_nodes, cpu) + numa_node_id();
udp_prod_queue = &udp_sk(sk)->udp_prod_queue[numa_node_id()];
numa_node_id());