NUM_XCC
int num_xcc = adev->gfx.xcc_mask ? NUM_XCC(adev->gfx.xcc_mask) : 1;
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
int num_xcc = NUM_XCC(adev->gfx.xcc_mask);
int num_xcc = adev->gfx.xcc_mask ? NUM_XCC(adev->gfx.xcc_mask) : 1;
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
int num_xcc = adev->gfx.xcc_mask ? NUM_XCC(adev->gfx.xcc_mask) : 1;
switch (NUM_XCC(adev->gfx.xcc_mask)) {
num_xcc = NUM_XCC(xcp_mgr->adev->gfx.xcc_mask);
num_xcp = NUM_XCC(adev->gfx.xcc_mask) / num_xcc_xcp;
*num_xcp = NUM_XCC(adev->gfx.xcc_mask);
max_res[AMDGPU_XCP_RES_XCC] = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(xcp_mgr->adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(xcp_mgr->adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
for (xcc_id = 0; xcc_id < NUM_XCC(adev->gfx.xcc_mask); xcc_id++) {
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
NUM_XCC(adev->gfx.xcc_mask) /
num_xcc = NUM_XCC(adev->gfx.xcc_mask);
xcc_mask = GENMASK(NUM_XCC(adev->gfx.xcc_mask) - 1, 0);
xcc_mask = GENMASK(NUM_XCC(adev->gfx.xcc_mask) - 1, 0);
xcc_mask = GENMASK(NUM_XCC(adev->gfx.xcc_mask) - 1, 0);
xcc_mask = GENMASK(NUM_XCC(adev->gfx.xcc_mask) - 1, 0);
xcc_mask = GENMASK(NUM_XCC(adev->gfx.xcc_mask) - 1, 0);
NUM_XCC(adev->gfx.xcc_mask));
device_info.num_xcc = NUM_XCC(pdd->dev->xcc_mask);
(1U << NUM_XCC(kfd->adev->gfx.xcc_mask)) - 1;
NUM_XCC(dqm->dev->xcc_mask);
*mqd_size = mqd_mgr->mqd_size * NUM_XCC(mqd_mgr->dev->xcc_mask);
NUM_XCC(dqm->dev->xcc_mask));
int inc = cu_inc * NUM_XCC(mm->dev->xcc_mask);
NUM_XCC(dev->xcc_mask);
NUM_XCC(node->xcc_mask),
*ctl_stack_size = m->cp_hqd_cntl_stack_size * NUM_XCC(mm->dev->xcc_mask);
for (xcc = 0; xcc < NUM_XCC(mm->dev->xcc_mask); xcc++) {
for (xcc = 0; xcc < NUM_XCC(mm->dev->xcc_mask); xcc++) {
for (xcc = 0; xcc < NUM_XCC(mm->dev->xcc_mask); xcc++) {
NUM_XCC(mm->dev->xcc_mask);
for (xcc = 0; xcc < NUM_XCC(mm->dev->xcc_mask); xcc++) {
num_xcc = NUM_XCC(mm->dev->xcc_mask);
for (xcc = 0; xcc < NUM_XCC(mm->dev->xcc_mask); xcc++) {
wave_cnt += (NUM_XCC(dev->xcc_mask) *
set_queue_properties_from_criu(&qp, q_data, NUM_XCC(pdd->dev->adev->gfx.xcc_mask));
num_xccs = NUM_XCC(q->device->xcc_mask);
topo_dev->node_props.debug_memory_size) * NUM_XCC(pdd->dev->xcc_mask);
topo_dev->node_props.debug_memory_size) * NUM_XCC(pdd->dev->xcc_mask);
cu_num = props->simd_count / props->simd_per_cu / NUM_XCC(dev->gpu->xcc_mask);
buf[7] = (ffs(gpu->xcc_mask) - 1) | (NUM_XCC(gpu->xcc_mask) << 16);
int num_xcc = NUM_XCC(knode->xcc_mask);
end = start + NUM_XCC(kdev->xcc_mask);
NUM_XCC(dev->gpu->xcc_mask)) : 0);
NUM_XCC(dev->gpu->xcc_mask));