vpe_id
if (vpe_id() == 1)
(1 << (12 + vpe_id())) | BRCM_PERFCTRL_TC;
unsigned int vpe_id;
vpe_id = cpu_vpe_id(&cpu_data[cpu]);
uasm_i_addiu(&p, GPR_T0, GPR_ZERO, 1 << vpe_id);
unsigned int vpe_id)
write_cpc_co_vp_run(1 << vpe_id);
unsigned vpe_id = cpu_vpe_id(&cpu_data[cpu]);
struct vpe_boot_config *vpe_cfg = &core_cfg->vpe_config[vpe_id];
boot_core(cluster, core, vpe_id);
mips_cm_lock_other(cluster, core, vpe_id,
mips_cps_boot_vpes(core_cfg, vpe_id);
unsigned int cpu, core, vpe_id;
vpe_id = cpu_vpe_id(&cpu_data[cpu]);
pr_debug("Halting core %d VP%d\n", core, vpe_id);
write_cpc_cl_vp_stop(1 << vpe_id);
unsigned vpe_id = cpu_vpe_id(&cpu_data[cpu]);
settc(vpe_id);
unsigned int vpe_id = cpu_vpe_id(&cpu_data[cpu]);
mips_cm_lock_other(0, core, vpe_id, CM_GCR_Cx_OTHER_BLOCK_LOCAL);
} while (stat & (1 << vpe_id));
its_encode_vpeid(cmd, desc->its_invdb_cmd.vpe->vpe_id);
its_encode_vpeid(cmd, desc->its_vsgi_cmd.vpe->vpe_id);
its_encode_vpeid(sync_cmd, sync_vpe->vpe_id);
val |= FIELD_PREP(GICR_INVLPIR_VPEID, map->vpe->vpe_id);
static bool its_alloc_vpe_table(u32 vpe_id)
if (!its_alloc_table_entry(its, baser, vpe_id))
if (!allocate_vpe_l2_table(cpu, vpe_id))
val |= FIELD_PREP(GICR_INVALLR_VPEID, vpe->vpe_id);
val |= FIELD_PREP(GICR_VPENDBASER_4_1_VPEID, vpe->vpe_id);
val = FIELD_PREP(GITS_SGIR_VPEID, vpe->vpe_id);
writel_relaxed(vpe->vpe_id, base + GICR_VSGIR);
int vpe_id;
vpe_id = its_vpe_id_alloc();
if (vpe_id < 0)
return vpe_id;
its_vpe_id_free(vpe_id);
if (!its_alloc_vpe_table(vpe_id)) {
its_vpe_id_free(vpe_id);
vpe->vpe_id = vpe_id;
its_vpe_id_free(vpe->vpe_id);
its_encode_vpeid(cmd, desc->its_vinvall_cmd.vpe->vpe_id);
its_encode_vpeid(cmd, desc->its_vmapp_cmd.vpe->vpe_id);
its_encode_vpeid(cmd, desc->its_vmapti_cmd.vpe->vpe_id);
its_encode_vpeid(cmd, desc->its_vmovi_cmd.vpe->vpe_id);
its_encode_vpeid(cmd, desc->its_vmovp_cmd.vpe->vpe_id);
u16 vpe_id;