dump_addr
dump_addr(st, addr);
dump_addr(st, addr);
void *dump_addr;
vfree(dump_info->dump_addr);
dump_info->dump_addr = vzalloc(dump_info->dump_sz);
if (!dump_info->dump_addr)
dump_meta = dump_info->dump_addr;
memcpy(dump_info->dump_addr + sizeof(*dump_meta), dump_info->tbl_addr, dump_info->tbl_len);
memcpy(dump_info->dump_addr + dump_info->dump_off, data, len);
dev_coredumpv(dev, dump_info->dump_addr, dump_info->dump_sz, GFP_KERNEL);
dump_info->dump_addr = NULL;
struct ta_ras_query_address_output *addr_out, bool dump_addr)
addr_out, dump_addr);
bool dump_addr);
struct ta_ras_query_address_output *addr_out, bool dump_addr);
bool dump_addr)
if (!err_data && !dump_addr)
if (dump_addr)
u32 *dump_addr = NULL;
dump_addr = *reg;
dump_addr[i * 4] = x0;
dump_addr[i * 4 + 1] = x4;
dump_addr[i * 4 + 2] = x8;
dump_addr[i * 4 + 3] = xc;
static void msm_disp_state_print_regs(const u32 *dump_addr, u32 len,
if (!dump_addr) {
dump_addr[i * 4], dump_addr[i * 4 + 1],
dump_addr[i * 4 + 2], dump_addr[i * 4 + 3]);
u32 dump_addr, u32 dump_size)
for (addr = dump_addr; addr < dump_addr + dump_size; addr++) {
u32 dump_addr, u32 dump_size)
for (addr = dump_addr; addr < dump_addr + dump_size; addr++) {
u32 dump_addr, u32 dump_size, bool dav)
ret = rtw89_dump_physical_efuse_map_dav(rtwdev, map, dump_addr, dump_size);
ret = rtw89_dump_physical_efuse_map_ddv(rtwdev, map, dump_addr, dump_size);
u32 dump_addr, u32 dump_size)
for (addr = dump_addr; addr < dump_addr + dump_size; addr++) {
u32 dump_addr, u32 dump_size, bool dav)
dump_addr, dump_size);
dump_addr, dump_size);
u32 dump_addr;
dump_addr = ALIGN_DOWN(EF_FV_OFSET_BE_V1, 4);
ret = rtw89_dump_physical_efuse_map_be(rtwdev, buff, dump_addr, 4, false);
u32 dump_addr, u32 dump_size)
if (!IS_ALIGNED(dump_addr, 4) || !IS_ALIGNED(dump_size, 4)) {
dump_addr, dump_size);
for (addr = dump_addr; addr < dump_addr + dump_size; addr += 4, map += 4) {