DR_STE_SIZE
last_ste = ste_arr + DR_STE_SIZE * (nic_matcher->num_of_builders - 1);
int index = offset / DR_STE_SIZE;
u8 hw_ste_arr_optimized[DR_RULE_MAX_STE_CHAIN_OPTIMIZED * DR_STE_SIZE] = {};
DR_STE_SIZE, GFP_KERNEL);
u8 *cur_hw_ste_ent = hw_ste_arr + (i * DR_STE_SIZE);
u8 hw_ste[DR_STE_SIZE] = {};
mlx5dr_send_fill_and_append_ste_send_info(new_ste, DR_STE_SIZE, 0,
u8 formatted_ste[DR_STE_SIZE] = {};
mlx5dr_send_fill_and_append_ste_send_info(new_ste, DR_STE_SIZE, 0, hw_ste,
curr_hw_ste = hw_ste_arr + i * DR_STE_SIZE;
prev_hw_ste = (i == 0) ? curr_hw_ste : hw_ste_arr + ((i - 1) * DR_STE_SIZE);
mlx5dr_send_fill_and_append_ste_send_info(action_ste, DR_STE_SIZE, 0,
mlx5dr_send_fill_and_append_ste_send_info(ste, DR_STE_SIZE, 0, hw_ste,
DR_STE_SIZE);
*num_stes = *byte_size / DR_STE_SIZE;
alloc_size = *num_stes * DR_STE_SIZE;
mlx5dr_ste_prepare_for_postsend(dmn->ste_ctx, formatted_ste, DR_STE_SIZE);
u32 ste_index = i * (byte_size / DR_STE_SIZE);
u32 ste_off = j * DR_STE_SIZE;
formatted_ste, DR_STE_SIZE);
data + (j * DR_STE_SIZE),
DR_STE_SIZE);
mlx5dr_ste_prepare_for_postsend(dmn->ste_ctx, ste_init_data, DR_STE_SIZE);
copy_dst = data + i * DR_STE_SIZE;
memcpy(copy_dst, ste_init_data, DR_STE_SIZE);
u8 ste_index = i * (byte_size / DR_STE_SIZE);
return base_icm_addr + DR_STE_SIZE * index;
return mlx5dr_icm_pool_get_chunk_mr_addr(ste->htbl->chunk) + DR_STE_SIZE * index;
u8 tmp_data_ste[DR_STE_SIZE] = {};
mlx5dr_send_fill_and_append_ste_send_info(ste, DR_STE_SIZE,
u8 hw_ste[DR_STE_SIZE] = {};
mlx5dr_send_fill_and_append_ste_send_info(ste, DR_STE_SIZE,
u8 tmp_hw_ste[DR_STE_SIZE] = {0};
u8 formatted_ste[DR_STE_SIZE] = {};
ste_arr += DR_STE_SIZE;
*last_ste += DR_STE_SIZE;
WARN_ON(ste_size != DR_STE_SIZE);
*last_ste += DR_STE_SIZE;
return DR_STE_SIZE;
u8 data_cont[DR_STE_SIZE];
DR_STE_SIZE_REDUCED = DR_STE_SIZE - DR_STE_SIZE_MASK,