Symbol: igu_sb_id
sys/dev/bxe/bxe.c
11416
bxe_ack_sb(sc, fp->igu_sb_id, USTORM_ID, 0, IGU_INT_ENABLE, 0);
sys/dev/bxe/bxe.c
13903
int igu_sb_id;
sys/dev/bxe/bxe.c
13920
for (igu_sb_id = 0;
sys/dev/bxe/bxe.c
13921
igu_sb_id < IGU_REG_MAPPING_MEMORY_SIZE;
sys/dev/bxe/bxe.c
13922
igu_sb_id++) {
sys/dev/bxe/bxe.c
13923
val = REG_RD(sc, IGU_REG_MAPPING_MEMORY + igu_sb_id * 4);
sys/dev/bxe/bxe.c
13934
sc->igu_dsb_id = igu_sb_id;
sys/dev/bxe/bxe.c
13937
sc->igu_base_sb = igu_sb_id;
sys/dev/bxe/bxe.c
16484
uint8_t igu_sb_id,
sys/dev/bxe/bxe.c
16491
igu_addr += (IGU_CMD_INT_ACK_BASE + igu_sb_id)*8;
sys/dev/bxe/bxe.c
16492
bxe_igu_ack_sb_gen(sc, igu_sb_id, segment, index, op, update, igu_addr);
sys/dev/bxe/bxe.c
8712
bxe_ack_sb(sc, fp->igu_sb_id, USTORM_ID,
sys/dev/bxe/bxe.c
8753
bxe_ack_sb(sc, fp->igu_sb_id, USTORM_ID,
sys/dev/bxe/bxe.c
8798
bxe_ack_sb(sc, fp->igu_sb_id, USTORM_ID, 0, IGU_INT_DISABLE, 0);
sys/dev/bxe/bxe.c
8845
curcpu, fp->index, fp->fw_sb_id, fp->igu_sb_id);
sys/dev/bxe/bxe.c
8848
bxe_ack_sb(sc, fp->igu_sb_id, USTORM_ID, 0, IGU_INT_DISABLE, 0);
sys/dev/bxe/bxe.c
9457
int igu_sb_id,
sys/dev/bxe/bxe.c
9460
hc_sm->igu_sb_id = igu_sb_id;
sys/dev/bxe/bxe.c
9503
int igu_sb_id)
sys/dev/bxe/bxe.c
9552
bxe_setup_ndsb_state_machine(&hc_sm_p[SM_RX_ID], igu_sb_id, igu_seg_id);
sys/dev/bxe/bxe.c
9553
bxe_setup_ndsb_state_machine(&hc_sm_p[SM_TX_ID], igu_sb_id, igu_seg_id);
sys/dev/bxe/bxe.c
9598
fp->igu_sb_id = (sc->igu_base_sb + idx + CNIC_SUPPORT(sc));
sys/dev/bxe/bxe.c
9604
fp->igu_sb_id;
sys/dev/bxe/bxe.c
9636
fp->fw_sb_id, fp->igu_sb_id);
sys/dev/bxe/bxe.c
9668
idx, fp->status_block.e2_sb, fp->cl_id, fp->fw_sb_id, fp->igu_sb_id);
sys/dev/bxe/bxe.c
9848
sp_sb_data.igu_sb_id = igu_sp_sb_index;
sys/dev/bxe/bxe.h
2135
void bxe_igu_ack_sb(struct bxe_softc *sc, uint8_t igu_sb_id,
sys/dev/bxe/bxe.h
2297
uint8_t igu_sb_id,
sys/dev/bxe/bxe.h
2351
uint8_t igu_sb_id,
sys/dev/bxe/bxe.h
2358
bxe_hc_ack_sb(sc, igu_sb_id, storm, index, op, update);
sys/dev/bxe/bxe.h
2363
} else if (igu_sb_id != sc->igu_dsb_id) {
sys/dev/bxe/bxe.h
2370
bxe_igu_ack_sb(sc, igu_sb_id, segment, index, op, update);
sys/dev/bxe/bxe.h
591
uint8_t igu_sb_id; /* status block number in HW */
sys/dev/bxe/ecore_hsi.h
11838
uint8_t igu_sb_id /* sb_id within the IGU */;
sys/dev/bxe/ecore_hsi.h
11844
uint8_t igu_sb_id /* sb_id within the IGU */;
sys/dev/bxe/ecore_hsi.h
11911
uint8_t igu_sb_id /* sb_id within the IGU */;
sys/dev/bxe/ecore_hsi.h
11913
uint8_t igu_sb_id /* sb_id within the IGU */;
sys/dev/qlnx/qlnxe/ecore_dev.c
2876
int i, igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_dev.c
2886
for (igu_sb_id = 0;
sys/dev/qlnx/qlnxe/ecore_dev.c
2887
igu_sb_id < ECORE_MAPPING_MEMORY_SIZE(p_dev);
sys/dev/qlnx/qlnxe/ecore_dev.c
2888
igu_sb_id++) {
sys/dev/qlnx/qlnxe/ecore_dev.c
2889
p_block = &p_igu_info->entry[igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_dev.c
2897
STORE_RT_REG_AGG(p_hwfn, offset + igu_sb_id * 2,
sys/dev/qlnx/qlnxe/ecore_int.c
1488
u16 igu_sb_id, u32 pi_index,
sys/dev/qlnx/qlnxe/ecore_int.c
1498
sb_offset = igu_sb_id * PIS_PER_SB_E4;
sys/dev/qlnx/qlnxe/ecore_int.c
1525
_ecore_int_cau_conf_pi(p_hwfn, p_ptt, p_sb->igu_sb_id,
sys/dev/qlnx/qlnxe/ecore_int.c
1531
dma_addr_t sb_phys, u16 igu_sb_id,
sys/dev/qlnx/qlnxe/ecore_int.c
1545
igu_sb_id * sizeof(u64), 2,
sys/dev/qlnx/qlnxe/ecore_int.c
1549
igu_sb_id * sizeof(u64), 2,
sys/dev/qlnx/qlnxe/ecore_int.c
1554
CAU_REG_SB_ADDR_MEMORY_RT_OFFSET+igu_sb_id*2,
sys/dev/qlnx/qlnxe/ecore_int.c
1558
CAU_REG_SB_VAR_MEMORY_RT_OFFSET+igu_sb_id*2,
sys/dev/qlnx/qlnxe/ecore_int.c
1580
_ecore_int_cau_conf_pi(p_hwfn, p_ptt, igu_sb_id, RX_PI,
sys/dev/qlnx/qlnxe/ecore_int.c
1593
igu_sb_id, TX_PI(i),
sys/dev/qlnx/qlnxe/ecore_int.c
1610
sb_info->igu_sb_id, 0, 0);
sys/dev/qlnx/qlnxe/ecore_int.c
1658
u16 igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
1662
igu_sb_id = p_hwfn->hw_info.p_igu_info->igu_dsb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
1664
igu_sb_id = ecore_get_pf_igu_sb_id(p_hwfn, sb_id + 1);
sys/dev/qlnx/qlnxe/ecore_int.c
1666
igu_sb_id = ecore_vf_get_igu_sb_id(p_hwfn, sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
1668
if (igu_sb_id == ECORE_SB_INVALID_IDX)
sys/dev/qlnx/qlnxe/ecore_int.c
1674
"Slowpath SB index in IGU is 0x%04x\n", igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
1677
"SB [%04x] <--> IGU SB [%04x]\n", sb_id, igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
1679
return igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
1692
sb_info->igu_sb_id = ecore_get_igu_sb_id(p_hwfn, sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
1694
if (sb_info->igu_sb_id == ECORE_SB_INVALID_IDX)
sys/dev/qlnx/qlnxe/ecore_int.c
1704
p_block = &p_info->entry[sb_info->igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
1725
(sb_info->igu_sb_id << 3);
sys/dev/qlnx/qlnxe/ecore_int.c
1731
((IGU_CMD_INT_ACK_BASE + sb_info->igu_sb_id) << 3);
sys/dev/qlnx/qlnxe/ecore_int.c
1761
p_block = &p_info->entry[sb_info->igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
1871
return p_hwfn->p_sp_sb->sb_info.igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
1971
u16 igu_sb_id,
sys/dev/qlnx/qlnxe/ecore_int.c
1976
u32 pxp_addr = IGU_CMD_INT_ACK_BASE + igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
2007
sb_bit = 1 << (igu_sb_id % 32);
sys/dev/qlnx/qlnxe/ecore_int.c
2008
sb_bit_addr = igu_sb_id / 32 * sizeof(u32);
sys/dev/qlnx/qlnxe/ecore_int.c
2023
val, igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
2028
u16 igu_sb_id, u16 opaque, bool b_set)
sys/dev/qlnx/qlnxe/ecore_int.c
2033
p_block = &p_hwfn->hw_info.p_igu_info->entry[igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
2036
igu_sb_id, p_block->function_id, p_block->is_pf,
sys/dev/qlnx/qlnxe/ecore_int.c
2041
ecore_int_igu_cleanup_sb(p_hwfn, p_ptt, igu_sb_id, 1, opaque);
sys/dev/qlnx/qlnxe/ecore_int.c
2044
ecore_int_igu_cleanup_sb(p_hwfn, p_ptt, igu_sb_id, 0, opaque);
sys/dev/qlnx/qlnxe/ecore_int.c
2052
((igu_sb_id / 32) * 4));
sys/dev/qlnx/qlnxe/ecore_int.c
2053
if (val & (1 << (igu_sb_id % 32)))
sys/dev/qlnx/qlnxe/ecore_int.c
2061
igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
2066
CAU_REG_PI_MEMORY + (igu_sb_id * 12 + pi) * 4, 0);
sys/dev/qlnx/qlnxe/ecore_int.c
2076
u16 igu_sb_id = 0;
sys/dev/qlnx/qlnxe/ecore_int.c
2086
for (igu_sb_id = 0;
sys/dev/qlnx/qlnxe/ecore_int.c
2087
igu_sb_id < ECORE_MAPPING_MEMORY_SIZE(p_hwfn->p_dev);
sys/dev/qlnx/qlnxe/ecore_int.c
2088
igu_sb_id++) {
sys/dev/qlnx/qlnxe/ecore_int.c
2089
p_block = &p_info->entry[igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
2096
ecore_int_igu_init_pure_rt_single(p_hwfn, p_ptt, igu_sb_id,
sys/dev/qlnx/qlnxe/ecore_int.c
2114
u16 igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
2179
for (igu_sb_id = p_info->igu_dsb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
2180
igu_sb_id < ECORE_MAPPING_MEMORY_SIZE(p_hwfn->p_dev);
sys/dev/qlnx/qlnxe/ecore_int.c
2181
igu_sb_id++) {
sys/dev/qlnx/qlnxe/ecore_int.c
2182
p_block = &p_info->entry[igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
2229
sizeof(u32) * igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
2234
sizeof(u32) * igu_sb_id,
sys/dev/qlnx/qlnxe/ecore_int.c
2239
igu_sb_id, p_block->function_id,
sys/dev/qlnx/qlnxe/ecore_int.c
2270
u16 igu_sb_id)
sys/dev/qlnx/qlnxe/ecore_int.c
2273
IGU_REG_MAPPING_MEMORY + sizeof(u32) * igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
2276
p_block = &p_hwfn->hw_info.p_igu_info->entry[igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
2284
p_block->igu_sb_id = igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
2293
u16 igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
2313
for (igu_sb_id = 0;
sys/dev/qlnx/qlnxe/ecore_int.c
2314
igu_sb_id < ECORE_MAPPING_MEMORY_SIZE(p_hwfn->p_dev);
sys/dev/qlnx/qlnxe/ecore_int.c
2315
igu_sb_id++) {
sys/dev/qlnx/qlnxe/ecore_int.c
2317
ecore_int_igu_read_cam_block(p_hwfn, p_ptt, igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_int.c
2318
p_block = &p_igu_info->entry[igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
2344
p_igu_info->igu_dsb_id = igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.c
2356
igu_sb_id, p_block->function_id,
sys/dev/qlnx/qlnxe/ecore_int.c
2385
u16 igu_sb_id = 0, vf_num = 0;
sys/dev/qlnx/qlnxe/ecore_int.c
2403
igu_sb_id = ecore_get_pf_igu_sb_id(p_hwfn, sb_id + 1);
sys/dev/qlnx/qlnxe/ecore_int.c
2404
if (igu_sb_id == ECORE_SB_INVALID_IDX)
sys/dev/qlnx/qlnxe/ecore_int.c
2421
for (; igu_sb_id < ECORE_MAPPING_MEMORY_SIZE(p_hwfn->p_dev);
sys/dev/qlnx/qlnxe/ecore_int.c
2422
igu_sb_id++) {
sys/dev/qlnx/qlnxe/ecore_int.c
2423
p_block = &p_info->entry[igu_sb_id];
sys/dev/qlnx/qlnxe/ecore_int.c
2437
if (igu_sb_id == ECORE_MAPPING_MEMORY_SIZE(p_hwfn->p_dev)) {
sys/dev/qlnx/qlnxe/ecore_int.c
2497
IGU_REG_MAPPING_MEMORY + sizeof(u32) * igu_sb_id,
sys/dev/qlnx/qlnxe/ecore_int.c
2501
igu_sb_id, vf_num,
sys/dev/qlnx/qlnxe/ecore_int.c
2506
igu_sb_id, p_block->function_id,
sys/dev/qlnx/qlnxe/ecore_int.c
2674
u16 sbid = p_sb->igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int.h
59
u16 igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_int_api.h
54
u16 igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_l2.c
250
p_cid->sb_igu_id = p_params->p_sb->igu_sb_id;
sys/dev/qlnx/qlnxe/ecore_rdma.c
805
u16 igu_sb_id, sb_id;
sys/dev/qlnx/qlnxe/ecore_rdma.c
869
igu_sb_id = ecore_get_igu_sb_id(p_hwfn, sb_id);
sys/dev/qlnx/qlnxe/ecore_rdma.c
871
OSAL_CPU_TO_LE16(igu_sb_id);
sys/dev/qlnx/qlnxe/ecore_sriov.c
1005
sizeof(u32) * p_block->igu_sb_id, val);
sys/dev/qlnx/qlnxe/ecore_sriov.c
1015
p_block->igu_sb_id * sizeof(u64), 2,
sys/dev/qlnx/qlnxe/ecore_sriov.c
2379
sb_dummy.igu_sb_id = req->hw_sb;
sys/dev/qlnx/qlnxe/ecore_sriov.c
2653
sb_dummy.igu_sb_id = req->hw_sb;
sys/dev/qlnx/qlnxe/ecore_sriov.c
999
vf->igu_sbs[qid] = p_block->igu_sb_id;