d_list_entry_cnt
mm_rt_free_mem(pdev, mc_mac, sizeof(*mc_mac) * d_list_entry_cnt(&p->mcast_list), 0);
rparam.mcast_list_len = d_list_entry_cnt(mc_addrs);
pdev->toe_info.grqs[sb_idx].gen_bufs_in_isles_delta -= (s32_t)d_list_entry_cnt(&gen_buf_list);
if (d_list_entry_cnt(&gen_buf_list) > 1) {
isles_cnt = (u8_t)d_list_entry_cnt(&gen_info->isles_list);
&& d_list_entry_cnt(&tcp->rx_con->u.rx.gen_info.first_isle.isle_gen_bufs_list_head)) {
num_bufs_to_indicate = d_list_entry_cnt(&gen_info->peninsula_list);
if ((buff_cnt = (u16_t)d_list_entry_cnt(&gen_info->peninsula_list)) > gen_info->max_frag_count) {
u16_t buffers_number = (u16_t)d_list_entry_cnt(&gen_info->peninsula_list);
while ((isle_cnt = (u8_t)d_list_entry_cnt(&gen_info->isles_list))) {
pdev->toe_info.grqs[sb_idx].gen_bufs_in_isles_delta -= (s32_t)d_list_entry_cnt(&removed_list);
isles_cnt = (u8_t)d_list_entry_cnt(&gen_info->isles_list);
isle_cnt = (u8_t)d_list_entry_cnt(&gen_info->isles_list);
&& (d_list_entry_cnt(&requested_isle->isle_gen_bufs_list_head) > pdev->params.l4_max_gen_bufs_in_isle)) {
DbgBreakIf(d_list_entry_cnt(&gen_info->dpc_peninsula_list) &&
if (d_list_entry_cnt(&gen_buf_list) > 1) {
num_bypass_buffs = d_list_entry_cnt(bypass_gen_pool_list);
while ((d_list_entry_cnt(&tmp_gen_buf_list) < num_bufs) && num_bypass_buffs) {
num_bufs = (u16_t)d_list_entry_cnt(&tmp_gen_buf_list);
if ((bypass_gen_pool_list != NULL) && d_list_entry_cnt(&free_gen_buf_list))
num_isles = d_list_entry_cnt(&tcp_con->u.rx.gen_info.isles_list);
num_gen_bufs_in_isles = d_list_entry_cnt(&released_list_of_gen_bufs);
if (d_list_entry_cnt(&tmp_gen_buf_list))
num_tcps = d_list_entry_cnt(&pdev->toe_info.state_blk.tcp_list);
if (d_list_entry_cnt(&pUM->mcast_l2) > 64)
while (d_list_entry_cnt(mcastList))
pStats->memAllocBlocks.value.ui64 = d_list_entry_cnt(&pUM->memBlockList);
pStats->memAllocDMAs.value.ui64 = d_list_entry_cnt(&pUM->memDmaList);
pStats->memAllocBARs.value.ui64 = d_list_entry_cnt(&pUM->memRegionList);