qdisc_qlen
*qlen = qstats.qlen + qdisc_qlen(sch);
if ((q->flags & TCQ_F_CAN_BYPASS) && !qdisc_qlen(q) &&
if (likely(qdisc_qlen(sch) < sch->limit)) {
return skb_is_l4s(skb) && qdisc_qlen(q->l_queue) >= q->min_qlen_step;
if (unlikely(qdisc_qlen(sch) >= sch->limit) ||
if (qdisc_qlen(sch) > q->maxq)
q->maxq = qdisc_qlen(sch);
c_len = qdisc_qlen(sch) - qdisc_qlen(q->l_queue);
if (qdisc_qlen(q->l_queue) && (!c_len || q->c_protection_credit <= 0)) {
if (qdisc_qlen(q->l_queue))
qdelay = qdisc_qlen(q->l_queue);
old_qlen = qdisc_qlen(sch);
while (qdisc_qlen(sch) > sch->limit ||
qdisc_tree_reduce_backlog(sch, old_qlen - qdisc_qlen(sch),
if (unlikely(qdisc_qlen(sch) >= sch->limit)) {
sch->q.qlen += qdisc_qlen(qdisc);
sch->q.qlen += qdisc_qlen(qdisc);
sch->q.qlen += qdisc_qlen(qdisc);
qlen = qdisc_qlen(sch) + qstats.qlen;
if (qdisc_qlen(sch) > q->stats.maxq)
q->stats.maxq = qdisc_qlen(sch);
if (unlikely(qdisc_qlen(sch) >= sch->limit)) {