qdisc_pkt_len
unsigned int bytes = qdisc_pkt_len(skb);
unsigned int bytes = qdisc_pkt_len(skb);
buffer->bytes += qdisc_pkt_len(skb);
len = qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb);
_bstats_update(bstats, qdisc_pkt_len(skb), qdisc_pkt_segs(skb));
sch->qstats.backlog -= qdisc_pkt_len(skb);
this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb));
sch->qstats.backlog += qdisc_pkt_len(skb);
this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb));
gact->current_entry_octets += qdisc_pkt_len(skb);
len = qdisc_pkt_len(skb);
qdisc_pkt_len(skb));
toks -= (s64)psched_l2t_ns(&p->rate, qdisc_pkt_len(skb));
u32 len = qdisc_pkt_len(skb);
len = qdisc_pkt_len(skb);
int len = qdisc_pkt_len(skb), ret;
ack_pkt_len = qdisc_pkt_len(ack);
len = qdisc_pkt_len(skb);
qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb));
len = qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb);
qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb));
dropped += qdisc_pkt_len(skb);
dropped_bytes += qdisc_pkt_len(skb);
sch->qstats.backlog -= qdisc_pkt_len(skb);
&q->stats, qdisc_pkt_len, codel_get_enqueue_time,
unsigned int len = qdisc_pkt_len(skb);
len = qdisc_pkt_len(skb);
orig_len = qdisc_pkt_len(skb);
*credit_change *= qdisc_pkt_len(skb);
q->deferred_drops_len += qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb);
len = qdisc_pkt_len(skb);
if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <=
dropped_bytes += qdisc_pkt_len(skb);
plen = qdisc_pkt_len(skb);
len += qdisc_pkt_len(skb);
q->backlogs[idx] += qdisc_pkt_len(skb);
pkt_len = qdisc_pkt_len(skb);
q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb);
sch->qstats.backlog -= qdisc_pkt_len(skb);
&flow->cvars, &q->cstats, qdisc_pkt_len,
flow->deficit -= qdisc_pkt_len(skb);
dropped_bytes += qdisc_pkt_len(skb);
pkt_len = qdisc_pkt_len(skb);
pkt_len = qdisc_pkt_len(skb);
dropped_bytes += qdisc_pkt_len(skb);
unsigned int pkt_len = qdisc_pkt_len(skb);
if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <=
q->bytesin += qdisc_pkt_len(skb);
if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) {
q->backlog += qdisc_pkt_len(skb);
q->backlog -= qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb);
update_vf(cl, qdisc_pkt_len(skb), cur_time);
cl->cl_cumul += qdisc_pkt_len(skb);
pkt_len = qdisc_pkt_len(skb);
bucket->deficit -= qdisc_pkt_len(skb);
dropped_bytes += qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb);
int bytes = qdisc_pkt_len(skb);
cl->leaf.deficit[level] -= qdisc_pkt_len(skb);
unsigned int prev_len = qdisc_pkt_len(skb);
delay += packet_time_ns(qdisc_pkt_len(skb), q);
q->slot.bytes_left -= qdisc_pkt_len(skb);
unsigned int pkt_len = qdisc_pkt_len(skb);
dropped_bytes += qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb);
*len = qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb), gso_segs;
len = qdisc_pkt_len(skb);
unsigned int len = qdisc_pkt_len(skb);
len = qdisc_pkt_len(skb);
delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb);
slot->backlog += qdisc_pkt_len(skb);
qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb));
slot->backlog -= qdisc_pkt_len(skb);
slot->allot -= qdisc_pkt_len(skb);
drop_len += qdisc_pkt_len(skb);
slot->backlog += qdisc_pkt_len(skb);
q->qstats[prio].backlog += qdisc_pkt_len(skb);
q->qstats[lp].backlog -= qdisc_pkt_len(to_drop);
q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb);
q->qstats[prio].backlog += qdisc_pkt_len(skb);
packet_transmit_time = length_to_duration(q, qdisc_pkt_len(skb));
len = qdisc_pkt_len(skb);
unsigned int slen = 0, numsegs = 0, len = qdisc_pkt_len(skb);
len = qdisc_pkt_len(skb);
unsigned int len = 0, prev_len = qdisc_pkt_len(skb), seg_len;
unsigned int len = qdisc_pkt_len(skb);
if (qdisc_pkt_len(skb) > q->max_size) {
unsigned int len = qdisc_pkt_len(skb);
unsigned int length = qdisc_pkt_len(skb);
pkt_len = qdisc_pkt_len(skb);
sch->qstats.backlog -= qdisc_pkt_len(skb);
sch->qstats.backlog += qdisc_pkt_len(skb);
sch->qstats.backlog -= qdisc_pkt_len(skb);