skb_frag_off
skb_frag_off(&skb_shinfo(skb)->frags[i]),
skb_frag_off(frag));
skb_frag_off(frag),
skb_frag_off(frag),
skb_frag_off(frag),
skb_frag_off(frag);
skb_frag_off(frag), size,
skb_frag_off(f) + remaining,
skb_frag_off(f) + remaining,
skb_frag_off(f),
memcpy(&entry->desc->tx, fragdata + skb_frag_off(frag),
dma += skb_frag_off(frag);
if (!IS_ALIGNED(skb_frag_off(frag), DPAA_A050385_ALIGN))
if (!IS_ALIGNED(skb_frag_off(frag), 4)) {
int align_pad = -(skb_frag_off(stale)) &
int align_pad = -(skb_frag_off(stale)) &
int align_pad = -(skb_frag_off(stale)) &
offset = skb_frag_off(&sinfo->frags[frag]);
int align_pad = -(skb_frag_off(stale)) &
skb_frag_off(frag),
skb_frag_page(frag), skb_frag_off(frag),
if (skb_frag_size(fragp) <= 8 && skb_frag_off(fragp) & 7)
dma_addr += skb_frag_off(frag);
offset = skb_frag_off(frag);
skb_frag_off(frag);
skb_frag_off(frag);
skb_frag_off(frag);
offset = skb_frag_off(frag);
skb_frag_off(frag);
efx_memcpy_toio_aligned_cb(efx, piobuf, vaddr + skb_frag_off(f),
tabort = cas_calc_tabort(cp, skb_frag_off(fragp), len);
skb_frag_off(fragp) + len - tabort,
skb_frag_off(frag), len,
err = ldc_map_single(lp, vaddr + skb_frag_off(f),
docopy |= skb_frag_off(f) & 7;
u32 page_offset = skb_frag_off(frag);
skb_frag_off(frag),
u32 offset = skb_frag_off(frag);
unsigned long offset = skb_frag_off(frag);
return kmap_local_page(skb_frag_page(frag)) + skb_frag_off(frag);
skb_frag_off(f));
skb_frag_size(frag), skb_frag_off(frag));
return (u16)skb_frag_off(frag);
unsigned long offset = skb_frag_off(frag);
skb_frag_off(frag),
cp = kmap_atomic(skb_frag_page(frag)) + skb_frag_off(frag);
cp = kmap_atomic(skb_frag_page(frag)) + skb_frag_off(frag);
off = skb_frag_off(frag);
cp = kmap_atomic(skb_frag_page(frag)) + skb_frag_off(frag);
skb, i, skb_frag_off(&ssi->frags[i]),
skb_frag_size(dfrag), skb_frag_off(dfrag));
return page_address(skb_frag_page(frag)) + skb_frag_off(frag);
return ptr + skb_frag_off(frag);
skb_frag_off(frag) + offset, size, dir);
off == skb_frag_off(frag) + skb_frag_size(frag);
skb_frag_off(frag),
offset == skb_frag_off(prev) + skb_frag_size(prev)) {
return io_zcrx_copy_chunk(req, ifq, page, off + skb_frag_off(frag), len);
if (!io_zcrx_queue_cqe(req, niov, ifq, off + skb_frag_off(frag), len))
sum = atalk_sum_partial(vaddr + skb_frag_off(frag) +
skb_frag_off(frag) + offset - start,
skb_frag_off(frag) + offset - start,
start == skb_frag_off(last) + skb_frag_size(last)) {
skb_frag_off(frag) % rxq->frag_size;
(!NET_IP_ALIGN || !((skb_frag_off(frag0) + nhoff) & 3))) {
skb_frag_foreach_page(frag, skb_frag_off(frag),
skb_frag_foreach_page(f, skb_frag_off(f), skb_frag_size(f),
skb_frag_off(f) + offset - start,
skb_frag_off(f), skb_frag_size(f),
skb_frag_off(frag) + offset);
skb_frag_off(frag) + offset - start,
skb_frag_off(frag) + offset - start,
skb_frag_off(frag) + offset - start,
skb_frag_off(frag) + offset - start,
skb_frag_off(fragfrom))) {
pg_off = skb_frag_off(frag);
skb_frag_off(frag) + offset - start);
if (skb_frag_size(frag) != PAGE_SIZE || skb_frag_off(frag))
skb_frag_off(frag) + offset -
skb_frag_foreach_page(f, skb_frag_off(f), skb_frag_size(f),
skb_frag_off(fragfrom) == skb_frag_off(lastfrag) +
unsigned int offset = skb_frag_off(f);
skb_frag_off(frag) + skb_frag_size(frag) == pfrag->offset) {
skb_frag_size(frag), skb_frag_off(frag));
skb_frag_size(frag), skb_frag_off(frag));
va + skb_frag_off(skb_frag),