PKT_BUF_SZ
skb = netdev_alloc_skb(dev, PKT_BUF_SZ);
vp->rx_ring[i].length = PKT_BUF_SZ | 0x80000000;
skb = netdev_alloc_skb(dev, PKT_BUF_SZ);
outb(PKT_BUF_SZ >> 8, ioaddr + TxFreeThreshold); /* Room for a packet. */
iowrite8(PKT_BUF_SZ>>8, ioaddr + TxFreeThreshold); /* Room for a packet. */
vp->rx_ring[i].length = cpu_to_le32(PKT_BUF_SZ | LAST_FRAG);
skb = __netdev_alloc_skb(dev, PKT_BUF_SZ + NET_IP_ALIGN,
PKT_BUF_SZ, DMA_FROM_DEVICE);
iowrite8(PKT_BUF_SZ>>8, ioaddr + TxFreeThreshold);
dma_sync_single_for_cpu(vp->gendev, dma, PKT_BUF_SZ, DMA_FROM_DEVICE);
dma_sync_single_for_device(vp->gendev, dma, PKT_BUF_SZ, DMA_FROM_DEVICE);
newskb = netdev_alloc_skb_ip_align(dev, PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
dma_unmap_single(vp->gendev, dma, PKT_BUF_SZ, DMA_FROM_DEVICE);
PKT_BUF_SZ, DMA_FROM_DEVICE);
skb = netdev_alloc_skb(tp->dev, PKT_BUF_SZ);
dma_addr = dma_map_single(&tp->pdev->dev, skb->data, PKT_BUF_SZ,
PKT_BUF_SZ, DMA_FROM_DEVICE);
PKT_BUF_SZ,
dma_unmap_single(&tp->pdev->dev, dma_addr, PKT_BUF_SZ,
PKT_BUF_SZ, DMA_FROM_DEVICE);
xp_cmd.parm1 = cpu_to_le16(PKT_BUF_SZ);
static int rx_copybreak = PKT_BUF_SZ;
np->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
if (np->tx_threshold <= PKT_BUF_SZ / 16) {
if (((o) < RIEBL_RSVD_START) ? (o)+PKT_BUF_SZ > RIEBL_RSVD_START \
offset += PKT_BUF_SZ;
MEM->rx_head[i].buf_length = -PKT_BUF_SZ;
offset += PKT_BUF_SZ;
#define RX_BUFF_SIZE PKT_BUF_SZ
#define TX_BUFF_SIZE PKT_BUF_SZ
lp->rx_ring[entry].buf_length = -PKT_BUF_SZ;
char (*tx_bounce_buffs)[PKT_BUF_SZ];
lp->rx_buffs = (unsigned long)kmalloc_array(RX_RING_SIZE, PKT_BUF_SZ,
lp->tx_bounce_buffs = kmalloc_array(TX_RING_SIZE, PKT_BUF_SZ,
skb = alloc_skb(PKT_BUF_SZ, GFP_DMA | gfp);
rx_buff = kmalloc(PKT_BUF_SZ, GFP_DMA | gfp);
lp->rx_ring[i].buf_length = -PKT_BUF_SZ;
char rx_data[RX_RING_SIZE][PKT_BUF_SZ];
char tx_data[TX_RING_SIZE][PKT_BUF_SZ];
MEM->rx_head[i].buf_length = -PKT_BUF_SZ | 0xf000;
#define RX_BUFF_SIZE PKT_BUF_SZ
#define TX_BUFF_SIZE PKT_BUF_SZ
de->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
PKT_BUF_SZ,
PKT_BUF_SZ, DMA_FROM_DEVICE);
netdev_alloc_skb(dev, PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
tp->rx_ring[i].length = cpu_to_le32(PKT_BUF_SZ);
tp->rx_ring[i-1].length = cpu_to_le32(PKT_BUF_SZ | DESC_RING_WRAP);
struct sk_buff *skb = netdev_alloc_skb(dev, PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
dma_unmap_single(&tp->pdev->dev, mapping, PKT_BUF_SZ,
np->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
np->rx_buf_sz = (dev->mtu <= 1520 ? PKT_BUF_SZ : dev->mtu + 16);
np->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
struct sk_buff *skb = netdev_alloc_skb(dev, PKT_BUF_SZ);
rbd->size = PKT_BUF_SZ;
cache_clear(virt_to_phys(skb->data), PKT_BUF_SZ);
newskb = netdev_alloc_skb(dev, PKT_BUF_SZ);
cache_clear(virt_to_phys(newskb->data), PKT_BUF_SZ);
skb = netdev_alloc_skb_ip_align(dev, PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
rbd->size = SWAP16(PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
PKT_BUF_SZ, DMA_FROM_DEVICE);
PKT_BUF_SZ);
PKT_BUF_SZ,
PKT_BUF_SZ, DMA_FROM_DEVICE);
PKT_BUF_SZ, DMA_FROM_DEVICE);
hmp->rx_buf_sz = (dev->mtu <= 1492 ? PKT_BUF_SZ :
yp->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
cp->rx_buf_sz = PKT_BUF_SZ;
dma_unmap_single(ndev->dev.parent, dma_addr, PKT_BUF_SZ,
desc->info_ds = cpu_to_le16(PKT_BUF_SZ);
PKT_BUF_SZ + RTSN_ALIGN - 1);
skb = netdev_alloc_skb(ndev, PKT_BUF_SZ + RTSN_ALIGN - 1);
priv->rx_skb[i]->data, PKT_BUF_SZ,
rx_desc->info_ds = cpu_to_le16(PKT_BUF_SZ);
mdp->rx_buf_sz = (ndev->mtu <= 1492 ? PKT_BUF_SZ :
#define RCNTINFO_INIT (RCNTCFG_INIT | (PKT_BUF_SZ & HPCDMA_BCNT))
struct sk_buff *skb = netdev_alloc_skb(dev, PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
len = PKT_BUF_SZ - (rd->rdma.cntinfo & HPCDMA_BCNT) - 3;
PKT_BUF_SZ, DMA_FROM_DEVICE);
newskb = netdev_alloc_skb(dev, PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
if (pkt_len > PKT_BUF_SZ - 4) {
ep->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
pd->rx_ring[i].length = PKT_BUF_SZ;
pd->rx_ring[RX_RING_SIZE - 1].length = (PKT_BUF_SZ | RDES1_RER_);
PKT_BUF_SZ, DMA_FROM_DEVICE);
PKT_BUF_SZ, DMA_FROM_DEVICE);
struct sk_buff *skb = netdev_alloc_skb(pd->dev, PKT_BUF_SZ);
PKT_BUF_SZ, DMA_FROM_DEVICE);
u8 tx_buf[TX_RING_SIZE][PKT_BUF_SZ];
u8 rx_buf[RX_RING_SIZE][PKT_BUF_SZ];
PKT_BUF_SZ * TX_RING_SIZE,
dma_free_coherent(hwdev, PKT_BUF_SZ * TX_RING_SIZE,
rp->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
rp->tx_buf[i] = &rp->tx_bufs[i * PKT_BUF_SZ];
if (skb->len > PKT_BUF_SZ) {
vptr->rx.buf_sz = (mtu <= ETH_DATA_LEN) ? PKT_BUF_SZ : mtu + 32;