BBTOB
len = BBTOB(bp->b_length);
len = BBTOB(bp->b_length);
unsigned int len = BBTOB(bp->b_length);
unsigned int len = BBTOB(bp->b_length);
bp->b_addr, BBTOB(bp->b_length), __FILE__, __LINE__,
bp->b_addr, BBTOB(bp->b_length), __FILE__, __LINE__,
bp->b_addr, BBTOB(bp->b_length), __FILE__, __LINE__,
return BBTOB(nbblks) / sizeof(struct xfs_dqblk);
xfs_buf_zero(fbuf, 0, BBTOB(fbuf->b_length));
if (memchr_inv(rsb + 1, 0, BBTOB(bp->b_length) - sizeof(*rsb)))
xfs_buf_zero(bp, 0, BBTOB(bp->b_length));
BBTOB(mp->m_dalign), BBTOB(mp->m_swidth));
ASSERT(BBTOB(bp->b_length) >=
if (memchr_inv((char *)sb + sblen, 0, BBTOB(bp->b_length) - sblen))
xfs_trans_log_buf(sc->tp, agi_bp, 0, BBTOB(agi_bp->b_length) - 1);
memset(agf, 0, BBTOB(agf_bp->b_length));
xfs_trans_log_buf(sc->tp, agf_bp, 0, BBTOB(agf_bp->b_length) - 1);
xfs_buf_zero(bp, 0, BBTOB(bp->b_length));
memset(agfl, 0xFF, BBTOB(agfl_bp->b_length));
xfs_trans_log_buf(sc->tp, agfl_bp, 0, BBTOB(agfl_bp->b_length) - 1);
xfs_trans_log_buf(sc->tp, bp, 0, BBTOB(bp->b_length) - 1);
memset(agi, 0, BBTOB(agi_bp->b_length));
end = min_t(unsigned int, BBTOB(bp->b_length),
if (imap.im_boffset >= BBTOB(cluster_bp->b_length)) {
if (offset >= BBTOB(cluster_bp->b_length))
xfs_trans_log_buf(sc->tp, bp, 0, BBTOB(bp->b_length) - 1);
chunks = DIV_ROUND_UP(BBTOB(bp->b_maps[i].bm_len),
unsigned int size = BBTOB(bp->b_length);
roundup(BBTOB(bp->b_length), PAGE_SIZE));
unsigned int len = BBTOB(bp->b_length);
size_t size = BBTOB(bp->b_length);
ASSERT(!(BBTOB(map->bm_len) < btp->bt_meta_sectorsize));
ASSERT(!(BBTOB(map->bm_bn) & (xfs_off_t)btp->bt_meta_sectormask));
return xfs_verify_cksum(bp->b_addr, BBTOB(bp->b_length),
xfs_update_cksum(bp->b_addr, BBTOB(bp->b_length),
end = start + BBTOB(bp->b_maps[i].bm_len) - 1;
start += BBTOB(bp->b_maps[i].bm_len);
start += BBTOB(bp->b_maps[i].bm_len);
offset += BBTOB(bp->b_maps[i].bm_len);
offset += BBTOB(bp->b_maps[i].bm_len);
bp->b_addr, BBTOB(bp->b_length), fa);
chunks = DIV_ROUND_UP(BBTOB(bp->b_maps[i].bm_len),
BBTOB(bp->b_maps[i].bm_len));
(BBTOB(bp->b_length) != M_IGEO(log->l_mp)->inode_cluster_size)) {
ASSERT(BBTOB(bp->b_length) >=
inodes_per_buf = BBTOB(bp->b_length) >> mp->m_sb.sb_inodelog;
ASSERT((reg_buf_offset + reg_buf_bytes) <= BBTOB(bp->b_length));
loff_t pos = BBTOB(xfs_buf_daddr(bp));
if (BBTOB(bp->b_length) != XMBUF_BLOCKSIZE)
pos = BBTOB(xfs_buf_daddr(bp));
shmem_truncate_range(inode, pos, pos + BBTOB(bp->b_length) - 1);
memset(d, 0, BBTOB(q->qi_dqchunklen));
xfs_trans_log_buf(tp, bp, 0, BBTOB(q->qi_dqchunklen) - 1);
dest->fmr_physical = BBTOB(src->fmr_physical);
dest->fmr_offset = BBTOB(src->fmr_offset);
dest->fmr_length = BBTOB(src->fmr_length);
iomap->addr = BBTOB(daddr);
log->l_logsize = BBTOB(num_bblks);
unsigned int split_offset = BBTOB(log->l_logBBsize - bno);
min_t(int, (log)->l_logsize >> 3, BBTOB(XLOG_TOTAL_REC_SHIFT(log)) << 4)
return BBTOB(hi_block - lo_block);
return (uint64_t)log->l_logsize - BBTOB(lo_block - hi_block);
return kvzalloc(BBTOB(nbblks), GFP_KERNEL | __GFP_RETRY_MAYFAIL);
return BBTOB(blk_no & ((xfs_daddr_t)log->l_sectBBsize - 1));
BBTOB(nbblks), data, op);
buffer + BBTOB(ealign - start_block));
offset + BBTOB(split_hblks));
offset + BBTOB(split_bblks));
if ((BBTOB(mp->m_dalign) & mp->m_blockmask) ||
(BBTOB(mp->m_swidth) & mp->m_blockmask)) {
u64 dev_len = BBTOB(btp->bt_nr_sectors);
ASSERT(first <= last && last < BBTOB(bp->b_length));
ASSERT(BBTOB(bbcount) >= btp->bt_logical_sectorsize);
return clamp(iosize, btp->bt_logical_sectorsize, BBTOB(bbcount));
if (!IS_ALIGNED(BBTOB(me->me_start_daddr | me->me_end_daddr),