dm_set_target_max_io_len
if (dm_set_target_max_io_len(ti, cache->sectors_per_block)) {
r = dm_set_target_max_io_len(ti, clone->region_size);
BUG_ON(dm_set_target_max_io_len(ti, dd->sect_per_block) != 0);
r = dm_set_target_max_io_len(ti, era->sectors_per_block);
r = dm_set_target_max_io_len(ti, 1U << ic->sb->log2_interleave_sectors);
r = dm_set_target_max_io_len(ti, max_io_len);
if (dm_set_target_max_io_len(rs->ti, max_io_len))
r = dm_set_target_max_io_len(ti, dm_rh_get_region_size(ms->rh));
r = dm_set_target_max_io_len(ti, s->store->chunk_size);
r = dm_set_target_max_io_len(ti, chunk_size);
r = dm_set_target_max_io_len(ti, region_size);
r = dm_set_target_max_io_len(ti, tc->pool->sectors_per_block);
if (dm_set_target_max_io_len(ti, uc->chunk_size)) {
BUG_ON(dm_set_target_max_io_len(ti, VDO_SECTORS_PER_BLOCK) != 0);
EXPORT_SYMBOL_GPL(dm_set_target_max_io_len);
int __must_check dm_set_target_max_io_len(struct dm_target *ti, sector_t len);