zone_idx
unsigned int zone_idx = 0;
while (zone_idx < nr_zones && sector < get_capacity(vblk->disk)) {
for (i = 0; i < nz && zone_idx < nr_zones; i++) {
zone_idx, args);
zone_idx++;
if (zone_idx > 0)
ret = zone_idx;
ret = args->cb(zone, args->zone_idx, args->data);
return disk_report_zone(args->disk, zone, args->zone_idx++,
nr_zones - args->zone_idx);
} while (args->zone_idx < nr_zones &&
return args->zone_idx;
u8 zone_idx; /* for TABLE_FIELD_ID_DOMAIN */
int ret, zone_idx = 0;
while (zone_idx < nr_zones && sector < get_capacity(ns->disk)) {
for (i = 0; i < nz && zone_idx < nr_zones; i++) {
zone_idx, args);
zone_idx++;
if (zone_idx > 0)
ret = zone_idx;
int zone_idx = 0;
while (zone_idx < nr_zones && lba < sdkp->capacity) {
for (i = 0; i < nr && zone_idx < nr_zones; i++) {
if ((zone_idx == 0 &&
(zone_idx > 0 && start_lba != lba) ||
zone_idx, lba, start_lba, zone_length);
ret = sd_zbc_parse_report(sdkp, buf + offset, zone_idx,
zone_idx++;
ret = zone_idx;
static int btrfs_load_zone_info(struct btrfs_fs_info *fs_info, int zone_idx,
info->physical = map->stripes[zone_idx].physical;
device = map->stripes[zone_idx].dev;
__set_bit(zone_idx, active);
__set_bit(zone_idx, active);
unsigned int zone_idx;
enum lru_list lru, int zone_idx)
enum lru_list lru, int zone_idx)
return READ_ONCE(mz->lru_zone_size[zone_idx][lru]);
int zone_idx; /* zone_idx(zoneref->zone) */
return zone_idx(zone) == ZONE_DEVICE;
return is_highmem_idx(zone_idx(zone));
return zoneref->zone_idx;
__entry->idx = zone_idx(zone);
__entry->idx = zone_idx(zone);
__field( int, zone_idx)
__entry->zone_idx = zonelist_zone_idx(zoneref);
__entry->node, __print_symbolic(__entry->zone_idx, ZONE_TYPE),
if (zone_idx(zone) > gfp_zone(GFP_USER))
const bool movable = zone_idx(zone) == ZONE_MOVABLE;
if (!node_state(nid, N_NORMAL_MEMORY) && zone_idx(zone) <= ZONE_NORMAL)
if (zone_idx(zone) <= ZONE_NORMAL) {
memmap_init_range(nr_pages, nid, zone_idx(zone), start_pfn, 0,
if (zone_idx(zone) == ZONE_MOVABLE) {
unsigned long zone_idx, int nid,
__init_single_page(page, pfn, zone_idx, nid);
unsigned long zone_idx, int nid,
__init_zone_device_page(page, pfn, zone_idx, nid, pgmap);
unsigned long zone_idx = zone_idx(zone);
if (WARN_ON_ONCE(!pgmap || zone_idx != ZONE_DEVICE))
__init_zone_device_page(page, pfn, zone_idx, nid, pgmap);
memmap_init_compound(page, pfn, zone_idx, nid, pgmap,
int zone_idx = zone_idx(zone) + 1;
if (zone_idx > pgdat->nr_zones)
pgdat->nr_zones = zone_idx;
(unsigned long)zone_idx(zone),
int zid = zone_idx(zone);
int nid = zone_to_nid(zone), zone_id = zone_idx(zone);
wakeup_kswapd(zone, 0, 0, zone_idx(zone));
if (zone_idx(zone) != ZONE_NORMAL)
__count_zid_vm_events(PGALLOC, zone_idx(zone), nr_account);
zoneref->zone_idx = zone_idx(zone);
zonerefs->zone_idx = 0;
zonerefs->zone_idx = 0;
zonerefs->zone_idx = 0;
if (!is_highmem(zone) && zone_idx(zone) != ZONE_MOVABLE)
if (is_highmem(zone) || zone_idx(zone) == ZONE_MOVABLE) {
if (zone_idx(zone) == ZONE_MOVABLE)
int zone_idx;
for (zone_idx = 0; zone_idx <= max_zone_idx; zone_idx++)
if (zone_managed_pages(pgdat->node_zones + zone_idx))
if (zone_idx(zone) > max_zone_idx)
if (zone_idx(zone) > max_zone_idx)
if (zone_idx(zone) > max_zone_idx)
int zone_idx)
for_each_managed_zone_pgdat(zone, lruvec_pgdat(lruvec), zid, zone_idx) {
if (zone_idx(zone) > ZONE_NORMAL)