HCTX_TYPE_DEFAULT
[HCTX_TYPE_DEFAULT] = "default",
CTX_RQ_SEQ_OPS(default, HCTX_TYPE_DEFAULT);
struct blk_mq_hw_ctx *hctx = ctx->hctxs[HCTX_TYPE_DEFAULT];
(type != HCTX_TYPE_READ || rq->mq_hctx->type != HCTX_TYPE_DEFAULT))
i = HCTX_TYPE_DEFAULT;
for (k = HCTX_TYPE_DEFAULT; k < HCTX_MAX_TYPES; k++)
HCTX_TYPE_DEFAULT, i);
HCTX_TYPE_DEFAULT, i);
set->map[HCTX_TYPE_DEFAULT].nr_queues = set->nr_hw_queues;
blk_mq_map_queues(&set->map[HCTX_TYPE_DEFAULT]);
enum hctx_type type = HCTX_TYPE_DEFAULT;
case HCTX_TYPE_DEFAULT:
set->map[HCTX_TYPE_DEFAULT].nr_queues = num_online_cpus();
set->map[HCTX_TYPE_DEFAULT].queue_offset = 0;
blk_mq_map_queues(&set->map[HCTX_TYPE_DEFAULT]);
set->map[HCTX_TYPE_DEFAULT].nr_queues,
set->map[HCTX_TYPE_DEFAULT].nr_queues,
if (ub->tag_set.map[HCTX_TYPE_DEFAULT].mq_map[cpu] == q_id)
if (ub->tag_set.map[HCTX_TYPE_DEFAULT].mq_map[i] == queue)
vblk->io_queues[HCTX_TYPE_DEFAULT] = num_vqs - num_poll_vqs;
vblk->io_queues[HCTX_TYPE_DEFAULT],
io_queues[HCTX_TYPE_DEFAULT] =
nr_io_queues -= io_queues[HCTX_TYPE_DEFAULT];
io_queues[HCTX_TYPE_DEFAULT] =
nr_io_queues -= io_queues[HCTX_TYPE_DEFAULT];
set->map[HCTX_TYPE_DEFAULT].nr_queues =
io_queues[HCTX_TYPE_DEFAULT];
set->map[HCTX_TYPE_DEFAULT].queue_offset = 0;
io_queues[HCTX_TYPE_DEFAULT];
set->map[HCTX_TYPE_DEFAULT].nr_queues =
io_queues[HCTX_TYPE_DEFAULT];
set->map[HCTX_TYPE_DEFAULT].queue_offset = 0;
io_queues[HCTX_TYPE_DEFAULT];
blk_mq_map_queues(&set->map[HCTX_TYPE_DEFAULT]);
io_queues[HCTX_TYPE_DEFAULT] +
io_queues[HCTX_TYPE_DEFAULT],
WARN_ON(i == HCTX_TYPE_DEFAULT);
rw_queues = dev->io_queues[HCTX_TYPE_DEFAULT] +
dev->io_queues[HCTX_TYPE_DEFAULT] = nrirqs - nr_read_queues;
affd->set_size[HCTX_TYPE_DEFAULT] = nrirqs - nr_read_queues;
dev->io_queues[HCTX_TYPE_DEFAULT] = 1;
dev->io_queues[HCTX_TYPE_DEFAULT],
BUG_ON(i == HCTX_TYPE_DEFAULT);
queue->ctrl->io_queues[HCTX_TYPE_DEFAULT] +
qid < 1 + ctrl->io_queues[HCTX_TYPE_DEFAULT];
qid < 1 + ctrl->io_queues[HCTX_TYPE_DEFAULT] +
qid < 1 + ctrl->io_queues[HCTX_TYPE_DEFAULT] +
mq_map = set->map[HCTX_TYPE_DEFAULT].mq_map;
struct blk_mq_queue_map *qmap = &host->tag_set.map[HCTX_TYPE_DEFAULT];
struct blk_mq_queue_map *qmap = &shost->tag_set.map[HCTX_TYPE_DEFAULT];
struct blk_mq_queue_map *qmap = &shost->tag_set.map[HCTX_TYPE_DEFAULT];
if (i == HCTX_TYPE_DEFAULT) {
WARN_ON(i == HCTX_TYPE_DEFAULT);
map = &shost->tag_set.map[HCTX_TYPE_DEFAULT];
if (i == HCTX_TYPE_DEFAULT)
BUG_ON(i == HCTX_TYPE_DEFAULT);
if (i == HCTX_TYPE_DEFAULT) {
BUG_ON(i == HCTX_TYPE_DEFAULT);
struct blk_mq_queue_map *qmap = &shost->tag_set.map[HCTX_TYPE_DEFAULT];
struct blk_mq_queue_map *qmap = &shost->tag_set.map[HCTX_TYPE_DEFAULT];
if (i == HCTX_TYPE_DEFAULT)
BUG_ON(i == HCTX_TYPE_DEFAULT);
blk_mq_map_queues(&set->map[HCTX_TYPE_DEFAULT]);
blk_mq_map_hw_queues(&shost->tag_set.map[HCTX_TYPE_DEFAULT],
blk_mq_map_queues(&shost->tag_set.map[HCTX_TYPE_DEFAULT]);
vscsi->io_queues[HCTX_TYPE_DEFAULT] = num_req_vqs - num_poll_vqs;
vscsi->io_queues[HCTX_TYPE_DEFAULT],
hba->nr_queues[HCTX_TYPE_DEFAULT] = rw_queues;
rem -= hba->nr_queues[HCTX_TYPE_DEFAULT];
if (!hba->nr_queues[HCTX_TYPE_DEFAULT])
hba->nr_queues[HCTX_TYPE_DEFAULT] = min3(rem, rw_queues,
hba->nr_queues[HCTX_TYPE_DEFAULT] = 1;
hba->nr_hw_queues, hba->nr_queues[HCTX_TYPE_DEFAULT],
struct blk_mq_queue_map *map = &tag_set->map[HCTX_TYPE_DEFAULT];