llist_add
llist_add(&((*n_rmap)->list), (struct llist_head *) rmapp);
llist_add(&node->llnode, &mce_event_llist);
llist_add(&node->llnode, &new_head);
llist_add(&parent->iostat.lnode, plhead);
llist_add(&bis->lnode, lhead);
if (llist_add(&rq->ipi_list, &per_cpu(blk_cpu_done, cpu)))
if (llist_add(&rq->ipi_list, list))
llist_add(&estatus_node->llnode, &ghes_estatus_llist);
llist_add(&map->node, &dmamux->reserve_maps);
llist_add(&tmp->node, &data->free_maps);
llist_add(&desc->llnode, &ie->pending_llist);
llist_add(&node->llnode, &ecclog_llist);
llist_add(&conn->free_node, &config->connector_free_list);
llist_add(&vm_bo->list.entry.bo_defer, &vm_bo->vm->bo_defer);
llist_add(&dev_hold->link, &drm_pagemap_unhold_list);
if (llist_add(&obj->freed, &i915->mm.free_list))
if (llist_add(&rq->signal_node, &b->signaled_requests))
llist_add(&engine->uabi_llist, &engine->i915->uabi_engines_llist);
llist_add(barrier_to_ll(node), &engine->barrier_tasks);
llist_add(&oa_bo->node, &stream->oa_config_bos);
if (llist_add(&rq->watchdog.link, >->watchdog.list))
if (llist_add(&cb->work.node.llist, &signal->execute_cb)) {
return llist_add(&bo->freed, deferred);
llist_add(&oa_bo->node, &stream->oa_config_bos);
llist_add(&rfence->link, &tree->list);
llist_add(&rfence->link, &tree->list);
llist_add(&qp->tx_list, &per_cpu(siw_tx_task_g, qp->tx_cpu).active);
llist_add(&dev_data->dev_data_list, &pci_seg->dev_data_list);
wakeup = llist_add(&sh->release_list, &conf->released_stripes);
llist_add(&peer->release_entry, release_list);
empty = llist_add(&req->lentry, &queue->req_list) &&
llist_add(&req->lentry, &queue->req_list);
llist_add(&cmd->lentry, &queue->resp_list);
llist_add(&_x->garbage.llist, &mpam_garbage); \
llist_add(&se_cmd->se_cmd_list, &sq->cmd_list);
llist_add(&b->free, &buf->free);
llist_add(&evt->list, &vs->vs_event_list);
llist_add(&cmd->tvc_completion_list, &svq->completion_list);
llist_add(&work->node, &worker->work_list);
llist_add(&req.llnode, &cprc->issue_list);
llist_add(&cmd.llnode, &fcc->issue_list);
if (llist_add(&file->f_llist, &delayed_fput_list))
if (llist_add(&isw->list, &wb->switch_wbs_ctxs))
if (llist_add(&mnt->mnt_llist, &delayed_mntput_list))
if (llist_add(&OCFS2_DQUOT(dquot)->list, &osb->dquot_drop_list))
llist_add(&ip->i_gclist, &gc->list);
return llist_add(&n->node, &q->new) &&
if (llist_add(&req->io_task_work.node, &last_ctx->fallback_llist))
if (!llist_add(&req->io_task_work.node, &tctx->task_list))
if (llist_add(&ns->mnt_llist, &free_ipc_list))
llist_add(&s->node, &arena->free_spans);
if (llist_add(&cmd->node, &cb->async_cmds))
llist_add(llnode, &c->free_by_rcu_ttrace);
llist_add(llnode, &c->waiting_for_gp_ttrace);
llist_add(llnode, &c->free_llist_extra);
llist_add(llnode, &c->free_llist_extra_rcu);
llist_add(&elem->node, log);
llist_add(&task->cg_dead_lnode, this_cpu_ptr(&cgrp_dead_tasks));
llist_add(&rstatc->lnode, lhead);
if (!llist_add(&work->node.llist, list))
if (!llist_add(&work->node.llist, &per_cpu(lazy_list, cpu)))
if (llist_add(&freeinit->node, &init_free_list))
llist_add(&wmbp->wmb_node, &wflp->ws_lhp);
llist_add(&wmbp->wmb_node, &wflp->ws_lhg);
llist_add(wait_head, &rcu_state.srs_next);
llist_add((struct llist_node *) &rs->head, &rcu_state.srs_next);
llist_add(&scfcp->scf_node, pool);
if (llist_add(&dsq->free_node, &dsqs_to_free))
if (llist_add(node, &per_cpu(call_single_queue, cpu)))
if (llist_add(&csd->node.llist, &per_cpu(call_single_queue, cpu))) {
llist_add(&data->llist, &trigger_data_free_list);
llist_add(&data->llist, &trigger_data_free_list);
llist_add(&data->llist, &trigger_data_free_list);
llist_add(&cl->list, &waitlist->list);
if (llist_add((struct llist_node *)&folio->mapping, &hpage_freelist))
llist_add(&raw_hwp->node, head);
llist_add(&page->pcp_llist, &zone->trylock_free_pages);
llist_add((struct llist_node *) bnode, &krcp->bkvcache);
if (llist_add(head + s->offset, &df->objects))
if (addr && llist_add((struct llist_node *)addr, &p->list))
if (llist_add(&area->llnode, &pending_vm_area_cleanup))
llist_add(&net->defer_free_list, &defer_free_list);
if (llist_add(&net->cleanup_list, &cleanup_list))
llist_add(&skb->ll_node, &sdn->defer_list);
if (llist_add(&fqdir->free_list, &fqdir_free_list))
if (!llist_add(&skb->ll_node, &udp_prod_queue->ll_root))
llist_add(&he->walk_node, &walk_list);
llist_add(&ibmr->llnode, &pool->drop_list);
llist_add(&ibmr->llnode, &pool->free_list);
llist_add(&ibmr->llnode, &pool->drop_list);
llist_add(&ibmr->llnode, &pool->free_list);
llist_add(&rqstp->rq_idle, &pool->sp_idle_threads);
llist_add(&ctxt->rc_node, &rdma->sc_recv_ctxts);
llist_add(&ctxt->rc_node, &rdma->sc_recv_ctxts);
llist_add(&ctxt->rw_node, list);
llist_add(&ctxt->sc_node, &rdma->sc_send_ctxts);
llist_add(&rep->rr_node, &buf->rb_free_reps);