listen_ctx
struct ucma_context *listen_ctx = cm_id->context;
if (!atomic_add_unless(&listen_ctx->backlog, -1, 0))
ctx = ucma_alloc_ctx(listen_ctx->file);
uevent = ucma_create_uevent(listen_ctx, event);
atomic_inc(&listen_ctx->backlog);
struct listen_ctx *listen_ctx;
struct listen_ctx *listen_ctx;
listen_ctx = (struct listen_ctx *)lookup_stid(cdev->tids, stid);
csk->listen_ctx = listen_ctx;
__skb_queue_tail(&listen_ctx->synq, (struct sk_buff *)&csk->synq);
struct listen_ctx *ctx;
ctx = (struct listen_ctx *)data;
__skb_unlink((struct sk_buff *)&csk->synq, &csk->listen_ctx->synq);
lsk = ((struct listen_ctx *)data)->lsk;
if (unlikely(skb_queue_empty(&csk->listen_ctx->synq))) {
struct listen_ctx *listen_ctx;
listen_ctx = (struct listen_ctx *)ctx;
psk = listen_ctx->lsk;
__skb_unlink((struct sk_buff *)&csk->synq, &csk->listen_ctx->synq);
static void chtls_reset_synq(struct listen_ctx *listen_ctx)
struct sock *listen_sk = listen_ctx->lsk;
while (!skb_queue_empty(&listen_ctx->synq)) {
(&listen_ctx->synq), struct chtls_sock, synq);
struct listen_ctx *ctx;
struct listen_ctx *listen_ctx;
listen_ctx = (struct listen_ctx *)lookup_stid(cdev->tids, stid);
chtls_reset_synq(listen_ctx);
struct listen_ctx *listen_ctx;
listen_ctx = (struct listen_ctx *)lookup_stid(cdev->tids, stid);
if (!listen_ctx)
if (listen_ctx->state == T4_LISTEN_START_PENDING) {
listen_ctx->state = T4_LISTEN_STARTED;
cxgb4_free_stid(cdev->tids, stid, listen_ctx->lsk->sk_family);
sock_put(listen_ctx->lsk);
kfree(listen_ctx);
struct listen_ctx *listen_ctx;
listen_ctx = (struct listen_ctx *)data;
cxgb4_free_stid(cdev->tids, stid, listen_ctx->lsk->sk_family);
sock_put(listen_ctx->lsk);
kfree(listen_ctx);
parent = ((struct listen_ctx *)data)->lsk;