WARN_ON
#define WARN_ON_SMP(cond) WARN_ON(cond)
WARN_ON(release == NULL);
#define lockdep_assert(cond) do { WARN_ON(!(cond)); } while (0)
if (WARN_ON(!auxdrv->probe) || WARN_ON(!auxdrv->id_table))
WARN_ON(!rdev->dbr_bar_addr);
WARN_ON(!TAILQ_EMPTY(&req_list));
WARN_ON(!list_empty(&err_cqe_list));
WARN_ON(kref_read(&(ep)->kref) < 1); \
#define WARN_ON_SMP(cond) WARN_ON(cond)
WARN_ON(_manager);
WARN_ON(devres_destroy(p->dev, ttm_dma_pool_release,
WARN_ON(((pool->npages_in_use + pool->npages_free) != 0));
WARN_ON(mlx4_alloc_db_from_pgdir(pgdir, db, order));
WARN_ON(cq->state & MLX4_EN_CQ_STATE_NAPI);
WARN_ON(cq->state & (MLX4_EN_CQ_STATE_POLL |
WARN_ON(cq->state & (MLX4_EN_CQ_STATE_NAPI));
WARN_ON(!(cq->state & MLX4_CQ_LOCKED));
WARN_ON(!dev->ib_uc_qpns_bitmap);
WARN_ON(old != sa_entry);
WARN_ON(ipsec->tx->ft.refcnt);
WARN_ON(mtag == NULL);
WARN_ON(mlx5_alloc_db_from_pgdir(pgdir, db));
if (WARN_ON(!atomic_inc_not_zero(&ctx->num_inflight)))
WARN_ON(vport->enabled);
WARN_ON(mlx5_chains_update_prio_prevs(prio,
WARN_ON(!is_nic_rx_ns(type));
WARN_ON(prio->num_levels < acc_level_ns - prio->start_level);
if (WARN_ON(!ns))
if (WARN_ON(!root))
if (WARN_ON(!root))
if (WARN_ON(root->type != FS_TYPE_NAMESPACE)) {
WARN_ON(fte->dests_size);
WARN_ON(deleted_fte != fte);
WARN_ON(deleted_fg != fg);
WARN_ON(!idr_remove(&fc_stats->counters_idr, counter->id));
WARN_ON(true);
WARN_ON(!event);
WARN_ON(obj->dinlen > MLX5_MAX_DESTROY_INBOX_SIZE_DW * sizeof(u32));
WARN_ON(!event);
WARN_ON(!event);
WARN_ON(!obj_event);
WARN_ON(event_type > MAX_SUPP_EVENT_NUM);
WARN_ON(true);
WARN_ON(true);
WARN_ON(shift != 0);
WARN_ON(access_flags != (MLX5_IB_MTT_READ | MLX5_IB_MTT_WRITE));
WARN_ON(1);
WARN_ON(!ida_is_empty(&dev->roce.reserved_gids.ida));
WARN_ON(buffer_size_shift >= 32);
if (WARN_ON(ix < 0))
WARN_ON(!context);
if (WARN_ON(!supported_gids)) {
if (WARN_ON(!vma->vm_file ||
WARN_ON(dev->reg_state == IB_DEV_REGISTERED);
if (WARN_ON(size < sizeof(struct ib_device)))
WARN_ON(device->reg_state != IB_DEV_UNREGISTERED &&
return WARN_ON(!rdma_cap_ib_mad(dev, port) &&
if (WARN_ON(rdma_max_mad_size(device, port_num) < IB_MGMT_MAD_SIZE))
if (WARN_ON(rdma_cap_opa_mad(device, port_num) &&
WARN_ON(!list_empty(&uobj->list));
WARN_ON(!uobj->context);
if (WARN_ON(fd_type->fops->release != &uverbs_uobject_fd_release))
WARN_ON(old != NULL);
WARN_ON(mode != UVERBS_LOOKUP_READ);
WARN_ON(entry->object);
WARN_ON(uverbs_try_lock_object(uobj, UVERBS_LOOKUP_WRITE));
WARN_ON(!xa_empty(&ucontext->mmap_xa));
WARN_ON(uverbs_try_lock_object(obj, UVERBS_LOOKUP_WRITE));
WARN_ON(true);
WARN_ON(true);
WARN_ON(atomic_read(&uobj->usecnt) <= 0);
WARN_ON(atomic_read(&uobj->usecnt) != -1);
WARN_ON(!dma_addr);
WARN_ON(uflow_res->num >= uflow_res->max);
WARN_ON(1);
if (WARN_ON(!slot))
if (WARN_ON(method->handler))
WARN_ON(!method->handler);
if (WARN_ON(access == UVERBS_ACCESS_NEW ||
if (WARN_ON(obj_elm->type_attrs))
if (WARN_ON(is_driver &&
WARN_ON(true);
if (WARN_ON(def->object_start.object_id !=
WARN_ON(true);
if (WARN_ON(single_uobj))
if (WARN_ON(!elm->spec.mandatory))
WARN_ON(method_elm->key_bitmap_len > UVERBS_API_ATTR_BKEY_LEN);
if (WARN_ON(!elm))
WARN_ON(false);
if (WARN_ON(exists && (def->write.is_ex != method_elm->is_ex)))
WARN_ON(ret);
WARN_ON(atomic_read(&pd->usecnt));
WARN_ON(ring_head(ssk->rx_ring) != ring_tail(ssk->rx_ring));
WARN_ON(ring_head(ssk->tx_ring) != ring_tail(ssk->tx_ring));
WARN_ON(1);
WARN_ON(1);
WARN_ON(1);
WARN_ON(ssk->tx_sa);
if (WARN_ON(regsz > 1 && !fn))