WARN_ON_ONCE
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(i != HQD_N_REGS);
if (WARN_ON_ONCE(i >= HQD_N_REGS)) \
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(i != HQD_N_REGS);
WARN_ON_ONCE(1);
WARN_ON_ONCE(1);
WARN_ON_ONCE(adev->gfx.gfx_off_state);
WARN_ON_ONCE(adev->gfx.gfx_off_req_count);
if (WARN_ON_ONCE(adev->gfx.userq_sch_req_count[idx] == 0)) {
WARN_ON_ONCE(!adev->gfx.userq_sch_inactive[idx]);
WARN_ON_ONCE(adev->gfx.userq_sch_req_count[idx]);
if (WARN_ON_ONCE(adev->gfx.gfx_off_req_count == 0))
(WARN_ON_ONCE(!(adev)->irq.ih_funcs->decode_iv_ts) ? 0 : \
if (WARN_ON_ONCE(!dma_resv_trylock(&bo->base._resv)))
WARN_ON_ONCE(bo->tbo.resource->mem_type == TTM_PL_SYSTEM);
WARN_ON_ONCE(!dma_resv_is_locked(bo->tbo.base.resv) &&
WARN_ON_ONCE(bo->tbo.resource->start == AMDGPU_BO_INVALID_OFFSET);
WARN_ON_ONCE(bo->tbo.resource->mem_type == TTM_PL_VRAM &&
WARN_ON_ONCE(bo->tbo.resource->mem_type != TTM_PL_VRAM);
WARN_ON_ONCE("GTT domain requested but GTT mem manager uninitialized");
if (WARN_ON_ONCE(!(hwc->state & PERF_HES_STOPPED)))
WARN_ON_ONCE(!(hwc->state & PERF_HES_UPTODATE));
WARN_ON_ONCE(hwc->state & PERF_HES_STOPPED);
if (WARN_ON_ONCE(ndw > ring->max_dw))
WARN_ON_ONCE(!vm->is_compute_context);
WARN_ON_ONCE(addr & 0x3);
if (WARN_ON_ONCE(!peer_pdd))
if (WARN_ON_ONCE(!peer_pdd))
if (WARN_ON_ONCE(!qpd->evicted)) /* already restored, do nothing */
if (WARN_ON_ONCE(!qpd->evicted)) /* already restored, do nothing */
if (WARN_ON_ONCE(p->n_pdds >= MAX_GPU_INSTANCE))
WARN_ON_ONCE(depth < 0);
WARN_ON_ONCE(!in_task());
if (WARN_ON_ONCE(!(expr))) \
WARN_ON_ONCE(!aux->drm_dev);
if (WARN_ON_ONCE(!vdsc_cfg->bits_per_pixel ||
WARN_ON_ONCE(vdsc_cfg->bits_per_pixel & 0xf);
WARN_ON_ONCE(plane->state->fb != new_fb);
WARN_ON_ONCE(plane->state->crtc_x != plane_state->crtc_x);
WARN_ON_ONCE(plane->state->crtc_y != plane_state->crtc_y);
WARN_ON_ONCE(plane->state->src_x != plane_state->src_x);
WARN_ON_ONCE(plane->state->src_y != plane_state->src_y);
WARN_ON_ONCE(plane_state->fb != old_fb);
WARN_ON_ONCE(funcs->cleanup_fb);
if (WARN_ON_ONCE(map_len > 8))
if (WARN_ON_ONCE(!(filp->f_op->fop_flags & FOP_UNSIGNED_OFFSET)))
if (WARN_ON_ONCE(fb->dev != dev || !fb->format))
if (WARN_ON_ONCE(!notifier))
if (WARN_ON_ONCE(is_zone_device_page(page)))
WARN_ON_ONCE(!folio_trylock(page_folio(page)));
if (WARN_ON_ONCE(nbits > BITS_PER_TYPE(value)))
if (WARN_ON_ONCE(!bits[i]))
if (WARN_ON_ONCE(align > sa_manager->align))
if (WARN_ON_ONCE(size > sa_manager->size || !size))
if (WARN_ON_ONCE(align & (align - 1)))
if (WARN_ON_ONCE(htotal == 0))
WARN_ON_ONCE(output_types != 0);
WARN_ON_ONCE(obj->cache_dirty);
WARN_ON_ONCE(IS_DGFX(i915));
if (WARN_ON_ONCE(obj->flags & I915_BO_ALLOC_GPU_ONLY))
if (WARN_ON_ONCE(flags & I915_BO_ALLOC_GPU_ONLY &&
if (WARN_ON_ONCE(instance))
WARN_ON_ONCE(obj->mm.madv == I915_MADV_WILLNEED);
WARN_ON_ONCE(!i915_gem_object_is_framebuffer(obj));
WARN_ON_ONCE(!pm_apply->allow_gpu);
WARN_ON_ONCE(!(obj->cache_coherent & I915_BO_CACHE_COHERENT_FOR_WRITE));
WARN_ON_ONCE(hex_dump_to_buffer(buf + pos, len - pos,
WARN_ON_ONCE(addr & ~GEN12_GGTT_PTE_ADDR_MASK);
WARN_ON_ONCE(bit >
WARN_ON_ONCE(bman->visible_avail != bman->visible_size);
if (WARN_ON_ONCE(vma->obj->flags & I915_BO_ALLOC_GPU_ONLY))
# define _WAIT_FOR_ATOMIC_CHECK(ATOMIC) WARN_ON_ONCE((ATOMIC) && !in_atomic())
if (WARN_ON_ONCE(platform >= ARRAY_SIZE(platform_names) ||
WARN_ON_ONCE(gen11_gt_reset_one_iir(gt, 0, GEN11_KCR));
WARN_ON_ONCE(hex_dump_to_buffer(buf + pos, len - pos,
if (WARN_ON_ONCE(msg->size > 12))
if (WARN_ON_ONCE(!to_radeon_fence(&fence->base)))
WARN_ON_ONCE(1);
WARN_ON_ONCE(max_offset <
WARN_ON_ONCE(!list_empty(&bo->va));
if (!WARN_ON_ONCE(!fence)) {
if (!WARN_ON_ONCE(fence->sched)) {
WARN_ON_ONCE(bo->pin_count);
WARN_ON_ONCE(bo->bulk_move);
WARN_ON_ONCE(!kref_read(&bo->kref));
WARN_ON_ONCE(!kref_read(&bo->kref));
if (WARN_ON_ONCE(!bo->pin_count))
WARN_ON_ONCE(is_iomem);
if (WARN_ON_ONCE(bulk != cursor->bulk)) {
if (WARN_ON_ONCE(!man))
if (WARN_ON_ONCE(!(tt->page_flags & TTM_TT_FLAG_EXTERNAL_MAPPABLE)))
WARN_ON_ONCE(urb->setup_dma &&
WARN_ON_ONCE(hsotg->params.host_dma &&
WARN_ON_ONCE(1);