mtx_enter_try
while (mtx_enter_try(mtx) == 0)
while (mtx_enter_try(mtx) == 0) {
if (!mtx_enter_try(&sc->sc_kstat_mtx))
if (mtx_enter_try(&sc->sc_kstat_mtx)) {
if (mtx_enter_try(&sc->sc_kstat_mtx)) {
if (mtx_enter_try(&sc->sc_kstat_lock)) {
if (!mtx_enter_try(&q->q_cq_mtx))
mtx_enter_try(_mtxp) ? 1 : 0; \
mtx_enter_try(_mtxp) ? 1 : 0; \
#define spin_trylock_irq(mtxp) mtx_enter_try(mtxp)
if (sc->kstat != NULL && mtx_enter_try(&sc->kstat_mtx)) {
if (mtx_enter_try(&sc->ks_mtx)) {
if (!mtx_enter_try(&sc->sc_kstat_mtx))
if (!mtx_enter_try(&ring->mtx))
#define spin_trylock_irqsave(l, f) mtx_enter_try(l)
if (!mtx_enter_try(&windup_mtx))
return (mtx_enter_try(&lock->prl_mtx));
if (!mtx_enter_try(&s->s_mtx)) {
if (!mtx_enter_try(&s->s_mtx)) {
int mtx_enter_try(struct mutex *);
if (!mtx_enter_try(&map->mtx))