dmu_tx_get_txg
txg = dmu_tx_get_txg(tx);
txg = error ? 0 : dmu_tx_get_txg(tx);
zil_lwb_add_txg(zgd->zgd_lwb, dmu_tx_get_txg(tx));
zio_nowait(zio_write(pio, os->os_spa, dmu_tx_get_txg(tx), zgd->zgd_bp,
dp->dp_long_free_dirty_pertxg[dmu_tx_get_txg(tx) & TXG_MASK] +=
uint64_t, dmu_tx_get_txg(tx));
int txgoff = dmu_tx_get_txg(tx) & TXG_MASK;
BP_SET_BIRTH(bp, dmu_tx_get_txg(tx), 0);
ASSERT(!dmu_objset_is_dirty(os, dmu_tx_get_txg(tx)));
txg = dmu_tx_get_txg(tx);
dmu_tx_get_txg(tx), bp, 0));
dst->dst_txg = dmu_tx_get_txg(tx);
dst.dst_txg = dmu_tx_get_txg(tx);
uint64_t txg = dmu_tx_get_txg(tx);
ASSERT3U(metaslab_unflushed_txg(msp), <, dmu_tx_get_txg(tx));
metaslab_verify_space(msp, dmu_tx_get_txg(tx));
metaslab_verify_space(msp, dmu_tx_get_txg(tx));
"appended %llu bytes", dmu_tx_get_txg(tx), spa_name(spa),
metaslab_verify_space(msp, dmu_tx_get_txg(tx));
metaslab_verify_space(msp, dmu_tx_get_txg(tx));
spa->spa_log_flushall_txg = dmu_tx_get_txg(tx);
zio_nowait(zio_free_sync(zio, zio->io_spa, dmu_tx_get_txg(tx), bp,
dmu_tx_get_txg(tx), B_FALSE);
uint64_t txg = dmu_tx_get_txg(tx);
uint64_t txg = dmu_tx_get_txg(tx);
SM_DEBUG_TXG_ENCODE(dmu_tx_get_txg(tx));
VERIFY3U(dmu_tx_get_txg(tx), <=, spa_final_dirty_txg(spa));
dmu_tx_get_txg(tx), spa_name(spa), sm, sm->sm_object,
uint64_t dmu_tx_get_txg(dmu_tx_t *tx);
uint64_t dmu_tx_get_txg(dmu_tx_t *tx);
vd->vdev_id, dmu_tx_get_txg(tx), vic->vic_mapping_object,
uint64_t txg = dmu_tx_get_txg(tx);
int txgoff = dmu_tx_get_txg(tx) & TXG_MASK;
vd->vdev_id, dmu_tx_get_txg(tx),
(u_longlong_t)dmu_tx_get_txg(tx),
uint64_t txg = dmu_tx_get_txg(tx);
uint64_t txg = dmu_tx_get_txg(tx);
uint64_t txg = dmu_tx_get_txg(tx);
uint64_t txg = dmu_tx_get_txg(tx);
svr->svr_bytes_done[dmu_tx_get_txg(tx) & TXG_MASK] = 0;
vd->vdev_id, dmu_tx_get_txg(tx));
int txgoff = dmu_tx_get_txg(tx) & TXG_MASK;
uint64_t txg = dmu_tx_get_txg(tx);
"im_obj=%llu", vd->vdev_id, vd, dmu_tx_get_txg(tx),
ASSERT3U(dmu_tx_get_txg(tx), ==, spa_syncing_txg(spa));
uint64_t txg = dmu_tx_get_txg(tx);
vdev_indirect_mapping_max_offset(vim), dmu_tx_get_txg(tx), tx);
uint64_t txg = dmu_tx_get_txg(tx);
uint64_t txg = dmu_tx_get_txg(tx);
uint64_t enabling_txg = dmu_tx_get_txg(tx);
gen = dmu_tx_get_txg(tx);
txg = dmu_tx_get_txg(tx);
txg = dmu_tx_get_txg(tx);
itx->itx_lr.lrc_txg = dmu_tx_get_txg(tx);
zilog_dirty(zilog, dmu_tx_get_txg(tx));
uint64_t txg = dmu_tx_get_txg(tx);
zilog->zl_replayed_seq[dmu_tx_get_txg(tx) & TXG_MASK] =
zio_free(zilog->zl_spa, dmu_tx_get_txg(tx), bp);
zio_free(zilog->zl_spa, dmu_tx_get_txg(tx), bp);
txg = dmu_tx_get_txg(tx);
txg = dmu_tx_get_txg(tx);
txg = dmu_tx_get_txg(tx);