SZ_2K
.end = OMAP1_DMA_BASE + SZ_2K - 1,
.end = OMAP1_MPUIO_VBASE + SZ_2K - 1,
.end = OMAP1510_GPIO_BASE + SZ_2K - 1,
.end = OMAP1610_GPIO2_BASE + SZ_2K - 1,
.end = OMAP1610_GPIO3_BASE + SZ_2K - 1,
.end = OMAP1610_GPIO4_BASE + SZ_2K - 1,
.end = OMAP1_MPUIO_VBASE + SZ_2K - 1,
.end = OMAP1610_GPIO1_BASE + SZ_2K - 1,
ioremap(serial_platform_data[i].mapbase, SZ_2K);
#define TEGRA_EMC0_SIZE SZ_2K
#define TEGRA_EMC1_SIZE SZ_2K
#define TEGRA124_EMC_SIZE SZ_2K
return base + (idx * SZ_2K);
#define __BP_HARDEN_HYP_VECS_SZ ((BP_HARDEN_EL2_SLOTS - 1) * SZ_2K)
return (char *)(TRAMP_VALIAS + SZ_2K * slot);
return __bp_harden_el1_vectors + SZ_2K * slot;
#define ARM64_VECTOR_TABLE_LEN SZ_2K
if (imm < -SZ_2K || imm >= SZ_2K) {
vaddr = ioremap(phys, SZ_2K);
SZ_2K >> 10, phys, phys + SZ_2K - 1, area);
ret = gen_pool_add(sram_pool, (unsigned long)vaddr, SZ_2K, -1);
hwdev->max_line_size = SZ_2K * ln_size_mult;
hwdev->max_line_size = SZ_2K;
return (CTB_H2G_BUFFER_SIZE * HZ) / SZ_2K;
#define CTB_DESC_SIZE ALIGN(sizeof(struct guc_ct_buffer_desc), SZ_2K)
omap_dmm->base = ioremap(mem->start, SZ_2K);
KUNIT_ASSERT_EQ(test, SZ_2K, pf_profile_fair_ctxs(gt, num_vfs));
#define CTB_DESC_SIZE ALIGN(sizeof(struct guc_ct_buffer_desc), SZ_2K)
u8 xfer_buf[SZ_2K] ____cacheline_aligned;
if (cpudata->trbe_hw_align > SZ_2K) {
#define DMA_BUFFER_SIZE SZ_2K
.qplimit = SZ_2K,
#define MAX_MANIFEST_SIZE (SZ_2K * sizeof(u32))
ctx->luma_dpb_size = ALIGN(ctx->luma_dpb_size + 256, SZ_2K);
ctx->chroma_dpb_size = ALIGN(ctx->chroma_dpb_size + 256, SZ_2K);
case SZ_2K:
#define ANFC_MAX_STEPS SZ_2K
#define ANFC_MAX_PKT_SIZE (SZ_2K - 1)
case SZ_2K:
if (mtd->writesize == SZ_4K && lt->data_bytes == SZ_2K)
mtd->writesize != SZ_2K) {
SZ_2K, SZ_128, SZ_128K, 0, 8, 64, NAND_ECC_INFO(1, SZ_512), },
SZ_2K, SZ_512, SZ_128K, 0, 5, 128, NAND_ECC_INFO(8, SZ_512) },
case SZ_2K:
case SZ_2K:
if (mtd->writesize < SZ_512 || mtd->writesize > SZ_2K) {
#define MCP251XFD_RAM_SIZE SZ_2K
#define TSNEP_GCL_SIZE SZ_2K
if (priv->rx_cfg.packet_buffer_size != SZ_2K) {
priv->rx_cfg.packet_buffer_size, SZ_2K);
if (priv->xdp_prog && rx_buf_len != SZ_2K) {
if (rx_buf_len != SZ_2K && rx_buf_len != SZ_4K) {
#define CMDQ_DB_OFF SZ_2K
#define SQ_DB_OFF SZ_2K
.tx_max_frame_size = SZ_2K,
.rx_max_frame_size = SZ_2K,
.rx_buffer_size = SZ_2K +
.tx_max_frame_size = SZ_2K,
.rx_max_frame_size = SZ_2K,
.rx_buffer_size = SZ_2K +
.tx_max_frame_size = SZ_2K,
.rx_max_frame_size = SZ_2K,
.rx_buffer_size = SZ_2K +
.tx_max_frame_size = SZ_2K,
.rx_max_frame_size = SZ_2K,
.rx_buffer_size = SZ_2K +
.rx_buffer_size = SZ_2K,
#define MSMC_RAM_SIZE_SR1 (SZ_64K + SZ_32K + SZ_2K) /* 0x1880 x 8 x 2 */
#define PRUETH_SW_HOST_PRE_BUF_POOL_SIZE (SZ_16K - SZ_2K)
#define PRUETH_SW_DROP_PKT_BUF_SIZE SZ_2K
#define BAM_DMUX_BUFFER_SIZE SZ_2K
io->stop = io->start + SZ_2K - 1;
map->static_start += SZ_2K;
cf->socket.map_size = SZ_2K;
if (spe_pmu->align > SZ_2K) {
if (spe_pmu->max_record_sz > SZ_2K || spe_pmu->max_record_sz < 16) {
ret = mtk_snand_setup_pagefmt(ms, SZ_2K, SZ_64);
case SZ_2K:
.ahb_buf_size = SZ_2K, /* (256 * 64 bits) */
.ahb_buf_size = SZ_2K, /* (256 * 64 bits) */
.ahb_buf_size = SZ_2K, /* (256 * 64 bits) */
.ahb_buf_size = SZ_2K, /* (256 * 64 bits) */
.ahb_buf_size = SZ_2K, /* (256 * 64 bits) */
.rx_size = SZ_2K,
else if (ram_size <= SZ_2K)
#define BTRFS_MIN_BLOCKSIZE (SZ_2K)
while (iov_iter_count(&iter) >= SZ_2K) {
size_t part = umin(umin(iov_iter_count(&iter), SZ_2K), max);
if (iov_iter_count(&iter) < PAGE_SIZE - SZ_2K)
iov_iter_advance(&iter, SZ_2K);
const size_t read_size = SZ_2K, bkt_size = 256, max = SZ_4M;
#define TEST_UPLOAD_MAX_SIZE SZ_2K
.base = SZ_2K,
.base = SZ_2K,
.base = SZ_2K,
.base = SZ_2K,