SZ_256K
.size = SZ_256K },
.offset = 3 * SZ_1M + SZ_512K + SZ_256K,
.size = SZ_256K },
.size = SZ_256K },
.offset = 4 * SZ_1M + 1 * SZ_256K,
.offset = 32 * SZ_1M - 3 * SZ_256K,
.size = 3 * SZ_256K },
#define KUROBOX_PRO_NOR_BOOT_SIZE SZ_256K
#define TSP2_NOR_BOOT_SIZE SZ_256K
#define ISRAM_SIZE SZ_256K
if (!request_mem_region(0, SZ_256K, "Boot Area")) {
if (res.start & (SZ_256K - 1) ||
#define TEGRA_IRAM_SIZE SZ_256K
#define TEGRA_CSITE_SIZE SZ_256K
#define IO_IRAM_SIZE SZ_256K
#define INTEGRATOR_SSRAM_SIZE SZ_256K
ret = l2x0_cache_size_of_parse(np, aux_val, aux_mask, &assoc, SZ_256K);
#define DEFAULT_DMA_COHERENT_POOL_SIZE SZ_256K
#define SIGFRAME_MAXSZ SZ_256K
SZ_256K);
u8 __initdata early_hash[SZ_256K] __aligned(SZ_256K) = {0};
.size = SZ_256K,
__raw_writel(((roundup_pow_of_two(size) / SZ_256K) - 1) << 18,
mask = (roundup_pow_of_two(size) / SZ_256K) - 1;
CACHE_ENTRY(0x21, CACHE_L2, SZ_256K ), /* 8-way set assoc, 64 byte line size */
CACHE_ENTRY(0x3c, CACHE_L2, SZ_256K ), /* 4-way set assoc, sectored cache, 64 byte line size */
CACHE_ENTRY(0x3f, CACHE_L2, SZ_256K ), /* 2-way set assoc, 64 byte line size */
CACHE_ENTRY(0x42, CACHE_L2, SZ_256K ), /* 4-way set assoc, 32 byte line size */
CACHE_ENTRY(0x7a, CACHE_L2, SZ_256K ), /* 8-way set assoc, sectored cache, 64 byte line size */
CACHE_ENTRY(0x82, CACHE_L2, SZ_256K ), /* 8-way set assoc, 32 byte line size */
e820__range_update(0x70000000ULL, SZ_256K, E820_TYPE_RAM, E820_TYPE_RESERVED);
dispa_base = ioremap(TEGRA210_DISPA_BASE, SZ_256K);
vic_base = ioremap(TEGRA210_VIC_BASE, SZ_256K);
pool_config.max_size = SZ_256K;
pool_config.max_size = SZ_256K;
return single_open_size(file, bpmp_debug_show, file, SZ_256K);
#define GPIO_LA_DEFAULT_BUF_SIZE SZ_256K
if (lt8713sx->fw->size > SZ_256K - 1) {
lt8713sx->fw_buffer = kvmalloc(SZ_256K, GFP_KERNEL);
memset(lt8713sx->fw_buffer, 0xff, SZ_256K);
#define I830_BATCH_LIMIT SZ_256K
GRAPHICS_VER(gt->i915) == 2 ? SZ_256K : SZ_4K);
ce->ring_size = SZ_256K;
#elif (PVR_DEVICE_PAGE_SIZE == SZ_256K)
.gmem = SZ_256K,
.gmem = SZ_256K,
.gmem = SZ_256K,
.gmem = (SZ_256K + SZ_16K),
.gmem = (SZ_256K + SZ_16K),
.gmem = SZ_256K,
SZ_256K - SZ_16K, 0x04000, "icache");
SZ_256K - SZ_16K, 0x44000, "dcache");
stream->per_xecore_buf_size / SZ_256K);
num_blocks = mm_size / SZ_256K;
KUNIT_ASSERT_FALSE_MSG(test, gpu_buddy_alloc_blocks(&mm, 0, mm_size, SZ_8K, SZ_256K,
KUNIT_EXPECT_TRUE(test, IS_ALIGNED(gpu_buddy_block_offset(block), SZ_256K));
KUNIT_ASSERT_FALSE_MSG(test, gpu_buddy_alloc_blocks(&mm, 0, mm_size, SZ_16K, SZ_256K,
KUNIT_EXPECT_TRUE(test, IS_ALIGNED(gpu_buddy_block_offset(block), SZ_256K));
KUNIT_ASSERT_FALSE_MSG(test, gpu_buddy_alloc_blocks(&mm, 0, mm_size, SZ_16K, SZ_256K,
KUNIT_ASSERT_TRUE_MSG(test, gpu_buddy_alloc_blocks(&mm, 0, mm_size, SZ_16K, SZ_256K,
SZ_256K,
.qplimit = SZ_256K,
(SZ_4K | SZ_8K | SZ_16K | SZ_32K | SZ_64K | SZ_128K | SZ_256K | \
#define VP8_SEG_ID_SZ SZ_256K
max_buf = SZ_256K;
SZ_128K / 512, SZ_256K / 512, SZ_512K / 512, SZ_1M / 512,
memorg->pages_per_eraseblock = (SZ_512K + SZ_256K) /
mtd->erasesize = SZ_512K + SZ_256K;
SZ_4K, SZ_512, SZ_256K, 0, 8, 224, NAND_ECC_INFO(4, SZ_512) },
SZ_4K, SZ_512, SZ_256K, 0, 8, 256, NAND_ECC_INFO(8, SZ_512) },
SZ_4K, SZ_1K, SZ_256K, 0, 8, 232, NAND_ECC_INFO(4, SZ_512) },
SZ_4K, SZ_1K, SZ_256K, 0, 5, 256, NAND_ECC_INFO(8, SZ_512)},
.size = SZ_256K,
.size = SZ_256K,
.size = SZ_256K,
.sector_size = SZ_256K,
.size = SZ_256K,
.sector_size = SZ_256K,
.size = SZ_256K,
.sector_size = SZ_256K,
.sector_size = SZ_256K,
.sector_size = SZ_256K,
.sector_size = SZ_256K,
.sector_size = SZ_256K,
.sector_size = SZ_256K,
.sector_size = SZ_256K,
.size = SZ_256K,
.size = SZ_256K,
.size = SZ_256K,
.size = SZ_256K,
.size = SZ_256K,
.size = SZ_256K,
#define ENETC_LSO_MAX_DATA_LEN SZ_256K
#define CMDQ_WQ_PAGE_SIZE SZ_256K
#define HINIC_DEFAULT_WQ_PAGE_SIZE SZ_256K
#define HINIC_SQ_PAGE_SIZE SZ_256K
#define HINIC_RQ_PAGE_SIZE SZ_256K
nfp_cpp_area_cache_add(cpp, SZ_256K);
.max_qc_size = SZ_256K,
.max_qc_size = SZ_256K,
#define MSMC_RAM_BANK_SIZE SZ_256K
pcie_ecam->iatu_base = cfg->win + SZ_256K;
SZ_256K);
dma_set_max_seg_size(dev, SZ_256K);
WARN_ONCE(len > SZ_256K, "len = %#x\n", len);
#define CLUSTER_SIZE (SZ_256K)
extent_thresh = SZ_256K;
(SZ_256K >> PAGE_SHIFT)) << PAGE_SHIFT) - 1;
ret = test_add_free_space_entry(cache, SZ_128M - SZ_256K, SZ_128K, 0);
if (!test_check_exists(cache, SZ_128M - SZ_256K, SZ_128K)) {
if (!test_check_exists(cache, SZ_128M + SZ_512K, SZ_256K)) {
if (test_check_exists(cache, SZ_128M + SZ_256K, SZ_256K)) {
if (test_check_exists(cache, SZ_128M, SZ_256K)) {
if (!test_check_exists(cache, SZ_128M - SZ_256K, SZ_1M)) {
if (offset != (SZ_128M - SZ_256K)) {
if (!test_check_exists(cache, SZ_128M - 768 * SZ_1K, SZ_256K)) {
if (len1 != SZ_256K) {
(u64)SZ_256K, len1);
logical3 += SZ_256K;
logical3 + SZ_256K, io_stripe.physical);
if (len3 != SZ_1M - SZ_256K) {
(u64)SZ_1M - SZ_256K, len3);
u64 hole_start = logical1 + SZ_256K;
#define BTRFS_DEFAULT_RR_MIN_CONTIG_READ (SZ_256K)
#define PRDT_DATA_BYTE_COUNT_MAX SZ_256K
batch = min(zone_managed_pages(zone) >> 12, SZ_256K / PAGE_SIZE);