vmalloc_to_page
page = vmalloc_to_page(addr);
struct page *page = vmalloc_to_page(addr);
return page_to_phys(vmalloc_to_page(kaddr)) +
struct page *page = vmalloc_to_page(addr);
page = vmalloc_to_page(addr);
SetPageReserved(vmalloc_to_page(p));
ClearPageReserved(vmalloc_to_page(p));
ClearPageReserved(vmalloc_to_page(addr));
SetPageReserved(vmalloc_to_page(addr));
struct page *page = vmalloc_to_page(addr);
base_addr = page_to_phys(vmalloc_to_page(bytes)) +
base_addr = page_to_phys(vmalloc_to_page(bytes)) +
pg = vmalloc_to_page(hv_hypercall_pg);
pages[0] = vmalloc_to_page(addr);
pages[1] = vmalloc_to_page(addr + PAGE_SIZE);
if (bio_add_page(bio, vmalloc_to_page(vaddr), len, offset) < len)
page = vmalloc_to_page(cpu_addr);
return page_to_phys(vmalloc_to_page(addr)) + offset_in_page(addr);
sg_addr = page_to_phys(vmalloc_to_page(
sg_addr = page_to_phys(vmalloc_to_page(start_addr))
pages[index] = vmalloc_to_page(p);
return vmalloc_to_page(substream->runtime->dma_area + offset);
pages[i] = vmalloc_to_page(ptr);
struct page *page = vmalloc_to_page(data);
p = vmalloc_to_page(vaddr);
pg = vmalloc_to_page(data);
page = vmalloc_to_page(buf);
return vmalloc_to_page(addr);
pg = vmalloc_to_page(buf);
pg = vmalloc_to_page(addr);
page = vmalloc_to_page((void *)(vmf->pgoff << PAGE_SHIFT));
page = vmalloc_to_page(addr);
vm_page = vmalloc_to_page(addr);
page = vmalloc_to_page(cpu_addr);
page = vmalloc_to_page(cpu_addr);
? vmalloc_to_page(base)
struct page *sec_page = vmalloc_to_page(§or_le);
*p = vmalloc_to_page(dp->context_ptr);
page = vmalloc_to_page(base);
next_page = vmalloc_to_page(p);
first_page = vmalloc_to_page(p);
page = is_vmalloc_addr(data) ? vmalloc_to_page(data) : virt_to_page(data);
return vmalloc_to_page(addr);
pg = vmalloc_to_page(virt);
struct page *page = vmalloc_to_page(vaddr);
return vmalloc_to_page(pageptr);
pg = vmalloc_to_page(buf->vaddr + i * PAGE_SIZE);
pg = vmalloc_to_page(buf->vaddr + i * PAGE_SIZE);
return vmalloc_to_page(pageptr);
pg = vmalloc_to_page(buf->vaddr + i * PAGE_SIZE);
return vmalloc_to_page(pageptr);
vmalloc_to_page(addr) : virt_to_page(addr);
pg = vmalloc_to_page(dma->vaddr + i * PAGE_SIZE);
return vmalloc_to_page(pageptr);
page = vmalloc_to_page(buf);
(__le64)(page_to_phys(vmalloc_to_page(addr)) +
(__le64)(page_to_phys(vmalloc_to_page(addr)) +
(__le64)(page_to_phys(vmalloc_to_page(addr)) +
__entry->tx = page_to_phys(vmalloc_to_page(tx)) +
__entry->rx = page_to_phys(vmalloc_to_page(rx)) +
vmalloc_to_page(((unsigned int *)bulk->offset +
return page_to_phys(vmalloc_to_page(cpu_addr)) +
sg_set_page(sg, vmalloc_to_page(cpu_addr), len,
vm_page = vmalloc_to_page(buf);
vm_page = vmalloc_to_page(buf);
bo->pages[i] = vmalloc_to_page(vaddr);
struct page *p = vmalloc_to_page(data);
page = vmalloc_to_page(addr);
flush_dcache_page(vmalloc_to_page(start));
page = vmalloc_to_page(addr);
pages[i] = vmalloc_to_page(ptr);
struct page *page = vmalloc_to_page(bmp);
pages[i] = vmalloc_to_page(p);
page = vmalloc_to_page(screen_buffer + offs);
return xen_page_to_gfn(vmalloc_to_page(address));
page = vmalloc_to_page(buf);
vmalloc_to_page(sctx->send_buf + (i << PAGE_SHIFT));
page = vmalloc_to_page(p);
vmalloc_to_page((void *)addr), len, off);
page = vmalloc_to_page((void *)kaddr);
addr = vmalloc_to_page(buf);
vmalloc_to_page(data), bytes,
page = vmalloc_to_page(buf);
return vmalloc_to_page(addr);
paddr = page_to_phys(vmalloc_to_page(addr)) +
struct page *vmalloc_to_page(const void *addr);
page = vmalloc_to_page((void *)kaddr);
page = vmalloc_to_page(virt);
return vmalloc_to_page(cpu_addr);
return vmalloc_to_page((void *)rb->user_page + pgoff * PAGE_SIZE);
page = vmalloc_to_page(area + off);
page = vmalloc_to_page(buf->start + (pgoff << PAGE_SHIFT));
struct page *scs_page = vmalloc_to_page(s);
page = vmalloc_to_page(kaddr);
page = vmalloc_to_page((void *)kaddr);
struct page *page = vmalloc_to_page(addr);
KUNIT_ASSERT_NOT_ERR_OR_NULL(test, vmalloc_to_page(ptr));
page = vmalloc_to_page(v_ptr);
v_page = vmalloc_to_page(v_ptr);
page = vmalloc_to_page(addr);
page = vmalloc_to_page(vaddr);
EXPORT_SYMBOL(vmalloc_to_page);
return vmalloc_to_page((void *)pcpu_chunk_addr(chunk, cpu, page_idx));
return vmalloc_to_page(addr);
return page_to_phys(vmalloc_to_page(addr)) +
page = vmalloc_to_page(si->swap_map + offset);
head = vmalloc_to_page(si->swap_map + offset);
head = vmalloc_to_page(si->swap_map + offset);
head = vmalloc_to_page(si->swap_map + offset);
nid != page_to_nid(vmalloc_to_page(p)))
page = vmalloc_to_page(addr);
struct page *page = vmalloc_to_page(kaddr);
EXPORT_SYMBOL(vmalloc_to_page);
return page_to_pfn(vmalloc_to_page(vmalloc_addr));
(*pages)[index] = vmalloc_to_page(p);
page = vmalloc_to_page(buf);
page = vmalloc_to_page(p);
return vmalloc_to_page(addr);
sg_set_page(sg, vmalloc_to_page(buf), size, offset);
pages[i] = vmalloc_to_page(buf);
page = vmalloc_to_page(plm->data + offset);
page_to_phys(vmalloc_to_page((dmab)->area + (offset)))
return vmalloc_to_page(dmab->area + offset);
struct page *pg = vmalloc_to_page(data);
struct page *pg = vmalloc_to_page(data);
page = vmalloc_to_page((void *)addr);
page = vmalloc_to_page(pmem->virt_addr + offset);
return vmalloc_to_page((void *)ring->dirty_gfns + offset * PAGE_SIZE);