folio_mapping
} else if (folio_mapping(folio)) {
mapping = folio_mapping(folio);
filemap_dirty_folio(folio_mapping(folio), folio);
filemap_dirty_folio(folio_mapping(folio), folio);
filemap_dirty_folio(folio_mapping(dfolio), dfolio);
mapping = folio_mapping(folio);
struct address_space *folio_mapping(const struct folio *folio);
return folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
mapping = folio_mapping(folio);
mapping = folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
mapping = folio_mapping(folio);
ret = !mapping_unevictable(folio_mapping(folio)) &&
struct address_space *mapping = folio_mapping(folio);
if (folio_mapping(folio) != mapping) {
mapping = folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
mapping = folio_mapping(folio);
mapping = folio_mapping(folio);
if (folio_mapping(folio)) {
ret = mapping_evict_folio(folio_mapping(folio), folio);
struct address_space *mapping = folio_mapping(src);
if (hugetlb_folio_subpool(src) && !folio_mapping(src)) {
mapping = folio_mapping(folio);
if (folio_mapping(folio))
struct address_space *mapping = folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
struct address_space *mapping = folio_mapping(folio);
trace_folio_wait_writeback(folio, folio_mapping(folio));
trace_folio_wait_writeback(folio, folio_mapping(folio));
if (mapping_stable_writes(folio_mapping(folio)))
mapping = folio_mapping(folio);
VM_WARN_ON_FOLIO(folio && mapping != folio_mapping(folio), folio);
if (folio_mapping(folio) != mapping) {
bool page_in_cache = folio_mapping(folio);
EXPORT_SYMBOL(folio_mapping);
mapping = folio_mapping(folio);
mapping = folio_mapping(folio);
mapping = folio_mapping(folio);
if (folio_mapping(folio) == mapping)
BUG_ON(mapping != folio_mapping(folio));
mapping = folio_mapping(folio);