F2FS_I_SB
value = f2fs_kmalloc(F2FS_I_SB(inode), retval, GFP_F2FS_ZERO);
value = f2fs_acl_to_disk(F2FS_I_SB(inode), acl, &size);
if (unlikely(f2fs_cp_error(F2FS_I_SB(inode))))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
stat_dec_dirty_inode(F2FS_I_SB(inode), type);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
__add_ino_entry(F2FS_I_SB(inode), inode->i_ino, 0, ORPHAN_INO);
if (unlikely(f2fs_cp_error(F2FS_I_SB(cc->inode))))
f2fs_submit_merged_write(F2FS_I_SB(cc->inode), DATA);
struct f2fs_sb_info *sbi = F2FS_I_SB(cc->inode);
f2fs_bug_on(F2FS_I_SB(inode), err == 0);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
cc->rpages = page_array_alloc(F2FS_I_SB(cc->inode), cc->cluster_size);
page_array_free(F2FS_I_SB(cc->inode), cc->rpages, cc->cluster_size);
f2fs_bug_on(F2FS_I_SB(cc->inode), err != -EAGAIN);
f2fs_bug_on(F2FS_I_SB(cc->inode), *submitted);
f2fs_bug_on(F2FS_I_SB(cc->inode), 1);
struct f2fs_sb_info *sbi = F2FS_I_SB(cc->inode);
cc->private = f2fs_vmalloc(F2FS_I_SB(cc->inode),
f2fs_err_ratelimited(F2FS_I_SB(cc->inode),
cc->private = f2fs_vmalloc(F2FS_I_SB(cc->inode), size);
workspace = f2fs_vmalloc(F2FS_I_SB(cc->inode), workspace_size);
f2fs_err_ratelimited(F2FS_I_SB(cc->inode),
f2fs_err_ratelimited(F2FS_I_SB(cc->inode),
f2fs_err_ratelimited(F2FS_I_SB(cc->inode),
f2fs_err_ratelimited(F2FS_I_SB(cc->inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(cc->inode);
f2fs_bug_on(F2FS_I_SB(cc->inode), !page);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
f2fs_bug_on(F2FS_I_SB(dn->inode), count != cluster_size &&
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
if (!f2fs_is_valid_blkaddr(F2FS_I_SB(inode), dn.data_blkaddr,
!f2fs_is_valid_blkaddr(F2FS_I_SB(inode),
f2fs_bug_on(F2FS_I_SB(inode), ifolio);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_allow_multi_device_dio(F2FS_I_SB(inode), flag);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (!f2fs_is_valid_blkaddr(F2FS_I_SB(inode), block_nr,
if (bio && (!page_is_mergeable(F2FS_I_SB(inode), bio,
f2fs_submit_read_bio(F2FS_I_SB(inode), bio, DATA);
inc_page_count(F2FS_I_SB(inode), F2FS_RD_DATA);
f2fs_update_iostat(F2FS_I_SB(inode), NULL, FS_DATA_READ_IO,
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (!f2fs_is_valid_blkaddr(F2FS_I_SB(inode), block_nr,
if (bio && (!page_is_mergeable(F2FS_I_SB(inode), bio,
f2fs_submit_read_bio(F2FS_I_SB(inode), bio, DATA);
inc_page_count(F2FS_I_SB(inode), F2FS_RD_DATA);
f2fs_update_iostat(F2FS_I_SB(inode), NULL, FS_DATA_READ_IO,
f2fs_submit_read_bio(F2FS_I_SB(inode), bio, DATA);
f2fs_submit_read_bio(F2FS_I_SB(inode), bio, DATA);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (get_dirty_pages(inode) >= SM_I(F2FS_I_SB(inode))->min_seq_blocks)
if (!f2fs_sb_has_compression(F2FS_I_SB(inode)))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
ifolio = f2fs_get_inode_folio(F2FS_I_SB(inode), inode->i_ino);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_update_time(F2FS_I_SB(inode), REQ_TIME);
f2fs_update_time(F2FS_I_SB(inode), REQ_TIME);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
map.m_seg_type = f2fs_rw_hint_to_seg_type(F2FS_I_SB(inode),
f2fs_bug_on(F2FS_I_SB(inode), 1);
sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
f2fs_warn(F2FS_I_SB(dir), "Corrupted max_depth of %lu: %u",
folio = f2fs_get_inode_folio(F2FS_I_SB(dir), inode->i_ino);
f2fs_remove_orphan_inode(F2FS_I_SB(dir), inode->i_ino);
if (time_to_inject(F2FS_I_SB(dir), FAULT_DIR_DEPTH))
f2fs_update_time(F2FS_I_SB(dir), REQ_TIME);
f2fs_update_time(F2FS_I_SB(inode), REQ_TIME);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
f2fs_update_time(F2FS_I_SB(dir), REQ_TIME);
if (F2FS_OPTION(F2FS_I_SB(dir)).fsync_mode == FSYNC_MODE_STRICT)
f2fs_add_ino_entry(F2FS_I_SB(dir), dir->i_ino, TRANS_DIR_INO);
struct f2fs_sb_info *sbi = F2FS_I_SB(d->inode);
return test_opt(F2FS_I_SB(inode), AGE_EXTENT_CACHE) &&
if (list_empty(&F2FS_I_SB(inode)->s_list))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
!f2fs_sb_has_readonly(F2FS_I_SB(inode)))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
return test_opt(F2FS_I_SB(inode), READ_EXTENT_CACHE) &&
return F2FS_I_SB(mapping->host);
inc_page_count(F2FS_I_SB(inode), S_ISDIR(inode->i_mode) ?
inc_page_count(F2FS_I_SB(inode), F2FS_DIRTY_QDATA);
dec_page_count(F2FS_I_SB(inode), S_ISDIR(inode->i_mode) ?
dec_page_count(F2FS_I_SB(inode), F2FS_DIRTY_QDATA);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
int compress_mode = F2FS_OPTION(F2FS_I_SB(inode)).compress_mode;
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
(atomic_inc(&F2FS_I_SB(inode)->inline_xattr)); \
(atomic_dec(&F2FS_I_SB(inode)->inline_xattr)); \
(atomic_inc(&F2FS_I_SB(inode)->inline_inode)); \
(atomic_dec(&F2FS_I_SB(inode)->inline_inode)); \
(atomic_inc(&F2FS_I_SB(inode)->inline_dir)); \
(atomic_dec(&F2FS_I_SB(inode)->inline_dir)); \
(atomic_inc(&F2FS_I_SB(inode)->compr_inode)); \
(atomic_dec(&F2FS_I_SB(inode)->compr_inode)); \
(atomic64_add(blocks, &F2FS_I_SB(inode)->compr_blocks))
(atomic64_sub(blocks, &F2FS_I_SB(inode)->compr_blocks))
(atomic_inc(&F2FS_I_SB(inode)->swapfile_inode))
(atomic_dec(&F2FS_I_SB(inode)->swapfile_inode))
(atomic_inc(&F2FS_I_SB(inode)->atomic_files))
(atomic_dec(&F2FS_I_SB(inode)->atomic_files))
int cur = atomic_read(&F2FS_I_SB(inode)->atomic_files); \
int max = atomic_read(&F2FS_I_SB(inode)->max_aw_cnt); \
atomic_set(&F2FS_I_SB(inode)->max_aw_cnt, cur); \
struct f2fs_sb_info *sbi = F2FS_I_SB(inode); \
struct f2fs_sb_info *sbi = F2FS_I_SB(inode); \
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_bug_on(F2FS_I_SB(inode), count == 0 || count > end_offset);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(src_inode);
src_blkaddr = f2fs_kvzalloc(F2FS_I_SB(src_inode),
do_replace = f2fs_kvzalloc(F2FS_I_SB(src_inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (unlikely(f2fs_cp_error(F2FS_I_SB(inode))))
if (!f2fs_is_checkpoint_ready(F2FS_I_SB(inode)))
f2fs_update_time(F2FS_I_SB(inode), REQ_TIME);
if (!f2fs_sb_has_casefold(F2FS_I_SB(inode)))
if (!f2fs_sb_has_compression(F2FS_I_SB(inode)))
f2fs_bug_on(F2FS_I_SB(inode), (fi->i_flags & F2FS_COMPR_FL) &&
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_balance_fs(F2FS_I_SB(inode), true);
f2fs_update_time(F2FS_I_SB(inode), REQ_TIME);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (!f2fs_sb_has_encrypt(F2FS_I_SB(inode)))
f2fs_update_time(F2FS_I_SB(inode), REQ_TIME);
if (!f2fs_sb_has_encrypt(F2FS_I_SB(file_inode(filp))))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (!f2fs_sb_has_encrypt(F2FS_I_SB(file_inode(filp))))
if (!f2fs_sb_has_encrypt(F2FS_I_SB(file_inode(filp))))
if (!f2fs_sb_has_encrypt(F2FS_I_SB(file_inode(filp))))
if (!f2fs_sb_has_encrypt(F2FS_I_SB(file_inode(filp))))
if (!f2fs_sb_has_encrypt(F2FS_I_SB(file_inode(filp))))
if (!f2fs_sb_has_encrypt(F2FS_I_SB(file_inode(filp))))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(file_inode(filp));
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(src);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
u32 sb_feature = le32_to_cpu(F2FS_I_SB(inode)->raw_super->feature);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (f2fs_sb_has_project_quota(F2FS_I_SB(inode)))
if (unlikely(f2fs_cp_error(F2FS_I_SB(inode))))
if (!f2fs_is_checkpoint_ready(F2FS_I_SB(inode)))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(file_inode(filp));
f2fs_update_time(F2FS_I_SB(inode), REQ_TIME);
if (!f2fs_sb_has_verity(F2FS_I_SB(inode))) {
f2fs_warn(F2FS_I_SB(inode),
if (!f2fs_sb_has_verity(F2FS_I_SB(file_inode(filp))))
if (!f2fs_sb_has_verity(F2FS_I_SB(file_inode(filp))))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (!f2fs_sb_has_compression(F2FS_I_SB(inode)))
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (unlikely(f2fs_cp_error(F2FS_I_SB(file_inode(file)))))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (!f2fs_sb_has_compression(F2FS_I_SB(inode)))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_bug_on(F2FS_I_SB(inode), IS_ERR(folio));
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (unlikely(f2fs_cp_error(F2FS_I_SB(file_inode(filp)))))
if (!f2fs_is_checkpoint_ready(F2FS_I_SB(file_inode(filp))))
struct f2fs_sb_info *sbi = F2FS_I_SB(file_inode(iocb->ki_filp));
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
buf = f2fs_getname(F2FS_I_SB(inode));
if (f2fs_lfs_mode(F2FS_I_SB(inode)) &&
get_pages(F2FS_I_SB(inode), F2FS_DIO_WRITE) &&
f2fs_update_iostat(F2FS_I_SB(inode), inode,
f2fs_update_iostat(F2FS_I_SB(inode), inode,
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_update_iostat(F2FS_I_SB(inode), inode,
struct f2fs_sb_info *sbi = F2FS_I_SB(file_inode(iocb->ki_filp));
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
!f2fs_is_valid_blkaddr(F2FS_I_SB(inode),
if (unlikely(f2fs_cp_error(F2FS_I_SB(inode)))) {
F2FS_I_SB(inode)->seq_file_ra_mul;
(test_opt(F2FS_I_SB(inode), COMPRESS_CACHE) &&
f2fs_invalidate_compress_pages(F2FS_I_SB(inode), inode->i_ino);
if (unlikely(f2fs_cp_error(F2FS_I_SB(file_inode(file)))))
if (!f2fs_is_checkpoint_ready(F2FS_I_SB(file_inode(file))))
if (unlikely(f2fs_cp_error(F2FS_I_SB(inode))))
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
f2fs_update_iostat(F2FS_I_SB(inode), inode,
f2fs_bug_on(F2FS_I_SB(inode), cache_only && IS_ENCRYPTED(inode));
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (unlikely(f2fs_cp_error(F2FS_I_SB(inode))))
if (time_to_inject(F2FS_I_SB(inode), FAULT_TRUNCATE))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_sb_has_inode_crtime(F2FS_I_SB(inode)) &&
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
.sbi = F2FS_I_SB(inode),
if (!check_valid_map(F2FS_I_SB(inode), segno, off)) {
if (!check_valid_map(F2FS_I_SB(inode), segno, off)) {
.sbi = F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(file_inode(filp));
if (!f2fs_pin_section(F2FS_I_SB(inode), segno))
ifolio = f2fs_get_inode_folio(F2FS_I_SB(inode), inode->i_ino);
.sbi = F2FS_I_SB(dn->inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_bug_on(F2FS_I_SB(inode), folio->index);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (!f2fs_sb_has_flexible_inline_xattr(F2FS_I_SB(dir)) &&
backup_dentry = f2fs_kmalloc(F2FS_I_SB(dir),
if (!f2fs_sb_has_flexible_inline_xattr(F2FS_I_SB(dir)) &&
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
if (!test_opt(F2FS_I_SB(inode), INLINE_DENTRY))
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
ifolio = f2fs_get_inode_folio(F2FS_I_SB(inode), inode->i_ino);
ifolio = f2fs_get_inode_folio(F2FS_I_SB(inode), inode->i_ino);
err = f2fs_get_node_info(F2FS_I_SB(inode), inode->i_ino, &ni, false);
f2fs_bug_on(F2FS_I_SB(inode), folio->index);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (f2fs_readonly(F2FS_I_SB(inode)->sb))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (f2fs_sb_has_flexible_inline_xattr(F2FS_I_SB(inode)))
if (f2fs_sb_has_project_quota(F2FS_I_SB(inode)) &&
if (f2fs_sb_has_inode_crtime(F2FS_I_SB(inode)) &&
if (f2fs_sb_has_compression(F2FS_I_SB(inode)) &&
f2fs_inode_chksum_set(F2FS_I_SB(inode), node_folio);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_warn(F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(old_dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
f2fs_warn(F2FS_I_SB(inode), "%s: inode (ino=%lx) has zero i_nlink",
set_sbi_flag(F2FS_I_SB(inode), SBI_NEED_FSCK);
f2fs_warn(F2FS_I_SB(inode), "Inconsistent encryption contexts: %lu/%lu",
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(old_dir);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
folio = f2fs_get_node_folio(F2FS_I_SB(dn->inode), dn->nid,
folios[i] = f2fs_get_node_folio(F2FS_I_SB(dn->inode), nid[i],
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (unlikely(f2fs_cp_error(F2FS_I_SB(inode)))) {
f2fs_warn(F2FS_I_SB(inode),
set_sbi_flag(F2FS_I_SB(inode), SBI_NEED_FSCK);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
ifolio = f2fs_get_inode_folio(F2FS_I_SB(inode), inode->i_ino);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_bug_on(F2FS_I_SB(dn->inode), 1);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(dn->inode);
entry = add_fsync_inode(F2FS_I_SB(inode), dir_list,
err = f2fs_acquire_orphan_inode(F2FS_I_SB(inode));
f2fs_notice(F2FS_I_SB(inode), "%s: ino = %x, name = %s, dir = %lx, err = %d",
set_sbi_flag(F2FS_I_SB(inode), SBI_QUOTA_NEED_REPAIR);
if (f2fs_sb_has_project_quota(F2FS_I_SB(inode)) &&
f2fs_notice(F2FS_I_SB(inode), "recover_inode: ino = %x, name = %s, inline = %x",
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
return f2fs_rw_hint_to_seg_type(F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_submit_merged_write_cond(F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
stat_dec_dirty_inode(F2FS_I_SB(inode), DIRTY_META);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
if (time_to_inject(F2FS_I_SB(inode), FAULT_DQUOT_INIT))
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_warn(F2FS_I_SB(inode), "unknown verity xattr format");
f2fs_warn(F2FS_I_SB(inode), "invalid verity xattr");
f2fs_handle_error(F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
txattr_addr = xattr_alloc(F2FS_I_SB(inode), *base_size, is_inline);
f2fs_err(F2FS_I_SB(inode), "lookup inode (%lu) has corrupted xattr",
set_sbi_flag(F2FS_I_SB(inode), SBI_NEED_FSCK);
f2fs_handle_error(F2FS_I_SB(inode),
xattr_free(F2FS_I_SB(inode), txattr_addr, *is_inline);
txattr_addr = f2fs_kzalloc(F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
xattr_free(F2FS_I_SB(inode), base_addr, is_inline);
f2fs_err(F2FS_I_SB(inode), "list inode (%lu) has corrupted xattr",
set_sbi_flag(F2FS_I_SB(inode), SBI_NEED_FSCK);
f2fs_handle_error(F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
f2fs_notice(F2FS_I_SB(inode),
f2fs_err(F2FS_I_SB(inode), "set inode (%lu) has corrupted xattr",
set_sbi_flag(F2FS_I_SB(inode), SBI_NEED_FSCK);
f2fs_handle_error(F2FS_I_SB(inode),
f2fs_err(F2FS_I_SB(inode), "inode (%lu) has invalid last xattr entry, entry_size: %zu",
set_sbi_flag(F2FS_I_SB(inode), SBI_NEED_FSCK);
f2fs_handle_error(F2FS_I_SB(inode),
struct f2fs_sb_info *sbi = F2FS_I_SB(inode);