AT_GID
if (lr->lr_mask & AT_GID) {
if (mask & (AT_UID|AT_GID))
vattr.va_mask = AT_MODE | AT_UID | AT_GID;
if (vap->va_mask & AT_GID)
ASSERT((protocol & AT_UID) || (protocol & AT_GID));
devpts_set_id, AT_UID|AT_GID));
AT_TYPE|AT_MODE|AT_UID|AT_GID, /* va_mask */
AT_TYPE|AT_MODE|AT_UID|AT_GID, /* va_mask */
AT_TYPE|AT_MODE|AT_UID|AT_GID, /* va_mask */
vattr.va_mask = AT_TYPE|AT_MODE|AT_UID|AT_GID;
vattr.va_mask = AT_TYPE|AT_MODE|AT_UID|AT_GID;
if (mask & AT_GID)
if ((mask & AT_UID) || (mask & AT_GID)) {
if (mask & AT_GID)
if ((protocol & AT_UID) || (protocol & AT_GID)) {
if (mask & (AT_MODE | AT_UID | AT_GID | AT_CTIME)) {
AT_TYPE|AT_MODE|AT_UID|AT_GID, /* va_mask */
vattr.va_mask = AT_TYPE|AT_MODE|AT_UID|AT_GID;
AT_TYPE|AT_MODE|AT_UID|AT_GID, /* va_mask */
vattr.va_mask = AT_TYPE|AT_MODE|AT_UID|AT_GID;
AT_TYPE|AT_MODE|AT_SIZE|AT_UID|AT_GID|AT_RDEV, /* va_mask */
AT_TYPE|AT_MODE|AT_UID|AT_GID, /* va_mask */
AT_TYPE|AT_MODE|AT_SIZE|AT_UID|AT_GID|AT_RDEV, /* va_mask */
if (mask & AT_GID)
if (mask & (AT_MODE | AT_UID | AT_GID | AT_MTIME))
if (vap->va_mask & (AT_MODE|AT_UID|AT_GID|AT_ATIME|AT_MTIME)) {
(AT_MODE|AT_UID|AT_GID|AT_ATIME|AT_MTIME)) == 0)
if (vap->va_mask & (AT_MODE | AT_UID | AT_GID))
persist = (vap->va_mask & (AT_MODE | AT_UID | AT_GID));
if (mask & AT_GID)
if (mask & (AT_MODE | AT_UID | AT_GID | AT_MTIME)) {
if (mask & AT_GID)
vattr.va_mask = AT_MODE | AT_UID | AT_GID;
if (mask & AT_MODE|AT_UID|AT_GID) {
if (mask & AT_GID)
vap->va_mask |= AT_GID;
if (mask & (AT_UID | AT_GID | AT_MODE)) {
if (mask & (AT_UID | AT_GID)) {
vattr.va_mask |= AT_GID;
(va->va_mask & ~(AT_GID | AT_SIZE))) {
va->va_mask &= ~(AT_GID | AT_SIZE);
va->va_mask = AT_GID;
va->va_mask = AT_GID;
va->va_mask |= AT_MODE|AT_GID;
va->va_mask = AT_GID;
case AT_GID:
nfs4_ntov_map[i].vbit == AT_GID ||
} else if (nfs4_ntov_map[i].vbit == AT_GID) {
if (vmask & AT_GID)
if (vmask & AT_GID)
{ FATTR4_OWNER_GROUP_MASK, AT_GID, FALSE, FALSE,
case AT_GID:
if (!(bva.va_mode & VSGID) && (vap->va_mask & AT_GID) == 0) {
vap->va_mask |= AT_GID;
if ((vap->va_mask & (AT_UID | AT_GID)) !=
(AT_UID | AT_GID)) {
vap->va_mask = AT_UID | AT_GID;
if (sarg->rdattr_error && !(sarg->vap->va_mask & AT_GID)) {
ASSERT(sarg->vap->va_mask & AT_GID);
ASSERT(sarg->vap->va_mask & AT_GID);
ASSERT(sarg->vap->va_mask & AT_GID);
_v.va_mask = AT_GID;
(in_va->va_mask & ~(AT_GID | AT_SIZE))) {
in_va->va_mask &= ~(AT_GID | AT_SIZE);
if (mask & (AT_UID | AT_GID | AT_MODE)) {
if (mask & (AT_UID | AT_GID)) {
dva.va_mask = AT_MODE | AT_GID;
va->va_mask |= AT_GID;
_v.va_mask = AT_GID;
va->va_mask = AT_GID;
in_va->va_mask |= AT_GID;
vap->va_mask |= AT_GID;
vap->va_mask |= AT_GID;
vap->va_mask |= AT_GID;
vap->va_mask |= AT_GID;
vap->va_mask |= AT_GID;
if (!(mask & AT_GID))
if (!(mask & AT_GID))
va.va_mask = AT_MODE | AT_GID;
if ((mask & (AT_UID | AT_GID | AT_MODE)) && (mi->mi_flags & MI_ACL)) {
if (mask & (AT_UID | AT_GID)) {
va.va_mask = AT_MODE | AT_UID | AT_GID;
vattr.va_mask |= AT_GID;
vattr.va_mask = AT_GID;
va->va_mask |= AT_MODE|AT_GID;
va->va_mask = AT_GID;
if (mask & (AT_NOSET | AT_UID | AT_GID)) {
if (vap->va_mask & AT_GID) {
if (vap->va_mask & (AT_UID | AT_GID)) {
mask &= ~(AT_UID | AT_GID);
oldva.va_mask |= AT_UID | AT_GID;
if (mask & (AT_UID | AT_GID)) {
va.va_mask = AT_TYPE | AT_MODE | AT_UID | AT_GID;
AT_GID,
if ((va->va_mask & AT_GID) &&
rattr.va_mask = AT_MODE|AT_UID|AT_GID; /* Hint to getattr */
va.va_mask = AT_UID|AT_GID;
if (mask & AT_GID)
if (mask & (AT_UID | AT_GID | AT_MODE | AT_MTIME))
if ((vap->va_mask & AT_GID) &&
if (mask & (AT_UID|AT_GID)) {
if (mask & AT_GID) {
if (!(mask & (AT_MODE|AT_UID|AT_GID)))
if (mask & AT_GID) {
if (op != DE_ATTRDIR && (vap->va_mask & AT_GID) &&
if (mask & (AT_UID|AT_GID)) {
if (mask & AT_GID) {
#define PARENT_ATTRMASK (AT_UID|AT_GID|AT_RDEV|AT_CTIME|AT_MTIME)
xvattr.xva_vattr.va_mask |= (AT_UID|AT_GID);
xvattr.xva_vattr.va_mask |= AT_GID;
if (vap->va_mask & AT_GID) {
va.va_mask = AT_TYPE | AT_MODE | AT_UID | AT_GID;
vattr.va_mask = AT_MODE|AT_UID|AT_GID|AT_TYPE;
if ((mask_applied & AT_GID) && IS_EPHEMERAL(vap->va_gid))
zfs_init_vattr(&xva.xva_vattr, AT_TYPE | AT_MODE | AT_UID | AT_GID,
zfs_init_vattr(&xva.xva_vattr, AT_TYPE | AT_MODE | AT_UID | AT_GID,
if ((vap->va_mask & (AT_UID | AT_GID)) != 0) {
((mask & AT_GID) && IS_EPHEMERAL(vap->va_gid)) ||
((mask & (AT_SIZE|AT_UID|AT_GID|AT_MTIME|AT_MODE)) ||
if (mask & (AT_UID|AT_GID)) {
int idmask = (mask & (AT_UID|AT_GID));
take_group = (mask & AT_GID) &&
if (((idmask == (AT_UID|AT_GID)) && take_owner && take_group) ||
((idmask == AT_GID) && take_group)) {
trim_mask = (mask & (AT_UID|AT_GID));
if ((mask & (AT_UID | AT_GID)) || projid != ZFS_INVALID_PROJID) {
if (mask & AT_GID) {
if (mask & (AT_UID|AT_GID|AT_MODE)) {
if (mask & (AT_UID|AT_GID|AT_MODE)) {
if (mask & (AT_UID|AT_GID)) {
if (mask & AT_GID) {
vattr.va_mask = AT_MODE|AT_UID|AT_GID|AT_TYPE;
vattr.va_mask = AT_MODE|AT_UID|AT_GID|AT_TYPE;
AT_GID | \
AT_GID | \
AT_GID | \
vattrp->va_mask = AT_MODE | AT_UID | AT_GID | AT_SIZE;
if (mask & (AT_UID|AT_GID)) {
((mask & AT_GID) && vap->va_gid != ovap->va_gid &&
#define AT_ALL (AT_TYPE|AT_MODE|AT_UID|AT_GID|AT_FSID|AT_NODEID|\
#define AT_STAT (AT_MODE|AT_UID|AT_GID|AT_FSID|AT_NODEID|AT_NLINK|\
vattr.va_mask |= AT_GID;