__mask
unsigned long __res, __mask; \
__mask = BIT_MASK(nr); \
: "r" (mod(__mask)) \
((__res & __mask) != 0); \
ulong __mask = GENMASK(((sizeof(*p)) * BITS_PER_BYTE) - 1, 0) \
"rJ" (__mask), "rJ" (~__mask) \
r = (__typeof__(*(p)))((__retx & __mask) >> __s); \
ulong __mask = GENMASK(((sizeof(*p)) * BITS_PER_BYTE) - 1, 0) \
ulong __s, __val, __mask;
__mask = 0xff << __s;
: "r" (__val), "r" (__mask)
__mask = 0xffff << __s;
: "r" (__val), "r" (__mask)
: "rJ" (__newx), "rJ" (~__mask), "rJ" (__ptr32b) \
r = (__typeof__(*(p)))((__retx & __mask) >> __s); \
unsigned long __mask; \
: "=Q" (__mask) : "i" (__or) : "memory"); \
__mask; \
unsigned long __mask; \
: "=Q" (__mask) : "i" (__and) : "memory"); \
__mask; \
unsigned long __mask; \
:"=r" (__mask) \
__mask; })
({ unsigned long __mask = ~0UL; \
case 1: __mask = 0xffUL; break; \
case 2: __mask = 0xffffUL; break; \
case 4: __mask = 0xffffffffUL; break; \
__mask & __eax; \
#define for_each_pipe_masked(__dev_priv, __p, __mask) \
for_each_if((__mask) & BIT(__p))
#define for_each_cpu_transcoder_masked(__dev_priv, __t, __mask) \
for_each_if ((__mask) & BIT(__t))
#define for_each_dbuf_slice_in_mask(__dev_priv, __slice, __mask) \
for_each_if((__mask) & BIT(__slice))
#define for_each_power_domain(__domain, __mask) \
for_each_if(test_bit((__domain), (__mask)->bits))
#define REG_FIELD_PREP16(__mask, __val) \
((u16)((((typeof(__mask))(__val) << __bf_shf(__mask)) & (__mask)) + \
BUILD_BUG_ON_ZERO(!__is_constexpr(__mask)) + \
BUILD_BUG_ON_ZERO((__mask) == 0 || (__mask) > U16_MAX) + \
BUILD_BUG_ON_ZERO(!IS_POWER_OF_2((__mask) + (1ULL << __bf_shf(__mask)))) + \
BUILD_BUG_ON_ZERO(__builtin_choose_expr(__is_constexpr(__val), (~((__mask) >> __bf_shf(__mask)) & (__val)), 0))))
#define REG_FIELD_GET8(__mask, __val) ((u8)FIELD_GET(__mask, __val))
#define REG_FIELD_MAX(__mask) ((u32)FIELD_MAX(__mask))
#define REG_FIELD_PREP(__mask, __val) \
((u32)((((typeof(__mask))(__val) << __bf_shf(__mask)) & (__mask)) + \
BUILD_BUG_ON_ZERO(!__is_constexpr(__mask)) + \
BUILD_BUG_ON_ZERO((__mask) == 0 || (__mask) > U32_MAX) + \
BUILD_BUG_ON_ZERO(!IS_POWER_OF_2((__mask) + (1ULL << __bf_shf(__mask)))) + \
BUILD_BUG_ON_ZERO(__builtin_choose_expr(__is_constexpr(__val), (~((__mask) >> __bf_shf(__mask)) & (__val)), 0))))
#define REG_FIELD_PREP8(__mask, __val) \
((u8)((((typeof(__mask))(__val) << __bf_shf(__mask)) & (__mask)) + \
BUILD_BUG_ON_ZERO(!__is_constexpr(__mask)) + \
BUILD_BUG_ON_ZERO((__mask) == 0 || (__mask) > U8_MAX) + \
BUILD_BUG_ON_ZERO(!IS_POWER_OF_2((__mask) + (1ULL << __bf_shf(__mask)))) + \
BUILD_BUG_ON_ZERO(__builtin_choose_expr(__is_constexpr(__val), (~((__mask) >> __bf_shf(__mask)) & (__val)), 0))))
#define REG_FIELD_GET(__mask, __val) ((u32)FIELD_GET(__mask, __val))
#define REG_FIELD_GET64(__mask, __val) ((u64)FIELD_GET(__mask, __val))
#define mask(bitfield) __mask(bitfield)
(((x) >> (src) << (0 ? bitfield)) & __mask(src, bitfield))
((x & __mask(src, bitfield)) >> (0 ? bitfield) << (src))
#define panthor_fw_toggle_reqs(__iface, __in_reg, __out_reg, __mask) \
__new_val = ((__out_val ^ (__mask)) & (__mask)) | (__cur_val & ~(__mask)); \
#define panthor_fw_update_reqs(__iface, __in_reg, __val, __mask) \
__new_val = (__cur_val & ~(__mask)) | ((__val) & (__mask)); \
#define panthor_fw_update_reqs64(__iface, __in_reg, __val, __mask) \
__new_val = (__cur_val & ~(__mask)) | ((__val) & (__mask)); \
#define panthor_pwr_domain_power_off(__ptdev, __domain, __mask, __timeout_us) \
panthor_pwr_domain_transition(__ptdev, PWR_COMMAND_POWER_DOWN, __domain, __mask, \
#define panthor_pwr_domain_power_on(__ptdev, __domain, __mask, __timeout_us) \
panthor_pwr_domain_transition(__ptdev, PWR_COMMAND_POWER_UP, __domain, __mask, __timeout_us)
const u32 __mask = (__size < 32 ? 1 << __size : 0) - 1;
return __res & __mask;
#define DP_AND(__mask, fmt, ...) \
if (unlikely((bp->msg_enable & (__mask)) == __mask)) \
#define DP_CONT(__mask, fmt, ...) \
if (unlikely(bp->msg_enable & (__mask))) \
#define DP(__mask, fmt, ...) \
if (unlikely(bp->msg_enable & (__mask))) \
int __mask; \
__mask = SMC_inw(ioaddr, INT_REG(lp)) & ~0xff; \
SMC_outw(lp, __mask | (x), ioaddr, INT_REG(lp)); \
#define FIELD_CHECK(__mask, __type) \
BUILD_BUG_ON(!(__mask) || \
!is_valid_mask(__mask) || \
(__mask) != (__type)(__mask)) \
#define FIELD8(__mask) \
FIELD_CHECK(__mask, u8); \
compile_ffs8(__mask), (__mask) \
#define FIELD16(__mask) \
FIELD_CHECK(__mask, u16); \
compile_ffs16(__mask), (__mask) \
#define FIELD32(__mask) \
FIELD_CHECK(__mask, u32); \
compile_ffs32(__mask), (__mask) \
#define DEFINE_MUXREG(__pins, __muxreg, __mask, __ste) \
.mask = __mask, \
.val = __ste ? __mask : 0, \
#define DEFINE_2_MUXREG(__pins, __muxreg1, __muxreg2, __mask, __ste1, __ste2) \
.mask = __mask, \
.val = __ste1 ? __mask : 0, \
.mask = __mask, \
.val = __ste2 ? __mask : 0, \
auto __mask = (mask); \
typeof(__mask) __val = (val); \
unsigned int __shift = BITS_PER_TYPE(__mask) <= 32 ? \
__ffs(__mask) : __ffs64(__mask); \
(__val << __shift) & __mask; \
auto __mask = (mask); \
typeof(__mask) __reg = (reg); \
unsigned int __shift = BITS_PER_TYPE(__mask) <= 32 ? \
__ffs(__mask) : __ffs64(__mask); \
(__reg & __mask) >> __shift; \
#define bpf_for_each_reg_in_vstate_mask(__vst, __state, __reg, __mask, __expr) \
bpf_for_each_spilled_reg(___j, __state, __reg, __mask) { \
typeof(_mask) __mask = _mask; \
__BF_FIELD_CHECK(__mask, ((u16)0U), __val, \
(((typeof(__mask))(__val) << __bf_shf(__mask)) & (__mask)) | \
((__mask) << 16); \