cqe_type
u8 cqe_type;
u32 cqe_type : 8;
u32 cqe_type : 8;
#define CQE_TYPE_START(cqe_type) ((cqe_type) == RX_ETH_CQE_TYPE_ETH_START_AGG)
#define CQE_TYPE_STOP(cqe_type) ((cqe_type) == RX_ETH_CQE_TYPE_ETH_STOP_AGG)
#define CQE_TYPE_SLOW(cqe_type) ((cqe_type) == RX_ETH_CQE_TYPE_ETH_RAMROD)
#define CQE_TYPE_FAST(cqe_type) ((cqe_type) == RX_ETH_CQE_TYPE_ETH_FASTPATH)
(cq_desc->cqe_type != CQE_TYPE_SEND)) {
switch (cq_desc->cqe_type) {
u64 cqe_type:4; /* W0 */
u64 cqe_type:4; /* W0 */
u64 cqe_type:4; /* W0 */
u64 cqe_type:4;
u64 cqe_type:4; /* W0 */
u64 cqe_type:4; /* W0 */
u64 cqe_type:4; /* W0 */
u64 cqe_type:4; /* W0 */
u64 cqe_type:4;
u64 cqe_type:4;
u64 cqe_type : 4;
if (cqe->hdr.cqe_type == NIX_XQE_TYPE_INVALID ||
cqe->hdr.cqe_type = NIX_XQE_TYPE_INVALID;
cqe->hdr.cqe_type = NIX_XQE_TYPE_INVALID;
if (cqe_hdr->cqe_type == NIX_XQE_TYPE_INVALID)
switch (cqe_oob->cqe_hdr.cqe_type) {
cqe_oob->cqe_hdr.cqe_type);
cqe_oob->cqe_hdr.cqe_type);
switch (oob->cqe_hdr.cqe_type) {
oob->cqe_hdr.cqe_type);
u8 cqe_type;
cqe_type = cqe->rx_cqe_sp.type;
if (cqe_type == CORE_RX_CQE_TYPE_SLOW_PATH)
if (unlikely(cqe_type != CORE_RX_CQE_TYPE_REGULAR)) {
cqe_type);
enum eth_rx_cqe_type cqe_type;
cqe_type = cqe->fast_path_regular.type;
if (unlikely(cqe_type == ETH_RX_CQE_TYPE_SLOW_PATH)) {
if (cqe_type != ETH_RX_CQE_TYPE_REGULAR)
return qede_rx_process_tpa_cqe(edev, fp, rxq, cqe, cqe_type);
if (cqe->cqe_common.cqe_type == ISCSI_CQE_TYPE_UNSOLICITED) {
if (cqe->cqe_common.cqe_type == ISCSI_CQE_TYPE_UNSOLICITED) {
if (cqe->cqe_common.cqe_type == ISCSI_CQE_TYPE_UNSOLICITED) {
comp_type = cqe->cqe_common.cqe_type;
switch (cqe->cqe_common.cqe_type) {
u8 cqe_type;
u8 cqe_type;
u8 cqe_type;
u8 cqe_type;
u32 cqe_type : 6;