get_cqe_opcode
while (get_cqe_opcode(scqe64) != MLX5_CQE_RESIZE_CQ) {
switch (get_cqe_opcode(cqe)) {
opcode = get_cqe_opcode(cqe64);
if (likely(get_cqe_opcode(cqe64) != MLX5_CQE_INVALID) &&
#define MLX5E_RX_ERR_CQE(cqe) (get_cqe_opcode(cqe) != MLX5_CQE_RESP_SEND)
get_cqe_opcode((struct mlx5_cqe64 *)err_cqe),
if (unlikely(get_cqe_opcode(cqe) != MLX5_CQE_REQ)) {
get_cqe_opcode(cqe));
if (last_wqe && unlikely(get_cqe_opcode(cqe) != MLX5_CQE_REQ)) {
get_cqe_opcode(cqe));
if (unlikely(get_cqe_opcode(cqe) == MLX5_CQE_REQ_ERR)) {
opcode = get_cqe_opcode(cqe);
if (unlikely(get_cqe_opcode(cqe) != MLX5_CQE_REQ)) {
get_cqe_opcode(cqe));
if ((get_cqe_opcode(&cqe) == MLX5_CQE_REQ) &&
u32 opcode = cqe ? get_cqe_opcode(cqe) : 0;
likely(get_cqe_opcode(cqe) == MLX5_CQE_REQ))) {
if (unlikely(get_cqe_opcode(cqe64) != MLX5_CQE_REQ)) {
mlx5_core_err(cq->mdev, "Bad OP in HWS SQ CQE: 0x%x\n", get_cqe_opcode(cqe64));
cqe_opcode = get_cqe_opcode(cqe);
opcode = get_cqe_opcode(cqe64);
if (get_cqe_opcode(cqe) == MLX5_CQE_REQ) {
if (likely(get_cqe_opcode(cqe64) != MLX5_CQE_INVALID) &&
if (likely(get_cqe_opcode(cqe64) != MLX5_CQE_INVALID) &&
opcode = get_cqe_opcode(cqe);
return get_cqe_opcode(cqe) + 1;