IS_PF
if (IS_PF(sc) && !CHIP_IS_E1(sc)) {
if (IS_PF(sc) && !CHIP_REV_IS_SLOW(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc) && !(sc->flags & BXE_NO_PULSE)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc) && SHMEM2_HAS(sc, drv_capabilities_flag)) {
if (IS_PF(sc) && !bxe_wait_sp_comp(sc, ~0x0UL)) {
if (IS_PF(sc)) {
if (IS_PF(sc) && !BXE_NOMCP(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc) && !BXE_NOMCP(sc)) {
if (IS_PF(sc) && SHMEM2_HAS(sc, drv_capabilities_flag)) {
if (IS_PF(sc) && sc->recovery_state != BXE_RECOVERY_DONE &&
if (IS_PF(sc) && !sc->grcdump_done) {
if (IS_PF(sc)) {
if (IS_PF(sc)) {
if (IS_PF(sc) && bxe_chk_parity_attn(sc, &global, FALSE)) {
if (IS_PF(sc) && !bxe_clear_pf_load(sc) &&
if (IS_PF(sc)) {
if (IS_PF(sc) && bxe_storm_stats_validate_counters(sc)) {
if (IS_PF(p_dev)) {
if (IS_PF(p_dev) && (OSAL_TEST_BIT(ECORE_MF_8021Q_TAGGING,
if (IS_PF(p_dev)) {
if (IS_PF(p_dev)) {
if (IS_PF(p_dev) && !p_dev->recov_in_prog) {
if (IS_PF(p_dev))
if (IS_PF(p_dev)) {
if (IS_PF(p_dev))
if (IS_PF(p_hwfn->p_dev)) {
if (IS_PF(p_hwfn->p_dev))
else if (IS_PF(p_hwfn->p_dev))
if (IS_PF(p_hwfn->p_dev)) {
if (IS_PF(p_hwfn->p_dev)) {
if (IS_PF(p_hwfn->p_dev))
if (IS_PF(p_hwfn->p_dev))
if (IS_PF(p_hwfn->p_dev))
if (IS_PF(p_hwfn->p_dev))
if (IS_PF(p_hwfn->p_dev)) {
if (IS_PF(p_hwfn->p_dev)) {
if (IS_PF(p_hwfn->p_dev)) {
if (IS_PF(p_hwfn->p_dev)) {
struct ecore_ptt *p_ptt = IS_PF(p_dev) ?
if (IS_PF(p_dev)) {
if (IS_PF(p_dev) && !p_ptt) {
b_get_port_stats = IS_PF(p_dev) && IS_LEAD_HWFN(p_hwfn);
if (IS_PF(p_dev) && p_ptt)
struct ecore_ptt *p_ptt = IS_PF(p_dev) ?
if (IS_PF(p_dev) && !p_ptt) {
if (IS_PF(p_dev))
if (IS_PF(p_hwfn->p_dev) && !b_legacy_vf)
if (IS_PF(p_hwfn->p_dev) && !b_legacy_vf) {
if ((p_cid == OSAL_NULL) && IS_PF(p_hwfn->p_dev) && !b_legacy_vf)
if (IS_PF(p_hwfn->p_dev)) {