IS_PF
if (IS_PF(bp)) {
if (IS_PF(bp) && !CHIP_IS_E1(bp))
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp))
if (IS_PF(bp) && bp->pending_max) {
if (IS_PF(bp))
if (IS_PF(bp) && SHMEM2_HAS(bp, drv_capabilities_flag)) {
if (IS_PF(bp) && !bnx2x_wait_sp_comp(bp, ~0x0UL)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp) && !BP_NOMCP(bp)) {
if (IS_PF(bp))
if (IS_PF(bp) && SHMEM2_HAS(bp, drv_capabilities_flag)) {
if (IS_PF(bp) && bp->recovery_state != BNX2X_RECOVERY_DONE &&
if (IS_PF(bp) && !BP_NOMCP(bp)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp) && !BP_NOMCP(bp))
if (IS_PF(bp) && bnx2x_chk_parity_attn(bp, &global, false)) {
if (IS_PF(bp) &&
if (IS_PF(bp) && SHMEM2_HAS(bp, curr_cfg))
if (IS_PF(bp))
if (IS_PF(bp) && SHMEM2_HAS(bp, curr_cfg))
if (IS_PF(bp) && (level & BNX2X_MSG_MCP))
netdev->ethtool_ops = (IS_PF(bp)) ?
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp) && !BP_NOMCP(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp) && !(pci_resource_flags(pdev, 2) & IORESOURCE_MEM)) {
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
IS_PF(bp) ? "physical" : "virtual");
if (IS_PF(bp) && bp->doorbells)
if (IS_PF(bp) &&
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp)) {
if (IS_PF(bp) && SHMEM2_HAS(bp, drv_capabilities_flag)) {
if (IS_PF(bp)) {
if (IS_PF(bp) &&
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp))
if (IS_PF(bp) && disable_int)
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp)) {
if (IS_PF(bp) && bnx2x_storm_stats_validate_counters(bp))
if (IS_PF(cdev)) {
if (IS_PF(cdev) && (test_bit(QED_MF_8021Q_TAGGING,
if (IS_PF(cdev)) {
if (IS_PF(cdev) && !cdev->recov_in_prog) {
if (IS_PF(cdev))
if (IS_PF(cdev)) {
if (IS_PF(cdev))
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev))
else if (IS_PF(p_hwfn->cdev))
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev))
if (IS_PF(p_hwfn->cdev))
if (IS_PF(p_hwfn->cdev))
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev) && !b_legacy_vf)
p_ptt = IS_PF(cdev) ? qed_ptt_acquire_context(p_hwfn, is_atomic)
if (IS_PF(cdev)) {
if (IS_PF(cdev) && !p_ptt) {
b_get_port_stats = IS_PF(cdev) && IS_LEAD_HWFN(p_hwfn);
if (IS_PF(cdev) && p_ptt)
struct qed_ptt *p_ptt = IS_PF(cdev) ? qed_ptt_acquire(p_hwfn)
if (IS_PF(cdev) && !p_ptt) {
if (IS_PF(cdev))
if (IS_PF(cdev)) {
if (IS_PF(cdev))
if (IS_PF(cdev)) {
if (IS_PF(cdev))
if (IS_PF(cdev))
if (IS_PF(cdev))
if (IS_PF(p_hwfn->cdev) && !b_legacy_vf) {
if (!p_cid && IS_PF(p_hwfn->cdev) && !b_legacy_vf)
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(p_hwfn->cdev)) {
if (IS_PF(cdev)) {
if (IS_PF(cdev))
if (IS_PF(cdev)) {
if (IS_PF(cdev)) {
if (IS_PF(cdev)) {
if (IS_PF(cdev))
if (IS_PF(cdev))
if (IS_PF(cdev) && (cdev->num_hwfns == 1) &&
if (IS_PF(cdev)) {
if (IS_PF(cdev))
if (IS_PF(cdev))
if (IS_PF(p_hwfn->cdev)) {
if (!IS_PF(hwfn->cdev)) {
if (IS_PF(hwfn->cdev) && qed_mcp_is_ext_speed_supported(hwfn)) {
if (IS_PF(cdev)) {
if (IS_PF(cdev) && !(pci_resource_flags(pdev, 2) & IORESOURCE_MEM)) {
if (IS_PF(cdev)) {
if (IS_PF(cdev) && !pdev->pm_cap)
if (IS_PF(cdev)) {
if (IS_PF(cdev)) {
if (IS_PF(cdev)) {
if ((IS_PF(cdev) && rc > 0) || (IS_VF(cdev) && rc == cnt)) {
if (IS_PF(p_hwfn->cdev) && !IS_PF_SRIOV(p_hwfn))
if (IS_PF(cdev))