ATA_SHIFT_UDMA
type = ATA_SHIFT_UDMA;
case ATA_SHIFT_UDMA:
if (xfer_mask & (0xF8 << ATA_SHIFT_UDMA))
xfer_mask &= ~(0xF8 << ATA_SHIFT_UDMA);
force_xfer(udma0, ATA_SHIFT_UDMA + 0),
force_xfer(udma16, ATA_SHIFT_UDMA + 0),
force_xfer(udma/16, ATA_SHIFT_UDMA + 0),
force_xfer(udma1, ATA_SHIFT_UDMA + 1),
force_xfer(udma25, ATA_SHIFT_UDMA + 1),
force_xfer(udma/25, ATA_SHIFT_UDMA + 1),
force_xfer(udma2, ATA_SHIFT_UDMA + 2),
force_xfer(udma33, ATA_SHIFT_UDMA + 2),
force_xfer(udma/33, ATA_SHIFT_UDMA + 2),
force_xfer(udma3, ATA_SHIFT_UDMA + 3),
force_xfer(udma44, ATA_SHIFT_UDMA + 3),
force_xfer(udma/44, ATA_SHIFT_UDMA + 3),
force_xfer(udma4, ATA_SHIFT_UDMA + 4),
force_xfer(udma66, ATA_SHIFT_UDMA + 4),
force_xfer(udma/66, ATA_SHIFT_UDMA + 4),
force_xfer(udma5, ATA_SHIFT_UDMA + 5),
force_xfer(udma100, ATA_SHIFT_UDMA + 5),
force_xfer(udma/100, ATA_SHIFT_UDMA + 5),
force_xfer(udma6, ATA_SHIFT_UDMA + 6),
force_xfer(udma133, ATA_SHIFT_UDMA + 6),
force_xfer(udma/133, ATA_SHIFT_UDMA + 6),
force_xfer(udma7, ATA_SHIFT_UDMA + 7),
((udma_mask << ATA_SHIFT_UDMA) & ATA_MASK_UDMA);
*udma_mask = (xfer_mask & ATA_MASK_UDMA) >> ATA_SHIFT_UDMA;
{ ATA_SHIFT_UDMA, ATA_NR_UDMA_MODES, XFER_UDMA_0 },
if ((acpi->mask[0] | acpi->mask[1]) & (0xF8 << ATA_SHIFT_UDMA))
if (xfer_mask & (0xF8 << ATA_SHIFT_UDMA))
mask &= ~(0xF8 << ATA_SHIFT_UDMA);
mask &= ~(0xF0 << ATA_SHIFT_UDMA);
mask &= ~(0xE0 << ATA_SHIFT_UDMA);
mask &= ~(0xE0 << ATA_SHIFT_UDMA);
mask &= ~((0xE << ATA_SHIFT_UDMA) | ATA_MASK_MWDMA);
mask &= ~((0xE << ATA_SHIFT_UDMA) | ATA_MASK_MWDMA);
mask &= ~ (1 << (6 + ATA_SHIFT_UDMA));
mask &= ~(0xE0 << ATA_SHIFT_UDMA);
mask &= ~(0xC0 << ATA_SHIFT_UDMA);
ATA_MASK_UDMA = ((1U << ATA_NR_UDMA_MODES) - 1) << ATA_SHIFT_UDMA,