urb_list
struct urb_list urbs;
struct urb *urb_list[MAX_BULK_BUFS];
usb_kill_urb(dev->urb_list[i]);
ret = usb_submit_urb(dev->urb_list[i], GFP_KERNEL);
if (dev->urb_list[i]) {
usb_free_urb(dev->urb_list[i]);
dev->urb_list[i] = usb_alloc_urb(0, GFP_KERNEL);
if (!dev->urb_list[i]) {
usb_free_urb(dev->urb_list[j]);
dev->urb_list[j] = NULL;
usb_fill_bulk_urb(dev->urb_list[i],
dev->urb_list[i]->transfer_flags = URB_NO_TRANSFER_DMA_MAP;
dev->urb_list[i]->transfer_dma = dev->dma_addr[i];
struct urb *urb_list[MAX_BULK_BUFS];
usb_kill_urb(s->urb_list[i]);
ret = usb_submit_urb(s->urb_list[i], GFP_ATOMIC);
if (s->urb_list[i]) {
usb_free_urb(s->urb_list[i]);
s->urb_list[i] = usb_alloc_urb(0, GFP_ATOMIC);
if (!s->urb_list[i]) {
usb_free_urb(s->urb_list[j]);
s->urb_list[j] = NULL;
usb_fill_bulk_urb(s->urb_list[i],
s->urb_list[i]->transfer_flags = URB_NO_TRANSFER_DMA_MAP;
s->urb_list[i]->transfer_dma = s->dma_addr[i];
struct urb *urb_list[MAX_NO_URBS_FOR_DATA_STREAM];
ret = usb_submit_urb(stream->urb_list[i], GFP_ATOMIC);
if (stream->urb_list[i]) {
usb_free_urb(stream->urb_list[i]);
stream->urb_list[i] = usb_alloc_urb(0, GFP_ATOMIC);
if (!stream->urb_list[i]) {
usb_free_urb(stream->urb_list[j]);
usb_fill_bulk_urb(stream->urb_list[i],
stream->urb_list[i] = usb_alloc_urb(
if (!stream->urb_list[i]) {
usb_free_urb(stream->urb_list[j]);
urb = stream->urb_list[i];
usb_kill_urb(stream->urb_list[i]);
struct urb *urb_list[MAX_NO_URBS_FOR_DATA_STREAM];
stream->urb_list[i] = usb_alloc_urb(0, GFP_KERNEL);
if (!stream->urb_list[i]) {
usb_free_urb(stream->urb_list[j]);
usb_fill_bulk_urb( stream->urb_list[i], stream->udev,
stream->urb_list[i]->transfer_flags = URB_NO_TRANSFER_DMA_MAP;
stream->urb_list[i]->transfer_dma = stream->dma_addr[i];
stream->urb_list[i] = usb_alloc_urb(stream->props.u.isoc.framesperurb, GFP_KERNEL);
if (!stream->urb_list[i]) {
usb_free_urb(stream->urb_list[j]);
urb = stream->urb_list[i];
if (stream->urb_list[i] != NULL) {
usb_free_urb(stream->urb_list[i]);
usb_kill_urb(stream->urb_list[i]);
if ((ret = usb_submit_urb(stream->urb_list[i],GFP_ATOMIC))) {
struct urb *urb_list[MAX_BULK_BUFS];
usb_kill_urb(dev->urb_list[i]);
ret = usb_submit_urb(dev->urb_list[i], GFP_KERNEL);
if (dev->urb_list[i]) {
usb_free_urb(dev->urb_list[i]);
dev->urb_list[i] = usb_alloc_urb(0, GFP_KERNEL);
if (!dev->urb_list[i]) {
usb_free_urb(dev->urb_list[j]);
usb_fill_bulk_urb(dev->urb_list[i],
dev->urb_list[i]->transfer_flags = URB_NO_TRANSFER_DMA_MAP;
dev->urb_list[i]->transfer_dma = dev->dma_addr[i];
list_add_tail(&urb->urb_list, &channel->list);
urb = list_entry(channel->list.next, struct urb, urb_list);
list_del(&urb->urb_list);
list_add(&urb->urb_list, &channel->list);
list_add_tail(&urb->urb_list, &channel->list);
if (!list_empty(&ep->urb_list))
INIT_LIST_HEAD(&endpoint->urb_list);
if (ep && !list_empty(&ep->urb_list))
list_add_tail(&urb->urb_list, &urb->ep->urb_list);
list_for_each(tmp, &urb->ep->urb_list) {
if (tmp == &urb->urb_list)
if (tmp != &urb->urb_list)
list_del_init(&urb->urb_list);
INIT_LIST_HEAD(&urb->urb_list);
urb = list_entry(local_list.next, struct urb, urb_list);
list_del_init(&urb->urb_list);
list_add_tail(&urb->urb_list, &bh->head);
list_for_each_entry_reverse(urb, &ep->urb_list, urb_list) {
while (!list_empty (&ep->urb_list)) {
if (!list_empty (&ep->urb_list)) {
urb = list_entry (ep->urb_list.prev, struct urb,
urb_list);
return list_empty(&anchor->urb_list);
list_add_tail(&urb->anchor_list, &anchor->urb_list);
list_empty(&anchor->urb_list);
INIT_LIST_HEAD(&urb->urb_list);
while (!list_empty(&anchor->urb_list)) {
victim = list_entry(anchor->urb_list.prev,
while (!list_empty(&anchor->urb_list)) {
victim = list_entry(anchor->urb_list.prev,
list_for_each_entry(lazarus, &anchor->urb_list, anchor_list) {
if (!list_empty(&anchor->urb_list)) {
victim = list_entry(anchor->urb_list.next, struct urb,
while (!list_empty(&anchor->urb_list)) {
victim = list_entry(anchor->urb_list.prev,
INIT_LIST_HEAD(&dev->ep0.urb_list);
BUG_ON(list_empty(&ep->hep->urb_list));
urb = container_of(ep->hep->urb_list.next,
struct urb, urb_list);
if (!list_empty(&ep->hep->urb_list))
BUG_ON(list_empty(&ep->hep->urb_list));
container_of(ep->hep->urb_list.next, struct urb, urb_list);
urb = container_of(ep->hep->urb_list.next,
struct urb, urb_list);
if (ep->hep->urb_list.next == &urb->urb_list)
for (i = 0; i < 100 && !list_empty(&hep->urb_list); i++)
if (!list_empty(&hep->urb_list))
list_for_each_entry(urb, &ep->urb_list, urb_list) {
if (list_empty(&ep->urb_list))
urb = list_first_entry(&ep->urb_list, struct urb,
urb_list);
list_for_each_entry_safe(urb, next, &ep->urb_list, urb_list) {
if (!list_empty(&ep->urb_list)) {
urb = list_first_entry(&ep->urb_list, struct urb, urb_list);
INIT_LIST_HEAD(&oxu->urb_list);
struct list_head urb_list; /* this is the head to urb
if (!list_empty(&hep->urb_list))
if (!list_empty(&hep->urb_list))
list_for_each_entry (urb, &ep->hep->urb_list, urb_list) {
if (unlikely(list_empty(&ep->hep->urb_list))) {
urb = container_of(ep->hep->urb_list.next, struct urb, urb_list);
if (!list_empty(&ep->hep->urb_list))
urb = container_of(ep->hep->urb_list.next, struct urb, urb_list);
->hep->urb_list.next,
struct urb, urb_list),
->hep->urb_list.next,
struct urb, urb_list),
if (ep->hep->urb_list.next != &urb->urb_list) {
struct list_head *urb_list)
list_add_tail(&urb_listitem->urb_list, urb_list);
LIST_HEAD(urb_list);
collect_qtds(hcd, qh, &urb_list);
list_for_each_entry_safe(urb_listitem, urb_listitem_next, &urb_list,
urb_list) {
struct list_head urb_list;
|| urb->urb_list.prev != &qh->hep->urb_list
if (ready && list_empty(&qh->hep->urb_list)) {
while (!list_empty(&hep->urb_list)) {
while (!list_empty(&hep->urb_list))
if (qh && list_empty(&qh->hep->urb_list)) {
queue = &qh->hep->urb_list;
return list_entry(queue->next, struct urb, urb_list);
struct urb_list urbs;
struct list_head urb_list;
INIT_LIST_HEAD(&anchor->urb_list);
struct list_head urb_list; /* list head for use by the urb's
struct list_head urb_list;
struct urb_list urbs;