ib_umem_odp
struct ib_umem_odp *ib_umem_odp_alloc_implicit(struct ib_device *device,
struct ib_umem_odp *umem_odp;
struct ib_umem_odp *
ib_umem_odp_alloc_child(struct ib_umem_odp *root, unsigned long addr,
struct ib_umem_odp *odp_data;
struct ib_umem_odp *ib_umem_odp_get(struct ib_device *device,
struct ib_umem_odp *umem_odp;
umem_odp = kzalloc_obj(struct ib_umem_odp);
static void ib_umem_odp_free(struct ib_umem_odp *umem_odp)
void ib_umem_odp_release(struct ib_umem_odp *umem_odp)
int ib_umem_odp_map_dma_and_lock(struct ib_umem_odp *umem_odp, u64 user_virt,
void ib_umem_odp_unmap_dma_pages(struct ib_umem_odp *umem_odp, u64 virt,
static void ib_init_umem_implicit_odp(struct ib_umem_odp *umem_odp)
static int ib_init_umem_odp(struct ib_umem_odp *umem_odp,
struct ib_umem_odp *odp;
struct ib_umem_odp *odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *odp_imr = to_ib_umem_odp(imr->umem);
struct ib_umem_odp *odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp =
container_of(mni, struct ib_umem_odp, notifier);
struct ib_umem_odp *odp;
struct ib_umem_odp *umem_odp;
static int pagefault_real_mr(struct mlx5_ib_mr *mr, struct ib_umem_odp *odp,
struct ib_umem_odp *odp_imr, u64 user_va,
struct ib_umem_odp *umem_odp;
struct ib_umem_odp *odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *odp = to_ib_umem_odp(mr->umem);
static inline bool rxe_check_pagefault(struct ib_umem_odp *umem_odp, u64 iova,
static unsigned long rxe_odp_iova_to_index(struct ib_umem_odp *umem_odp, u64 iova)
static unsigned long rxe_odp_iova_to_page_offset(struct ib_umem_odp *umem_odp, u64 iova)
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp =
container_of(mni, struct ib_umem_odp, notifier);
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp;
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp;
struct ib_umem_odp *umem_odp = to_ib_umem_odp(mr->umem);
struct ib_umem_odp *umem_odp;
struct ib_umem_odp;
static inline struct ib_umem_odp *to_ib_umem_odp(struct ib_umem *umem)
return container_of(umem, struct ib_umem_odp, umem);
static inline unsigned long ib_umem_start(struct ib_umem_odp *umem_odp)
static inline unsigned long ib_umem_end(struct ib_umem_odp *umem_odp)
static inline size_t ib_umem_odp_num_pages(struct ib_umem_odp *umem_odp)
struct ib_umem_odp *
struct ib_umem_odp *ib_umem_odp_alloc_implicit(struct ib_device *device,
struct ib_umem_odp *
ib_umem_odp_alloc_child(struct ib_umem_odp *root_umem, unsigned long addr,
void ib_umem_odp_release(struct ib_umem_odp *umem_odp);
int ib_umem_odp_map_dma_and_lock(struct ib_umem_odp *umem_odp, u64 start_offset,
void ib_umem_odp_unmap_dma_pages(struct ib_umem_odp *umem_odp, u64 start_offset,
static inline struct ib_umem_odp *
static inline void ib_umem_odp_release(struct ib_umem_odp *umem_odp) {}
struct ib_umem_odp;