ib_umem
struct ib_umem *ib_umem_get_compat(struct bnxt_re_dev *rdev,
struct ib_umem *ib_umem_get_flags_compat(struct bnxt_re_dev *rdev,
static inline size_t ib_umem_num_pages_compat(struct ib_umem *umem)
struct ib_umem *umem;
struct ib_umem *umem;
struct scatterlist *get_ib_umem_sgl(struct ib_umem *umem, u32 *nmap)
static inline void bnxt_re_peer_mem_release(struct ib_umem *umem)
if (!IS_ERR(mr->ib_umem) && mr->ib_umem) {
bnxt_re_peer_mem_release(mr->ib_umem);
static int bnxt_re_get_page_shift(struct ib_umem *umem,
static int bnxt_re_get_num_pages(struct ib_umem *umem, u64 start, u64 length, int page_shift)
struct ib_umem *umem;
mr->ib_umem = umem;
bnxt_re_peer_mem_release(mr->ib_umem);
struct ib_umem *umem;
mr->ib_umem = umem;
bnxt_re_peer_mem_release(mr->ib_umem);
struct scatterlist *get_ib_umem_sgl(struct ib_umem *umem, u32 *nmap);
struct ib_umem *umem;
struct ib_umem *sumem;
struct ib_umem *rumem;
struct ib_umem *umem;
struct ib_umem *resize_umem;
struct ib_umem *ib_umem;
struct ib_umem *ib_umem_get_compat(struct bnxt_re_dev *rdev,
struct ib_umem *ib_umem_get_flags_compat(struct bnxt_re_dev *rdev,
static inline size_t ib_umem_num_pages_compat(struct ib_umem *umem);
static inline void bnxt_re_peer_mem_release(struct ib_umem *umem);
struct ib_umem *umem;
static inline size_t irdma_ib_umem_num_dma_blocks(struct ib_umem *umem, unsigned long pgsz, u64 iova)
struct ib_umem *region = iwmr->region;
struct ib_umem *region;
irdma_alloc_iwmr(struct ib_umem *region,
struct ib_umem *region;
struct ib_umem *region;
struct irdma_mr *irdma_alloc_iwmr(struct ib_umem *region,
struct ib_umem *umem;
struct ib_umem *resize_umem;
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_umem *umem);
struct ib_umem **umem, u64 buf_addr, int cqe)
struct ib_umem *umem;
struct ib_umem *umem)
void mlx5_ib_invalidate_range(struct ib_umem *umem, unsigned long start,
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_umem *resize_umem;
struct ib_umem *umem;
struct ib_umem *umem;
void mlx5_ib_cont_pages(struct ib_umem *umem, u64 addr,
void __mlx5_ib_populate_pas(struct mlx5_ib_dev *dev, struct ib_umem *umem,
void mlx5_ib_populate_pas(struct mlx5_ib_dev *dev, struct ib_umem *umem,
int mlx5_mr_ib_cont_pages(struct ib_umem *umem, u64 addr, int *count, int *shift);
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_umem *umem;
void __mlx5_ib_populate_pas(struct mlx5_ib_dev *dev, struct ib_umem *umem,
void mlx5_ib_populate_pas(struct mlx5_ib_dev *dev, struct ib_umem *umem,
void mlx5_ib_cont_pages(struct ib_umem *umem, u64 addr,
struct ib_umem *umem = mr->umem;
static int dma_map_mr_pas(struct mlx5_ib_dev *dev, struct ib_umem *umem,
static struct ib_umem *mr_umem_get(struct ib_pd *pd, u64 start, u64 length,
struct ib_umem *umem = ib_umem_get(pd->uobject->context, start, length,
static struct mlx5_ib_mr *reg_umr(struct ib_pd *pd, struct ib_umem *umem,
struct ib_umem *umem = mr->umem;
struct ib_umem *umem, int npages,
struct ib_umem *umem;
struct ib_umem *umem = base->ubuffer.umem;
struct ib_umem **umem,
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_umem *prod_umem;
struct ib_umem *umem;
qlnxr_populate_pbls(struct qlnxr_dev *dev, struct ib_umem *umem,
struct ib_umem *umem = container_of(work, struct ib_umem, work);
void ib_umem_release(struct ib_umem *umem)
int ib_umem_page_count(struct ib_umem *umem)
int ib_umem_copy_from(void *dst, struct ib_umem *umem, size_t offset,
static void __ib_umem_release(struct ib_device *dev, struct ib_umem *umem, int dirty)
struct ib_umem *ib_umem_get(struct ib_ucontext *context, unsigned long addr,
struct ib_umem *umem;
static int ib_umem_notifier_release_trampoline(struct ib_umem *item, u64 start,
static int invalidate_page_trampoline(struct ib_umem *item, u64 start,
static int invalidate_range_start_trampoline(struct ib_umem *item, u64 start,
static int invalidate_range_end_trampoline(struct ib_umem *item, u64 start,
int ib_umem_odp_get(struct ib_ucontext *context, struct ib_umem *umem)
void ib_umem_odp_release(struct ib_umem *umem)
struct ib_umem *umem,
static void ib_umem_notifier_start_account(struct ib_umem *item)
int ib_umem_odp_map_dma_pages(struct ib_umem *umem, u64 user_virt, u64 bcnt,
void ib_umem_odp_unmap_dma_pages(struct ib_umem *umem, u64 virt,
static void ib_umem_notifier_end_account(struct ib_umem *item)
struct ib_umem *umem;
struct ib_umem *umem;
struct ib_pool_fmr **_fmr, struct ib_umem **_umem)
struct ib_umem *umem;
void sdp_free_fmr(struct socket *sk, struct ib_pool_fmr **_fmr, struct ib_umem **_umem)
static inline void ib_umem_release(struct ib_umem *umem) { }
static inline int ib_umem_page_count(struct ib_umem *umem) { return 0; }
static inline int ib_umem_copy_from(void *dst, struct ib_umem *umem, size_t offset,
static inline int ib_umem_offset(struct ib_umem *umem)
static inline unsigned long ib_umem_start(struct ib_umem *umem)
static inline unsigned long ib_umem_end(struct ib_umem *umem)
static inline size_t ib_umem_num_pages(struct ib_umem *umem)
struct ib_umem *ib_umem_get(struct ib_ucontext *context, unsigned long addr,
void ib_umem_release(struct ib_umem *umem);
int ib_umem_page_count(struct ib_umem *umem);
int ib_umem_copy_from(void *dst, struct ib_umem *umem, size_t offset,
static inline struct ib_umem *ib_umem_get(struct ib_ucontext *context,
int ib_umem_odp_map_dma_pages(struct ib_umem *umem, u64 start_offset, u64 bcnt,
void ib_umem_odp_unmap_dma_pages(struct ib_umem *umem, u64 start_offset,
typedef int (*umem_call_back)(struct ib_umem *item, u64 start, u64 end,
static inline int ib_umem_mmu_notifier_retry(struct ib_umem *item,
struct ib_umem *umem)
static inline void ib_umem_odp_release(struct ib_umem *umem) {}
struct ib_umem *umem;
int ib_umem_odp_get(struct ib_ucontext *context, struct ib_umem *umem);
void ib_umem_odp_release(struct ib_umem *umem);
struct ib_umem;