// SPDX-License-Identifier: GPL-2.0 /* * Copyright (C) 2017-2018 Etnaviv Project */ #include #include "etnaviv_cmdbuf.h" #include "etnaviv_gem.h" #include "etnaviv_gpu.h" #include "etnaviv_mmu.h" #include "etnaviv_perfmon.h" #define SUBALLOC_SIZE SZ_512K #define SUBALLOC_GRANULE SZ_4K #define SUBALLOC_GRANULES (SUBALLOC_SIZE / SUBALLOC_GRANULE) struct etnaviv_cmdbuf_suballoc { /* suballocated dma buffer properties */ struct device *dev; void *vaddr; dma_addr_t paddr; /* allocation management */ struct mutex lock; DECLARE_BITMAP(granule_map, SUBALLOC_GRANULES); int free_space; wait_queue_head_t free_event; }; struct etnaviv_cmdbuf_suballoc * etnaviv_cmdbuf_suballoc_new(struct device *dev) { struct etnaviv_cmdbuf_suballoc *suballoc; int ret; suballoc = kzalloc(sizeof(*suballoc), GFP_KERNEL); if (!suballoc) return ERR_PTR(-ENOMEM); suballoc->dev = dev; mutex_init(&suballoc->lock); init_waitqueue_head(&suballoc->free_event); BUILD_BUG_ON(ETNAVIV_SOFTPIN_START_ADDRESS < SUBALLOC_SIZE); suballoc->vaddr = dma_alloc_wc(dev, SUBALLOC_SIZE, &suballoc->paddr, GFP_KERNEL); if (!suballoc->vaddr) { ret = -ENOMEM; goto free_suballoc; } return suballoc; free_suballoc: mutex_destroy(&suballoc->lock); kfree(suballoc); return ERR_PTR(ret); } int etnaviv_cmdbuf_suballoc_map(struct etnaviv_cmdbuf_suballoc *suballoc, struct etnaviv_iommu_context *context, struct etnaviv_vram_mapping *mapping, u32 memory_base) { return etnaviv_iommu_get_suballoc_va(context, mapping, memory_base, suballoc->paddr, SUBALLOC_SIZE); } void etnaviv_cmdbuf_suballoc_unmap(struct etnaviv_iommu_context *context, struct etnaviv_vram_mapping *mapping) { etnaviv_iommu_put_suballoc_va(context, mapping); } void etnaviv_cmdbuf_suballoc_destroy(struct etnaviv_cmdbuf_suballoc *suballoc) { dma_free_wc(suballoc->dev, SUBALLOC_SIZE, suballoc->vaddr, suballoc->paddr); mutex_destroy(&suballoc->lock); kfree(suballoc); } int etnaviv_cmdbuf_init(struct etnaviv_cmdbuf_suballoc *suballoc, struct etnaviv_cmdbuf *cmdbuf, u32 size) { int granule_offs, order, ret; cmdbuf->suballoc = suballoc; cmdbuf->size = size; order = order_base_2(ALIGN(size, SUBALLOC_GRANULE) / SUBALLOC_GRANULE); retry: mutex_lock(&suballoc->lock); granule_offs = bitmap_find_free_region(suballoc->granule_map, SUBALLOC_GRANULES, order); if (granule_offs < 0) { suballoc->free_space = 0; mutex_unlock(&suballoc->lock); ret = wait_event_interruptible_timeout(suballoc->free_event, suballoc->free_space, msecs_to_jiffies(10 * 1000)); if (!ret) { dev_err(suballoc->dev, "Timeout waiting for cmdbuf space\n"); return -ETIMEDOUT; } goto retry; } mutex_unlock(&suballoc->lock); cmdbuf->suballoc_offset = granule_offs * SUBALLOC_GRANULE; cmdbuf->vaddr = suballoc->vaddr + cmdbuf->suballoc_offset; return 0; } void etnaviv_cmdbuf_free(struct etnaviv_cmdbuf *cmdbuf) { struct etnaviv_cmdbuf_suballoc *suballoc = cmdbuf->suballoc; int order = order_base_2(ALIGN(cmdbuf->size, SUBALLOC_GRANULE) / SUBALLOC_GRANULE); if (!suballoc) return; mutex_lock(&suballoc->lock); bitmap_release_region(suballoc->granule_map, cmdbuf->suballoc_offset / SUBALLOC_GRANULE, order); suballoc->free_space = 1; mutex_unlock(&suballoc->lock); wake_up_all(&suballoc->free_event); } u32 etnaviv_cmdbuf_get_va(struct etnaviv_cmdbuf *buf, struct etnaviv_vram_mapping *mapping) { return mapping->iova + buf->suballoc_offset; } dma_addr_t etnaviv_cmdbuf_get_pa(struct etnaviv_cmdbuf *buf) { return buf->suballoc->paddr + buf->suballoc_offset; }