4ce4639d028d0b3f851ca8283fad734f7fe5a249
[platform/kernel/linux-rpi.git] / drivers / gpu / drm / etnaviv / etnaviv_cmdbuf.c
1 /*
2  * Copyright (C) 2017 Etnaviv Project
3  *
4  * This program is free software; you can redistribute it and/or modify it
5  * under the terms of the GNU General Public License version 2 as published by
6  * the Free Software Foundation.
7  *
8  * This program is distributed in the hope that it will be useful, but WITHOUT
9  * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
10  * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
11  * more details.
12  *
13  * You should have received a copy of the GNU General Public License along with
14  * this program.  If not, see <http://www.gnu.org/licenses/>.
15  */
16
17 #include <drm/drm_mm.h>
18
19 #include "etnaviv_cmdbuf.h"
20 #include "etnaviv_gpu.h"
21 #include "etnaviv_mmu.h"
22 #include "etnaviv_perfmon.h"
23
24 #define SUBALLOC_SIZE           SZ_256K
25 #define SUBALLOC_GRANULE        SZ_4K
26 #define SUBALLOC_GRANULES       (SUBALLOC_SIZE / SUBALLOC_GRANULE)
27
28 struct etnaviv_cmdbuf_suballoc {
29         /* suballocated dma buffer properties */
30         struct etnaviv_gpu *gpu;
31         void *vaddr;
32         dma_addr_t paddr;
33
34         /* GPU mapping */
35         u32 iova;
36         struct drm_mm_node vram_node; /* only used on MMUv2 */
37
38         /* allocation management */
39         struct mutex lock;
40         DECLARE_BITMAP(granule_map, SUBALLOC_GRANULES);
41         int free_space;
42         wait_queue_head_t free_event;
43 };
44
45 struct etnaviv_cmdbuf_suballoc *
46 etnaviv_cmdbuf_suballoc_new(struct etnaviv_gpu * gpu)
47 {
48         struct etnaviv_cmdbuf_suballoc *suballoc;
49         int ret;
50
51         suballoc = kzalloc(sizeof(*suballoc), GFP_KERNEL);
52         if (!suballoc)
53                 return ERR_PTR(-ENOMEM);
54
55         suballoc->gpu = gpu;
56         mutex_init(&suballoc->lock);
57         init_waitqueue_head(&suballoc->free_event);
58
59         suballoc->vaddr = dma_alloc_wc(gpu->dev, SUBALLOC_SIZE,
60                                        &suballoc->paddr, GFP_KERNEL);
61         if (!suballoc->vaddr)
62                 goto free_suballoc;
63
64         ret = etnaviv_iommu_get_suballoc_va(gpu, suballoc->paddr,
65                                             &suballoc->vram_node, SUBALLOC_SIZE,
66                                             &suballoc->iova);
67         if (ret)
68                 goto free_dma;
69
70         return suballoc;
71
72 free_dma:
73         dma_free_wc(gpu->dev, SUBALLOC_SIZE, suballoc->vaddr, suballoc->paddr);
74 free_suballoc:
75         kfree(suballoc);
76
77         return NULL;
78 }
79
80 void etnaviv_cmdbuf_suballoc_destroy(struct etnaviv_cmdbuf_suballoc *suballoc)
81 {
82         etnaviv_iommu_put_suballoc_va(suballoc->gpu, &suballoc->vram_node,
83                                       SUBALLOC_SIZE, suballoc->iova);
84         dma_free_wc(suballoc->gpu->dev, SUBALLOC_SIZE, suballoc->vaddr,
85                     suballoc->paddr);
86         kfree(suballoc);
87 }
88
89 struct etnaviv_cmdbuf *
90 etnaviv_cmdbuf_new(struct etnaviv_cmdbuf_suballoc *suballoc, u32 size,
91                    size_t nr_bos)
92 {
93         struct etnaviv_cmdbuf *cmdbuf;
94         size_t sz = size_vstruct(nr_bos, sizeof(cmdbuf->bo_map[0]),
95                                  sizeof(*cmdbuf));
96         int granule_offs, order, ret;
97
98         cmdbuf = kzalloc(sz, GFP_KERNEL);
99         if (!cmdbuf)
100                 return NULL;
101
102         cmdbuf->suballoc = suballoc;
103         cmdbuf->size = size;
104
105         order = order_base_2(ALIGN(size, SUBALLOC_GRANULE) / SUBALLOC_GRANULE);
106 retry:
107         mutex_lock(&suballoc->lock);
108         granule_offs = bitmap_find_free_region(suballoc->granule_map,
109                                         SUBALLOC_GRANULES, order);
110         if (granule_offs < 0) {
111                 suballoc->free_space = 0;
112                 mutex_unlock(&suballoc->lock);
113                 ret = wait_event_interruptible_timeout(suballoc->free_event,
114                                                        suballoc->free_space,
115                                                        msecs_to_jiffies(10 * 1000));
116                 if (!ret) {
117                         dev_err(suballoc->gpu->dev,
118                                 "Timeout waiting for cmdbuf space\n");
119                         return NULL;
120                 }
121                 goto retry;
122         }
123         mutex_unlock(&suballoc->lock);
124         cmdbuf->suballoc_offset = granule_offs * SUBALLOC_GRANULE;
125         cmdbuf->vaddr = suballoc->vaddr + cmdbuf->suballoc_offset;
126
127         return cmdbuf;
128 }
129
130 void etnaviv_cmdbuf_free(struct etnaviv_cmdbuf *cmdbuf)
131 {
132         struct etnaviv_cmdbuf_suballoc *suballoc = cmdbuf->suballoc;
133         int order = order_base_2(ALIGN(cmdbuf->size, SUBALLOC_GRANULE) /
134                                  SUBALLOC_GRANULE);
135
136         mutex_lock(&suballoc->lock);
137         bitmap_release_region(suballoc->granule_map,
138                               cmdbuf->suballoc_offset / SUBALLOC_GRANULE,
139                               order);
140         suballoc->free_space = 1;
141         mutex_unlock(&suballoc->lock);
142         wake_up_all(&suballoc->free_event);
143         kfree(cmdbuf);
144 }
145
146 u32 etnaviv_cmdbuf_get_va(struct etnaviv_cmdbuf *buf)
147 {
148         return buf->suballoc->iova + buf->suballoc_offset;
149 }
150
151 dma_addr_t etnaviv_cmdbuf_get_pa(struct etnaviv_cmdbuf *buf)
152 {
153         return buf->suballoc->paddr + buf->suballoc_offset;
154 }