Make also later kernels work with buffer object vm
[profile/ivi/libdrm.git] / linux-core / drm_compat.h
1 /**
2  * \file drm_compat.h
3  * Backward compatability definitions for Direct Rendering Manager
4  *
5  * \author Rickard E. (Rik) Faith <faith@valinux.com>
6  * \author Gareth Hughes <gareth@valinux.com>
7  */
8
9 /*
10  * Copyright 1999 Precision Insight, Inc., Cedar Park, Texas.
11  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
12  * All rights reserved.
13  *
14  * Permission is hereby granted, free of charge, to any person obtaining a
15  * copy of this software and associated documentation files (the "Software"),
16  * to deal in the Software without restriction, including without limitation
17  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
18  * and/or sell copies of the Software, and to permit persons to whom the
19  * Software is furnished to do so, subject to the following conditions:
20  *
21  * The above copyright notice and this permission notice (including the next
22  * paragraph) shall be included in all copies or substantial portions of the
23  * Software.
24  *
25  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
26  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
27  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
28  * VA LINUX SYSTEMS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
29  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
30  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
31  * OTHER DEALINGS IN THE SOFTWARE.
32  */
33
34 #ifndef _DRM_COMPAT_H_
35 #define _DRM_COMPAT_H_
36
37 #ifndef minor
38 #define minor(x) MINOR((x))
39 #endif
40
41 #ifndef MODULE_LICENSE
42 #define MODULE_LICENSE(x)
43 #endif
44
45 #ifndef preempt_disable
46 #define preempt_disable()
47 #define preempt_enable()
48 #endif
49
50 #ifndef pte_offset_map
51 #define pte_offset_map pte_offset
52 #define pte_unmap(pte)
53 #endif
54
55 #ifndef module_param
56 #define module_param(name, type, perm)
57 #endif
58
59 /* older kernels had different irq args */
60 #if (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,19))
61 #undef DRM_IRQ_ARGS
62 #define DRM_IRQ_ARGS            int irq, void *arg, struct pt_regs *regs
63 #endif
64
65 #ifndef list_for_each_safe
66 #define list_for_each_safe(pos, n, head)                                \
67         for (pos = (head)->next, n = pos->next; pos != (head);          \
68                 pos = n, n = pos->next)
69 #endif
70
71 #ifndef list_for_each_entry
72 #define list_for_each_entry(pos, head, member)                          \
73        for (pos = list_entry((head)->next, typeof(*pos), member),       \
74                     prefetch(pos->member.next);                         \
75             &pos->member != (head);                                     \
76             pos = list_entry(pos->member.next, typeof(*pos), member),   \
77                     prefetch(pos->member.next))
78 #endif
79
80 #ifndef list_for_each_entry_safe
81 #define list_for_each_entry_safe(pos, n, head, member)                  \
82         for (pos = list_entry((head)->next, typeof(*pos), member),      \
83                 n = list_entry(pos->member.next, typeof(*pos), member); \
84              &pos->member != (head);                                    \
85              pos = n, n = list_entry(n->member.next, typeof(*n), member))
86 #endif
87
88 #ifndef __user
89 #define __user
90 #endif
91
92 #if !defined(__put_page) 
93 #define __put_page(p)           atomic_dec(&(p)->count)
94 #endif
95
96 #if !defined(__GFP_COMP)
97 #define __GFP_COMP 0
98 #endif
99
100 #define VM_OFFSET(vma) ((vma)->vm_pgoff << PAGE_SHIFT)
101
102 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,10)
103 static inline int remap_pfn_range(struct vm_area_struct *vma, unsigned long from, unsigned long pfn, unsigned long size, pgprot_t pgprot)
104 {
105   return remap_page_range(vma, from, 
106                           pfn << PAGE_SHIFT,
107                           size,
108                           pgprot);
109 }
110
111 static __inline__ void *kcalloc(size_t nmemb, size_t size, int flags)
112 {
113         void *addr;
114
115         addr = kmalloc(size * nmemb, flags);
116         if (addr != NULL)
117                 memset((void *)addr, 0, size * nmemb);
118
119         return addr;
120 }
121 #endif
122
123 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,16)
124 #define mutex_lock down
125 #define mutex_unlock up
126
127 #define mutex semaphore
128
129 #define mutex_init(a) sema_init((a), 1)
130
131 #endif
132
133 #ifndef DEFINE_SPINLOCK
134 #define DEFINE_SPINLOCK(x) spinlock_t x = SPIN_LOCK_UNLOCKED
135 #endif
136
137 /* old architectures */
138 #ifdef __AMD64__
139 #define __x86_64__
140 #endif
141
142 /* sysfs __ATTR macro */
143 #ifndef __ATTR
144 #define __ATTR(_name,_mode,_show,_store) { \
145         .attr = {.name = __stringify(_name), .mode = _mode, .owner = THIS_MODULE },     \
146         .show   = _show,                                        \
147         .store  = _store,                                       \
148 }
149 #endif
150
151 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,18)
152 #define vmalloc_user(_size) ({void * tmp = vmalloc(_size);   \
153       if (tmp) memset(tmp, 0, size);                         \
154       (tmp);})
155 #endif
156
157
158 #include <linux/mm.h>
159 #include <asm/page.h>
160
161 #if ((LINUX_VERSION_CODE < KERNEL_VERSION(2,6,21)) && \
162      (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,15))) 
163 #define DRM_ODD_MM_COMPAT
164 #endif
165
166
167
168 /*
169  * Flush relevant caches and clear a VMA structure so that page references 
170  * will cause a page fault. Don't flush tlbs.
171  */
172
173 extern void drm_clear_vma(struct vm_area_struct *vma,
174                           unsigned long addr, unsigned long end);
175
176 /*
177  * Return the PTE protection map entries for the VMA flags given by 
178  * flags. This is a functional interface to the kernel's protection map.
179  */
180
181 extern pgprot_t vm_get_page_prot(unsigned long vm_flags);
182
183 #ifndef GFP_DMA32
184 #define GFP_DMA32 0
185 #endif
186
187 #if defined(CONFIG_X86) && (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,15))
188
189 /*
190  * These are too slow in earlier kernels.
191  */
192
193 extern int drm_unmap_page_from_agp(struct page *page);
194 extern int drm_map_page_into_agp(struct page *page);
195
196 #define map_page_into_agp drm_map_page_into_agp
197 #define unmap_page_from_agp drm_unmap_page_from_agp
198 #endif
199
200 #if (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,15))
201 extern struct page *get_nopage_retry(void);
202 extern void free_nopage_retry(void);
203 struct fault_data;
204 extern struct page *drm_bo_vm_fault(struct vm_area_struct *vma, 
205                                     struct fault_data *data);
206
207 #define NOPAGE_REFAULT get_nopage_retry()
208 #endif
209
210
211 #if (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,21))
212
213 /*
214  * Hopefully, real NOPAGE_RETRY functionality will be in 2.6.19. 
215  * For now, just return a dummy page that we've allocated out of 
216  * static space. The page will be put by do_nopage() since we've already
217  * filled out the pte.
218  */
219
220 struct fault_data {
221         struct vm_area_struct *vma;
222         unsigned long address;
223         pgoff_t pgoff;
224         unsigned int flags;
225         
226         int type;
227 };
228
229
230 extern int vm_insert_pfn(struct vm_area_struct *vma, unsigned long addr, 
231                          unsigned long pfn, pgprot_t pgprot);
232
233 extern struct page *drm_bo_vm_nopage(struct vm_area_struct *vma,
234                                      unsigned long address, 
235                                      int *type);
236
237 #endif
238
239 #ifdef DRM_ODD_MM_COMPAT
240
241 struct drm_buffer_object;
242
243
244 /*
245  * Add a vma to the ttm vma list, and the 
246  * process mm pointer to the ttm mm list. Needs the ttm mutex.
247  */
248
249 extern int drm_bo_add_vma(struct drm_buffer_object * bo, 
250                            struct vm_area_struct *vma);
251 /*
252  * Delete a vma and the corresponding mm pointer from the
253  * ttm lists. Needs the ttm mutex.
254  */
255 extern void drm_bo_delete_vma(struct drm_buffer_object * bo, 
256                               struct vm_area_struct *vma);
257
258 /*
259  * Attempts to lock all relevant mmap_sems for a ttm, while
260  * not releasing the ttm mutex. May return -EAGAIN to avoid 
261  * deadlocks. In that case the caller shall release the ttm mutex,
262  * schedule() and try again.
263  */
264
265 extern int drm_bo_lock_kmm(struct drm_buffer_object * bo);
266
267 /*
268  * Unlock all relevant mmap_sems for a ttm.
269  */
270 extern void drm_bo_unlock_kmm(struct drm_buffer_object * bo);
271
272 /*
273  * If the ttm was bound to the aperture, this function shall be called
274  * with all relevant mmap sems held. It deletes the flag VM_PFNMAP from all
275  * vmas mapping this ttm. This is needed just after unmapping the ptes of
276  * the vma, otherwise the do_nopage() function will bug :(. The function
277  * releases the mmap_sems for this ttm.
278  */
279
280 extern void drm_bo_finish_unmap(struct drm_buffer_object *bo);
281
282 /*
283  * Remap all vmas of this ttm using io_remap_pfn_range. We cannot 
284  * fault these pfns in, because the first one will set the vma VM_PFNMAP
285  * flag, which will make the next fault bug in do_nopage(). The function
286  * releases the mmap_sems for this ttm.
287  */
288
289 extern int drm_bo_remap_bound(struct drm_buffer_object *bo);
290
291
292 /*
293  * Remap a vma for a bound ttm. Call with the ttm mutex held and
294  * the relevant mmap_sem locked.
295  */
296 extern int drm_bo_map_bound(struct vm_area_struct *vma);
297
298 #endif
299 #endif