drm: remove lots of spurious whitespace.
authorDave Airlie <airlied@linux.ie>
Mon, 5 Nov 2007 02:42:22 +0000 (12:42 +1000)
committerDave Airlie <airlied@linux.ie>
Mon, 5 Nov 2007 02:42:22 +0000 (12:42 +1000)
Kernel "cleanfile" script run.

110 files changed:
linux-core/drm_agpsupport.c
linux-core/drm_bo.c
linux-core/drm_bo_lock.c
linux-core/drm_bo_move.c
linux-core/drm_bufs.c
linux-core/drm_compat.c
linux-core/drm_compat.h
linux-core/drm_context.c
linux-core/drm_drv.c
linux-core/drm_fence.c
linux-core/drm_fops.c
linux-core/drm_hashtab.c
linux-core/drm_hashtab.h
linux-core/drm_mm.c
linux-core/drm_objects.h
linux-core/drm_os_linux.h
linux-core/drm_scatter.c
linux-core/drm_stub.c
linux-core/ffb_drv.h
linux-core/i810_dma.c
linux-core/i810_drv.h
linux-core/i915_buffer.c
linux-core/i915_compat.c
linux-core/i915_drv.c
linux-core/i915_fence.c
linux-core/i915_ioc32.c
linux-core/mga_drv.c
linux-core/mga_ioc32.c
linux-core/nouveau_buffer.c
linux-core/nouveau_drv.c
linux-core/nouveau_fence.c
linux-core/nouveau_sgdma.c
linux-core/r128_ioc32.c
linux-core/radeon_drv.c
linux-core/sis_mm.c
linux-core/via_buffer.c
linux-core/via_dmablit.c
linux-core/via_dmablit.h
linux-core/via_mm.c
linux-core/xgi_cmdlist.c
linux-core/xgi_drv.c
linux-core/xgi_fb.c
linux-core/xgi_fence.c
linux-core/xgi_ioc32.c
linux-core/xgi_misc.c
linux-core/xgi_misc.h
linux-core/xgi_regs.h
shared-core/drm.h
shared-core/drm_sarea.h
shared-core/i915_dma.c
shared-core/i915_drm.h
shared-core/i915_drv.h
shared-core/i915_irq.c
shared-core/i915_mem.c
shared-core/mach64_dma.c
shared-core/mach64_drv.h
shared-core/mga_dma.c
shared-core/mga_drm.h
shared-core/mga_drv.h
shared-core/mga_irq.c
shared-core/mga_state.c
shared-core/nouveau_dma.c
shared-core/nouveau_dma.h
shared-core/nouveau_drm.h
shared-core/nouveau_drv.h
shared-core/nouveau_fifo.c
shared-core/nouveau_irq.c
shared-core/nouveau_mem.c
shared-core/nouveau_notifier.c
shared-core/nouveau_object.c
shared-core/nouveau_reg.h
shared-core/nouveau_state.c
shared-core/nouveau_swmthd.c
shared-core/nouveau_swmthd.h
shared-core/nv04_fb.c
shared-core/nv04_fifo.c
shared-core/nv04_graph.c
shared-core/nv04_instmem.c
shared-core/nv04_mc.c
shared-core/nv04_timer.c
shared-core/nv10_fb.c
shared-core/nv10_fifo.c
shared-core/nv10_graph.c
shared-core/nv20_graph.c
shared-core/nv40_fb.c
shared-core/nv40_fifo.c
shared-core/nv40_graph.c
shared-core/nv40_mc.c
shared-core/nv50_fifo.c
shared-core/nv50_graph.c
shared-core/nv50_instmem.c
shared-core/r128_cce.c
shared-core/r128_drv.h
shared-core/r300_cmdbuf.c
shared-core/r300_reg.h
shared-core/radeon_cp.c
shared-core/radeon_drm.h
shared-core/radeon_drv.h
shared-core/radeon_state.c
shared-core/savage_bci.c
shared-core/savage_drv.h
shared-core/savage_state.c
shared-core/via_dma.c
shared-core/via_drm.h
shared-core/via_drv.h
shared-core/via_irq.c
shared-core/via_map.c
shared-core/via_verifier.c
shared-core/via_verifier.h
shared-core/xgi_drm.h

index 7c50f41..08ea7c4 100644 (file)
@@ -506,7 +506,7 @@ static int drm_agp_needs_unbind_cache_adjust(struct drm_ttm_backend *backend) {
 static int drm_agp_populate(struct drm_ttm_backend *backend, unsigned long num_pages,
                            struct page **pages) {
 
-       struct drm_agp_ttm_backend *agp_be = 
+       struct drm_agp_ttm_backend *agp_be =
                container_of(backend, struct drm_agp_ttm_backend, backend);
        struct page **cur_page, **last_page = pages + num_pages;
        DRM_AGP_MEM *mem;
@@ -562,7 +562,7 @@ static int drm_agp_bind_ttm(struct drm_ttm_backend *backend,
 
 static int drm_agp_unbind_ttm(struct drm_ttm_backend *backend) {
 
-       struct drm_agp_ttm_backend *agp_be = 
+       struct drm_agp_ttm_backend *agp_be =
                container_of(backend, struct drm_agp_ttm_backend, backend);
 
        DRM_DEBUG("drm_agp_unbind_ttm\n");
@@ -574,7 +574,7 @@ static int drm_agp_unbind_ttm(struct drm_ttm_backend *backend) {
 
 static void drm_agp_clear_ttm(struct drm_ttm_backend *backend) {
 
-       struct drm_agp_ttm_backend *agp_be = 
+       struct drm_agp_ttm_backend *agp_be =
                container_of(backend, struct drm_agp_ttm_backend, backend);
        DRM_AGP_MEM *mem = agp_be->mem;
 
@@ -604,7 +604,7 @@ static void drm_agp_destroy_ttm(struct drm_ttm_backend *backend) {
        }
 }
 
-static struct drm_ttm_backend_func agp_ttm_backend = 
+static struct drm_ttm_backend_func agp_ttm_backend =
 {
        .needs_ub_cache_adjust = drm_agp_needs_unbind_cache_adjust,
        .populate = drm_agp_populate,
@@ -637,7 +637,7 @@ struct drm_ttm_backend *drm_agp_init_ttm(struct drm_device *dev)
                return NULL;
        }
 
-       
+
        agp_be = drm_ctl_calloc(1, sizeof(*agp_be), DRM_MEM_TTM);
        if (!agp_be)
                return NULL;
index 4f95f23..4cdf889 100644 (file)
@@ -1537,7 +1537,7 @@ EXPORT_SYMBOL(drm_bo_do_validate);
 
 int drm_bo_handle_validate(struct drm_file * file_priv, uint32_t handle,
                           uint32_t fence_class,
-                          uint64_t flags, uint64_t mask, 
+                          uint64_t flags, uint64_t mask,
                           uint32_t hint,
                           int use_old_fence_class,
                           struct drm_bo_info_rep * rep,
@@ -1552,7 +1552,7 @@ int drm_bo_handle_validate(struct drm_file * file_priv, uint32_t handle,
        bo = drm_lookup_buffer_object(file_priv, handle, 1);
        mutex_unlock(&dev->struct_mutex);
 
-       if (!bo) 
+       if (!bo)
                return -EINVAL;
 
        if (use_old_fence_class)
@@ -1562,10 +1562,10 @@ int drm_bo_handle_validate(struct drm_file * file_priv, uint32_t handle,
         * Only allow creator to change shared buffer mask.
         */
 
-       if (bo->base.owner != file_priv) 
+       if (bo->base.owner != file_priv)
                mask &= ~(DRM_BO_FLAG_NO_EVICT | DRM_BO_FLAG_NO_MOVE);
 
-               
+
        ret = drm_bo_do_validate(bo, flags, mask, hint, fence_class,
                                 no_wait, rep);
 
@@ -1764,14 +1764,14 @@ int drm_bo_create_ioctl(struct drm_device *dev, void *data, struct drm_file *fil
                                       req->buffer_start, &entry);
        if (ret)
                goto out;
-       
+
        ret = drm_bo_add_user_object(file_priv, entry,
                                     req->mask & DRM_BO_FLAG_SHAREABLE);
        if (ret) {
                drm_bo_usage_deref_unlocked(&entry);
                goto out;
        }
-       
+
        mutex_lock(&entry->mutex);
        drm_bo_fill_rep_arg(entry, rep);
        mutex_unlock(&entry->mutex);
@@ -1780,7 +1780,7 @@ out:
        return ret;
 }
 
-int drm_bo_setstatus_ioctl(struct drm_device *dev, 
+int drm_bo_setstatus_ioctl(struct drm_device *dev,
                           void *data, struct drm_file *file_priv)
 {
        struct drm_bo_map_wait_idle_arg *arg = data;
@@ -1861,7 +1861,7 @@ int drm_bo_reference_ioctl(struct drm_device *dev, void *data, struct drm_file *
                                  drm_buffer_type, &uo);
        if (ret)
                return ret;
-       
+
        ret = drm_bo_handle_info(file_priv, req->handle, rep);
        if (ret)
                return ret;
@@ -2165,7 +2165,7 @@ EXPORT_SYMBOL(drm_bo_init_mm);
 /*
  * This function is intended to be called on drm driver unload.
  * If you decide to call it from lastclose, you must protect the call
- * from a potentially racing drm_bo_driver_init in firstopen. 
+ * from a potentially racing drm_bo_driver_init in firstopen.
  * (This may happen on X server restart).
  */
 
@@ -2229,7 +2229,7 @@ out:
 /*
  * This function is intended to be called on drm driver load.
  * If you decide to call it from firstopen, you must protect the call
- * from a potentially racing drm_bo_driver_finish in lastclose. 
+ * from a potentially racing drm_bo_driver_finish in lastclose.
  * (This may happen on X server restart).
  */
 
@@ -2390,13 +2390,13 @@ int drm_mm_lock_ioctl(struct drm_device *dev, void *data, struct drm_file *file_
                DRM_ERROR("Lock flag DRM_BO_LOCK_IGNORE_NO_EVICT not supported yet.\n");
                return -EINVAL;
        }
-               
+
        if (arg->lock_flags & DRM_BO_LOCK_UNLOCK_BM) {
                ret = drm_bo_write_lock(&dev->bm.bm_lock, file_priv);
                if (ret)
                        return ret;
        }
-               
+
        mutex_lock(&dev->struct_mutex);
        ret = drm_bo_lock_mm(dev, arg->mem_type);
        mutex_unlock(&dev->struct_mutex);
@@ -2408,8 +2408,8 @@ int drm_mm_lock_ioctl(struct drm_device *dev, void *data, struct drm_file *file_
        return 0;
 }
 
-int drm_mm_unlock_ioctl(struct drm_device *dev, 
-                       void *data, 
+int drm_mm_unlock_ioctl(struct drm_device *dev,
+                       void *data,
                        struct drm_file *file_priv)
 {
        struct drm_mm_type_arg *arg = data;
@@ -2426,7 +2426,7 @@ int drm_mm_unlock_ioctl(struct drm_device *dev,
                if (ret)
                        return ret;
        }
-               
+
        return 0;
 }
 
@@ -2580,11 +2580,11 @@ static int drm_bo_setup_vm_locked(struct drm_buffer_object * bo)
        return 0;
 }
 
-int drm_bo_version_ioctl(struct drm_device *dev, void *data, 
+int drm_bo_version_ioctl(struct drm_device *dev, void *data,
                         struct drm_file *file_priv)
 {
        struct drm_bo_version_arg *arg = (struct drm_bo_version_arg *)data;
-       
+
        arg->major = DRM_BO_INIT_MAJOR;
        arg->minor = DRM_BO_INIT_MINOR;
        arg->patchlevel = DRM_BO_INIT_PATCH;
index e5a8682..46318f6 100644 (file)
 /*
  * This file implements a simple replacement for the buffer manager use
  * of the heavyweight hardware lock.
- * The lock is a read-write lock. Taking it in read mode is fast, and 
+ * The lock is a read-write lock. Taking it in read mode is fast, and
  * intended for in-kernel use only.
  * Taking it in write mode is slow.
  *
- * The write mode is used only when there is a need to block all 
- * user-space processes from allocating a 
+ * The write mode is used only when there is a need to block all
+ * user-space processes from allocating a
  * new memory area.
  * Typical use in write mode is X server VT switching, and it's allowed
  * to leave kernel space with the write lock held. If a user-space process
  * dies while having the write-lock, it will be released during the file
  * descriptor release.
  *
- * The read lock is typically placed at the start of an IOCTL- or 
+ * The read lock is typically placed at the start of an IOCTL- or
  * user-space callable function that may end up allocating a memory area.
  * This includes setstatus, super-ioctls and no_pfn; the latter may move
  * unmappable regions to mappable. It's a bug to leave kernel space with the
@@ -53,7 +53,7 @@
  * latency. The locking functions will return -EAGAIN if interrupted by a
  * signal.
  *
- * Locking order: The lock should be taken BEFORE any kernel mutexes 
+ * Locking order: The lock should be taken BEFORE any kernel mutexes
  * or spinlocks.
  */
 
@@ -140,7 +140,7 @@ int drm_bo_write_lock(struct drm_bo_lock *lock, struct drm_file *file_priv)
 
        /*
         * Add a dummy user-object, the destructor of which will
-        * make sure the lock is released if the client dies 
+        * make sure the lock is released if the client dies
         * while holding it.
         */
 
index 7c86c4a..9ab28b0 100644 (file)
@@ -1,8 +1,8 @@
 /**************************************************************************
- * 
+ *
  * Copyright (c) 2007 Tungsten Graphics, Inc., Cedar Park, TX., USA
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
@@ -10,7 +10,7 @@
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
@@ -19,8 +19,8 @@
  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
  * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
- * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR 
- * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE 
+ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
+ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
  * USE OR OTHER DEALINGS IN THE SOFTWARE.
  *
  **************************************************************************/
@@ -90,13 +90,13 @@ EXPORT_SYMBOL(drm_bo_move_ttm);
  *
  * \param bo The buffer object.
  * \return Failure indication.
- * 
+ *
  * Returns -EINVAL if the buffer object is currently not mappable.
  * Returns -ENOMEM if the ioremap operation failed.
  * Otherwise returns zero.
- * 
+ *
  * After a successfull call, bo->iomap contains the virtual address, or NULL
- * if the buffer object content is not accessible through PCI space. 
+ * if the buffer object content is not accessible through PCI space.
  * Call bo->mutex locked.
  */
 
@@ -349,11 +349,11 @@ int drm_bo_move_accel_cleanup(struct drm_buffer_object * bo,
 #ifdef DRM_ODD_MM_COMPAT
        /*
         * In this mode, we don't allow pipelining a copy blit,
-        * since the buffer will be accessible from user space 
+        * since the buffer will be accessible from user space
         * the moment we return and rebuild the page tables.
         *
         * With normal vm operation, page tables are rebuilt
-        * on demand using fault(), which waits for buffer idle. 
+        * on demand using fault(), which waits for buffer idle.
         */
        if (1)
 #else
index 60eca60..65818c6 100644 (file)
@@ -53,7 +53,7 @@ struct drm_map_list *drm_find_matching_map(struct drm_device *dev, drm_local_map
        struct drm_map_list *entry;
        list_for_each_entry(entry, &dev->maplist, head) {
                if (entry->map && map->type == entry->map->type &&
-                   ((entry->map->offset == map->offset) || 
+                   ((entry->map->offset == map->offset) ||
                     (map->type == _DRM_SHM && map->flags==_DRM_CONTAINS_LOCK))) {
                        return entry;
                }
@@ -80,10 +80,10 @@ static int drm_map_handle(struct drm_device *dev, struct drm_hash_item *hash,
                int ret;
                hash->key = user_token >> PAGE_SHIFT;
                ret = drm_ht_insert_item(&dev->map_hash, hash);
-               if (ret != -EINVAL) 
+               if (ret != -EINVAL)
                        return ret;
        }
-       return drm_ht_just_insert_please(&dev->map_hash, hash, 
+       return drm_ht_just_insert_please(&dev->map_hash, hash,
                                         user_token, 32 - PAGE_SHIFT - 3,
                                         0, DRM_MAP_HASH_OFFSET >> PAGE_SHIFT);
 }
@@ -297,7 +297,7 @@ static int drm_addmap_core(struct drm_device *dev, unsigned int offset,
 
        /* Assign a 32-bit handle */
 
-       user_token = (map->type == _DRM_SHM) ? (unsigned long) map->handle : 
+       user_token = (map->type == _DRM_SHM) ? (unsigned long) map->handle :
                map->offset;
        ret = drm_map_handle(dev, &list->hash, user_token, 0);
 
@@ -379,7 +379,7 @@ int drm_rmmap_locked(struct drm_device *dev, drm_local_map_t *map)
        list_for_each_entry_safe(r_list, list_t, &dev->maplist, head) {
                if (r_list->map == map) {
                        list_del(&r_list->head);
-                       drm_ht_remove_key(&dev->map_hash, 
+                       drm_ht_remove_key(&dev->map_hash,
                                          r_list->user_token >> PAGE_SHIFT);
                        drm_free(r_list, sizeof(*r_list), DRM_MEM_MAPS);
                        found = 1;
@@ -821,9 +821,9 @@ int drm_addbufs_pci(struct drm_device *dev, struct drm_buf_desc * request)
        page_count = 0;
 
        while (entry->buf_count < count) {
-               
+
                dmah = drm_pci_alloc(dev, PAGE_SIZE << page_order, 0x1000, 0xfffffffful);
-               
+
                if (!dmah) {
                        /* Set count correctly so we free the proper amount. */
                        entry->buf_count = count;
@@ -1600,5 +1600,3 @@ int drm_order(unsigned long size)
        return order;
 }
 EXPORT_SYMBOL(drm_order);
-
-
index ae44e50..67c8c99 100644 (file)
@@ -1,5 +1,5 @@
 /**************************************************************************
- * 
+ *
  * This kernel module is free software; you can redistribute it and/or
  * modify it under the terms of the GNU General Public License as
  * published by the Free Software Foundation; either version 2 of the
@@ -13,7 +13,7 @@
  * You should have received a copy of the GNU General Public License
  * along with this program; if not, write to the Free Software
  * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
- * 
+ *
  **************************************************************************/
 /*
  * This code provides access to unexported mm kernel features. It is necessary
@@ -21,7 +21,7 @@
  * directly.
  *
  * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
- *          Linux kernel mm subsystem authors. 
+ *          Linux kernel mm subsystem authors.
  *          (Most code taken from there).
  */
 
@@ -50,7 +50,7 @@ int drm_unmap_page_from_agp(struct page *page)
          * performance reasons */
         return i;
 }
-#endif 
+#endif
 
 
 #if  (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,19))
@@ -80,22 +80,22 @@ pgprot_t vm_get_page_prot(unsigned long vm_flags)
 
 /*
  * vm code for kernels below 2.6.15 in which version a major vm write
- * occured. This implement a simple straightforward 
+ * occured. This implement a simple straightforward
  * version similar to what's going to be
  * in kernel 2.6.19+
  * Kernels below 2.6.15 use nopage whereas 2.6.19 and upwards use
  * nopfn.
- */ 
+ */
 
 static struct {
        spinlock_t lock;
        struct page *dummy_page;
        atomic_t present;
-} drm_np_retry = 
+} drm_np_retry =
 {SPIN_LOCK_UNLOCKED, NOPAGE_OOM, ATOMIC_INIT(0)};
 
 
-static struct page *drm_bo_vm_fault(struct vm_area_struct *vma, 
+static struct page *drm_bo_vm_fault(struct vm_area_struct *vma,
                                    struct fault_data *data);
 
 
@@ -126,7 +126,7 @@ void free_nopage_retry(void)
 }
 
 struct page *drm_bo_vm_nopage(struct vm_area_struct *vma,
-                              unsigned long address, 
+                              unsigned long address,
                               int *type)
 {
        struct fault_data data;
@@ -204,14 +204,14 @@ static struct page *drm_bo_vm_fault(struct vm_area_struct *vma,
        struct drm_buffer_object *bo = (struct drm_buffer_object *) vma->vm_private_data;
        unsigned long page_offset;
        struct page *page = NULL;
-       struct drm_ttm *ttm; 
+       struct drm_ttm *ttm;
        struct drm_device *dev;
        unsigned long pfn;
        int err;
        unsigned long bus_base;
        unsigned long bus_offset;
        unsigned long bus_size;
-       
+
        dev = bo->dev;
        while(drm_bo_read_lock(&dev->bm.bm_lock));
 
@@ -219,12 +219,12 @@ static struct page *drm_bo_vm_fault(struct vm_area_struct *vma,
 
        err = drm_bo_wait(bo, 0, 1, 0);
        if (err) {
-               data->type = (err == -EAGAIN) ? 
+               data->type = (err == -EAGAIN) ?
                        VM_FAULT_MINOR : VM_FAULT_SIGBUS;
                goto out_unlock;
        }
-       
-       
+
+
        /*
         * If buffer happens to be in a non-mappable location,
         * move it to a mappable.
@@ -253,7 +253,7 @@ static struct page *drm_bo_vm_fault(struct vm_area_struct *vma,
        }
 
        dev = bo->dev;
-       err = drm_bo_pci_offset(dev, &bo->mem, &bus_base, &bus_offset, 
+       err = drm_bo_pci_offset(dev, &bo->mem, &bus_base, &bus_offset,
                                &bus_size);
 
        if (err) {
@@ -286,7 +286,7 @@ static struct page *drm_bo_vm_fault(struct vm_area_struct *vma,
        err = vm_insert_pfn(vma, address, pfn);
 
        if (!err || err == -EBUSY)
-               data->type = VM_FAULT_MINOR; 
+               data->type = VM_FAULT_MINOR;
        else
                data->type = VM_FAULT_OOM;
 out_unlock:
@@ -330,7 +330,7 @@ unsigned long drm_bo_vm_nopfn(struct vm_area_struct * vma,
  * VM compatibility code for 2.6.15-2.6.18. This code implements a complicated
  * workaround for a single BUG statement in do_no_page in these versions. The
  * tricky thing is that we need to take the mmap_sem in exclusive mode for _all_
- * vmas mapping the ttm, before dev->struct_mutex is taken. The way we do this is to 
+ * vmas mapping the ttm, before dev->struct_mutex is taken. The way we do this is to
  * check first take the dev->struct_mutex, and then trylock all mmap_sems. If this
  * fails for a single mmap_sem, we have to release all sems and the dev->struct_mutex,
  * release the cpu and retry. We also need to keep track of all vmas mapping the ttm.
@@ -351,13 +351,13 @@ typedef struct vma_entry {
 
 
 struct page *drm_bo_vm_nopage(struct vm_area_struct *vma,
-                              unsigned long address, 
+                              unsigned long address,
                               int *type)
 {
        struct drm_buffer_object *bo = (struct drm_buffer_object *) vma->vm_private_data;
        unsigned long page_offset;
        struct page *page;
-       struct drm_ttm *ttm; 
+       struct drm_ttm *ttm;
        struct drm_device *dev;
 
        mutex_lock(&bo->mutex);
@@ -369,7 +369,7 @@ struct page *drm_bo_vm_nopage(struct vm_area_struct *vma,
                page = NOPAGE_SIGBUS;
                goto out_unlock;
        }
-       
+
        dev = bo->dev;
 
        if (drm_mem_reg_is_pci(dev, &bo->mem)) {
@@ -403,8 +403,8 @@ int drm_bo_map_bound(struct vm_area_struct *vma)
        unsigned long bus_base;
        unsigned long bus_offset;
        unsigned long bus_size;
-       
-       ret = drm_bo_pci_offset(bo->dev, &bo->mem, &bus_base, 
+
+       ret = drm_bo_pci_offset(bo->dev, &bo->mem, &bus_base,
                                &bus_offset, &bus_size);
        BUG_ON(ret);
 
@@ -419,7 +419,7 @@ int drm_bo_map_bound(struct vm_area_struct *vma)
 
        return ret;
 }
-       
+
 
 int drm_bo_add_vma(struct drm_buffer_object * bo, struct vm_area_struct *vma)
 {
@@ -493,7 +493,7 @@ int drm_bo_lock_kmm(struct drm_buffer_object * bo)
 {
        p_mm_entry_t *entry;
        int lock_ok = 1;
-       
+
        list_for_each_entry(entry, &bo->p_mm_list, head) {
                BUG_ON(entry->locked);
                if (!down_write_trylock(&entry->mm->mmap_sem)) {
@@ -507,7 +507,7 @@ int drm_bo_lock_kmm(struct drm_buffer_object * bo)
                return 0;
 
        list_for_each_entry(entry, &bo->p_mm_list, head) {
-               if (!entry->locked) 
+               if (!entry->locked)
                        break;
                up_write(&entry->mm->mmap_sem);
                entry->locked = 0;
@@ -524,7 +524,7 @@ int drm_bo_lock_kmm(struct drm_buffer_object * bo)
 void drm_bo_unlock_kmm(struct drm_buffer_object * bo)
 {
        p_mm_entry_t *entry;
-       
+
        list_for_each_entry(entry, &bo->p_mm_list, head) {
                BUG_ON(!entry->locked);
                up_write(&entry->mm->mmap_sem);
@@ -532,7 +532,7 @@ void drm_bo_unlock_kmm(struct drm_buffer_object * bo)
        }
 }
 
-int drm_bo_remap_bound(struct drm_buffer_object *bo) 
+int drm_bo_remap_bound(struct drm_buffer_object *bo)
 {
        vma_entry_t *v_entry;
        int ret = 0;
@@ -553,9 +553,9 @@ void drm_bo_finish_unmap(struct drm_buffer_object *bo)
        vma_entry_t *v_entry;
 
        list_for_each_entry(v_entry, &bo->vma_list, head) {
-               v_entry->vma->vm_flags &= ~VM_PFNMAP; 
+               v_entry->vma->vm_flags &= ~VM_PFNMAP;
        }
-}      
+}
 
 #endif
 
index f74f4bc..f8933e0 100644 (file)
@@ -89,7 +89,7 @@
 #define __user
 #endif
 
-#if !defined(__put_page) 
+#if !defined(__put_page)
 #define __put_page(p)           atomic_dec(&(p)->count)
 #endif
 
 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,10)
 static inline int remap_pfn_range(struct vm_area_struct *vma, unsigned long from, unsigned long pfn, unsigned long size, pgprot_t pgprot)
 {
-  return remap_page_range(vma, from, 
+  return remap_page_range(vma, from,
                          pfn << PAGE_SHIFT,
                          size,
                          pgprot);
@@ -178,7 +178,7 @@ static __inline__ void *kcalloc(size_t nmemb, size_t size, int flags)
 
 
 /*
- * Flush relevant caches and clear a VMA structure so that page references 
+ * Flush relevant caches and clear a VMA structure so that page references
  * will cause a page fault. Don't flush tlbs.
  */
 
@@ -186,7 +186,7 @@ extern void drm_clear_vma(struct vm_area_struct *vma,
                          unsigned long addr, unsigned long end);
 
 /*
- * Return the PTE protection map entries for the VMA flags given by 
+ * Return the PTE protection map entries for the VMA flags given by
  * flags. This is a functional interface to the kernel's protection map.
  */
 
@@ -223,7 +223,7 @@ extern void free_nopage_retry(void);
 #ifndef DRM_FULL_MM_COMPAT
 
 /*
- * For now, just return a dummy page that we've allocated out of 
+ * For now, just return a dummy page that we've allocated out of
  * static space. The page will be put by do_nopage() since we've already
  * filled out the pte.
  */
@@ -233,13 +233,13 @@ struct fault_data {
        unsigned long address;
        pgoff_t pgoff;
        unsigned int flags;
-       
+
        int type;
 };
 
 #if (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,19))
 extern struct page *drm_bo_vm_nopage(struct vm_area_struct *vma,
-                                    unsigned long address, 
+                                    unsigned long address,
                                     int *type);
 #elif (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,19)) && \
   !defined(DRM_FULL_MM_COMPAT)
@@ -254,22 +254,22 @@ struct drm_buffer_object;
 
 
 /*
- * Add a vma to the ttm vma list, and the 
+ * Add a vma to the ttm vma list, and the
  * process mm pointer to the ttm mm list. Needs the ttm mutex.
  */
 
-extern int drm_bo_add_vma(struct drm_buffer_object * bo, 
+extern int drm_bo_add_vma(struct drm_buffer_object * bo,
                           struct vm_area_struct *vma);
 /*
  * Delete a vma and the corresponding mm pointer from the
  * ttm lists. Needs the ttm mutex.
  */
-extern void drm_bo_delete_vma(struct drm_buffer_object * bo, 
+extern void drm_bo_delete_vma(struct drm_buffer_object * bo,
                              struct vm_area_struct *vma);
 
 /*
  * Attempts to lock all relevant mmap_sems for a ttm, while
- * not releasing the ttm mutex. May return -EAGAIN to avoid 
+ * not releasing the ttm mutex. May return -EAGAIN to avoid
  * deadlocks. In that case the caller shall release the ttm mutex,
  * schedule() and try again.
  */
@@ -292,7 +292,7 @@ extern void drm_bo_unlock_kmm(struct drm_buffer_object * bo);
 extern void drm_bo_finish_unmap(struct drm_buffer_object *bo);
 
 /*
- * Remap all vmas of this ttm using io_remap_pfn_range. We cannot 
+ * Remap all vmas of this ttm using io_remap_pfn_range. We cannot
  * fault these pfns in, because the first one will set the vma VM_PFNMAP
  * flag, which will make the next fault bug in do_nopage(). The function
  * releases the mmap_sems for this ttm.
index 7854e89..83ad291 100644 (file)
@@ -89,7 +89,7 @@ again:
                mutex_unlock(&dev->struct_mutex);
                goto again;
        }
-       
+
        mutex_unlock(&dev->struct_mutex);
        return new_id;
 }
@@ -160,7 +160,7 @@ int drm_getsareactx(struct drm_device *dev, void *data,
        request->handle = NULL;
        list_for_each_entry(_entry, &dev->maplist, head) {
                if (_entry->map == map) {
-                       request->handle = 
+                       request->handle =
                            (void *)(unsigned long)_entry->user_token;
                        break;
                }
index 47d1765..bba8414 100644 (file)
@@ -123,13 +123,13 @@ static struct drm_ioctl_desc drm_ioctls[] = {
        DRM_IOCTL_DEF(DRM_IOCTL_UPDATE_DRAW, drm_update_drawable_info, DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
 
 
-       DRM_IOCTL_DEF(DRM_IOCTL_MM_INIT, drm_mm_init_ioctl, 
+       DRM_IOCTL_DEF(DRM_IOCTL_MM_INIT, drm_mm_init_ioctl,
                      DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
-       DRM_IOCTL_DEF(DRM_IOCTL_MM_TAKEDOWN, drm_mm_takedown_ioctl, 
+       DRM_IOCTL_DEF(DRM_IOCTL_MM_TAKEDOWN, drm_mm_takedown_ioctl,
                      DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
-       DRM_IOCTL_DEF(DRM_IOCTL_MM_LOCK, drm_mm_lock_ioctl, 
+       DRM_IOCTL_DEF(DRM_IOCTL_MM_LOCK, drm_mm_lock_ioctl,
                      DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
-       DRM_IOCTL_DEF(DRM_IOCTL_MM_UNLOCK, drm_mm_unlock_ioctl, 
+       DRM_IOCTL_DEF(DRM_IOCTL_MM_UNLOCK, drm_mm_unlock_ioctl,
                      DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
 
        DRM_IOCTL_DEF(DRM_IOCTL_FENCE_CREATE, drm_fence_create_ioctl, DRM_AUTH),
@@ -244,7 +244,7 @@ int drm_lastclose(struct drm_device * dev)
                list_del(&vma->head);
                drm_ctl_free(vma, sizeof(*vma), DRM_MEM_VMAS);
        }
-       
+
        list_for_each_entry_safe(r_list, list_t, &dev->maplist, head) {
                drm_rmmap_locked(dev, r_list->map);
                r_list = NULL;
@@ -324,7 +324,7 @@ int drm_init(struct drm_driver *driver,
                        pci_get_subsys(pid->vendor, pid->device, pid->subvendor,
                                       pid->subdevice, pdev))) {
                        /* Are there device class requirements? */
-                       if ((pid->class != 0) 
+                       if ((pid->class != 0)
                                && ((pdev->class & pid->class_mask) != pid->class)) {
                                continue;
                        }
@@ -355,7 +355,7 @@ int drm_init(struct drm_driver *driver,
                                               pid->subvendor, pid->subdevice,
                                               pdev))) {
                                /* Are there device class requirements? */
-                               if ((pid->class != 0) 
+                               if ((pid->class != 0)
                                        && ((pdev->class & pid->class_mask) != pid->class)) {
                                        continue;
                                }
@@ -469,19 +469,19 @@ static int __init drm_core_init(void)
        unsigned long max_memctl_mem;
 
        si_meminfo(&si);
-       
+
        /*
         * AGP only allows low / DMA32 memory ATM.
         */
 
        avail_memctl_mem = si.totalram - si.totalhigh;
 
-       /* 
-        * Avoid overflows 
+       /*
+        * Avoid overflows
         */
 
        max_memctl_mem = 1UL << (32 - PAGE_SHIFT);
-       max_memctl_mem = (max_memctl_mem / si.mem_unit) * PAGE_SIZE; 
+       max_memctl_mem = (max_memctl_mem / si.mem_unit) * PAGE_SIZE;
 
        if (avail_memctl_mem >= max_memctl_mem)
                avail_memctl_mem = max_memctl_mem;
index e696b42..d09efeb 100644 (file)
@@ -127,7 +127,7 @@ void drm_fence_handler(struct drm_device * dev, uint32_t fence_class,
                list_for_each_entry(fence, head, ring) {
                        if (&fence->ring == &fc->ring)
                                break;
-                       diff = (fc->last_exe_flush - fence->sequence) &
+                       diff = (fc->last_exe_flush - fence->sequence) &
                                driver->sequence_mask;
                        if (diff > driver->wrap_diff)
                                break;
@@ -497,7 +497,7 @@ static int drm_fence_object_init(struct drm_device * dev, uint32_t fence_class,
        write_lock_irqsave(&fm->lock, flags);
        INIT_LIST_HEAD(&fence->ring);
 
-       /* 
+       /*
         *  Avoid hitting BUG() for kernel-only fence objects.
         */
 
@@ -656,7 +656,7 @@ int drm_fence_create_ioctl(struct drm_device *dev, void *data, struct drm_file *
                drm_fence_usage_deref_unlocked(&fence);
                return ret;
        }
-       
+
        /*
         * usage > 0. No need to lock dev->struct_mutex;
         */
index 0ccaed5..4d0d6be 100644 (file)
@@ -528,4 +528,3 @@ unsigned int drm_poll(struct file *filp, struct poll_table_struct *wait)
        return 0;
 }
 EXPORT_SYMBOL(drm_poll);
-
index a8ec846..dacc83b 100644 (file)
@@ -128,7 +128,7 @@ int drm_ht_insert_item(struct drm_open_hash * ht, struct drm_hash_item * item)
 }
 
 /*
- * Just insert an item and return any "bits" bit key that hasn't been 
+ * Just insert an item and return any "bits" bit key that hasn't been
  * used before.
  */
 int drm_ht_just_insert_please(struct drm_open_hash * ht, struct drm_hash_item * item,
index 0f13767..c090677 100644 (file)
@@ -65,4 +65,3 @@ extern void drm_ht_remove(struct drm_open_hash *ht);
 
 
 #endif
-
index cf0d92f..5911029 100644 (file)
@@ -235,12 +235,12 @@ struct drm_mm_node *drm_mm_search_free(const struct drm_mm * mm,
                entry = list_entry(list, struct drm_mm_node, fl_entry);
                wasted = 0;
 
-               if (entry->size < size) 
+               if (entry->size < size)
                        continue;
 
                if (alignment) {
                        register unsigned tmp = entry->start % alignment;
-                       if (tmp) 
+                       if (tmp)
                                wasted += alignment - tmp;
                }
 
index 0a05e5f..c9c1fdb 100644 (file)
@@ -628,7 +628,7 @@ extern void drm_regs_init(struct drm_reg_manager *manager,
                          void (*reg_destroy)(struct drm_reg *));
 
 /*
- * drm_bo_lock.c 
+ * drm_bo_lock.c
  * Simple replacement for the hardware lock on buffer manager init and clean.
  */
 
@@ -636,10 +636,10 @@ extern void drm_regs_init(struct drm_reg_manager *manager,
 extern void drm_bo_init_lock(struct drm_bo_lock *lock);
 extern void drm_bo_read_unlock(struct drm_bo_lock *lock);
 extern int drm_bo_read_lock(struct drm_bo_lock *lock);
-extern int drm_bo_write_lock(struct drm_bo_lock *lock, 
+extern int drm_bo_write_lock(struct drm_bo_lock *lock,
                             struct drm_file *file_priv);
 
-extern int drm_bo_write_unlock(struct drm_bo_lock *lock, 
+extern int drm_bo_write_unlock(struct drm_bo_lock *lock,
                               struct drm_file *file_priv);
 
 #ifdef CONFIG_DEBUG_MUTEXES
index 84c294e..8921944 100644 (file)
@@ -92,9 +92,9 @@ static __inline__ int mtrr_del(int reg, unsigned long base, unsigned long size)
 #define DRM_COPY_TO_USER(arg1, arg2, arg3)             \
        copy_to_user(arg1, arg2, arg3)
 /* Macros for copyfrom user, but checking readability only once */
-#define DRM_VERIFYAREA_READ( uaddr, size )             \
+#define DRM_VERIFYAREA_READ( uaddr, size )             \
        (access_ok( VERIFY_READ, uaddr, size) ? 0 : -EFAULT)
-#define DRM_COPY_FROM_USER_UNCHECKED(arg1, arg2, arg3)         \
+#define DRM_COPY_FROM_USER_UNCHECKED(arg1, arg2, arg3) \
        __copy_from_user(arg1, arg2, arg3)
 #define DRM_COPY_TO_USER_UNCHECKED(arg1, arg2, arg3)   \
        __copy_to_user(arg1, arg2, arg3)
@@ -143,4 +143,3 @@ do {                                                                \
 #define DRM_SPINLOCK_IRQSAVE(l, _flags)        spin_lock_irqsave(l, _flags);
 #define DRM_SPINUNLOCK_IRQRESTORE(l, _flags) spin_unlock_irqrestore(l, _flags);
 #define DRM_SPINLOCK_ASSERT(l)         do {} while (0)
-
index 3c0f672..920b11c 100644 (file)
@@ -126,7 +126,7 @@ int drm_sg_alloc(struct drm_device *dev, struct drm_scatter_gather * request)
        DRM_DEBUG("sg alloc handle  = %08lx\n", entry->handle);
        DRM_DEBUG("sg alloc virtual = %p\n", entry->virtual);
 
-       for (i = (unsigned long)entry->virtual, j = 0; j < pages; 
+       for (i = (unsigned long)entry->virtual, j = 0; j < pages;
             i += PAGE_SIZE, j++) {
                entry->pagelist[j] = vmalloc_to_page((void *)i);
                if (!entry->pagelist[j])
index dabd174..401704f 100644 (file)
@@ -75,7 +75,7 @@ static int drm_fill_in_dev(struct drm_device * dev, struct pci_dev *pdev,
        mutex_init(&dev->bm.evict_mutex);
 
        idr_init(&dev->drw_idr);
-       
+
        dev->pdev = pdev;
        dev->pci_device = pdev->device;
        dev->pci_vendor = pdev->vendor;
index bad3c94..f961ba4 100644 (file)
@@ -124,7 +124,7 @@ typedef struct _ffb_fbc {
 /*294*/        volatile unsigned int   xpmask;         /* X PlaneMask                          */
 /*298*/        volatile unsigned int   ypmask;         /* Y PlaneMask                          */
 /*29c*/        volatile unsigned int   zpmask;         /* Z PlaneMask                          */
-/*2a0*/        ffb_auxclip             auxclip[4];     /* Auxilliary Viewport Clip             */
+/*2a0*/        ffb_auxclip             auxclip[4];     /* Auxilliary Viewport Clip             */
 
        /* New 3dRAM III support regs */
 /*2c0*/        volatile unsigned int   rawblend2;
@@ -266,7 +266,7 @@ typedef struct ffb_dev_priv {
        int                     prom_node;
        enum ffb_chip_type      ffb_type;
        u64                     card_phys_base;
-       struct miscdevice       miscdev;
+       struct miscdevice       miscdev;
 
        /* Controller registers. */
        ffb_fbcPtr              regs;
index 7c37b4b..949355a 100644 (file)
@@ -41,7 +41,7 @@
 
 #define I810_BUF_FREE          2
 #define I810_BUF_CLIENT                1
-#define I810_BUF_HARDWARE              0
+#define I810_BUF_HARDWARE      0
 
 #define I810_BUF_UNMAPPED 0
 #define I810_BUF_MAPPED   1
@@ -867,7 +867,7 @@ static void i810_dma_quiescent(struct drm_device * dev)
        drm_i810_private_t *dev_priv = dev->dev_private;
        RING_LOCALS;
 
-/*     printk("%s\n", __FUNCTION__); */
+/*     printk("%s\n", __FUNCTION__); */
 
        i810_kernel_lost_context(dev);
 
@@ -888,7 +888,7 @@ static int i810_flush_queue(struct drm_device * dev)
        int i, ret = 0;
        RING_LOCALS;
 
-/*     printk("%s\n", __FUNCTION__); */
+/*     printk("%s\n", __FUNCTION__); */
 
        i810_kernel_lost_context(dev);
 
index c525e16..86278e3 100644 (file)
@@ -25,7 +25,7 @@
  * DEALINGS IN THE SOFTWARE.
  *
  * Authors: Rickard E. (Rik) Faith <faith@valinux.com>
- *         Jeff Hartmann <jhartmann@valinux.com>
+ *         Jeff Hartmann <jhartmann@valinux.com>
  *
  */
 
@@ -134,7 +134,7 @@ extern int i810_max_ioctl;
 #define I810_ADDR(reg)         (I810_BASE(reg) + reg)
 #define I810_DEREF(reg)                *(__volatile__ int *)I810_ADDR(reg)
 #define I810_READ(reg)         I810_DEREF(reg)
-#define I810_WRITE(reg,val)    do { I810_DEREF(reg) = val; } while (0)
+#define I810_WRITE(reg,val)    do { I810_DEREF(reg) = val; } while (0)
 #define I810_DEREF16(reg)      *(__volatile__ u16 *)I810_ADDR(reg)
 #define I810_READ16(reg)       I810_DEREF16(reg)
 #define I810_WRITE16(reg,val)  do { I810_DEREF16(reg) = val; } while (0)
@@ -155,19 +155,19 @@ extern int i810_max_ioctl;
 } while (0)
 
 #define ADVANCE_LP_RING() do {                                 \
-       if (I810_VERBOSE) DRM_DEBUG("ADVANCE_LP_RING\n");       \
+       if (I810_VERBOSE) DRM_DEBUG("ADVANCE_LP_RING\n");       \
        dev_priv->ring.tail = outring;                          \
        I810_WRITE(LP_RING + RING_TAIL, outring);               \
 } while(0)
 
-#define OUT_RING(n) do {                                               \
+#define OUT_RING(n) do {                                               \
        if (I810_VERBOSE) DRM_DEBUG("   OUT_RING %x\n", (int)(n));      \
        *(volatile unsigned int *)(virt + outring) = n;                 \
        outring += 4;                                                   \
        outring &= ringmask;                                            \
 } while (0)
 
-#define GFX_OP_USER_INTERRUPT          ((0<<29)|(2<<23))
+#define GFX_OP_USER_INTERRUPT          ((0<<29)|(2<<23))
 #define GFX_OP_BREAKPOINT_INTERRUPT    ((0<<29)|(1<<23))
 #define CMD_REPORT_HEAD                        (7<<23)
 #define CMD_STORE_DWORD_IDX            ((0x21<<23) | 0x1)
@@ -184,28 +184,28 @@ extern int i810_max_ioctl;
 
 #define I810REG_HWSTAM         0x02098
 #define I810REG_INT_IDENTITY_R 0x020a4
-#define I810REG_INT_MASK_R     0x020a8
+#define I810REG_INT_MASK_R     0x020a8
 #define I810REG_INT_ENABLE_R   0x020a0
 
-#define LP_RING                0x2030
-#define HP_RING                0x2040
-#define RING_TAIL                      0x00
+#define LP_RING                        0x2030
+#define HP_RING                        0x2040
+#define RING_TAIL              0x00
 #define TAIL_ADDR              0x000FFFF8
-#define RING_HEAD                      0x04
-#define HEAD_WRAP_COUNT        0xFFE00000
-#define HEAD_WRAP_ONE          0x00200000
-#define HEAD_ADDR              0x001FFFFC
-#define RING_START                     0x08
-#define START_ADDR             0x00FFFFF8
-#define RING_LEN                       0x0C
-#define RING_NR_PAGES          0x000FF000
-#define RING_REPORT_MASK       0x00000006
-#define RING_REPORT_64K        0x00000002
-#define RING_REPORT_128K       0x00000004
-#define RING_NO_REPORT         0x00000000
-#define RING_VALID_MASK        0x00000001
-#define RING_VALID             0x00000001
-#define RING_INVALID           0x00000000
+#define RING_HEAD              0x04
+#define HEAD_WRAP_COUNT                0xFFE00000
+#define HEAD_WRAP_ONE          0x00200000
+#define HEAD_ADDR              0x001FFFFC
+#define RING_START             0x08
+#define START_ADDR             0x00FFFFF8
+#define RING_LEN               0x0C
+#define RING_NR_PAGES          0x000FF000
+#define RING_REPORT_MASK       0x00000006
+#define RING_REPORT_64K                0x00000002
+#define RING_REPORT_128K       0x00000004
+#define RING_NO_REPORT         0x00000000
+#define RING_VALID_MASK                0x00000001
+#define RING_VALID             0x00000001
+#define RING_INVALID           0x00000000
 
 #define GFX_OP_SCISSOR         ((0x3<<29)|(0x1c<<24)|(0x10<<19))
 #define SC_UPDATE_SCISSOR       (0x1<<1)
index bbc7e1d..1f88a51 100644 (file)
@@ -1,8 +1,8 @@
 /**************************************************************************
- * 
+ *
  * Copyright 2006 Tungsten Graphics, Inc., Bismarck, ND., USA
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
  * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
- * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR 
- * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE 
+ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
+ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
  * USE OR OTHER DEALINGS IN THE SOFTWARE.
  *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
- * 
- * 
+ *
+ *
  **************************************************************************/
 /*
  * Authors: Thomas Hellström <thomas-at-tungstengraphics-dot-com>
@@ -183,7 +183,7 @@ static int i915_move_blit(struct drm_buffer_object * bo,
 }
 
 /*
- * Flip destination ttm into cached-coherent AGP, 
+ * Flip destination ttm into cached-coherent AGP,
  * then blit and subsequently move out again.
  */
 
@@ -258,7 +258,7 @@ static inline void clflush(volatile void *__p)
 #endif
 
 static inline void drm_cache_flush_addr(void *virt)
-{ 
+{
         int i;
 
        for (i = 0; i < PAGE_SIZE; i += boot_cpu_data.x86_clflush_size)
index 969d597..3a437a1 100644 (file)
@@ -91,7 +91,7 @@ static void intel_i965_g33_setup_chipset_flush(struct pci_dev *pdev)
                pci_write_config_dword(pdev, I965_IFPADDR, (intel_private.ifp_resource.start & 0xffffffff) | 0x1);
        } else {
                u64 l64;
-               
+
                temp_lo &= ~0x1;
                l64 = ((u64)temp_hi << 32) | temp_lo;
 
index 124db68..798491a 100644 (file)
@@ -1,10 +1,10 @@
 /* i915_drv.c -- i830,i845,i855,i865,i915 driver -*- linux-c -*-
  */
 /*
- * 
+ *
  * Copyright 2003 Tungsten Graphics, Inc., Cedar Park, Texas.
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
- * 
+ *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS
  * OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT.
@@ -24,7 +24,7 @@
  * ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT,
  * TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
  * SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
- * 
+ *
  */
 
 #include "drmP.h"
@@ -420,7 +420,7 @@ static int i915_resume(struct drm_device *dev)
        I915_WRITE(VBLANK_A, dev_priv->saveVBLANK_A);
        I915_WRITE(VSYNC_A, dev_priv->saveVSYNC_A);
        I915_WRITE(BCLRPAT_A, dev_priv->saveBCLRPAT_A);
-   
+
        /* Restore plane info */
        I915_WRITE(DSPASIZE, dev_priv->saveDSPASIZE);
        I915_WRITE(DSPAPOS, dev_priv->saveDSPAPOS);
@@ -451,7 +451,7 @@ static int i915_resume(struct drm_device *dev)
        if (IS_I965G(dev))
                I915_WRITE(DPLL_B_MD, dev_priv->saveDPLL_B_MD);
        udelay(150);
-   
+
        /* Restore mode */
        I915_WRITE(HTOTAL_B, dev_priv->saveHTOTAL_B);
        I915_WRITE(HBLANK_B, dev_priv->saveHBLANK_B);
index a0f2278..f2c2982 100644 (file)
@@ -1,8 +1,8 @@
 /**************************************************************************
- * 
+ *
  * Copyright 2006 Tungsten Graphics, Inc., Bismarck, ND., USA
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
  * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
- * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR 
- * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE 
+ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
+ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
  * USE OR OTHER DEALINGS IN THE SOFTWARE.
  *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
- * 
- * 
+ *
+ *
  **************************************************************************/
 /*
  * Authors: Thomas Hellström <thomas-at-tungstengraphics-dot-com>
@@ -70,7 +70,7 @@ static void i915_perform_flush(struct drm_device * dev)
                if (dev_priv->fence_irq_on && !fc->pending_exe_flush) {
                        i915_user_irq_off(dev_priv);
                        dev_priv->fence_irq_on = 0;
-               } else if (!dev_priv->fence_irq_on && fc->pending_exe_flush) { 
+               } else if (!dev_priv->fence_irq_on && fc->pending_exe_flush) {
                        i915_user_irq_on(dev_priv);
                        dev_priv->fence_irq_on = 1;
                }
index c1e776b..7e733d3 100644 (file)
@@ -3,7 +3,7 @@
  *
  * 32-bit ioctl compatibility routines for the i915 DRM.
  *
- * \author Alan Hourihane <alanh@fairlite.demon.co.uk> 
+ * \author Alan Hourihane <alanh@fairlite.demon.co.uk>
  *
  *
  * Copyright (C) Paul Mackerras 2005
@@ -49,11 +49,11 @@ static int compat_i915_batchbuffer(struct file *file, unsigned int cmd,
 {
        drm_i915_batchbuffer32_t batchbuffer32;
        drm_i915_batchbuffer_t __user *batchbuffer;
-       
+
        if (copy_from_user
            (&batchbuffer32, (void __user *)arg, sizeof(batchbuffer32)))
                return -EFAULT;
-       
+
        batchbuffer = compat_alloc_user_space(sizeof(*batchbuffer));
        if (!access_ok(VERIFY_WRITE, batchbuffer, sizeof(*batchbuffer))
            || __put_user(batchbuffer32.start, &batchbuffer->start)
@@ -65,7 +65,7 @@ static int compat_i915_batchbuffer(struct file *file, unsigned int cmd,
            || __put_user((int __user *)(unsigned long)batchbuffer32.cliprects,
                          &batchbuffer->cliprects))
                return -EFAULT;
-       
+
        return drm_ioctl(file->f_dentry->d_inode, file,
                         DRM_IOCTL_I915_BATCHBUFFER,
                         (unsigned long) batchbuffer);
@@ -85,11 +85,11 @@ static int compat_i915_cmdbuffer(struct file *file, unsigned int cmd,
 {
        drm_i915_cmdbuffer32_t cmdbuffer32;
        drm_i915_cmdbuffer_t __user *cmdbuffer;
-       
+
        if (copy_from_user
            (&cmdbuffer32, (void __user *)arg, sizeof(cmdbuffer32)))
                return -EFAULT;
-       
+
        cmdbuffer = compat_alloc_user_space(sizeof(*cmdbuffer));
        if (!access_ok(VERIFY_WRITE, cmdbuffer, sizeof(*cmdbuffer))
            || __put_user((int __user *)(unsigned long)cmdbuffer32.buf,
@@ -101,7 +101,7 @@ static int compat_i915_cmdbuffer(struct file *file, unsigned int cmd,
            || __put_user((int __user *)(unsigned long)cmdbuffer32.cliprects,
                          &cmdbuffer->cliprects))
                return -EFAULT;
-       
+
        return drm_ioctl(file->f_dentry->d_inode, file,
                         DRM_IOCTL_I915_CMDBUFFER, (unsigned long) cmdbuffer);
 }
@@ -208,7 +208,7 @@ long i915_compat_ioctl(struct file *filp, unsigned int cmd, unsigned long arg)
 
        if (nr < DRM_COMMAND_BASE)
                return drm_compat_ioctl(filp, cmd, arg);
-       
+
        if (nr < DRM_COMMAND_BASE + DRM_ARRAY_SIZE(i915_compat_ioctls))
                fn = i915_compat_ioctls[nr - DRM_COMMAND_BASE];
 
index 1eb6d9e..e3d26a0 100644 (file)
@@ -140,7 +140,7 @@ static int mga_driver_device_is_agp(struct drm_device * dev)
         * device is 0x0021 (HB6 Universal PCI-PCI bridge), we reject the
         * device.
         */
-       
+
        if ((pdev->device == 0x0525) && pdev->bus->self
             && (pdev->bus->self->vendor == 0x3388)
             && (pdev->bus->self->device == 0x0021) ) {
index 75f2a23..e3df567 100644 (file)
 
 typedef struct drm32_mga_init {
        int func;
-       u32 sarea_priv_offset;
+       u32 sarea_priv_offset;
        int chipset;
-       int sgram;
+       int sgram;
        unsigned int maccess;
-       unsigned int fb_cpp;
+       unsigned int fb_cpp;
        unsigned int front_offset, front_pitch;
-       unsigned int back_offset, back_pitch;
-       unsigned int depth_cpp;
-       unsigned int depth_offset, depth_pitch;
-       unsigned int texture_offset[MGA_NR_TEX_HEAPS];
-       unsigned int texture_size[MGA_NR_TEX_HEAPS];
+       unsigned int back_offset, back_pitch;
+       unsigned int depth_cpp;
+       unsigned int depth_offset, depth_pitch;
+       unsigned int texture_offset[MGA_NR_TEX_HEAPS];
+       unsigned int texture_size[MGA_NR_TEX_HEAPS];
        u32 fb_offset;
        u32 mmio_offset;
        u32 status_offset;
@@ -64,10 +64,10 @@ static int compat_mga_init(struct file *file, unsigned int cmd,
        drm_mga_init32_t init32;
        drm_mga_init_t __user *init;
        int err = 0, i;
-       
+
        if (copy_from_user(&init32, (void __user *)arg, sizeof(init32)))
                return -EFAULT;
-       
+
        init = compat_alloc_user_space(sizeof(*init));
        if (!access_ok(VERIFY_WRITE, init, sizeof(*init))
            || __put_user(init32.func, &init->func)
@@ -90,7 +90,7 @@ static int compat_mga_init(struct file *file, unsigned int cmd,
            || __put_user(init32.primary_offset, &init->primary_offset)
            || __put_user(init32.buffers_offset, &init->buffers_offset))
                return -EFAULT;
-       
+
        for (i=0; i<MGA_NR_TEX_HEAPS; i++)
        {
                err |= __put_user(init32.texture_offset[i], &init->texture_offset[i]);
@@ -98,7 +98,7 @@ static int compat_mga_init(struct file *file, unsigned int cmd,
        }
        if (err)
                return -EFAULT;
-       
+
        return drm_ioctl(file->f_dentry->d_inode, file,
                         DRM_IOCTL_MGA_INIT, (unsigned long) init);
 }
@@ -115,7 +115,7 @@ static int compat_mga_getparam(struct file *file, unsigned int cmd,
 {
        drm_mga_getparam32_t getparam32;
        drm_mga_getparam_t __user *getparam;
-       
+
        if (copy_from_user(&getparam32, (void __user *)arg, sizeof(getparam32)))
                return -EFAULT;
 
@@ -125,7 +125,7 @@ static int compat_mga_getparam(struct file *file, unsigned int cmd,
            || __put_user((void __user *)(unsigned long)getparam32.value, &getparam->value))
                return -EFAULT;
 
-       return drm_ioctl(file->f_dentry->d_inode, file, 
+       return drm_ioctl(file->f_dentry->d_inode, file,
                         DRM_IOCTL_MGA_GETPARAM, (unsigned long)getparam);
 }
 
@@ -189,7 +189,7 @@ static int compat_mga_dma_bootstrap(struct file *file, unsigned int cmd,
                return -EFAULT;
 
        if (copy_to_user((void __user *)arg, &dma_bootstrap32,
-                        sizeof(dma_bootstrap32)))
+                        sizeof(dma_bootstrap32)))
                return -EFAULT;
 
        return 0;
@@ -219,7 +219,7 @@ long mga_compat_ioctl(struct file *filp, unsigned int cmd,
 
        if (nr < DRM_COMMAND_BASE)
                return drm_compat_ioctl(filp, cmd, arg);
-       
+
        if (nr < DRM_COMMAND_BASE + DRM_ARRAY_SIZE(mga_compat_ioctls))
                fn = mga_compat_ioctls[nr - DRM_COMMAND_BASE];
 
index 80ba175..c40dff6 100644 (file)
@@ -95,7 +95,7 @@ nouveau_bo_init_mem_type(struct drm_device *dev, uint32_t type,
                        man->io_size = nouveau_mem_fb_amount(dev);
                break;
        case DRM_BO_MEM_PRIV0:
-               /* Unmappable VRAM */              
+               /* Unmappable VRAM */
                man->flags = _DRM_FLAG_MEMTYPE_CMA;
                man->drm_bus_maptype = 0;
                break;
@@ -254,4 +254,3 @@ struct drm_bo_driver nouveau_bo_driver = {
        .move = nouveau_bo_move,
        .ttm_cache_flush= nouveau_bo_flush_ttm
 };
-
index ac70d7a..e9623eb 100644 (file)
@@ -80,7 +80,7 @@ static struct drm_driver driver = {
                .probe = probe,
                .remove = __devexit_p(drm_cleanup_pci),
        },
-        
+
         .bo_driver = &nouveau_bo_driver,
         .fence_driver = &nouveau_fence_driver,
 
index 6f3259f..b3e81a8 100644 (file)
@@ -131,4 +131,3 @@ struct drm_fence_driver nouveau_fence_driver = {
        .emit           = nouveau_fence_emit,
        .poke_flush     = nouveau_fence_poke_flush
 };
-
index b86c5d7..f3bf534 100644 (file)
@@ -128,7 +128,7 @@ nouveau_sgdma_unbind(struct drm_ttm_backend *be)
        if (nvbe->is_bound) {
                struct nouveau_gpuobj *gpuobj = dev_priv->gart_info.sg_ctxdma;
                unsigned int pte;
-               
+
                pte = nvbe->pte_start;
                while (pte < (nvbe->pte_start + nvbe->pages)) {
                        uint64_t pteval = dev_priv->gart_info.sg_dummy_bus;
@@ -336,4 +336,3 @@ nouveau_sgdma_get_page(struct drm_device *dev, uint32_t offset, uint32_t *page)
        DRM_ERROR("Unimplemented on NV50\n");
        return -EINVAL;
 }
-
index 6b75757..64b1679 100644 (file)
@@ -64,10 +64,10 @@ static int compat_r128_init(struct file *file, unsigned int cmd,
 {
        drm_r128_init32_t init32;
        drm_r128_init_t __user *init;
-       
+
        if (copy_from_user(&init32, (void __user *)arg, sizeof(init32)))
                return -EFAULT;
-       
+
        init = compat_alloc_user_space(sizeof(*init));
        if (!access_ok(VERIFY_WRITE, init, sizeof(*init))
            || __put_user(init32.func, &init->func)
@@ -94,7 +94,7 @@ static int compat_r128_init(struct file *file, unsigned int cmd,
            || __put_user(init32.agp_textures_offset,
                          &init->agp_textures_offset))
                return -EFAULT;
-       
+
        return drm_ioctl(file->f_dentry->d_inode, file,
                         DRM_IOCTL_R128_INIT, (unsigned long)init);
 }
index 327a6a9..d847f3c 100644 (file)
@@ -49,7 +49,7 @@ static int dri_library_name(struct drm_device * dev, char * buf)
        return snprintf(buf, PAGE_SIZE, "%s\n",
                (family < CHIP_R200) ? "radeon" :
                ((family < CHIP_R300) ? "r200" :
-               "r300"));
+               "r300"));
 }
 
 static struct pci_device_id pciidlist[] = {
index 9222b08..2225ec8 100644 (file)
@@ -249,7 +249,7 @@ sis_idle(struct drm_device *dev)
                        return 0;
                }
        }
-       
+
        /*
         * Implement a device switch here if needed
         */
index a6c5983..ea75524 100644 (file)
@@ -94,9 +94,9 @@ int via_init_mem_type(struct drm_device * dev, uint32_t type,
                man->drm_bus_maptype = 0;
                break;
 
-       case DRM_BO_MEM_TT: 
+       case DRM_BO_MEM_TT:
                /* Dynamic agpgart memory */
-               
+
                if (!(drm_core_has_AGP(dev) && dev->agp)) {
                        DRM_ERROR("AGP is not enabled for memory type %u\n",
                                  (unsigned)type);
@@ -109,21 +109,21 @@ int via_init_mem_type(struct drm_device * dev, uint32_t type,
 
                /* Only to get pte protection right. */
 
-               man->drm_bus_maptype = _DRM_AGP; 
+               man->drm_bus_maptype = _DRM_AGP;
                break;
 
-       case DRM_BO_MEM_VRAM: 
+       case DRM_BO_MEM_VRAM:
                /* "On-card" video ram */
-               
+
                man->flags = _DRM_FLAG_MEMTYPE_MAPPABLE | _DRM_FLAG_NEEDS_IOREMAP;
                man->drm_bus_maptype = _DRM_FRAME_BUFFER;
                man->io_addr = NULL;
                return via_vram_info(dev, &man->io_offset, &man->io_size);
                break;
 
-       case DRM_BO_MEM_PRIV0: 
+       case DRM_BO_MEM_PRIV0:
                /* Pre-bound agpgart memory */
-               
+
                if (!(drm_core_has_AGP(dev) && dev->agp)) {
                        DRM_ERROR("AGP is not enabled for memory type %u\n",
                                  (unsigned)type);
index d44c26f..e285ca7 100644 (file)
@@ -1,5 +1,5 @@
 /* via_dmablit.c -- PCI DMA BitBlt support for the VIA Unichrome/Pro
- * 
+ *
  * Copyright (C) 2005 Thomas Hellstrom, All Rights Reserved.
  *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
- * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, 
- * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR 
- * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE 
+ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
+ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
+ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
  * USE OR OTHER DEALINGS IN THE SOFTWARE.
  *
- * Authors: 
+ * Authors:
  *    Thomas Hellstrom.
  *    Partially based on code obtained from Digeo Inc.
  */
 
 
 /*
- * Unmaps the DMA mappings. 
- * FIXME: Is this a NoOp on x86? Also 
- * FIXME: What happens if this one is called and a pending blit has previously done 
- * the same DMA mappings? 
+ * Unmaps the DMA mappings.
+ * FIXME: Is this a NoOp on x86? Also
+ * FIXME: What happens if this one is called and a pending blit has previously done
+ * the same DMA mappings?
  */
 
 #include "drmP.h"
@@ -65,7 +65,7 @@ via_unmap_blit_from_device(struct pci_dev *pdev, drm_via_sg_info_t *vsg)
        int num_desc = vsg->num_desc;
        unsigned cur_descriptor_page = num_desc / vsg->descriptors_per_page;
        unsigned descriptor_this_page = num_desc % vsg->descriptors_per_page;
-       drm_via_descriptor_t *desc_ptr = vsg->desc_pages[cur_descriptor_page] + 
+       drm_via_descriptor_t *desc_ptr = vsg->desc_pages[cur_descriptor_page] +
                descriptor_this_page;
        dma_addr_t next = vsg->chain_start;
 
@@ -73,7 +73,7 @@ via_unmap_blit_from_device(struct pci_dev *pdev, drm_via_sg_info_t *vsg)
                if (descriptor_this_page-- == 0) {
                        cur_descriptor_page--;
                        descriptor_this_page = vsg->descriptors_per_page - 1;
-                       desc_ptr = vsg->desc_pages[cur_descriptor_page] + 
+                       desc_ptr = vsg->desc_pages[cur_descriptor_page] +
                                descriptor_this_page;
                }
                dma_unmap_single(&pdev->dev, next, sizeof(*desc_ptr), DMA_TO_DEVICE);
@@ -93,7 +93,7 @@ via_unmap_blit_from_device(struct pci_dev *pdev, drm_via_sg_info_t *vsg)
 static void
 via_map_blit_for_device(struct pci_dev *pdev,
                   const drm_via_dmablit_t *xfer,
-                  drm_via_sg_info_t *vsg, 
+                  drm_via_sg_info_t *vsg,
                   int mode)
 {
        unsigned cur_descriptor_page = 0;
@@ -110,7 +110,7 @@ via_map_blit_for_device(struct pci_dev *pdev,
        dma_addr_t next = 0 | VIA_DMA_DPR_EC;
        drm_via_descriptor_t *desc_ptr = NULL;
 
-       if (mode == 1) 
+       if (mode == 1)
                desc_ptr = vsg->desc_pages[cur_descriptor_page];
 
        for (cur_line = 0; cur_line < xfer->num_lines; ++cur_line) {
@@ -118,7 +118,7 @@ via_map_blit_for_device(struct pci_dev *pdev,
                line_len = xfer->line_length;
                cur_fb = fb_addr;
                cur_mem = mem_addr;
-               
+
                while (line_len > 0) {
 
                        remaining_len = min(PAGE_SIZE-VIA_PGOFF(cur_mem), line_len);
@@ -131,10 +131,10 @@ via_map_blit_for_device(struct pci_dev *pdev,
                                        VIA_PGOFF(cur_mem), remaining_len,
                                        vsg->direction);
                                desc_ptr->dev_addr = cur_fb;
-                               
+
                                desc_ptr->size = remaining_len;
                                desc_ptr->next = (uint32_t) next;
-                               next = dma_map_single(&pdev->dev, desc_ptr, sizeof(*desc_ptr), 
+                               next = dma_map_single(&pdev->dev, desc_ptr, sizeof(*desc_ptr),
                                                      DMA_TO_DEVICE);
                                desc_ptr++;
                                if (++num_descriptors_this_page >= vsg->descriptors_per_page) {
@@ -142,12 +142,12 @@ via_map_blit_for_device(struct pci_dev *pdev,
                                        desc_ptr = vsg->desc_pages[++cur_descriptor_page];
                                }
                        }
-                       
+
                        num_desc++;
                        cur_mem += remaining_len;
                        cur_fb += remaining_len;
                }
-               
+
                mem_addr += xfer->mem_stride;
                fb_addr += xfer->fb_stride;
        }
@@ -160,14 +160,14 @@ via_map_blit_for_device(struct pci_dev *pdev,
 }
 
 /*
- * Function that frees up all resources for a blit. It is usable even if the 
+ * Function that frees up all resources for a blit. It is usable even if the
  * blit info has only been partially built as long as the status enum is consistent
  * with the actual status of the used resources.
  */
 
 
 static void
-via_free_sg_info(struct pci_dev *pdev, drm_via_sg_info_t *vsg) 
+via_free_sg_info(struct pci_dev *pdev, drm_via_sg_info_t *vsg)
 {
        struct page *page;
        int i;
@@ -184,7 +184,7 @@ via_free_sg_info(struct pci_dev *pdev, drm_via_sg_info_t *vsg)
        case dr_via_pages_locked:
                for (i=0; i<vsg->num_pages; ++i) {
                        if ( NULL != (page = vsg->pages[i])) {
-                               if (! PageReserved(page) && (DMA_FROM_DEVICE == vsg->direction)) 
+                               if (! PageReserved(page) && (DMA_FROM_DEVICE == vsg->direction))
                                        SetPageDirty(page);
                                page_cache_release(page);
                        }
@@ -199,7 +199,7 @@ via_free_sg_info(struct pci_dev *pdev, drm_via_sg_info_t *vsg)
                vsg->bounce_buffer = NULL;
        }
        vsg->free_on_sequence = 0;
-}              
+}
 
 /*
  * Fire a blit engine.
@@ -212,7 +212,7 @@ via_fire_dmablit(struct drm_device *dev, drm_via_sg_info_t *vsg, int engine)
 
        VIA_WRITE(VIA_PCI_DMA_MAR0 + engine*0x10, 0);
        VIA_WRITE(VIA_PCI_DMA_DAR0 + engine*0x10, 0);
-       VIA_WRITE(VIA_PCI_DMA_CSR0 + engine*0x04, VIA_DMA_CSR_DD | VIA_DMA_CSR_TD | 
+       VIA_WRITE(VIA_PCI_DMA_CSR0 + engine*0x04, VIA_DMA_CSR_DD | VIA_DMA_CSR_TD |
                  VIA_DMA_CSR_DE);
        VIA_WRITE(VIA_PCI_DMA_MR0  + engine*0x04, VIA_DMA_MR_CM | VIA_DMA_MR_TDIE);
        VIA_WRITE(VIA_PCI_DMA_BCR0 + engine*0x10, 0);
@@ -232,20 +232,20 @@ via_lock_all_dma_pages(drm_via_sg_info_t *vsg,  drm_via_dmablit_t *xfer)
 {
        int ret;
        unsigned long first_pfn = VIA_PFN(xfer->mem_addr);
-       vsg->num_pages = VIA_PFN(xfer->mem_addr + (xfer->num_lines * xfer->mem_stride -1)) - 
+       vsg->num_pages = VIA_PFN(xfer->mem_addr + (xfer->num_lines * xfer->mem_stride -1)) -
                first_pfn + 1;
-       
+
        if (NULL == (vsg->pages = vmalloc(sizeof(struct page *) * vsg->num_pages)))
                return -ENOMEM;
        memset(vsg->pages, 0, sizeof(struct page *) * vsg->num_pages);
        down_read(&current->mm->mmap_sem);
        ret = get_user_pages(current, current->mm, (unsigned long) xfer->mem_addr,
-                            vsg->num_pages, (vsg->direction == DMA_FROM_DEVICE), 
+                            vsg->num_pages, (vsg->direction == DMA_FROM_DEVICE),
                             0, vsg->pages, NULL);
 
        up_read(&current->mm->mmap_sem);
        if (ret != vsg->num_pages) {
-               if (ret < 0) 
+               if (ret < 0)
                        return ret;
                vsg->state = dr_via_pages_locked;
                return -EINVAL;
@@ -261,22 +261,22 @@ via_lock_all_dma_pages(drm_via_sg_info_t *vsg,  drm_via_dmablit_t *xfer)
  * quite large for some blits, and pages don't need to be contingous.
  */
 
-static int 
+static int
 via_alloc_desc_pages(drm_via_sg_info_t *vsg)
 {
        int i;
-       
+
        vsg->descriptors_per_page = PAGE_SIZE / sizeof( drm_via_descriptor_t);
-       vsg->num_desc_pages = (vsg->num_desc + vsg->descriptors_per_page - 1) / 
+       vsg->num_desc_pages = (vsg->num_desc + vsg->descriptors_per_page - 1) /
                vsg->descriptors_per_page;
 
-       if (NULL ==  (vsg->desc_pages = kmalloc(sizeof(void *) * vsg->num_desc_pages, GFP_KERNEL))) 
+       if (NULL ==  (vsg->desc_pages = kmalloc(sizeof(void *) * vsg->num_desc_pages, GFP_KERNEL)))
                return -ENOMEM;
-       
+
        memset(vsg->desc_pages, 0, sizeof(void *) * vsg->num_desc_pages);
        vsg->state = dr_via_desc_pages_alloc;
        for (i=0; i<vsg->num_desc_pages; ++i) {
-               if (NULL == (vsg->desc_pages[i] = 
+               if (NULL == (vsg->desc_pages[i] =
                             (drm_via_descriptor_t *) __get_free_page(GFP_KERNEL)))
                        return -ENOMEM;
        }
@@ -284,7 +284,7 @@ via_alloc_desc_pages(drm_via_sg_info_t *vsg)
                  vsg->num_desc);
        return 0;
 }
-                       
+
 static void
 via_abort_dmablit(struct drm_device *dev, int engine)
 {
@@ -298,7 +298,7 @@ via_dmablit_engine_off(struct drm_device *dev, int engine)
 {
        drm_via_private_t *dev_priv = (drm_via_private_t *)dev->dev_private;
 
-       VIA_WRITE(VIA_PCI_DMA_CSR0 + engine*0x04, VIA_DMA_CSR_TD | VIA_DMA_CSR_DD); 
+       VIA_WRITE(VIA_PCI_DMA_CSR0 + engine*0x04, VIA_DMA_CSR_TD | VIA_DMA_CSR_DD);
 }
 
 
@@ -309,7 +309,7 @@ via_dmablit_engine_off(struct drm_device *dev, int engine)
  * task. Basically the task of the interrupt handler is to submit a new blit to the engine, while
  * the workqueue task takes care of processing associated with the old blit.
  */
-               
+
 void
 via_dmablit_handler(struct drm_device *dev, int engine, int from_irq)
 {
@@ -329,19 +329,19 @@ via_dmablit_handler(struct drm_device *dev, int engine, int from_irq)
                spin_lock_irqsave(&blitq->blit_lock, irqsave);
        }
 
-       done_transfer = blitq->is_active && 
+       done_transfer = blitq->is_active &&
          (( status = VIA_READ(VIA_PCI_DMA_CSR0 + engine*0x04)) & VIA_DMA_CSR_TD);
-       done_transfer = done_transfer || ( blitq->aborting && !(status & VIA_DMA_CSR_DE)); 
+       done_transfer = done_transfer || ( blitq->aborting && !(status & VIA_DMA_CSR_DE));
 
        cur = blitq->cur;
        if (done_transfer) {
 
                blitq->blits[cur]->aborted = blitq->aborting;
                blitq->done_blit_handle++;
-               DRM_WAKEUP(blitq->blit_queue + cur);            
+               DRM_WAKEUP(blitq->blit_queue + cur);
 
                cur++;
-               if (cur >= VIA_NUM_BLIT_SLOTS) 
+               if (cur >= VIA_NUM_BLIT_SLOTS)
                        cur = 0;
                blitq->cur = cur;
 
@@ -353,7 +353,7 @@ via_dmablit_handler(struct drm_device *dev, int engine, int from_irq)
 
                blitq->is_active = 0;
                blitq->aborting = 0;
-               schedule_work(&blitq->wq);      
+               schedule_work(&blitq->wq);
 
        } else if (blitq->is_active && time_after_eq(jiffies, blitq->end)) {
 
@@ -365,7 +365,7 @@ via_dmablit_handler(struct drm_device *dev, int engine, int from_irq)
                blitq->aborting = 1;
                blitq->end = jiffies + DRM_HZ;
        }
-                       
+
        if (!blitq->is_active) {
                if (blitq->num_outstanding) {
                        via_fire_dmablit(dev, blitq->blits[cur], engine);
@@ -383,14 +383,14 @@ via_dmablit_handler(struct drm_device *dev, int engine, int from_irq)
                        }
                        via_dmablit_engine_off(dev, engine);
                }
-       }               
+       }
 
        if (from_irq) {
                spin_unlock(&blitq->blit_lock);
        } else {
                spin_unlock_irqrestore(&blitq->blit_lock, irqsave);
        }
-} 
+}
 
 
 
@@ -426,13 +426,13 @@ via_dmablit_active(drm_via_blitq_t *blitq, int engine, uint32_t handle, wait_que
 
        return active;
 }
-       
+
 /*
  * Sync. Wait for at least three seconds for the blit to be performed.
  */
 
 static int
-via_dmablit_sync(struct drm_device *dev, uint32_t handle, int engine) 
+via_dmablit_sync(struct drm_device *dev, uint32_t handle, int engine)
 {
 
        drm_via_private_t *dev_priv = (drm_via_private_t *)dev->dev_private;
@@ -441,12 +441,12 @@ via_dmablit_sync(struct drm_device *dev, uint32_t handle, int engine)
        int ret = 0;
 
        if (via_dmablit_active(blitq, engine, handle, &queue)) {
-               DRM_WAIT_ON(ret, *queue, 3 * DRM_HZ, 
+               DRM_WAIT_ON(ret, *queue, 3 * DRM_HZ,
                            !via_dmablit_active(blitq, engine, handle, NULL));
        }
        DRM_DEBUG("DMA blit sync handle 0x%x engine %d returned %d\n",
                  handle, engine, ret);
-       
+
        return ret;
 }
 
@@ -468,12 +468,12 @@ via_dmablit_timer(unsigned long data)
        struct drm_device *dev = blitq->dev;
        int engine = (int)
                (blitq - ((drm_via_private_t *)dev->dev_private)->blit_queues);
-               
-       DRM_DEBUG("Polling timer called for engine %d, jiffies %lu\n", engine, 
+
+       DRM_DEBUG("Polling timer called for engine %d, jiffies %lu\n", engine,
                  (unsigned long) jiffies);
 
        via_dmablit_handler(dev, engine, 0);
-       
+
        if (!timer_pending(&blitq->poll_timer)) {
                blitq->poll_timer.expires = jiffies+1;
                add_timer(&blitq->poll_timer);
@@ -497,7 +497,7 @@ via_dmablit_timer(unsigned long data)
  */
 
 
-static void 
+static void
 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,20)
 via_dmablit_workqueue(void *data)
 #else
@@ -513,38 +513,38 @@ via_dmablit_workqueue(struct work_struct *work)
        unsigned long irqsave;
        drm_via_sg_info_t *cur_sg;
        int cur_released;
-       
-       
-       DRM_DEBUG("Workqueue task called for blit engine %ld\n",(unsigned long) 
+
+
+       DRM_DEBUG("Workqueue task called for blit engine %ld\n",(unsigned long)
                  (blitq - ((drm_via_private_t *)dev->dev_private)->blit_queues));
 
        spin_lock_irqsave(&blitq->blit_lock, irqsave);
-       
+
        while(blitq->serviced != blitq->cur) {
 
                cur_released = blitq->serviced++;
 
                DRM_DEBUG("Releasing blit slot %d\n", cur_released);
 
-               if (blitq->serviced >= VIA_NUM_BLIT_SLOTS) 
+               if (blitq->serviced >= VIA_NUM_BLIT_SLOTS)
                        blitq->serviced = 0;
-               
+
                cur_sg = blitq->blits[cur_released];
                blitq->num_free++;
-                               
+
                spin_unlock_irqrestore(&blitq->blit_lock, irqsave);
-               
+
                DRM_WAKEUP(&blitq->busy_queue);
-               
+
                via_free_sg_info(dev->pdev, cur_sg);
                kfree(cur_sg);
-               
+
                spin_lock_irqsave(&blitq->blit_lock, irqsave);
        }
 
        spin_unlock_irqrestore(&blitq->blit_lock, irqsave);
 }
-       
+
 
 /*
  * Init all blit engines. Currently we use two, but some hardware have 4.
@@ -558,8 +558,8 @@ via_init_dmablit(struct drm_device *dev)
        drm_via_private_t *dev_priv = (drm_via_private_t *)dev->dev_private;
        drm_via_blitq_t *blitq;
 
-       pci_set_master(dev->pdev);      
-       
+       pci_set_master(dev->pdev);
+
        for (i=0; i< VIA_NUM_BLIT_ENGINES; ++i) {
                blitq = dev_priv->blit_queues + i;
                blitq->dev = dev;
@@ -585,20 +585,20 @@ via_init_dmablit(struct drm_device *dev)
                init_timer(&blitq->poll_timer);
                blitq->poll_timer.function = &via_dmablit_timer;
                blitq->poll_timer.data = (unsigned long) blitq;
-       }       
+       }
 }
 
 /*
  * Build all info and do all mappings required for a blit.
  */
-               
+
 
 static int
 via_build_sg_info(struct drm_device *dev, drm_via_sg_info_t *vsg, drm_via_dmablit_t *xfer)
 {
        int draw = xfer->to_fb;
        int ret = 0;
-       
+
        vsg->direction = (draw) ? DMA_TO_DEVICE : DMA_FROM_DEVICE;
        vsg->bounce_buffer = NULL;
 
@@ -612,7 +612,7 @@ via_build_sg_info(struct drm_device *dev, drm_via_sg_info_t *vsg, drm_via_dmabli
        /*
         * Below check is a driver limitation, not a hardware one. We
         * don't want to lock unused pages, and don't want to incoporate the
-        * extra logic of avoiding them. Make sure there are no. 
+        * extra logic of avoiding them. Make sure there are no.
         * (Not a big limitation anyway.)
         */
 
@@ -638,11 +638,11 @@ via_build_sg_info(struct drm_device *dev, drm_via_sg_info_t *vsg, drm_via_dmabli
        if (xfer->num_lines > 2048 || (xfer->num_lines*xfer->mem_stride > (2048*2048*4))) {
                DRM_ERROR("Too large PCI DMA bitblt.\n");
                return -EINVAL;
-       }               
+       }
 
-       /* 
+       /*
         * we allow a negative fb stride to allow flipping of images in
-        * transfer. 
+        * transfer.
         */
 
        if (xfer->mem_stride < xfer->line_length ||
@@ -668,7 +668,7 @@ via_build_sg_info(struct drm_device *dev, drm_via_sg_info_t *vsg, drm_via_dmabli
            ((xfer->num_lines > 1) && ((xfer->mem_stride & 15) || (xfer->fb_stride & 3)))) {
                DRM_ERROR("Invalid DRM bitblt alignment.\n");
                return -EINVAL;
-       }       
+       }
 #endif
 
        if (0 != (ret = via_lock_all_dma_pages(vsg, xfer))) {
@@ -684,17 +684,17 @@ via_build_sg_info(struct drm_device *dev, drm_via_sg_info_t *vsg, drm_via_dmabli
                return ret;
        }
        via_map_blit_for_device(dev->pdev, xfer, vsg, 1);
-       
+
        return 0;
 }
-       
+
 
 /*
  * Reserve one free slot in the blit queue. Will wait for one second for one
  * to become available. Otherwise -EBUSY is returned.
  */
 
-static int 
+static int
 via_dmablit_grab_slot(drm_via_blitq_t *blitq, int engine)
 {
        int ret=0;
@@ -709,10 +709,10 @@ via_dmablit_grab_slot(drm_via_blitq_t *blitq, int engine)
                if (ret) {
                        return (-EINTR == ret) ? -EAGAIN : ret;
                }
-               
+
                spin_lock_irqsave(&blitq->blit_lock, irqsave);
        }
-       
+
        blitq->num_free--;
        spin_unlock_irqrestore(&blitq->blit_lock, irqsave);
 
@@ -723,7 +723,7 @@ via_dmablit_grab_slot(drm_via_blitq_t *blitq, int engine)
  * Hand back a free slot if we changed our mind.
  */
 
-static void 
+static void
 via_dmablit_release_slot(drm_via_blitq_t *blitq)
 {
        unsigned long irqsave;
@@ -739,8 +739,8 @@ via_dmablit_release_slot(drm_via_blitq_t *blitq)
  */
 
 
-static int 
-via_dmablit(struct drm_device *dev, drm_via_dmablit_t *xfer)    
+static int
+via_dmablit(struct drm_device *dev, drm_via_dmablit_t *xfer)
 {
        drm_via_private_t *dev_priv = (drm_via_private_t *)dev->dev_private;
        drm_via_sg_info_t *vsg;
@@ -771,15 +771,15 @@ via_dmablit(struct drm_device *dev, drm_via_dmablit_t *xfer)
        spin_lock_irqsave(&blitq->blit_lock, irqsave);
 
        blitq->blits[blitq->head++] = vsg;
-       if (blitq->head >= VIA_NUM_BLIT_SLOTS) 
+       if (blitq->head >= VIA_NUM_BLIT_SLOTS)
                blitq->head = 0;
        blitq->num_outstanding++;
-       xfer->sync.sync_handle = ++blitq->cur_blit_handle; 
+       xfer->sync.sync_handle = ++blitq->cur_blit_handle;
 
        spin_unlock_irqrestore(&blitq->blit_lock, irqsave);
        xfer->sync.engine = engine;
 
-               via_dmablit_handler(dev, engine, 0);
+       via_dmablit_handler(dev, engine, 0);
 
        return 0;
 }
@@ -787,7 +787,7 @@ via_dmablit(struct drm_device *dev, drm_via_dmablit_t *xfer)
 /*
  * Sync on a previously submitted blit. Note that the X server use signals extensively, and
  * that there is a very big probability that this IOCTL will be interrupted by a signal. In that
- * case it returns with -EAGAIN for the signal to be delivered. 
+ * case it returns with -EAGAIN for the signal to be delivered.
  * The caller should then reissue the IOCTL. This is similar to what is being done for drmGetLock().
  */
 
@@ -797,7 +797,7 @@ via_dma_blit_sync( struct drm_device *dev, void *data, struct drm_file *file_pri
        drm_via_blitsync_t *sync = data;
        int err;
 
-       if (sync->engine >= VIA_NUM_BLIT_ENGINES) 
+       if (sync->engine >= VIA_NUM_BLIT_ENGINES)
                return -EINVAL;
 
        err = via_dmablit_sync(dev, sync->sync_handle, sync->engine);
@@ -807,15 +807,15 @@ via_dma_blit_sync( struct drm_device *dev, void *data, struct drm_file *file_pri
 
        return err;
 }
-       
+
 
 /*
  * Queue a blit and hand back a handle to be used for sync. This IOCTL may be interrupted by a signal
- * while waiting for a free slot in the blit queue. In that case it returns with -EAGAIN and should 
+ * while waiting for a free slot in the blit queue. In that case it returns with -EAGAIN and should
  * be reissued. See the above IOCTL code.
  */
 
-int 
+int
 via_dma_blit( struct drm_device *dev, void *data, struct drm_file *file_priv )
 {
        drm_via_dmablit_t *xfer = data;
index 726ad25..9b662a3 100644 (file)
@@ -1,5 +1,5 @@
 /* via_dmablit.h -- PCI DMA BitBlt support for the VIA Unichrome/Pro
- * 
+ *
  * Copyright 2005 Thomas Hellstrom.
  * All Rights Reserved.
  *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
- * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, 
- * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR 
- * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE 
+ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
+ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
+ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
  * USE OR OTHER DEALINGS IN THE SOFTWARE.
  *
- * Authors: 
+ * Authors:
  *    Thomas Hellstrom.
  *    Register info from Digeo Inc.
  */
@@ -67,7 +67,7 @@ typedef struct _drm_via_blitq {
        unsigned cur;
        unsigned num_free;
        unsigned num_outstanding;
-       unsigned long end;  
+       unsigned long end;
        int aborting;
        int is_active;
        drm_via_sg_info_t *blits[VIA_NUM_BLIT_SLOTS];
@@ -77,46 +77,46 @@ typedef struct _drm_via_blitq {
        struct work_struct wq;
        struct timer_list poll_timer;
 } drm_via_blitq_t;
-       
 
-/* 
+
+/*
  *  PCI DMA Registers
  *  Channels 2 & 3 don't seem to be implemented in hardware.
  */
-#define VIA_PCI_DMA_MAR0            0xE40   /* Memory Address Register of Channel 0 */ 
-#define VIA_PCI_DMA_DAR0            0xE44   /* Device Address Register of Channel 0 */ 
-#define VIA_PCI_DMA_BCR0            0xE48   /* Byte Count Register of Channel 0 */ 
-#define VIA_PCI_DMA_DPR0            0xE4C   /* Descriptor Pointer Register of Channel 0 */ 
-
-#define VIA_PCI_DMA_MAR1            0xE50   /* Memory Address Register of Channel 1 */ 
-#define VIA_PCI_DMA_DAR1            0xE54   /* Device Address Register of Channel 1 */ 
-#define VIA_PCI_DMA_BCR1            0xE58   /* Byte Count Register of Channel 1 */ 
-#define VIA_PCI_DMA_DPR1            0xE5C   /* Descriptor Pointer Register of Channel 1 */ 
-
-#define VIA_PCI_DMA_MAR2            0xE60   /* Memory Address Register of Channel 2 */ 
-#define VIA_PCI_DMA_DAR2            0xE64   /* Device Address Register of Channel 2 */ 
-#define VIA_PCI_DMA_BCR2            0xE68   /* Byte Count Register of Channel 2 */ 
-#define VIA_PCI_DMA_DPR2            0xE6C   /* Descriptor Pointer Register of Channel 2 */ 
-
-#define VIA_PCI_DMA_MAR3            0xE70   /* Memory Address Register of Channel 3 */ 
-#define VIA_PCI_DMA_DAR3            0xE74   /* Device Address Register of Channel 3 */ 
-#define VIA_PCI_DMA_BCR3            0xE78   /* Byte Count Register of Channel 3 */ 
-#define VIA_PCI_DMA_DPR3            0xE7C   /* Descriptor Pointer Register of Channel 3 */ 
-
-#define VIA_PCI_DMA_MR0             0xE80   /* Mode Register of Channel 0 */ 
-#define VIA_PCI_DMA_MR1             0xE84   /* Mode Register of Channel 1 */ 
-#define VIA_PCI_DMA_MR2             0xE88   /* Mode Register of Channel 2 */ 
-#define VIA_PCI_DMA_MR3             0xE8C   /* Mode Register of Channel 3 */ 
-
-#define VIA_PCI_DMA_CSR0            0xE90   /* Command/Status Register of Channel 0 */ 
-#define VIA_PCI_DMA_CSR1            0xE94   /* Command/Status Register of Channel 1 */ 
-#define VIA_PCI_DMA_CSR2            0xE98   /* Command/Status Register of Channel 2 */ 
-#define VIA_PCI_DMA_CSR3            0xE9C   /* Command/Status Register of Channel 3 */ 
-
-#define VIA_PCI_DMA_PTR             0xEA0   /* Priority Type Register */ 
-
-/* Define for DMA engine */ 
+
+#define VIA_PCI_DMA_MAR0            0xE40   /* Memory Address Register of Channel 0 */
+#define VIA_PCI_DMA_DAR0            0xE44   /* Device Address Register of Channel 0 */
+#define VIA_PCI_DMA_BCR0            0xE48   /* Byte Count Register of Channel 0 */
+#define VIA_PCI_DMA_DPR0            0xE4C   /* Descriptor Pointer Register of Channel 0 */
+
+#define VIA_PCI_DMA_MAR1            0xE50   /* Memory Address Register of Channel 1 */
+#define VIA_PCI_DMA_DAR1            0xE54   /* Device Address Register of Channel 1 */
+#define VIA_PCI_DMA_BCR1            0xE58   /* Byte Count Register of Channel 1 */
+#define VIA_PCI_DMA_DPR1            0xE5C   /* Descriptor Pointer Register of Channel 1 */
+
+#define VIA_PCI_DMA_MAR2            0xE60   /* Memory Address Register of Channel 2 */
+#define VIA_PCI_DMA_DAR2            0xE64   /* Device Address Register of Channel 2 */
+#define VIA_PCI_DMA_BCR2            0xE68   /* Byte Count Register of Channel 2 */
+#define VIA_PCI_DMA_DPR2            0xE6C   /* Descriptor Pointer Register of Channel 2 */
+
+#define VIA_PCI_DMA_MAR3            0xE70   /* Memory Address Register of Channel 3 */
+#define VIA_PCI_DMA_DAR3            0xE74   /* Device Address Register of Channel 3 */
+#define VIA_PCI_DMA_BCR3            0xE78   /* Byte Count Register of Channel 3 */
+#define VIA_PCI_DMA_DPR3            0xE7C   /* Descriptor Pointer Register of Channel 3 */
+
+#define VIA_PCI_DMA_MR0             0xE80   /* Mode Register of Channel 0 */
+#define VIA_PCI_DMA_MR1             0xE84   /* Mode Register of Channel 1 */
+#define VIA_PCI_DMA_MR2             0xE88   /* Mode Register of Channel 2 */
+#define VIA_PCI_DMA_MR3             0xE8C   /* Mode Register of Channel 3 */
+
+#define VIA_PCI_DMA_CSR0            0xE90   /* Command/Status Register of Channel 0 */
+#define VIA_PCI_DMA_CSR1            0xE94   /* Command/Status Register of Channel 1 */
+#define VIA_PCI_DMA_CSR2            0xE98   /* Command/Status Register of Channel 2 */
+#define VIA_PCI_DMA_CSR3            0xE9C   /* Command/Status Register of Channel 3 */
+
+#define VIA_PCI_DMA_PTR             0xEA0   /* Priority Type Register */
+
+/* Define for DMA engine */
 /* DPR */
 #define VIA_DMA_DPR_EC         (1<<1)  /* end of chain */
 #define VIA_DMA_DPR_DDIE       (1<<2)  /* descriptor done interrupt enable */
index 35ca6bf..270eac1 100644 (file)
@@ -115,7 +115,7 @@ void via_lastclose(struct drm_device *dev)
        dev_priv->vram_initialized = 0;
        dev_priv->agp_initialized = 0;
        mutex_unlock(&dev->struct_mutex);
-}      
+}
 
 int via_mem_alloc(struct drm_device *dev, void *data,
                  struct drm_file *file_priv)
index d7b23c8..64401ae 100644 (file)
@@ -78,7 +78,7 @@ int xgi_cmdlist_initialize(struct xgi_info * info, size_t size,
  * @type: Type of the current batch
  *
  * See section 3.2.2 "Begin" (page 15) of the 3D SPG.
- * 
+ *
  * This function assumes that @type is on the range [0,3].
  */
 unsigned int get_batch_command(enum xgi_batch_type type)
@@ -86,7 +86,7 @@ unsigned int get_batch_command(enum xgi_batch_type type)
        static const unsigned int ports[4] = {
                0x30 >> 2, 0x40 >> 2, 0x50 >> 2, 0x20 >> 2
        };
-       
+
        return ports[type];
 }
 
@@ -159,7 +159,7 @@ int xgi_submit_cmdlist(struct drm_device * dev, void * data,
                 2 - fb
                 3 - logout
 */
-int xgi_state_change(struct xgi_info * info, unsigned int to, 
+int xgi_state_change(struct xgi_info * info, unsigned int to,
                     unsigned int from)
 {
 #define STATE_CONSOLE   0
@@ -219,7 +219,7 @@ void xgi_cmdlist_cleanup(struct xgi_info * info)
                }
 
                xgi_waitfor_pci_idle(info);
-               
+
                (void) memset(&info->cmdring, 0, sizeof(info->cmdring));
        }
 }
@@ -243,7 +243,7 @@ static void triggerHWCommandList(struct xgi_info * info)
 void xgi_emit_flush(struct xgi_info * info, bool stop)
 {
        const u32 flush_command[8] = {
-               ((0x10 << 24) 
+               ((0x10 << 24)
                 | (BEGIN_BEGIN_IDENTIFICATION_MASK & info->next_sequence)),
                BEGIN_LINK_ENABLE_MASK | (0x00004),
                0x00000000, 0x00000000,
@@ -266,9 +266,9 @@ void xgi_emit_flush(struct xgi_info * info, bool stop)
                info->cmdring.ring_offset = 0;
        }
 
-       hw_addr = info->cmdring.ring_hw_base 
+       hw_addr = info->cmdring.ring_hw_base
                + info->cmdring.ring_offset;
-       batch_addr = info->cmdring.ptr 
+       batch_addr = info->cmdring.ptr
                + (info->cmdring.ring_offset / 4);
 
        for (i = 0; i < (flush_size / 4); i++) {
index 4e66197..4f0b4ed 100644 (file)
@@ -352,7 +352,7 @@ irqreturn_t xgi_kern_isr(DRM_IRQ_ARGS)
        struct drm_device *dev = (struct drm_device *) arg;
        struct xgi_info *info = dev->dev_private;
        const u32 irq_bits = le32_to_cpu(DRM_READ32(info->mmio_map,
-                                       (0x2800 
+                                       (0x2800
                                         + M2REG_AUTO_LINK_STATUS_ADDRESS)))
                & (M2REG_ACTIVE_TIMER_INTERRUPT_MASK
                   | M2REG_ACTIVE_INTERRUPT_0_MASK
@@ -361,7 +361,7 @@ irqreturn_t xgi_kern_isr(DRM_IRQ_ARGS)
 
 
        if (irq_bits != 0) {
-               DRM_WRITE32(info->mmio_map, 
+               DRM_WRITE32(info->mmio_map,
                            0x2800 + M2REG_AUTO_LINK_SETTING_ADDRESS,
                            cpu_to_le32(M2REG_AUTO_LINK_SETTING_COMMAND | irq_bits));
                xgi_fence_handler(dev);
@@ -413,7 +413,7 @@ int xgi_driver_load(struct drm_device *dev, unsigned long flags)
 
 
        return 0;
-       
+
 fail:
        drm_free(info, sizeof(*info), DRM_MEM_DRIVER);
        return err;
index 2e2d009..3f50fe8 100644 (file)
@@ -32,7 +32,7 @@ int xgi_alloc(struct xgi_info * info, struct xgi_mem_alloc * alloc,
              struct drm_file * filp)
 {
        struct drm_memblock_item *block;
-       const char *const mem_name = (alloc->location == XGI_MEMLOC_LOCAL) 
+       const char *const mem_name = (alloc->location == XGI_MEMLOC_LOCAL)
                ? "on-card" : "GART";
 
 
@@ -43,7 +43,7 @@ int xgi_alloc(struct xgi_info * info, struct xgi_mem_alloc * alloc,
                return -EINVAL;
        }
 
-       if ((alloc->location == XGI_MEMLOC_LOCAL) 
+       if ((alloc->location == XGI_MEMLOC_LOCAL)
            ? !info->fb_heap_initialized : !info->pcie_heap_initialized) {
                DRM_ERROR("Attempt to allocate from uninitialized memory "
                          "pool (0x%08x).\n", alloc->location);
@@ -118,7 +118,7 @@ int xgi_free_ioctl(struct drm_device * dev, void * data,
 int xgi_fb_heap_init(struct xgi_info * info)
 {
        int err;
-       
+
        mutex_lock(&info->dev->struct_mutex);
        err = drm_sman_set_range(&info->sman, XGI_MEMLOC_LOCAL,
                                 XGI_FB_HEAP_START,
index 526bc5d..9a75581 100644 (file)
@@ -72,7 +72,7 @@ static uint32_t xgi_do_flush(struct drm_device * dev, uint32_t class)
 
 
 int xgi_fence_emit_sequence(struct drm_device * dev, uint32_t class,
-                           uint32_t flags, uint32_t * sequence, 
+                           uint32_t flags, uint32_t * sequence,
                            uint32_t * native_type)
 {
        struct xgi_info * info = dev->dev_private;
index c54044f..e433841 100644 (file)
@@ -43,7 +43,7 @@ struct drm_map32 {
        u32 handle;             /**< User-space: "Handle" to pass to mmap() */
        int mtrr;               /**< MTRR slot used */
 };
-       
+
 struct drm32_xgi_bootstrap {
        struct drm_map32 gart;
 };
index 4a4a984..2b3a178 100644 (file)
@@ -90,7 +90,7 @@ static void xgi_ge_hang_reset(struct drm_map * map)
 
        DRM_WRITE8(map, 0xb057, 8);
        while (0 != le32_to_cpu(DRM_READ32(map, 0x2800) & 0xf0000000)) {
-               while (0 != ((--time_out) & 0xfff)) 
+               while (0 != ((--time_out) & 0xfff))
                        /* empty */ ;
 
                if (0 == time_out) {
@@ -117,8 +117,8 @@ static void xgi_ge_hang_reset(struct drm_map * map)
                        DRM_WRITE8(map, 0x3d4, 0x36);
                        old_36 = DRM_READ8(map, 0x3d5);
                        DRM_WRITE8(map, 0x3d5, old_36 | 0x10);
-                       
-                       while (0 != ((--time_out) & 0xfff)) 
+
+                       while (0 != ((--time_out) & 0xfff))
                                /* empty */ ;
 
                        DRM_WRITE8(map, 0x3d5, old_36);
@@ -134,7 +134,7 @@ static void xgi_ge_hang_reset(struct drm_map * map)
        DRM_WRITE8(map, 0xb057, 0);
 }
 
-       
+
 bool xgi_ge_irq_handler(struct xgi_info * info)
 {
        const u32 int_status = le32_to_cpu(DRM_READ32(info->mmio_map, 0x2810));
@@ -143,7 +143,7 @@ bool xgi_ge_irq_handler(struct xgi_info * info)
        /* Check GE on/off */
        if (0 == (0xffffc0f0 & int_status)) {
                if (0 != (0x1000 & int_status)) {
-                       /* We got GE stall interrupt. 
+                       /* We got GE stall interrupt.
                         */
                        DRM_WRITE32(info->mmio_map, 0x2810,
                                    cpu_to_le32(int_status | 0x04000000));
@@ -289,7 +289,7 @@ static void dump_reg(struct xgi_info * info, unsigned regbase, unsigned range)
                printk("%1x ", i);
 
                for (j = 0; j < 0x10; j++) {
-                       u8 temp = DRM_READ8(info->mmio_map, 
+                       u8 temp = DRM_READ8(info->mmio_map,
                                            regbase + (i * 0x10) + j);
                        printk("%3x", temp);
                }
index af19a11..5f9e4f0 100644 (file)
@@ -1,5 +1,5 @@
 /****************************************************************************
- * Copyright (C) 2003-2006 by XGI Technology, Taiwan.                  
+ * Copyright (C) 2003-2006 by XGI Technology, Taiwan.
  *
  * All Rights Reserved.
  *
index 5c0100a..a897fd8 100644 (file)
@@ -4,7 +4,7 @@
  * All Rights Reserved.
  *
  * Permission is hereby granted, free of charge, to any person obtaining
- * a copy of this software and associated documentation files (the     
+ * a copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
  * without limitation on the rights to use, copy, modify, merge,
  * publish, distribute, sublicense, and/or sell copies of the Software,
index 4059a6f..3941490 100644 (file)
@@ -703,7 +703,7 @@ struct drm_fence_arg {
 /* Mask: Make sure the buffer is in cached memory when mapped
  * Flags: Acknowledge.
  * Buffers allocated with this flag should not be used for suballocators
- * This type may have issues on CPUs with over-aggressive caching 
+ * This type may have issues on CPUs with over-aggressive caching
  * http://marc.info/?l=linux-kernel&m=102376926732464&w=2
  */
 #define DRM_BO_FLAG_CACHED_MAPPED    (1ULL << 19)
@@ -925,7 +925,7 @@ struct drm_mm_init_arg {
 #define DRM_IOCTL_RM_MAP               DRM_IOW( 0x1b, struct drm_map)
 
 #define DRM_IOCTL_SET_SAREA_CTX                DRM_IOW( 0x1c, struct drm_ctx_priv_map)
-#define DRM_IOCTL_GET_SAREA_CTX        DRM_IOWR(0x1d, struct drm_ctx_priv_map)
+#define DRM_IOCTL_GET_SAREA_CTX                DRM_IOWR(0x1d, struct drm_ctx_priv_map)
 
 #define DRM_IOCTL_ADD_CTX              DRM_IOWR(0x20, struct drm_ctx)
 #define DRM_IOCTL_RM_CTX               DRM_IOWR(0x21, struct drm_ctx)
index 34050a6..8b67752 100644 (file)
@@ -45,7 +45,7 @@
 #endif
 
 /** Maximum number of drawables in the SAREA */
-#define SAREA_MAX_DRAWABLES            256
+#define SAREA_MAX_DRAWABLES            256
 
 #define SAREA_DRAWABLE_CLAIMED_ENTRY    0x80000000
 
index 18c3f0f..4d77dfc 100644 (file)
@@ -3,7 +3,7 @@
 /*
  * Copyright 2003 Tungsten Graphics, Inc., Cedar Park, Texas.
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
- * 
+ *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS
  * OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT.
@@ -23,7 +23,7 @@
  * ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT,
  * TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
  * SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
- * 
+ *
  */
 
 #include "drmP.h"
@@ -172,11 +172,11 @@ static int i915_initialize(struct drm_device * dev, drm_i915_init_t * init)
 
        /* Enable vblank on pipe A for older X servers
         */
-       dev_priv->vblank_pipe = DRM_I915_VBLANK_PIPE_A;
+       dev_priv->vblank_pipe = DRM_I915_VBLANK_PIPE_A;
 
        /* Program Hardware Status Page */
        if (!IS_G33(dev)) {
-               dev_priv->status_page_dmah = 
+               dev_priv->status_page_dmah =
                        drm_pci_alloc(dev, PAGE_SIZE, PAGE_SIZE, 0xffffffff);
 
                if (!dev_priv->status_page_dmah) {
@@ -329,7 +329,7 @@ static int validate_cmd(int cmd)
 {
        int ret = do_validate_cmd(cmd);
 
-/*     printk("validate_cmd( %x ): %d\n", cmd, ret); */
+/*     printk("validate_cmd( %x ): %d\n", cmd, ret); */
 
        return ret;
 }
@@ -365,12 +365,12 @@ static int i915_emit_cmds(struct drm_device * dev, int __user * buffer,
                        OUT_RING(cmd);
                }
        }
-               
+
        if (dwords & 1)
                OUT_RING(0);
 
        ADVANCE_LP_RING();
-               
+
        return 0;
 }
 
@@ -861,7 +861,7 @@ static int i915_exec_reloc(struct drm_file *file_priv, drm_handle_t buf_handle,
        int ret = 0;
 
        memset(&relocatee, 0, sizeof(relocatee));
-       
+
        mutex_lock(&dev->struct_mutex);
        relocatee.buf = drm_lookup_buffer_object(file_priv, buf_handle, 1);
        mutex_unlock(&dev->struct_mutex);
@@ -870,7 +870,7 @@ static int i915_exec_reloc(struct drm_file *file_priv, drm_handle_t buf_handle,
                ret = -EINVAL;
                goto out_err;
        }
-       
+
        while (buf_reloc_handle) {
                ret = i915_process_relocs(file_priv, buf_handle, &buf_reloc_handle, &relocatee, buffers, buf_count);
                if (ret) {
@@ -878,11 +878,11 @@ static int i915_exec_reloc(struct drm_file *file_priv, drm_handle_t buf_handle,
                        break;
                }
        }
-       
+
        mutex_lock(&dev->struct_mutex);
        drm_bo_usage_deref_locked(&relocatee.buf);
        mutex_unlock(&dev->struct_mutex);
-       
+
 out_err:
        return ret;
 }
@@ -1012,12 +1012,12 @@ static int i915_execbuffer(struct drm_device *dev, void *data,
 
 
        ret = drm_bo_read_lock(&dev->bm.bm_lock);
-       if (ret) 
+       if (ret)
                return ret;
 
        /*
         * The cmdbuf_mutex makes sure the validate-submit-fence
-        * operation is atomic. 
+        * operation is atomic.
         */
 
        ret = mutex_lock_interruptible(&dev_priv->cmdbuf_mutex);
@@ -1200,7 +1200,7 @@ drm_i915_mmio_entry_t mmio_table[] = {
                I915_MMIO_MAY_READ|I915_MMIO_MAY_WRITE,
                0x2350,
                8
-       }       
+       }
 };
 
 static int mmio_table_size = sizeof(mmio_table)/sizeof(drm_i915_mmio_entry_t);
@@ -1210,7 +1210,7 @@ static int i915_mmio(struct drm_device *dev, void *data,
 {
        uint32_t buf[8];
        drm_i915_private_t *dev_priv = dev->dev_private;
-       drm_i915_mmio_entry_t *e;        
+       drm_i915_mmio_entry_t *e;
        drm_i915_mmio_t *mmio = data;
        void __iomem *base;
        int i;
index a6c3cf3..56977ff 100644 (file)
@@ -1,7 +1,7 @@
 /*
  * Copyright 2003 Tungsten Graphics, Inc., Cedar Park, Texas.
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
@@ -9,11 +9,11 @@
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
- * 
+ *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS
  * OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT.
@@ -21,7 +21,7 @@
  * ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT,
  * TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
  * SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
- * 
+ *
  */
 
 #ifndef _I915_DRM_H_
@@ -294,11 +294,11 @@ typedef struct drm_i915_vblank_swap {
        unsigned int sequence;
 } drm_i915_vblank_swap_t;
 
-#define I915_MMIO_READ         0
+#define I915_MMIO_READ 0
 #define I915_MMIO_WRITE 1
 
-#define I915_MMIO_MAY_READ     0x1
-#define I915_MMIO_MAY_WRITE    0x2
+#define I915_MMIO_MAY_READ     0x1
+#define I915_MMIO_MAY_WRITE    0x2
 
 #define MMIO_REGS_IA_PRIMATIVES_COUNT          0
 #define MMIO_REGS_IA_VERTICES_COUNT            1
@@ -319,7 +319,7 @@ typedef struct drm_i915_mmio_entry {
 typedef struct drm_i915_mmio {
        unsigned int read_write:1;
        unsigned int reg:31;
-       void __user *data;      
+       void __user *data;
 } drm_i915_mmio_t;
 
 typedef struct drm_i915_hws_addr {
index 6ff34eb..9ee79fa 100644 (file)
@@ -1,10 +1,10 @@
 /* i915_drv.h -- Private header for the I915 driver -*- linux-c -*-
  */
 /*
- * 
+ *
  * Copyright 2003 Tungsten Graphics, Inc., Cedar Park, Texas.
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
- * 
+ *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS
  * OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT.
@@ -24,7 +24,7 @@
  * ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT,
  * TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
  * SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
- * 
+ *
  */
 
 #ifndef _I915_DRV_H_
@@ -146,76 +146,76 @@ typedef struct drm_i915_private {
        drm_i915_vbl_swap_t vbl_swaps;
        unsigned int swaps_pending;
 
-       /* Register state */
+       /* Register state */
        u8 saveLBB;
-       u32 saveDSPACNTR;
-       u32 saveDSPBCNTR;
-       u32 savePIPEACONF;
-       u32 savePIPEBCONF;
-       u32 savePIPEASRC;
-       u32 savePIPEBSRC;
-       u32 saveFPA0;
-       u32 saveFPA1;
-       u32 saveDPLL_A;
-       u32 saveDPLL_A_MD;
-       u32 saveHTOTAL_A;
-       u32 saveHBLANK_A;
-       u32 saveHSYNC_A;
-       u32 saveVTOTAL_A;
-       u32 saveVBLANK_A;
-       u32 saveVSYNC_A;
+       u32 saveDSPACNTR;
+       u32 saveDSPBCNTR;
+       u32 savePIPEACONF;
+       u32 savePIPEBCONF;
+       u32 savePIPEASRC;
+       u32 savePIPEBSRC;
+       u32 saveFPA0;
+       u32 saveFPA1;
+       u32 saveDPLL_A;
+       u32 saveDPLL_A_MD;
+       u32 saveHTOTAL_A;
+       u32 saveHBLANK_A;
+       u32 saveHSYNC_A;
+       u32 saveVTOTAL_A;
+       u32 saveVBLANK_A;
+       u32 saveVSYNC_A;
        u32 saveBCLRPAT_A;
-       u32 saveDSPASTRIDE;
-       u32 saveDSPASIZE;
-       u32 saveDSPAPOS;
-       u32 saveDSPABASE;
-       u32 saveDSPASURF;
+       u32 saveDSPASTRIDE;
+       u32 saveDSPASIZE;
+       u32 saveDSPAPOS;
+       u32 saveDSPABASE;
+       u32 saveDSPASURF;
        u32 saveDSPATILEOFF;
        u32 savePFIT_PGM_RATIOS;
        u32 saveBLC_PWM_CTL;
        u32 saveBLC_PWM_CTL2;
-       u32 saveFPB0;
-       u32 saveFPB1;
-       u32 saveDPLL_B;
-       u32 saveDPLL_B_MD;
-       u32 saveHTOTAL_B;
-       u32 saveHBLANK_B;
-       u32 saveHSYNC_B;
-       u32 saveVTOTAL_B;
-       u32 saveVBLANK_B;
-       u32 saveVSYNC_B;
+       u32 saveFPB0;
+       u32 saveFPB1;
+       u32 saveDPLL_B;
+       u32 saveDPLL_B_MD;
+       u32 saveHTOTAL_B;
+       u32 saveHBLANK_B;
+       u32 saveHSYNC_B;
+       u32 saveVTOTAL_B;
+       u32 saveVBLANK_B;
+       u32 saveVSYNC_B;
        u32 saveBCLRPAT_B;
-       u32 saveDSPBSTRIDE;
-       u32 saveDSPBSIZE;
-       u32 saveDSPBPOS;
-       u32 saveDSPBBASE;
-       u32 saveDSPBSURF;
+       u32 saveDSPBSTRIDE;
+       u32 saveDSPBSIZE;
+       u32 saveDSPBPOS;
+       u32 saveDSPBBASE;
+       u32 saveDSPBSURF;
        u32 saveDSPBTILEOFF;
-       u32 saveVCLK_DIVISOR_VGA0;
-       u32 saveVCLK_DIVISOR_VGA1;
-       u32 saveVCLK_POST_DIV;
-       u32 saveVGACNTRL;
-       u32 saveADPA;
-       u32 saveLVDS;
+       u32 saveVCLK_DIVISOR_VGA0;
+       u32 saveVCLK_DIVISOR_VGA1;
+       u32 saveVCLK_POST_DIV;
+       u32 saveVGACNTRL;
+       u32 saveADPA;
+       u32 saveLVDS;
        u32 saveLVDSPP_ON;
        u32 saveLVDSPP_OFF;
-       u32 saveDVOA;
-       u32 saveDVOB;
-       u32 saveDVOC;
-       u32 savePP_ON;
-       u32 savePP_OFF;
-       u32 savePP_CONTROL;
-       u32 savePP_CYCLE;
-       u32 savePFIT_CONTROL;
-       u32 save_palette_a[256];
-       u32 save_palette_b[256];
+       u32 saveDVOA;
+       u32 saveDVOB;
+       u32 saveDVOC;
+       u32 savePP_ON;
+       u32 savePP_OFF;
+       u32 savePP_CONTROL;
+       u32 savePP_CYCLE;
+       u32 savePFIT_CONTROL;
+       u32 save_palette_a[256];
+       u32 save_palette_b[256];
        u32 saveFBC_CFB_BASE;
        u32 saveFBC_LL_BASE;
        u32 saveFBC_CONTROL;
        u32 saveFBC_CONTROL2;
-       u32 saveSWF0[16];
-       u32 saveSWF1[16];
-       u32 saveSWF2[3];
+       u32 saveSWF0[16];
+       u32 saveSWF1[16];
+       u32 saveSWF2[3];
        u8 saveMSR;
        u8 saveSR[8];
        u8 saveGR[24];
@@ -293,7 +293,7 @@ extern void i915_mem_release(struct drm_device * dev,
 extern void i915_fence_handler(struct drm_device *dev);
 extern int i915_fence_emit_sequence(struct drm_device *dev, uint32_t class,
                                    uint32_t flags,
-                                   uint32_t *sequence, 
+                                   uint32_t *sequence,
                                    uint32_t *native_type);
 extern void i915_poke_flush(struct drm_device *dev, uint32_t class);
 extern int i915_fence_has_irq(struct drm_device *dev, uint32_t class, uint32_t flags);
@@ -309,7 +309,7 @@ extern int i915_init_mem_type(struct drm_device *dev, uint32_t type,
                               struct drm_mem_type_manager *man);
 extern uint32_t i915_evict_mask(struct drm_buffer_object *bo);
 extern int i915_move(struct drm_buffer_object *bo, int evict,
-               int no_wait, struct drm_bo_mem_reg *new_mem);
+               int no_wait, struct drm_bo_mem_reg *new_mem);
 void i915_flush_ttm(struct drm_ttm *ttm);
 #endif
 
@@ -320,7 +320,7 @@ extern void intel_fini_chipset_flush_compat(struct drm_device *dev);
 
 #define I915_READ(reg)          DRM_READ32(dev_priv->mmio_map, (reg))
 #define I915_WRITE(reg,val)     DRM_WRITE32(dev_priv->mmio_map, (reg), (val))
-#define I915_READ16(reg)       DRM_READ16(dev_priv->mmio_map, (reg))
+#define I915_READ16(reg)       DRM_READ16(dev_priv->mmio_map, (reg))
 #define I915_WRITE16(reg,val)  DRM_WRITE16(dev_priv->mmio_map, (reg), (val))
 
 #define I915_VERBOSE 0
@@ -401,7 +401,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define VGA_CR_INDEX_CGA 0x3d4
 #define VGA_CR_DATA_CGA 0x3d5
 
-#define GFX_OP_USER_INTERRUPT          ((0<<29)|(2<<23))
+#define GFX_OP_USER_INTERRUPT          ((0<<29)|(2<<23))
 #define GFX_OP_BREAKPOINT_INTERRUPT    ((0<<29)|(1<<23))
 #define CMD_REPORT_HEAD                        (7<<23)
 #define CMD_STORE_DWORD_IDX            ((0x21<<23) | 0x1)
@@ -463,7 +463,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 
 #define I915REG_HWSTAM         0x02098
 #define I915REG_INT_IDENTITY_R 0x020a4
-#define I915REG_INT_MASK_R     0x020a8
+#define I915REG_INT_MASK_R     0x020a8
 #define I915REG_INT_ENABLE_R   0x020a0
 #define I915REG_INSTPM         0x020c0
 
@@ -476,7 +476,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define SRX_INDEX              0x3c4
 #define SRX_DATA               0x3c5
 #define SR01                   1
-#define SR01_SCREEN_OFF        (1<<5)
+#define SR01_SCREEN_OFF                (1<<5)
 
 #define PPCR                   0x61204
 #define PPCR_ON                        (1<<0)
@@ -496,29 +496,29 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define ADPA_DPMS_OFF          (3<<10)
 
 #define NOPID                   0x2094
-#define LP_RING                0x2030
-#define HP_RING                0x2040
+#define LP_RING                        0x2030
+#define HP_RING                        0x2040
 /* The binner has its own ring buffer:
  */
 #define HWB_RING               0x2400
 
-#define RING_TAIL                      0x00
+#define RING_TAIL              0x00
 #define TAIL_ADDR              0x001FFFF8
-#define RING_HEAD                      0x04
-#define HEAD_WRAP_COUNT        0xFFE00000
-#define HEAD_WRAP_ONE          0x00200000
-#define HEAD_ADDR              0x001FFFFC
-#define RING_START                     0x08
-#define START_ADDR             0x0xFFFFF000
-#define RING_LEN                       0x0C
-#define RING_NR_PAGES          0x001FF000
-#define RING_REPORT_MASK       0x00000006
-#define RING_REPORT_64K        0x00000002
-#define RING_REPORT_128K       0x00000004
-#define RING_NO_REPORT         0x00000000
-#define RING_VALID_MASK        0x00000001
-#define RING_VALID             0x00000001
-#define RING_INVALID           0x00000000
+#define RING_HEAD              0x04
+#define HEAD_WRAP_COUNT                0xFFE00000
+#define HEAD_WRAP_ONE          0x00200000
+#define HEAD_ADDR              0x001FFFFC
+#define RING_START             0x08
+#define START_ADDR             0x0xFFFFF000
+#define RING_LEN               0x0C
+#define RING_NR_PAGES          0x001FF000
+#define RING_REPORT_MASK       0x00000006
+#define RING_REPORT_64K                0x00000002
+#define RING_REPORT_128K       0x00000004
+#define RING_NO_REPORT         0x00000000
+#define RING_VALID_MASK                0x00000001
+#define RING_VALID             0x00000001
+#define RING_INVALID           0x00000000
 
 /* Instruction parser error reg:
  */
@@ -536,7 +536,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
  */
 #define DMA_FADD_S             0x20d4
 
-/* Cache mode 0 reg.  
+/* Cache mode 0 reg.
  *  - Manipulating render cache behaviour is central
  *    to the concept of zone rendering, tuning this reg can help avoid
  *    unnecessary render cache reads and even writes (for z/stencil)
@@ -565,7 +565,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define BINCTL                 0x2420
 #define BC_MASK                        (1 << 9)
 
-/* Binned scene info.  
+/* Binned scene info.
  */
 #define BINSCENE               0x2428
 #define BS_OP_LOAD             (1 << 8)
@@ -583,7 +583,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
  */
 #define BDCD                   0x2488
 
-/* Binner pointer cache debug reg: 
+/* Binner pointer cache debug reg:
  */
 #define BPCD                   0x248c
 
@@ -640,9 +640,9 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define XY_SRC_COPY_BLT_WRITE_ALPHA    (1<<21)
 #define XY_SRC_COPY_BLT_WRITE_RGB      (1<<20)
 
-#define MI_BATCH_BUFFER        ((0x30<<23)|1)
-#define MI_BATCH_BUFFER_START  (0x31<<23)
-#define MI_BATCH_BUFFER_END    (0xA<<23)
+#define MI_BATCH_BUFFER                ((0x30<<23)|1)
+#define MI_BATCH_BUFFER_START  (0x31<<23)
+#define MI_BATCH_BUFFER_END    (0xA<<23)
 #define MI_BATCH_NON_SECURE    (1)
 
 #define MI_BATCH_NON_SECURE_I965 (1<<8)
@@ -738,20 +738,20 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 /* I830 CRTC registers */
 #define HTOTAL_A       0x60000
 #define HBLANK_A       0x60004
-#define HSYNC_A        0x60008
+#define HSYNC_A                0x60008
 #define VTOTAL_A       0x6000c
 #define VBLANK_A       0x60010
-#define VSYNC_A        0x60014
+#define VSYNC_A                0x60014
 #define PIPEASRC       0x6001c
 #define BCLRPAT_A      0x60020
 #define VSYNCSHIFT_A   0x60028
 
 #define HTOTAL_B       0x61000
 #define HBLANK_B       0x61004
-#define HSYNC_B        0x61008
+#define HSYNC_B                0x61008
 #define VTOTAL_B       0x6100c
 #define VBLANK_B       0x61010
-#define VSYNC_B        0x61014
+#define VSYNC_B                0x61014
 #define PIPEBSRC       0x6101c
 #define BCLRPAT_B      0x61020
 #define VSYNCSHIFT_B   0x61028
@@ -886,7 +886,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
  */
 # define DPLL_MD_UDI_MULTIPLIER_MASK           0x00003f00
 # define DPLL_MD_UDI_MULTIPLIER_SHIFT          8
-/** SDVO/UDI pixel multiplier for VGA, same as DPLL_MD_UDI_MULTIPLIER_MASK. 
+/** SDVO/UDI pixel multiplier for VGA, same as DPLL_MD_UDI_MULTIPLIER_MASK.
  * This best be set to the default value (3) or the CRT won't work. No,
  * I don't entirely understand what this does...
  */
@@ -907,7 +907,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 # define DPLLA_INPUT_BUFFER_ENABLE             (1 << 0)
 
 #define ADPA                   0x61100
-#define ADPA_DAC_ENABLE        (1<<31)
+#define ADPA_DAC_ENABLE                (1<<31)
 #define ADPA_DAC_DISABLE       0
 #define ADPA_PIPE_SELECT_MASK  (1<<30)
 #define ADPA_PIPE_A_SELECT     0
@@ -1037,7 +1037,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define PIPEACONF_PIPE_UNLOCKED 0
 #define PIPEACONF_PIPE_LOCKED  (1<<25)
 #define PIPEACONF_PALETTE      0
-#define PIPEACONF_GAMMA        (1<<24)
+#define PIPEACONF_GAMMA                (1<<24)
 #define PIPECONF_FORCE_BORDER  (1<<25)
 #define PIPECONF_PROGRESSIVE   (0 << 21)
 #define PIPECONF_INTERLACE_W_FIELD_INDICATION  (6 << 21)
@@ -1048,7 +1048,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define PIPEBCONF_DISABLE      0
 #define PIPEBCONF_DOUBLE_WIDE  (1<<30)
 #define PIPEBCONF_DISABLE      0
-#define PIPEBCONF_GAMMA        (1<<24)
+#define PIPEBCONF_GAMMA                (1<<24)
 #define PIPEBCONF_PALETTE      0
 
 #define PIPEBGCMAXRED          0x71010
@@ -1060,7 +1060,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 
 #define DSPACNTR               0x70180
 #define DSPBCNTR               0x71180
-#define DISPLAY_PLANE_ENABLE                   (1<<31)
+#define DISPLAY_PLANE_ENABLE                   (1<<31)
 #define DISPLAY_PLANE_DISABLE                  0
 #define DISPPLANE_GAMMA_ENABLE                 (1<<30)
 #define DISPPLANE_GAMMA_DISABLE                        0
@@ -1068,7 +1068,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define DISPPLANE_8BPP                         (0x2<<26)
 #define DISPPLANE_15_16BPP                     (0x4<<26)
 #define DISPPLANE_16BPP                                (0x5<<26)
-#define DISPPLANE_32BPP_NO_ALPHA               (0x6<<26)
+#define DISPPLANE_32BPP_NO_ALPHA               (0x6<<26)
 #define DISPPLANE_32BPP                                (0x7<<26)
 #define DISPPLANE_STEREO_ENABLE                        (1<<25)
 #define DISPPLANE_STEREO_DISABLE               0
@@ -1169,7 +1169,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
 #define IS_I965GM(dev) ((dev)->pci_device == 0x2A02)
 
 #define IS_G33(dev)    ((dev)->pci_device == 0x29C2 || \
-                       (dev)->pci_device == 0x29B2 ||  \
+                       (dev)->pci_device == 0x29B2 ||  \
                        (dev)->pci_device == 0x29D2)
 
 #define IS_I9XX(dev) (IS_I915G(dev) || IS_I915GM(dev) || IS_I945G(dev) || \
index db18a89..43e73e0 100644 (file)
@@ -3,7 +3,7 @@
 /*
  * Copyright 2003 Tungsten Graphics, Inc., Cedar Park, Texas.
  * All Rights Reserved.
- * 
+ *
  * Permission is hereby granted, free of charge, to any person obtaining a
  * copy of this software and associated documentation files (the
  * "Software"), to deal in the Software without restriction, including
  * distribute, sub license, and/or sell copies of the Software, and to
  * permit persons to whom the Software is furnished to do so, subject to
  * the following conditions:
- * 
+ *
  * The above copyright notice and this permission notice (including the
  * next paragraph) shall be included in all copies or substantial portions
  * of the Software.
- * 
+ *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS
  * OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT.
@@ -23,7 +23,7 @@
  * ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT,
  * TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
  * SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
- * 
+ *
  */
 
 #include "drmP.h"
@@ -310,7 +310,7 @@ irqreturn_t i915_driver_irq_handler(DRM_IRQ_ARGS)
 
        pipea_stats = I915_READ(I915REG_PIPEASTAT);
        pipeb_stats = I915_READ(I915REG_PIPEBSTAT);
-               
+
        temp = I915_READ16(I915REG_INT_IDENTITY_R);
        temp &= (dev_priv->irq_enable_reg | USER_INT_FLAG);
 
@@ -354,7 +354,7 @@ irqreturn_t i915_driver_irq_handler(DRM_IRQ_ARGS)
 
                if (dev_priv->swaps_pending > 0)
                        drm_locked_tasklet(dev, i915_vblank_tasklet);
-               I915_WRITE(I915REG_PIPEASTAT, 
+               I915_WRITE(I915REG_PIPEASTAT,
                        pipea_stats|I915_VBLANK_INTERRUPT_ENABLE|
                        I915_VBLANK_CLEAR);
                I915_WRITE(I915REG_PIPEBSTAT,
@@ -367,7 +367,7 @@ irqreturn_t i915_driver_irq_handler(DRM_IRQ_ARGS)
 
 int i915_emit_irq(struct drm_device * dev)
 {
-       
+
        drm_i915_private_t *dev_priv = dev->dev_private;
        RING_LOCALS;
 
@@ -397,7 +397,7 @@ void i915_user_irq_on(drm_i915_private_t *dev_priv)
        DRM_SPINUNLOCK(&dev_priv->user_irq_lock);
 
 }
-               
+
 void i915_user_irq_off(drm_i915_private_t *dev_priv)
 {
        DRM_SPINLOCK(&dev_priv->user_irq_lock);
@@ -407,7 +407,7 @@ void i915_user_irq_off(drm_i915_private_t *dev_priv)
        }
        DRM_SPINUNLOCK(&dev_priv->user_irq_lock);
 }
-               
+
 
 static int i915_wait_irq(struct drm_device * dev, int irq_nr)
 {
@@ -421,7 +421,7 @@ static int i915_wait_irq(struct drm_device * dev, int irq_nr)
                return 0;
 
        dev_priv->sarea_priv->perf_boxes |= I915_BOX_WAIT;
-       
+
        i915_user_irq_on(dev_priv);
        DRM_WAIT_ON(ret, dev_priv->irq_queue, 3 * DRM_HZ,
                    READ_BREADCRUMB(dev_priv) >= irq_nr);
@@ -453,7 +453,7 @@ static int i915_driver_vblank_do_wait(struct drm_device *dev,
        DRM_WAIT_ON(ret, dev->vbl_queue, 3 * DRM_HZ,
                    (((cur_vblank = atomic_read(counter))
                        - *sequence) <= (1<<23)));
-       
+
        *sequence = cur_vblank;
 
        return ret;
@@ -513,8 +513,8 @@ int i915_irq_wait(struct drm_device *dev, void *data,
 static void i915_enable_interrupt (struct drm_device *dev)
 {
        drm_i915_private_t *dev_priv = (drm_i915_private_t *) dev->dev_private;
-       
-       dev_priv->irq_enable_reg = USER_INT_FLAG; 
+
+       dev_priv->irq_enable_reg = USER_INT_FLAG;
        if (dev_priv->vblank_pipe & DRM_I915_VBLANK_PIPE_A)
                dev_priv->irq_enable_reg |= VSYNC_PIPEA_FLAG;
        if (dev_priv->vblank_pipe & DRM_I915_VBLANK_PIPE_B)
@@ -538,7 +538,7 @@ int i915_vblank_pipe_set(struct drm_device *dev, void *data,
        }
 
        if (pipe->pipe & ~(DRM_I915_VBLANK_PIPE_A|DRM_I915_VBLANK_PIPE_B)) {
-               DRM_ERROR("%s called with invalid pipe 0x%x\n", 
+               DRM_ERROR("%s called with invalid pipe 0x%x\n",
                          __FUNCTION__, pipe->pipe);
                return -EINVAL;
        }
index 5bf29a1..d360896 100644 (file)
@@ -375,7 +375,7 @@ int i915_mem_destroy_heap( struct drm_device *dev, void *data,
                DRM_ERROR("get_heap failed");
                return -EFAULT;
        }
-       
+
        if (!*heap) {
                DRM_ERROR("heap not initialized?");
                return -EFAULT;
index e0a6745..13fa044 100644 (file)
@@ -53,7 +53,7 @@
  *
  * \param dev_priv pointer to device private data structure.
  * \param entries number of free entries in the FIFO to wait for.
- * 
+ *
  * \returns zero on success, or -EBUSY if the timeout (specificed by
  * drm_mach64_private::usec_timeout) occurs.
  */
@@ -107,10 +107,10 @@ int mach64_do_wait_for_idle(drm_mach64_private_t * dev_priv)
  *
  * This function should be called before writing new entries to the ring
  * buffer.
- * 
+ *
  * \param dev_priv pointer to device private data structure.
  * \param n number of free entries in the ring buffer to wait for.
- * 
+ *
  * \returns zero on success, or -EBUSY if the timeout (specificed by
  * drm_mach64_private_t::usec_timeout) occurs.
  *
@@ -139,7 +139,7 @@ int mach64_wait_ring(drm_mach64_private_t * dev_priv, int n)
 }
 
 /**
- * Wait until all DMA requests have been processed... 
+ * Wait until all DMA requests have been processed...
  *
  * \sa mach64_wait_ring()
  */
index cebd4c6..79c2c61 100644 (file)
@@ -171,14 +171,14 @@ extern void mach64_driver_irq_uninstall(struct drm_device * dev);
 #define MACH64_AGP_CNTL                                0x014c
 #define MACH64_ALPHA_TST_CNTL                  0x0550
 
-#define MACH64_DSP_CONFIG                      0x0420
-#define MACH64_DSP_ON_OFF                      0x0424
-#define MACH64_EXT_MEM_CNTL                    0x04ac
-#define MACH64_GEN_TEST_CNTL                   0x04d0
-#define MACH64_HW_DEBUG                        0x047c
-#define MACH64_MEM_ADDR_CONFIG                         0x0434
-#define MACH64_MEM_BUF_CNTL                    0x042c
-#define MACH64_MEM_CNTL                        0x04b0
+#define MACH64_DSP_CONFIG                      0x0420
+#define MACH64_DSP_ON_OFF                      0x0424
+#define MACH64_EXT_MEM_CNTL                    0x04ac
+#define MACH64_GEN_TEST_CNTL                   0x04d0
+#define MACH64_HW_DEBUG                                0x047c
+#define MACH64_MEM_ADDR_CONFIG                 0x0434
+#define MACH64_MEM_BUF_CNTL                    0x042c
+#define MACH64_MEM_CNTL                                0x04b0
 
 #define MACH64_BM_ADDR                         0x0648
 #define MACH64_BM_COMMAND                      0x0188
@@ -205,16 +205,16 @@ extern void mach64_driver_irq_uninstall(struct drm_device * dev);
 #define MACH64_CLR_CMP_CLR                     0x0700
 #define MACH64_CLR_CMP_CNTL                    0x0708
 #define MACH64_CLR_CMP_MASK                    0x0704
-#define MACH64_CONFIG_CHIP_ID                  0x04e0
-#define MACH64_CONFIG_CNTL                     0x04dc
-#define MACH64_CONFIG_STAT0                    0x04e4
-#define MACH64_CONFIG_STAT1                    0x0494
-#define MACH64_CONFIG_STAT2                    0x0498
+#define MACH64_CONFIG_CHIP_ID                  0x04e0
+#define MACH64_CONFIG_CNTL                     0x04dc
+#define MACH64_CONFIG_STAT0                    0x04e4
+#define MACH64_CONFIG_STAT1                    0x0494
+#define MACH64_CONFIG_STAT2                    0x0498
 #define MACH64_CONTEXT_LOAD_CNTL               0x072c
 #define MACH64_CONTEXT_MASK                    0x0720
 #define MACH64_COMPOSITE_SHADOW_ID             0x0798
-#define MACH64_CRC_SIG                                 0x04e8
-#define MACH64_CUSTOM_MACRO_CNTL               0x04d4
+#define MACH64_CRC_SIG                         0x04e8
+#define MACH64_CUSTOM_MACRO_CNTL               0x04d4
 
 #define MACH64_DP_BKGD_CLR                     0x06c0
 #define MACH64_DP_FOG_CLR                      0x06c4
@@ -358,7 +358,7 @@ extern void mach64_driver_irq_uninstall(struct drm_device * dev);
 #define MACH64_TEX_0_OFF                       0x05c0
 #define MACH64_TEX_CNTL                                0x0774
 #define MACH64_TEX_SIZE_PITCH                  0x0770
-#define MACH64_TIMER_CONFIG                    0x0428
+#define MACH64_TIMER_CONFIG                    0x0428
 
 #define MACH64_VERTEX_1_ARGB                   0x0254
 #define MACH64_VERTEX_1_S                      0x0240
@@ -758,7 +758,7 @@ mach64_update_ring_snapshot(drm_mach64_private_t * dev_priv)
 
 #define RING_WRITE_OFS  _ring_write
 
-#define BEGIN_RING( n )                                                                \
+#define BEGIN_RING( n )                                                                        \
 do {                                                                                   \
        if ( MACH64_VERBOSE ) {                                                         \
                DRM_INFO( "BEGIN_RING( %d ) in %s\n",                                   \
@@ -789,7 +789,7 @@ do {                                                                \
        _ring_write &= _ring_mask;                              \
 } while (0)
 
-#define ADVANCE_RING()                                                         \
+#define ADVANCE_RING()                                                 \
 do {                                                                   \
        if ( MACH64_VERBOSE ) {                                         \
                DRM_INFO( "ADVANCE_RING() wr=0x%06x tail=0x%06x\n",     \
@@ -808,12 +808,12 @@ do {                                                                      \
 
 #define DMALOCALS                              \
        drm_mach64_freelist_t *_entry = NULL;   \
-       struct drm_buf *_buf = NULL;            \
+       struct drm_buf *_buf = NULL;            \
        u32 *_buf_wptr; int _outcount
 
 #define GETBUFPTR( __buf )                                             \
-((dev_priv->is_pci) ?                                                  \
-       ((u32 *)(__buf)->address) :                                     \
+((dev_priv->is_pci) ?                                                  \
+       ((u32 *)(__buf)->address) :                                     \
        ((u32 *)((char *)dev_priv->dev_buffers->handle + (__buf)->offset)))
 
 #define GETBUFADDR( __buf ) ((u32)(__buf)->bus_address)
@@ -844,7 +844,7 @@ static __inline__ int mach64_find_pending_buf_entry(drm_mach64_private_t *
        return 0;
 }
 
-#define DMASETPTR( _p )                        \
+#define DMASETPTR( _p )                                \
 do {                                           \
        _buf = (_p);                            \
        _outcount = 0;                          \
@@ -913,10 +913,10 @@ do {                                                                                           \
                                   __FUNCTION__, _buf->idx );                                \
                        return -EFAULT;                                              \
                }                                                                            \
-       } else {                                                                             \
+       } else {                                                                             \
                if (list_empty(&dev_priv->placeholders)) {                                   \
                        DRM_ERROR( "DMAADVANCE() in %s: empty placeholder list\n",           \
-                               __FUNCTION__ );                                              \
+                               __FUNCTION__ );                                              \
                        return -EFAULT;                                              \
                }                                                                            \
                ptr = dev_priv->placeholders.next;                                           \
index a86dd31..44b1494 100644 (file)
@@ -28,7 +28,7 @@
 /**
  * \file mga_dma.c
  * DMA support for MGA G200 / G400.
- * 
+ *
  * \author Rickard E. (Rik) Faith <faith@valinux.com>
  * \author Jeff Hartmann <jhartmann@valinux.com>
  * \author Keith Whitwell <keith@tungstengraphics.com>
@@ -420,7 +420,7 @@ int mga_driver_load(struct drm_device *dev, unsigned long flags)
 
 /**
  * Bootstrap the driver for AGP DMA.
- * 
+ *
  * \todo
  * Investigate whether there is any benifit to storing the WARP microcode in
  * AGP memory.  If not, the microcode may as well always be put in PCI
@@ -591,7 +591,7 @@ static int mga_do_agp_dma_bootstrap(struct drm_device *dev,
 
 /**
  * Bootstrap the driver for PCI DMA.
- * 
+ *
  * \todo
  * The algorithm for decreasing the size of the primary DMA buffer could be
  * better.  The size should be rounded up to the nearest page size, then
@@ -600,7 +600,7 @@ static int mga_do_agp_dma_bootstrap(struct drm_device *dev,
  * \todo
  * Determine whether the maximum address passed to drm_pci_alloc is correct.
  * The same goes for drm_addbufs_pci.
- * 
+ *
  * \sa mga_do_dma_bootstrap, mga_do_agp_dma_bootstrap
  */
 static int mga_do_pci_dma_bootstrap(struct drm_device * dev,
@@ -613,7 +613,7 @@ static int mga_do_pci_dma_bootstrap(struct drm_device * dev,
        int err;
        struct drm_buf_desc req;
 
-       
+
        if (dev->dma == NULL) {
                DRM_ERROR("dev->dma is NULL\n");
                return -EFAULT;
@@ -656,13 +656,13 @@ static int mga_do_pci_dma_bootstrap(struct drm_device * dev,
 
        if (dev_priv->primary->size != dma_bs->primary_size) {
                DRM_INFO("Primary DMA buffer size reduced from %u to %u.\n",
-                        dma_bs->primary_size, 
+                        dma_bs->primary_size,
                         (unsigned) dev_priv->primary->size);
                dma_bs->primary_size = dev_priv->primary->size;
        }
 
        for ( bin_count = dma_bs->secondary_bin_count
-             ; bin_count > 0 
+             ; bin_count > 0
              ; bin_count-- ) {
                (void) memset( &req, 0, sizeof(req) );
                req.count = bin_count;
@@ -673,7 +673,7 @@ static int mga_do_pci_dma_bootstrap(struct drm_device * dev,
                        break;
                }
        }
-       
+
        if (bin_count == 0) {
                DRM_ERROR("Unable to add secondary DMA buffers: %d\n", err);
                return err;
@@ -736,7 +736,7 @@ static int mga_do_dma_bootstrap(struct drm_device * dev,
        if (is_agp) {
                err = mga_do_agp_dma_bootstrap(dev, dma_bs);
        }
-       
+
        /* If we attempted to initialize the card for AGP DMA but failed,
         * clean-up any mess that may have been created.
         */
@@ -768,7 +768,7 @@ int mga_dma_bootstrap(struct drm_device *dev, void *data,
        drm_mga_dma_bootstrap_t *bootstrap = data;
        int err;
        static const int modes[] = { 0, 1, 2, 2, 4, 4, 4, 4 };
-       const drm_mga_private_t * const dev_priv = 
+       const drm_mga_private_t * const dev_priv =
                (drm_mga_private_t *) dev->dev_private;
 
 
@@ -951,7 +951,7 @@ static int mga_do_cleanup_dma(struct drm_device * dev, int full_cleanup)
                    && (dev_priv->warp->type != _DRM_CONSISTENT))
                        drm_core_ioremapfree(dev_priv->warp, dev);
 
-               if ((dev_priv->primary != NULL) 
+               if ((dev_priv->primary != NULL)
                    && (dev_priv->primary->type != _DRM_CONSISTENT))
                        drm_core_ioremapfree(dev_priv->primary, dev);
 
index 15c2dea..c03d322 100644 (file)
@@ -302,10 +302,10 @@ typedef struct drm_mga_init {
 typedef struct drm_mga_dma_bootstrap {
        /**
         * \name AGP texture region
-        * 
+        *
         * On return from the DRM_MGA_DMA_BOOTSTRAP ioctl, these fields will
         * be filled in with the actual AGP texture settings.
-        * 
+        *
         * \warning
         * If these fields are non-zero, but dma_mga_dma_bootstrap::agp_mode
         * is zero, it means that PCI memory (most likely through the use of
@@ -319,7 +319,7 @@ typedef struct drm_mga_dma_bootstrap {
 
        /**
         * Requested size of the primary DMA region.
-        * 
+        *
         * On return from the DRM_MGA_DMA_BOOTSTRAP ioctl, this field will be
         * filled in with the actual AGP mode.  If AGP was not available
         */
@@ -328,18 +328,18 @@ typedef struct drm_mga_dma_bootstrap {
 
        /**
         * Requested number of secondary DMA buffers.
-        * 
+        *
         * On return from the DRM_MGA_DMA_BOOTSTRAP ioctl, this field will be
         * filled in with the actual number of secondary DMA buffers
         * allocated.  Particularly when PCI DMA is used, this may be
         * (subtantially) less than the number requested.
         */
        uint32_t secondary_bin_count;
-       
-       
+
+
        /**
         * Requested size of each secondary DMA buffer.
-        * 
+        *
         * While the kernel \b is free to reduce
         * dma_mga_dma_bootstrap::secondary_bin_count, it is \b not allowed
         * to reduce dma_mga_dma_bootstrap::secondary_bin_size.
@@ -352,7 +352,7 @@ typedef struct drm_mga_dma_bootstrap {
         * \c AGPSTAT2_2X, and \c AGPSTAT2_4X are supported.  If this value is
         * zero, it means that PCI DMA should be used, even if AGP is
         * possible.
-        * 
+        *
         * On return from the DRM_MGA_DMA_BOOTSTRAP ioctl, this field will be
         * filled in with the actual AGP mode.  If AGP was not available
         * (i.e., PCI DMA was used), this value will be zero.
index 8254c3f..0c7fab5 100644 (file)
@@ -109,7 +109,7 @@ typedef struct drm_mga_private {
 
        /**
         * \name MMIO region parameters.
-        * 
+        *
         * \sa drm_mga_private_t::mmio
         */
        /*@{*/
@@ -143,7 +143,7 @@ typedef struct drm_mga_private {
        drm_local_map_t *warp;
        drm_local_map_t *primary;
        drm_local_map_t *agp_textures;
-       
+
        unsigned long agp_handle;
        unsigned int agp_size;
 } drm_mga_private_t;
@@ -216,8 +216,8 @@ static inline u32 _MGA_READ(u32 * addr)
 #define MGA_WRITE( reg, val )  DRM_WRITE32(dev_priv->mmio, (reg), (val))
 #endif
 
-#define DWGREG0        0x1c00
-#define DWGREG0_END    0x1dff
+#define DWGREG0                0x1c00
+#define DWGREG0_END    0x1dff
 #define DWGREG1                0x2c00
 #define DWGREG1_END    0x2dff
 
@@ -394,22 +394,22 @@ do {                                                                      \
 #define MGA_VINTCLR                    (1 << 4)
 #define MGA_VINTEN                     (1 << 5)
 
-#define MGA_ALPHACTRL                  0x2c7c
-#define MGA_AR0                        0x1c60
-#define MGA_AR1                        0x1c64
-#define MGA_AR2                        0x1c68
-#define MGA_AR3                        0x1c6c
-#define MGA_AR4                        0x1c70
-#define MGA_AR5                        0x1c74
-#define MGA_AR6                        0x1c78
+#define MGA_ALPHACTRL                  0x2c7c
+#define MGA_AR0                                0x1c60
+#define MGA_AR1                                0x1c64
+#define MGA_AR2                                0x1c68
+#define MGA_AR3                                0x1c6c
+#define MGA_AR4                                0x1c70
+#define MGA_AR5                                0x1c74
+#define MGA_AR6                                0x1c78
 
 #define MGA_CXBNDRY                    0x1c80
-#define MGA_CXLEFT                     0x1ca0
+#define MGA_CXLEFT                     0x1ca0
 #define MGA_CXRIGHT                    0x1ca4
 
-#define MGA_DMAPAD                     0x1c54
-#define MGA_DSTORG                     0x2cb8
-#define MGA_DWGCTL                     0x1c00
+#define MGA_DMAPAD                     0x1c54
+#define MGA_DSTORG                     0x2cb8
+#define MGA_DWGCTL                     0x1c00
 #      define MGA_OPCOD_MASK                   (15 << 0)
 #      define MGA_OPCOD_TRAP                   (4 << 0)
 #      define MGA_OPCOD_TEXTURE_TRAP           (6 << 0)
@@ -455,27 +455,27 @@ do {                                                                      \
 #      define MGA_CLIPDIS                      (1 << 31)
 #define MGA_DWGSYNC                    0x2c4c
 
-#define MGA_FCOL                       0x1c24
-#define MGA_FIFOSTATUS                         0x1e10
-#define MGA_FOGCOL                     0x1cf4
+#define MGA_FCOL                       0x1c24
+#define MGA_FIFOSTATUS                 0x1e10
+#define MGA_FOGCOL                     0x1cf4
 #define MGA_FXBNDRY                    0x1c84
-#define MGA_FXLEFT                     0x1ca8
+#define MGA_FXLEFT                     0x1ca8
 #define MGA_FXRIGHT                    0x1cac
 
-#define MGA_ICLEAR                     0x1e18
+#define MGA_ICLEAR                     0x1e18
 #      define MGA_SOFTRAPICLR                  (1 << 0)
 #      define MGA_VLINEICLR                    (1 << 5)
-#define MGA_IEN                        0x1e1c
+#define MGA_IEN                                0x1e1c
 #      define MGA_SOFTRAPIEN                   (1 << 0)
 #      define MGA_VLINEIEN                     (1 << 5)
 
-#define MGA_LEN                        0x1c5c
+#define MGA_LEN                                0x1c5c
 
 #define MGA_MACCESS                    0x1c04
 
-#define MGA_PITCH                      0x1c8c
-#define MGA_PLNWT                      0x1c1c
-#define MGA_PRIMADDRESS                0x1e58
+#define MGA_PITCH                      0x1c8c
+#define MGA_PLNWT                      0x1c1c
+#define MGA_PRIMADDRESS                        0x1e58
 #      define MGA_DMA_GENERAL                  (0 << 0)
 #      define MGA_DMA_BLIT                     (1 << 0)
 #      define MGA_DMA_VECTOR                   (2 << 0)
@@ -487,43 +487,43 @@ do {                                                                      \
 #      define MGA_PRIMPTREN0                   (1 << 0)
 #      define MGA_PRIMPTREN1                   (1 << 1)
 
-#define MGA_RST                        0x1e40
+#define MGA_RST                                0x1e40
 #      define MGA_SOFTRESET                    (1 << 0)
 #      define MGA_SOFTEXTRST                   (1 << 1)
 
-#define MGA_SECADDRESS                         0x2c40
-#define MGA_SECEND                     0x2c44
-#define MGA_SETUPADDRESS               0x2cd0
-#define MGA_SETUPEND                   0x2cd4
+#define MGA_SECADDRESS                 0x2c40
+#define MGA_SECEND                     0x2c44
+#define MGA_SETUPADDRESS               0x2cd0
+#define MGA_SETUPEND                   0x2cd4
 #define MGA_SGN                                0x1c58
 #define MGA_SOFTRAP                    0x2c48
-#define MGA_SRCORG                     0x2cb4
+#define MGA_SRCORG                     0x2cb4
 #      define MGA_SRMMAP_MASK                  (1 << 0)
 #      define MGA_SRCMAP_FB                    (0 << 0)
 #      define MGA_SRCMAP_SYSMEM                (1 << 0)
 #      define MGA_SRCACC_MASK                  (1 << 1)
 #      define MGA_SRCACC_PCI                   (0 << 1)
 #      define MGA_SRCACC_AGP                   (1 << 1)
-#define MGA_STATUS                     0x1e14
+#define MGA_STATUS                     0x1e14
 #      define MGA_SOFTRAPEN                    (1 << 0)
 #      define MGA_VSYNCPEN                     (1 << 4)
 #      define MGA_VLINEPEN                     (1 << 5)
 #      define MGA_DWGENGSTS                    (1 << 16)
 #      define MGA_ENDPRDMASTS                  (1 << 17)
 #define MGA_STENCIL                    0x2cc8
-#define MGA_STENCILCTL                         0x2ccc
+#define MGA_STENCILCTL                 0x2ccc
 
-#define MGA_TDUALSTAGE0                0x2cf8
-#define MGA_TDUALSTAGE1                0x2cfc
-#define MGA_TEXBORDERCOL               0x2c5c
-#define MGA_TEXCTL                     0x2c30
+#define MGA_TDUALSTAGE0                        0x2cf8
+#define MGA_TDUALSTAGE1                        0x2cfc
+#define MGA_TEXBORDERCOL               0x2c5c
+#define MGA_TEXCTL                     0x2c30
 #define MGA_TEXCTL2                    0x2c3c
 #      define MGA_DUALTEX                      (1 << 7)
 #      define MGA_G400_TC2_MAGIC               (1 << 15)
 #      define MGA_MAP1_ENABLE                  (1 << 31)
-#define MGA_TEXFILTER                  0x2c58
-#define MGA_TEXHEIGHT                  0x2c2c
-#define MGA_TEXORG                     0x2c24
+#define MGA_TEXFILTER                  0x2c58
+#define MGA_TEXHEIGHT                  0x2c2c
+#define MGA_TEXORG                     0x2c24
 #      define MGA_TEXORGMAP_MASK               (1 << 0)
 #      define MGA_TEXORGMAP_FB                 (0 << 0)
 #      define MGA_TEXORGMAP_SYSMEM             (1 << 0)
@@ -534,45 +534,45 @@ do {                                                                      \
 #define MGA_TEXORG2                    0x2ca8
 #define MGA_TEXORG3                    0x2cac
 #define MGA_TEXORG4                    0x2cb0
-#define MGA_TEXTRANS                   0x2c34
-#define MGA_TEXTRANSHIGH               0x2c38
-#define MGA_TEXWIDTH                   0x2c28
-
-#define MGA_WACCEPTSEQ                         0x1dd4
-#define MGA_WCODEADDR                  0x1e6c
-#define MGA_WFLAG                      0x1dc4
-#define MGA_WFLAG1                     0x1de0
+#define MGA_TEXTRANS                   0x2c34
+#define MGA_TEXTRANSHIGH               0x2c38
+#define MGA_TEXWIDTH                   0x2c28
+
+#define MGA_WACCEPTSEQ                 0x1dd4
+#define MGA_WCODEADDR                  0x1e6c
+#define MGA_WFLAG                      0x1dc4
+#define MGA_WFLAG1                     0x1de0
 #define MGA_WFLAGNB                    0x1e64
-#define MGA_WFLAGNB1                   0x1e08
+#define MGA_WFLAGNB1                   0x1e08
 #define MGA_WGETMSB                    0x1dc8
-#define MGA_WIADDR                     0x1dc0
+#define MGA_WIADDR                     0x1dc0
 #define MGA_WIADDR2                    0x1dd8
 #      define MGA_WMODE_SUSPEND                (0 << 0)
 #      define MGA_WMODE_RESUME                 (1 << 0)
 #      define MGA_WMODE_JUMP                   (2 << 0)
 #      define MGA_WMODE_START                  (3 << 0)
 #      define MGA_WAGP_ENABLE                  (1 << 2)
-#define MGA_WMISC                      0x1e70
+#define MGA_WMISC                      0x1e70
 #      define MGA_WUCODECACHE_ENABLE           (1 << 0)
 #      define MGA_WMASTER_ENABLE               (1 << 1)
 #      define MGA_WCACHEFLUSH_ENABLE           (1 << 3)
 #define MGA_WVRTXSZ                    0x1dcc
 
-#define MGA_YBOT                       0x1c9c
-#define MGA_YDST                       0x1c90
+#define MGA_YBOT                       0x1c9c
+#define MGA_YDST                       0x1c90
 #define MGA_YDSTLEN                    0x1c88
 #define MGA_YDSTORG                    0x1c94
-#define MGA_YTOP                       0x1c98
+#define MGA_YTOP                       0x1c98
 
-#define MGA_ZORG                       0x1c0c
+#define MGA_ZORG                       0x1c0c
 
 /* This finishes the current batch of commands
  */
-#define MGA_EXEC                       0x0100
+#define MGA_EXEC                       0x0100
 
 /* AGP PLL encoding (for G200 only).
  */
-#define MGA_AGP_PLL                    0x1e4c
+#define MGA_AGP_PLL                    0x1e4c
 #      define MGA_AGP2XPLL_DISABLE             (0 << 0)
 #      define MGA_AGP2XPLL_ENABLE              (1 << 0)
 
index 8b555e2..c18bae9 100644 (file)
@@ -145,6 +145,6 @@ void mga_driver_irq_uninstall(struct drm_device * dev)
 
        /* Disable *all* interrupts */
        MGA_WRITE(MGA_IEN, 0);
-       
+
        dev->irq_enabled = 0;
 }
index 70b7caa..0b8ba04 100644 (file)
@@ -162,8 +162,8 @@ static __inline__ void mga_g400_emit_tex0(drm_mga_private_t * dev_priv)
        drm_mga_texture_regs_t *tex = &sarea_priv->tex_state[0];
        DMA_LOCALS;
 
-/*     printk("mga_g400_emit_tex0 %x %x %x\n", tex->texorg, */
-/*            tex->texctl, tex->texctl2); */
+/*     printk("mga_g400_emit_tex0 %x %x %x\n", tex->texorg, */
+/*            tex->texctl, tex->texctl2); */
 
        BEGIN_DMA(6);
 
@@ -206,8 +206,8 @@ static __inline__ void mga_g400_emit_tex1(drm_mga_private_t * dev_priv)
        drm_mga_texture_regs_t *tex = &sarea_priv->tex_state[1];
        DMA_LOCALS;
 
-/*     printk("mga_g400_emit_tex1 %x %x %x\n", tex->texorg,  */
-/*            tex->texctl, tex->texctl2); */
+/*     printk("mga_g400_emit_tex1 %x %x %x\n", tex->texorg,  */
+/*            tex->texctl, tex->texctl2); */
 
        BEGIN_DMA(5);
 
@@ -276,7 +276,7 @@ static __inline__ void mga_g400_emit_pipe(drm_mga_private_t * dev_priv)
        unsigned int pipe = sarea_priv->warp_pipe;
        DMA_LOCALS;
 
-/*     printk("mga_g400_emit_pipe %x\n", pipe); */
+/*     printk("mga_g400_emit_pipe %x\n", pipe); */
 
        BEGIN_DMA(10);
 
index b33df58..b406c22 100644 (file)
@@ -177,4 +177,3 @@ nouveau_dma_wait(struct drm_device *dev, int size)
 
        return 0;
 }
-
index 5e51c1c..f8df54e 100644 (file)
@@ -95,4 +95,3 @@ typedef enum {
 } while(0)
 
 #endif
-
index 988d467..3bf4008 100644 (file)
@@ -158,4 +158,3 @@ struct drm_nouveau_sarea {
 #define DRM_NOUVEAU_MEM_FREE           0x09
 
 #endif /* __NOUVEAU_DRM_H__ */
-
index b881bea..8b00726 100644 (file)
@@ -59,7 +59,7 @@ enum nouveau_flags {
 };
 
 #define NVOBJ_ENGINE_SW                0
-#define NVOBJ_ENGINE_GR        1
+#define NVOBJ_ENGINE_GR                1
 #define NVOBJ_ENGINE_INT       0xdeadbeef
 
 #define NVOBJ_FLAG_ALLOW_NO_REFS       (1 << 0)
@@ -587,4 +587,3 @@ extern void nouveau_fence_handler(struct drm_device *dev, int channel);
 #define INSTANCE_WR(o,i,v) NV_WI32((o)->im_pramin->start + ((i)<<2), (v))
 
 #endif /* __NOUVEAU_DRV_H__ */
-
index f82d130..e2cb209 100644 (file)
@@ -1,4 +1,4 @@
-/* 
+/*
  * Copyright 2005-2006 Stephane Marchesin
  * All Rights Reserved.
  *
@@ -63,7 +63,7 @@ int nouveau_fifo_ctx_size(struct drm_device *dev)
 
 /* voir nv_xaa.c : NVResetGraphics
  * mémoire mappée par nv_driver.c : NVMapMem
- * voir nv_driver.c : NVPreInit 
+ * voir nv_driver.c : NVPreInit
  */
 
 static int nouveau_fifo_instmem_configure(struct drm_device *dev)
@@ -71,7 +71,7 @@ static int nouveau_fifo_instmem_configure(struct drm_device *dev)
        struct drm_nouveau_private *dev_priv = dev->dev_private;
 
        NV_WRITE(NV03_PFIFO_RAMHT,
-                       (0x03 << 24) /* search 128 */ | 
+                       (0x03 << 24) /* search 128 */ |
                        ((dev_priv->ramht_bits - 9) << 16) |
                        (dev_priv->ramht_offset >> 8)
                        );
@@ -166,7 +166,7 @@ int nouveau_fifo_init(struct drm_device *dev)
                                      NV_PFIFO_CACHE1_DMA_FETCH_MAX_REQS_4 |
 #ifdef __BIG_ENDIAN
                                      NV_PFIFO_CACHE1_BIG_ENDIAN |
-#endif                               
+#endif
                                      0x00000000);
 
        NV_WRITE(NV04_PFIFO_CACHE1_DMA_PUSH, 0x00000001);
@@ -282,9 +282,9 @@ nouveau_fifo_alloc(struct drm_device *dev, struct nouveau_channel **chan_ret,
 
        /*
         * Alright, here is the full story
-        * Nvidia cards have multiple hw fifo contexts (praise them for that, 
+        * Nvidia cards have multiple hw fifo contexts (praise them for that,
         * no complicated crash-prone context switches)
-        * We allocate a new context for each app and let it write to it directly 
+        * We allocate a new context for each app and let it write to it directly
         * (woo, full userspace command submission !)
         * When there are no more contexts, you lost
         */
index 08bd1da..43f37ca 100644 (file)
@@ -82,7 +82,7 @@ nouveau_fifo_irq_handler(struct drm_device *dev)
                if (status & NV_PFIFO_INTR_CACHE_ERROR) {
                        uint32_t mthd, data;
                        int ptr;
-                       
+
                        ptr = get >> 2;
                        if (dev_priv->card_type < NV_40) {
                                mthd = NV_READ(NV04_PFIFO_CACHE1_METHOD(ptr));
@@ -366,7 +366,7 @@ nouveau_pgraph_intr_context_switch(struct drm_device *dev)
 {
        struct drm_nouveau_private *dev_priv = dev->dev_private;
        uint32_t chid;
-       
+
        chid = NV_READ(NV03_PFIFO_CACHE1_PUSH1) & (nouveau_fifo_number(dev)-1);
        DRM_DEBUG("PGRAPH context switch interrupt channel %x\n", chid);
 
@@ -474,4 +474,3 @@ nouveau_irq_handler(DRM_IRQ_ARGS)
 
        return IRQ_HANDLED;
 }
-
index eb97a1c..5259ea2 100644 (file)
@@ -159,7 +159,7 @@ int nouveau_mem_init_heap(struct mem_block **heap, uint64_t start,
        return 0;
 }
 
-/* 
+/*
  * Free all blocks associated with the releasing file_priv
  */
 void nouveau_mem_release(struct drm_file *file_priv, struct mem_block *heap)
@@ -189,7 +189,7 @@ void nouveau_mem_release(struct drm_file *file_priv, struct mem_block *heap)
        }
 }
 
-/* 
+/*
  * Cleanup everything
  */
 void nouveau_mem_takedown(struct mem_block **heap)
@@ -288,7 +288,7 @@ uint64_t nouveau_mem_fb_amount(struct drm_device *dev)
                        } else {
                                uint64_t mem;
 
-                               mem = (NV_READ(NV04_FIFO_DATA) & 
+                               mem = (NV_READ(NV04_FIFO_DATA) &
                                       NV10_FIFO_DATA_RAM_AMOUNT_MB_MASK) >>
                                      NV10_FIFO_DATA_RAM_AMOUNT_MB_SHIFT;
                                return mem*1024*1024;
@@ -448,7 +448,7 @@ int nouveau_mem_init(struct drm_device *dev)
        DRM_DEBUG("Available VRAM: %dKiB\n", fb_size>>10);
 
        if (fb_size>256*1024*1024) {
-               /* On cards with > 256Mb, you can't map everything. 
+               /* On cards with > 256Mb, you can't map everything.
                 * So we create a second FB heap for that type of memory */
                if (nouveau_mem_init_heap(&dev_priv->fb_heap,
                                          0, 256*1024*1024))
@@ -477,7 +477,7 @@ int nouveau_mem_init(struct drm_device *dev)
                if (!ret) {
                        ret = nouveau_sgdma_nottm_hack_init(dev);
                        if (ret)
-                               nouveau_sgdma_takedown(dev); 
+                               nouveau_sgdma_takedown(dev);
                }
 
                if (ret)
@@ -489,7 +489,7 @@ int nouveau_mem_init(struct drm_device *dev)
                                          0, dev_priv->gart_info.aper_size)) {
                        if (dev_priv->gart_info.type == NOUVEAU_GART_SGDMA) {
                                nouveau_sgdma_nottm_hack_takedown(dev);
-                               nouveau_sgdma_takedown(dev); 
+                               nouveau_sgdma_takedown(dev);
                        }
                }
        }
@@ -507,7 +507,7 @@ int nouveau_mem_init(struct drm_device *dev)
                } else {
                        if (nouveau_mem_init_heap(&dev_priv->pci_heap, 0,
                                                  dev->sg->pages * PAGE_SIZE)) {
-                               DRM_ERROR("Unable to initialize pci_heap!");    
+                               DRM_ERROR("Unable to initialize pci_heap!");
                        }
                }
        }
@@ -523,8 +523,8 @@ struct mem_block* nouveau_mem_alloc(struct drm_device *dev, int alignment,
        int type;
        struct drm_nouveau_private *dev_priv = dev->dev_private;
 
-       /* 
-        * Make things easier on ourselves: all allocations are page-aligned. 
+       /*
+        * Make things easier on ourselves: all allocations are page-aligned.
         * We need that to map allocated regions into the user space
         */
        if (alignment < PAGE_SHIFT)
@@ -606,7 +606,7 @@ alloc_ok:
                        ret = drm_addmap(dev, block->start, block->size,
                                         _DRM_SCATTER_GATHER, 0, &block->map);
 
-               if (ret) { 
+               if (ret) {
                        nouveau_mem_free_block(block);
                        return NULL;
                }
@@ -676,5 +676,3 @@ int nouveau_ioctl_mem_free(struct drm_device *dev, void *data, struct drm_file *
        nouveau_mem_free(dev, block);
        return 0;
 }
-
-
index 31e2b24..82c8ab7 100644 (file)
@@ -115,7 +115,7 @@ nouveau_notifier_alloc(struct nouveau_channel *chan, uint32_t handle,
                } else {
                        target = NV_DMA_TARGET_AGP;
                }
-       } else 
+       } else
        if (chan->notifier_block->flags & NOUVEAU_MEM_PCI) {
                target = NV_DMA_TARGET_PCI_NONLINEAR;
        } else {
@@ -163,4 +163,3 @@ nouveau_ioctl_notifier_alloc(struct drm_device *dev, void *data,
 
        return 0;
 }
-
index fbce770..b6bf759 100644 (file)
@@ -524,7 +524,7 @@ nouveau_gpuobj_ref_find(struct nouveau_channel *chan, uint32_t handle,
        struct nouveau_gpuobj_ref *ref;
        struct list_head *entry, *tmp;
 
-       list_for_each_safe(entry, tmp, &chan->ramht_refs) {             
+       list_for_each_safe(entry, tmp, &chan->ramht_refs) {
                ref = list_entry(entry, struct nouveau_gpuobj_ref, list);
 
                if (ref->handle == handle) {
@@ -616,7 +616,7 @@ nouveau_gpuobj_class_instmem_size(struct drm_device *dev, int class)
    DMA objects are used to reference a piece of memory in the
    framebuffer, PCI or AGP address space. Each object is 16 bytes big
    and looks as follows:
-   
+
    entry[0]
    11:0  class (seems like I can always use 0 here)
    12    page table present?
@@ -648,7 +648,7 @@ nouveau_gpuobj_dma_new(struct nouveau_channel *chan, int class,
        struct drm_nouveau_private *dev_priv = dev->dev_private;
        int ret;
        uint32_t is_scatter_gather = 0;
-       
+
        /* Total number of pages covered by the request.
         */
        const unsigned int page_count = (size + PAGE_SIZE - 1) / PAGE_SIZE;
@@ -671,7 +671,7 @@ nouveau_gpuobj_dma_new(struct nouveau_channel *chan, int class,
         default:
                 break;
         }
-       
+
        ret = nouveau_gpuobj_new(dev, chan,
                                 is_scatter_gather ? ((page_count << 2) + 12) : nouveau_gpuobj_class_instmem_size(dev, class),
                                 16,
@@ -687,11 +687,11 @@ nouveau_gpuobj_dma_new(struct nouveau_channel *chan, int class,
                adjust = offset &  0x00000fff;
                if (access != NV_DMA_ACCESS_RO)
                                pte_flags |= (1<<1);
-               
-               if ( ! is_scatter_gather ) 
+
+               if ( ! is_scatter_gather )
                        {
                        frame  = offset & ~0x00000fff;
-                       
+
                        INSTANCE_WR(*gpuobj, 0, ((1<<12) | (1<<13) |
                                        (adjust << 20) |
                                         (access << 14) |
@@ -701,7 +701,7 @@ nouveau_gpuobj_dma_new(struct nouveau_channel *chan, int class,
                        INSTANCE_WR(*gpuobj, 2, frame | pte_flags);
                        INSTANCE_WR(*gpuobj, 3, frame | pte_flags);
                        }
-               else 
+               else
                        {
                        /* Intial page entry in the scatter-gather area that
                         * corresponds to the base offset
@@ -728,7 +728,7 @@ nouveau_gpuobj_dma_new(struct nouveau_channel *chan, int class,
 
                        /*write starting at the third dword*/
                        instance_offset = 2;
+
                        /*for each PAGE, get its bus address, fill in the page table entry, and advance*/
                        for (i = 0; i < page_count; i++) {
                                if (dev->sg->busaddr[idx] == 0) {
@@ -745,12 +745,12 @@ nouveau_gpuobj_dma_new(struct nouveau_channel *chan, int class,
                                }
 
                                frame = (uint32_t) dev->sg->busaddr[idx];
-                               INSTANCE_WR(*gpuobj, instance_offset, 
+                               INSTANCE_WR(*gpuobj, instance_offset,
                                            frame | pte_flags);
+
                                idx++;
                                instance_offset ++;
-                       }
+                       }
                        }
        } else {
                uint32_t flags0, flags5;
@@ -848,7 +848,7 @@ nouveau_gpuobj_gart_dma_new(struct nouveau_channel *chan,
    entry[0]:
    11:0  class  (maybe uses more bits here?)
    17    user clip enable
-   21:19 patch config 
+   21:19 patch config
    25    patch status valid ?
    entry[1]:
    15:0  DMA notifier  (maybe 20:0)
@@ -986,7 +986,7 @@ nouveau_gpuobj_channel_init(struct nouveau_channel *chan,
        /* NV50 VM, point offset 0-512MiB at shared PCIEGART table  */
        if (dev_priv->card_type >= NV_50) {
                uint32_t vm_offset;
-               
+
                vm_offset = (dev_priv->chipset & 0xf0) == 0x50 ? 0x1400 : 0x200;
                vm_offset += chan->ramin->gpuobj->im_pramin->start;
                if ((ret = nouveau_gpuobj_new_fake(dev, vm_offset, ~0, 0x4000,
@@ -1074,7 +1074,7 @@ nouveau_gpuobj_channel_takedown(struct nouveau_channel *chan)
 
        DRM_DEBUG("ch%d\n", chan->id);
 
-       list_for_each_safe(entry, tmp, &chan->ramht_refs) {             
+       list_for_each_safe(entry, tmp, &chan->ramht_refs) {
                ref = list_entry(entry, struct nouveau_gpuobj_ref, list);
 
                nouveau_gpuobj_ref_del(dev, &ref);
@@ -1104,7 +1104,7 @@ int nouveau_ioctl_grobj_alloc(struct drm_device *dev, void *data,
        NOUVEAU_GET_USER_CHANNEL_WITH_RETURN(init->channel, file_priv, chan);
 
        //FIXME: check args, only allow trusted objects to be created
-       
+
        if (init->handle == ~0)
                return -EINVAL;
 
@@ -1145,4 +1145,3 @@ int nouveau_ioctl_gpuobj_free(struct drm_device *dev, void *data,
 
        return 0;
 }
-
index 4dc3b7f..43573f2 100644 (file)
 #define NV40_RAMFC_UNK_48                                        0x48
 #define NV40_RAMFC_UNK_4C                                        0x4C
 #define NV40_RAMFC_UNK_50                                        0x50
-
index fee17d0..610d24e 100644 (file)
@@ -1,4 +1,4 @@
-/* 
+/*
  * Copyright 2005 Stephane Marchesin
  * All Rights Reserved.
  *
@@ -40,7 +40,7 @@ static int nouveau_init_card_mappings(struct drm_device *dev)
 
        /* map the mmio regs */
        ret = drm_addmap(dev, drm_get_resource_start(dev, 0),
-                             drm_get_resource_len(dev, 0), 
+                             drm_get_resource_len(dev, 0),
                              _DRM_REGISTERS, _DRM_READ_ONLY, &dev_priv->mmio);
        if (ret) {
                DRM_ERROR("Unable to initialize the mmio mapping (%d). "
@@ -431,7 +431,7 @@ int nouveau_load(struct drm_device *dev, unsigned long flags)
        DRM_DEBUG("vendor: 0x%X device: 0x%X class: 0x%X\n", dev->pci_vendor, dev->pci_device, dev->pdev->class);
 
        /* Time to determine the card architecture */
-       regs = ioremap_nocache(pci_resource_start(dev->pdev, 0), 0x8); 
+       regs = ioremap_nocache(pci_resource_start(dev->pdev, 0), 0x8);
        if (!regs) {
                DRM_ERROR("Could not ioremap to determine register\n");
                return -ENOMEM;
@@ -559,7 +559,7 @@ int nouveau_ioctl_getparam(struct drm_device *dev, void *data, struct drm_file *
        case NOUVEAU_GETPARAM_PCI_PHYSICAL:
                if ( dev -> sg )
                        getparam->value=(uint64_t) dev->sg->virtual;
-               else 
+               else
                     {
                     DRM_ERROR("Requested PCIGART address, while no PCIGART was created\n");
                     return -EINVAL;
@@ -641,5 +641,3 @@ void nouveau_wait_for_idle(struct drm_device *dev)
        }
        }
 }
-
-
index 66ef623..c3666bf 100644 (file)
@@ -189,5 +189,3 @@ static void nouveau_NV04_setcontext_sw_method(struct drm_device *dev, uint32_t o
 
         return 1;
  }
-
-
index df8c740..5b9409f 100644 (file)
@@ -31,4 +31,3 @@
  */
 
 int nouveau_sw_method_execute(struct drm_device *dev, uint32_t oclass, uint32_t method); /* execute the given software method, returns 0 on success */
-
index 534fb50..58a9247 100644 (file)
@@ -21,4 +21,3 @@ void
 nv04_fb_takedown(struct drm_device *dev)
 {
 }
-
index d750ced..d172302 100644 (file)
@@ -71,7 +71,7 @@ nv04_fifo_destroy_context(struct nouveau_channel *chan)
 {
        struct drm_device *dev = chan->dev;
        struct drm_nouveau_private *dev_priv = dev->dev_private;
-       
+
        NV_WRITE(NV04_PFIFO_MODE, NV_READ(NV04_PFIFO_MODE)&~(1<<chan->id));
 
        nouveau_gpuobj_ref_del(dev, &chan->ramfc);
@@ -88,11 +88,11 @@ nv04_fifo_load_context(struct nouveau_channel *chan)
 
        NV_WRITE(NV04_PFIFO_CACHE1_DMA_GET, RAMFC_RD(DMA_GET));
        NV_WRITE(NV04_PFIFO_CACHE1_DMA_PUT, RAMFC_RD(DMA_PUT));
-       
+
        tmp = RAMFC_RD(DMA_INSTANCE);
        NV_WRITE(NV04_PFIFO_CACHE1_DMA_INSTANCE, tmp & 0xFFFF);
        NV_WRITE(NV04_PFIFO_CACHE1_DMA_DCOUNT, tmp >> 16);
-       
+
        NV_WRITE(NV04_PFIFO_CACHE1_DMA_STATE, RAMFC_RD(DMA_STATE));
        NV_WRITE(NV04_PFIFO_CACHE1_DMA_FETCH, RAMFC_RD(DMA_FETCH));
        NV_WRITE(NV04_PFIFO_CACHE1_ENGINE, RAMFC_RD(ENGINE));
@@ -123,7 +123,6 @@ nv04_fifo_save_context(struct nouveau_channel *chan)
        RAMFC_WR(DMA_FETCH, NV_READ(NV04_PFIFO_CACHE1_DMA_FETCH));
        RAMFC_WR(ENGINE, NV_READ(NV04_PFIFO_CACHE1_ENGINE));
        RAMFC_WR(PULL1_ENGINE, NV_READ(NV04_PFIFO_CACHE1_PULL1));
-       
+
        return 0;
 }
-
index cffa3e4..04dbf0e 100644 (file)
@@ -1,4 +1,4 @@
-/* 
+/*
  * Copyright 2007 Stephane Marchesin
  * All Rights Reserved.
  *
index 5a44645..5696818 100644 (file)
@@ -134,7 +134,7 @@ nv04_instmem_clear(struct drm_device *dev, struct nouveau_gpuobj *gpuobj)
                if (gpuobj->im_bound)
                        dev_priv->Engine.instmem.unbind(dev, gpuobj);
                gpuobj->im_backing = NULL;
-       }       
+       }
 }
 
 int
@@ -156,4 +156,3 @@ nv04_instmem_unbind(struct drm_device *dev, struct nouveau_gpuobj *gpuobj)
        gpuobj->im_bound = 0;
        return 0;
 }
-
index eee0c50..24c1f7b 100644 (file)
@@ -20,4 +20,3 @@ void
 nv04_mc_takedown(struct drm_device *dev)
 {
 }
-
index 08a27f4..88dff36 100644 (file)
@@ -42,4 +42,3 @@ void
 nv04_timer_takedown(struct drm_device *dev)
 {
 }
-
index 7fff5b3..6e0773a 100644 (file)
@@ -23,4 +23,3 @@ void
 nv10_fb_takedown(struct drm_device *dev)
 {
 }
-
index c86725d..45d2603 100644 (file)
@@ -157,4 +157,3 @@ nv10_fifo_save_context(struct nouveau_channel *chan)
 
        return 0;
 }
-
index c6319b8..606fb43 100644 (file)
@@ -1,4 +1,4 @@
-/* 
+/*
  * Copyright 2007 Matthieu CASTET <castet.matthieu@free.fr>
  * All Rights Reserved.
  *
@@ -732,7 +732,7 @@ void nouveau_nv10_context_switch(struct drm_device *dev)
        if (last) {
                nouveau_wait_for_idle(dev);
                nv10_graph_save_context(last);
-       }       
+       }
 
        nouveau_wait_for_idle(dev);
 
@@ -907,4 +907,3 @@ int nv10_graph_init(struct drm_device *dev) {
 void nv10_graph_takedown(struct drm_device *dev)
 {
 }
-
index 3d9549a..a21fde7 100644 (file)
@@ -887,4 +887,3 @@ int nv30_graph_init(struct drm_device *dev)
 
        return 0;
 }
-
index 2cbb40e..ceae807 100644 (file)
@@ -53,4 +53,3 @@ void
 nv40_fb_takedown(struct drm_device *dev)
 {
 }
-
index ce3f8fd..5b3eda0 100644 (file)
@@ -205,4 +205,3 @@ nv40_fifo_init(struct drm_device *dev)
        NV_WRITE(NV04_PFIFO_DMA_TIMESLICE, 0x2101ffff);
        return 0;
 }
-
index 7ce4273..fdf5151 100644 (file)
@@ -304,7 +304,7 @@ nv43_graph_context_init(struct drm_device *dev, struct nouveau_gpuobj *ctx)
 {
        struct drm_nouveau_private *dev_priv = dev->dev_private;
        int i;
-       
+
        INSTANCE_WR(ctx, 0x00000/4, ctx->im_pramin->start);
        INSTANCE_WR(ctx, 0x00024/4, 0x0000ffff);
        INSTANCE_WR(ctx, 0x00028/4, 0x0000ffff);
@@ -1555,7 +1555,7 @@ nv40_graph_transfer_context(struct drm_device *dev, uint32_t inst, int save)
        tmp |= save ? NV40_PGRAPH_CTXCTL_0310_XFER_SAVE :
                      NV40_PGRAPH_CTXCTL_0310_XFER_LOAD;
        NV_WRITE(NV40_PGRAPH_CTXCTL_0310, tmp);
-       
+
        tmp  = NV_READ(NV40_PGRAPH_CTXCTL_0304);
        tmp |= NV40_PGRAPH_CTXCTL_0304_XFER_CTX;
        NV_WRITE(NV40_PGRAPH_CTXCTL_0304, tmp);
@@ -1877,35 +1877,35 @@ static uint32_t nv49_4b_ctx_voodoo[] ={
 
 
 static uint32_t nv4a_ctx_voodoo[] = {
-       0x00400889, 0x00200000, 0x0060000a, 0x00200000, 0x00300000, 0x00800001, 
-       0x00700009, 0x0060000e, 0x00400d64, 0x00400d05, 0x00409965, 0x00409e06, 
-       0x0040ac68, 0x00200000, 0x0060000a, 0x00700000, 0x00106000, 0x00700080, 
-       0x004014e6, 0x007000a0, 0x00401a84, 0x00700082, 0x00600001, 0x00500061, 
-       0x00600002, 0x00401b68, 0x00500060, 0x00200001, 0x0060000a, 0x0011814d, 
-       0x00110158, 0x00105401, 0x0020003a, 0x00100051, 0x001040c5, 0x0010c1c4, 
-       0x001041c9, 0x0010c1dc, 0x00150210, 0x0012c225, 0x00108238, 0x0010823e, 
-       0x001242c0, 0x00200040, 0x00100280, 0x00128100, 0x00128120, 0x00128143, 
-       0x0011415f, 0x0010815c, 0x0010c140, 0x00104029, 0x00110400, 0x00104d10, 
-       0x001046ec, 0x00500060, 0x00403a87, 0x0060000d, 0x00407de6, 0x002000f1, 
-       0x0060000a, 0x00148653, 0x00104668, 0x0010c66d, 0x00120682, 0x0011068b, 
-       0x00168691, 0x001046ae, 0x001046b0, 0x001206b4, 0x001046c4, 0x001146c6, 
-       0x001646cc, 0x001186e6, 0x001046ed, 0x001246f0, 0x002000c0, 0x00100700, 
-       0x0010c3d7, 0x001043e1, 0x00500060, 0x00405800, 0x00405884, 0x00600003, 
-       0x00500067, 0x00600008, 0x00500060, 0x00700082, 0x00200232, 0x0060000a, 
-       0x00104800, 0x00108901, 0x00104910, 0x00124920, 0x0020001f, 0x00100940, 
-       0x00140965, 0x00148a00, 0x00108a14, 0x00160b00, 0x00134b2c, 0x0010cd00, 
-       0x0010cd04, 0x0010cd08, 0x00104d80, 0x00104e00, 0x0012d600, 0x00105c00, 
-       0x00104f06, 0x002002c8, 0x0060000a, 0x00300000, 0x00200080, 0x00407300, 
-       0x00200084, 0x00800001, 0x00200510, 0x0060000a, 0x002037e0, 0x0040798a, 
-       0x00201320, 0x00800029, 0x00407d84, 0x00201560, 0x00800002, 0x00409100, 
-       0x00600006, 0x00700003, 0x00408ae6, 0x00700080, 0x0020007a, 0x0060000a, 
-       0x00104280, 0x002002c8, 0x0060000a, 0x00200004, 0x00800001, 0x00700000, 
-       0x00200000, 0x0060000a, 0x00106002, 0x0040ac84, 0x00700002, 0x00600004, 
-       0x0040ac68, 0x00700000, 0x00200000, 0x0060000a, 0x00106002, 0x00700080, 
-       0x00400a84, 0x00700002, 0x00400a68, 0x00500060, 0x00600007, 0x00409d88, 
-       0x0060000f, 0x00000000, 0x00500060, 0x00200000, 0x0060000a, 0x00700000, 
-       0x00106001, 0x00700083, 0x00910880, 0x00901ffe, 0x01940000, 0x00200020, 
-       0x0060000b, 0x00500069, 0x0060000c, 0x00401b68, 0x0040ae06, 0x0040af05, 
+       0x00400889, 0x00200000, 0x0060000a, 0x00200000, 0x00300000, 0x00800001,
+       0x00700009, 0x0060000e, 0x00400d64, 0x00400d05, 0x00409965, 0x00409e06,
+       0x0040ac68, 0x00200000, 0x0060000a, 0x00700000, 0x00106000, 0x00700080,
+       0x004014e6, 0x007000a0, 0x00401a84, 0x00700082, 0x00600001, 0x00500061,
+       0x00600002, 0x00401b68, 0x00500060, 0x00200001, 0x0060000a, 0x0011814d,
+       0x00110158, 0x00105401, 0x0020003a, 0x00100051, 0x001040c5, 0x0010c1c4,
+       0x001041c9, 0x0010c1dc, 0x00150210, 0x0012c225, 0x00108238, 0x0010823e,
+       0x001242c0, 0x00200040, 0x00100280, 0x00128100, 0x00128120, 0x00128143,
+       0x0011415f, 0x0010815c, 0x0010c140, 0x00104029, 0x00110400, 0x00104d10,
+       0x001046ec, 0x00500060, 0x00403a87, 0x0060000d, 0x00407de6, 0x002000f1,
+       0x0060000a, 0x00148653, 0x00104668, 0x0010c66d, 0x00120682, 0x0011068b,
+       0x00168691, 0x001046ae, 0x001046b0, 0x001206b4, 0x001046c4, 0x001146c6,
+       0x001646cc, 0x001186e6, 0x001046ed, 0x001246f0, 0x002000c0, 0x00100700,
+       0x0010c3d7, 0x001043e1, 0x00500060, 0x00405800, 0x00405884, 0x00600003,
+       0x00500067, 0x00600008, 0x00500060, 0x00700082, 0x00200232, 0x0060000a,
+       0x00104800, 0x00108901, 0x00104910, 0x00124920, 0x0020001f, 0x00100940,
+       0x00140965, 0x00148a00, 0x00108a14, 0x00160b00, 0x00134b2c, 0x0010cd00,
+       0x0010cd04, 0x0010cd08, 0x00104d80, 0x00104e00, 0x0012d600, 0x00105c00,
+       0x00104f06, 0x002002c8, 0x0060000a, 0x00300000, 0x00200080, 0x00407300,
+       0x00200084, 0x00800001, 0x00200510, 0x0060000a, 0x002037e0, 0x0040798a,
+       0x00201320, 0x00800029, 0x00407d84, 0x00201560, 0x00800002, 0x00409100,
+       0x00600006, 0x00700003, 0x00408ae6, 0x00700080, 0x0020007a, 0x0060000a,
+       0x00104280, 0x002002c8, 0x0060000a, 0x00200004, 0x00800001, 0x00700000,
+       0x00200000, 0x0060000a, 0x00106002, 0x0040ac84, 0x00700002, 0x00600004,
+       0x0040ac68, 0x00700000, 0x00200000, 0x0060000a, 0x00106002, 0x00700080,
+       0x00400a84, 0x00700002, 0x00400a68, 0x00500060, 0x00600007, 0x00409d88,
+       0x0060000f, 0x00000000, 0x00500060, 0x00200000, 0x0060000a, 0x00700000,
+       0x00106001, 0x00700083, 0x00910880, 0x00901ffe, 0x01940000, 0x00200020,
+       0x0060000b, 0x00500069, 0x0060000c, 0x00401b68, 0x0040ae06, 0x0040af05,
        0x00600009, 0x00700005, 0x00700006, 0x0060000e, ~0
 };
 
@@ -2026,7 +2026,7 @@ nv40_graph_init(struct drm_device *dev)
                        NV_WRITE(NV40_PGRAPH_CTXCTL_UCODE_DATA, ctx_voodoo[i]);
                        i++;
                }
-       }       
+       }
 
        /* No context present currently */
        NV_WRITE(NV40_PGRAPH_CTXCTL_CUR, 0x00000000);
@@ -2221,4 +2221,3 @@ nv40_graph_init(struct drm_device *dev)
 void nv40_graph_takedown(struct drm_device *dev)
 {
 }
-
index c7db902..ead6f87 100644 (file)
@@ -36,4 +36,3 @@ void
 nv40_mc_takedown(struct drm_device *dev)
 {
 }
-
index 7859544..f77de6e 100644 (file)
@@ -324,4 +324,3 @@ nv50_fifo_save_context(struct nouveau_channel *chan)
        DRM_ERROR("stub!\n");
        return 0;
 }
-
index e5bbf65..5814abd 100644 (file)
@@ -177,7 +177,7 @@ nv50_graph_init_ctxctl(struct drm_device *dev)
        NV_WRITE(NV20_PGRAPH_CHANNEL_CTX_POINTER, 0);
 }
 
-int 
+int
 nv50_graph_init(struct drm_device *dev)
 {
        DRM_DEBUG("\n");
@@ -262,7 +262,7 @@ nv50_graph_transfer_context(struct drm_device *dev, uint32_t inst, int save)
        NV_WRITE(NV20_PGRAPH_CHANNEL_CTX_POINTER, inst | (1<<31));
        NV_WRITE(0x400824, NV_READ(0x400824) |
                 (save ? NV40_PGRAPH_CTXCTL_0310_XFER_SAVE :
-                        NV40_PGRAPH_CTXCTL_0310_XFER_LOAD));
+                        NV40_PGRAPH_CTXCTL_0310_XFER_LOAD));
        NV_WRITE(NV40_PGRAPH_CTXCTL_0304, NV40_PGRAPH_CTXCTL_0304_XFER_CTX);
 
        for (i = 0; i < tv; i++) {
@@ -313,4 +313,3 @@ nv50_graph_save_context(struct nouveau_channel *chan)
 
        return nv50_graph_transfer_context(dev, inst, 1);
 }
-
index 1eeb54d..c80574a 100644 (file)
@@ -69,7 +69,7 @@ nv50_instmem_init(struct drm_device *dev)
                return -ENOMEM;
        dev_priv->Engine.instmem.priv = priv;
 
-       /* Reserve the last MiB of VRAM, we should probably try to avoid 
+       /* Reserve the last MiB of VRAM, we should probably try to avoid
         * setting up the below tables over the top of the VBIOS image at
         * some point.
         */
@@ -144,7 +144,7 @@ nv50_instmem_init(struct drm_device *dev)
                        BAR0_WI32(priv->pramin_pt->gpuobj, i + 0, v | 1);
                else
                        BAR0_WI32(priv->pramin_pt->gpuobj, i + 0, 0x00000009);
-               BAR0_WI32(priv->pramin_pt->gpuobj, i + 4, 0x00000000); 
+               BAR0_WI32(priv->pramin_pt->gpuobj, i + 4, 0x00000000);
        }
 
        BAR0_WI32(chan->vm_pd, 0x00, priv->pramin_pt->instance | 0x63);
@@ -259,7 +259,7 @@ nv50_instmem_clear(struct drm_device *dev, struct nouveau_gpuobj *gpuobj)
                        dev_priv->Engine.instmem.unbind(dev, gpuobj);
                nouveau_mem_free(dev, gpuobj->im_backing);
                gpuobj->im_backing = NULL;
-       }       
+       }
 }
 
 int
@@ -317,4 +317,3 @@ nv50_instmem_unbind(struct drm_device *dev, struct nouveau_gpuobj *gpuobj)
        gpuobj->im_bound = 0;
        return 0;
 }
-
index 5bed45b..8ce128b 100644 (file)
@@ -324,7 +324,7 @@ static void r128_cce_init_ring_buffer(struct drm_device * dev,
                ring_start = dev_priv->cce_ring->offset - dev->agp->base;
        else
 #endif
-               ring_start = dev_priv->cce_ring->offset - 
+               ring_start = dev_priv->cce_ring->offset -
                                (unsigned long)dev->sg->virtual;
 
        R128_WRITE(R128_PM4_BUFFER_OFFSET, ring_start | R128_AGP_OFFSET);
index abb9989..4d27f54 100644 (file)
@@ -493,7 +493,7 @@ do {                                                                        \
                        write * sizeof(u32) );                          \
        }                                                               \
        if (((dev_priv->ring.tail + _nr) & tail_mask) != write) {       \
-               DRM_ERROR(                                              \
+               DRM_ERROR(                                              \
                        "ADVANCE_RING(): mismatch: nr: %x write: %x line: %d\n",        \
                        ((dev_priv->ring.tail + _nr) & tail_mask),      \
                        write, __LINE__);                               \
index fe46c2d..6ab907c 100644 (file)
@@ -486,7 +486,7 @@ static __inline__ int r300_emit_bitblt_multi(drm_radeon_private_t *dev_priv,
        if (cmd[0] & 0x8000) {
                u32 offset;
 
-               if (cmd[1] & (RADEON_GMC_SRC_PITCH_OFFSET_CNTL 
+               if (cmd[1] & (RADEON_GMC_SRC_PITCH_OFFSET_CNTL
                              | RADEON_GMC_DST_PITCH_OFFSET_CNTL)) {
                        offset = cmd[2] << 10;
                        ret = !radeon_check_offset(dev_priv, offset);
@@ -504,7 +504,7 @@ static __inline__ int r300_emit_bitblt_multi(drm_radeon_private_t *dev_priv,
                                DRM_ERROR("Invalid bitblt second offset is %08X\n", offset);
                                return -EINVAL;
                        }
-                       
+
                }
        }
 
@@ -723,53 +723,53 @@ static int r300_scratch(drm_radeon_private_t *dev_priv,
        u32 *ref_age_base;
        u32 i, buf_idx, h_pending;
        RING_LOCALS;
-       
+
        if (cmdbuf->bufsz < sizeof(uint64_t) + header.scratch.n_bufs * sizeof(buf_idx) ) {
                return -EINVAL;
        }
-       
+
        if (header.scratch.reg >= 5) {
                return -EINVAL;
        }
-       
+
        dev_priv->scratch_ages[header.scratch.reg] ++;
-       
+
        ref_age_base = (u32 *)(unsigned long)*((uint64_t *)cmdbuf->buf);
-       
+
        cmdbuf->buf += sizeof(uint64_t);
        cmdbuf->bufsz -= sizeof(uint64_t);
-       
+
        for (i=0; i < header.scratch.n_bufs; i++) {
                buf_idx = *(u32 *)cmdbuf->buf;
                buf_idx *= 2; /* 8 bytes per buf */
-               
+
                if (DRM_COPY_TO_USER(ref_age_base + buf_idx, &dev_priv->scratch_ages[header.scratch.reg], sizeof(u32))) {
                        return -EINVAL;
                }
-                                       
+
                if (DRM_COPY_FROM_USER(&h_pending, ref_age_base + buf_idx + 1, sizeof(u32))) {
                        return -EINVAL;
                }
-                                       
+
                if (h_pending == 0) {
                        return -EINVAL;
                }
-                                       
+
                h_pending--;
-                                               
+
                if (DRM_COPY_TO_USER(ref_age_base + buf_idx + 1, &h_pending, sizeof(u32))) {
                        return -EINVAL;
                }
-                                       
+
                cmdbuf->buf += sizeof(buf_idx);
                cmdbuf->bufsz -= sizeof(buf_idx);
        }
-       
+
        BEGIN_RING(2);
        OUT_RING( CP_PACKET0( RADEON_SCRATCH_REG0 + header.scratch.reg * 4, 0 ) );
        OUT_RING( dev_priv->scratch_ages[header.scratch.reg] );
        ADVANCE_RING();
-       
+
        return 0;
 }
 
@@ -918,7 +918,7 @@ int r300_do_cp_cmdbuf(struct drm_device *dev,
                                goto cleanup;
                        }
                        break;
-                       
+
                default:
                        DRM_ERROR("bad cmd_type %i at %p\n",
                                  header.header.cmd_type,
index e59919b..29198c8 100644 (file)
@@ -856,13 +856,13 @@ USE OR OTHER DEALINGS IN THE SOFTWARE.
 #      define R300_TX_FORMAT_W8Z8Y8X8              0xC
 #      define R300_TX_FORMAT_W2Z10Y10X10           0xD
 #      define R300_TX_FORMAT_W16Z16Y16X16          0xE
-#      define R300_TX_FORMAT_DXT1                  0xF
-#      define R300_TX_FORMAT_DXT3                  0x10
-#      define R300_TX_FORMAT_DXT5                  0x11
+#      define R300_TX_FORMAT_DXT1                  0xF
+#      define R300_TX_FORMAT_DXT3                  0x10
+#      define R300_TX_FORMAT_DXT5                  0x11
 #      define R300_TX_FORMAT_D3DMFT_CxV8U8         0x12     /* no swizzle */
-#      define R300_TX_FORMAT_A8R8G8B8              0x13     /* no swizzle */
-#      define R300_TX_FORMAT_B8G8_B8G8             0x14     /* no swizzle */
-#      define R300_TX_FORMAT_G8R8_G8B8             0x15     /* no swizzle */
+#      define R300_TX_FORMAT_A8R8G8B8              0x13     /* no swizzle */
+#      define R300_TX_FORMAT_B8G8_B8G8             0x14     /* no swizzle */
+#      define R300_TX_FORMAT_G8R8_G8B8             0x15     /* no swizzle */
        /* 0x16 - some 16 bit green format.. ?? */
 #      define R300_TX_FORMAT_UNK25                (1 << 25) /* no swizzle */
 #      define R300_TX_FORMAT_CUBIC_MAP            (1 << 26)
@@ -870,19 +870,19 @@ USE OR OTHER DEALINGS IN THE SOFTWARE.
        /* gap */
        /* Floating point formats */
        /* Note - hardware supports both 16 and 32 bit floating point */
-#      define R300_TX_FORMAT_FL_I16                0x18
-#      define R300_TX_FORMAT_FL_I16A16             0x19
+#      define R300_TX_FORMAT_FL_I16                0x18
+#      define R300_TX_FORMAT_FL_I16A16             0x19
 #      define R300_TX_FORMAT_FL_R16G16B16A16       0x1A
-#      define R300_TX_FORMAT_FL_I32                0x1B
-#      define R300_TX_FORMAT_FL_I32A32             0x1C
+#      define R300_TX_FORMAT_FL_I32                0x1B
+#      define R300_TX_FORMAT_FL_I32A32             0x1C
 #      define R300_TX_FORMAT_FL_R32G32B32A32       0x1D
        /* alpha modes, convenience mostly */
        /* if you have alpha, pick constant appropriate to the
           number of channels (1 for I8, 2 for I8A8, 4 for R8G8B8A8, etc */
-#      define R300_TX_FORMAT_ALPHA_1CH             0x000
-#      define R300_TX_FORMAT_ALPHA_2CH             0x200
-#      define R300_TX_FORMAT_ALPHA_4CH             0x600
-#      define R300_TX_FORMAT_ALPHA_NONE            0xA00
+#      define R300_TX_FORMAT_ALPHA_1CH             0x000
+#      define R300_TX_FORMAT_ALPHA_2CH             0x200
+#      define R300_TX_FORMAT_ALPHA_4CH             0x600
+#      define R300_TX_FORMAT_ALPHA_NONE            0xA00
        /* Swizzling */
        /* constants */
 #      define R300_TX_FORMAT_X         0
@@ -1363,11 +1363,11 @@ USE OR OTHER DEALINGS IN THE SOFTWARE.
 #       define R300_RB3D_Z_DISABLED_2            0x00000014
 #       define R300_RB3D_Z_TEST                  0x00000012
 #       define R300_RB3D_Z_TEST_AND_WRITE        0x00000016
-#       define R300_RB3D_Z_WRITE_ONLY           0x00000006
+#       define R300_RB3D_Z_WRITE_ONLY           0x00000006
 
 #       define R300_RB3D_Z_TEST                  0x00000012
 #       define R300_RB3D_Z_TEST_AND_WRITE        0x00000016
-#       define R300_RB3D_Z_WRITE_ONLY           0x00000006
+#       define R300_RB3D_Z_WRITE_ONLY           0x00000006
 #      define R300_RB3D_STENCIL_ENABLE          0x00000001
 
 #define R300_RB3D_ZSTENCIL_CNTL_1                   0x4F04
index c4e13bb..958a179 100644 (file)
@@ -695,7 +695,7 @@ static const u32 R300_cp_microcode[][2] = {
        { 0x0000e571, 0x00000004 },
        { 0x0000e572, 0x0000000c },
        { 0x0000a000, 0x00000004 },
-       { 0x0140a000, 0x00000004 }, 
+       { 0x0140a000, 0x00000004 },
        { 0x0000e568, 0x00000004 },
        { 0x000c2000, 0x00000004 },
        { 0x00000089, 0x00000018 },
@@ -1127,7 +1127,7 @@ static void radeon_cp_init_ring_buffer(struct drm_device * dev,
 {
        u32 ring_start, cur_read_ptr;
        u32 tmp;
-       
+
        /* Initialize the memory controller. With new memory map, the fb location
         * is not changed, it should have been properly initialized already. Part
         * of the problem is that the code below is bogus, assuming the GART is
@@ -1364,7 +1364,7 @@ static void radeon_set_pcigart(drm_radeon_private_t * dev_priv, int on)
                return;
        }
 
-       tmp = RADEON_READ(RADEON_AIC_CNTL);
+       tmp = RADEON_READ(RADEON_AIC_CNTL);
 
        if (on) {
                RADEON_WRITE(RADEON_AIC_CNTL,
@@ -1592,7 +1592,7 @@ static int radeon_do_init_cp(struct drm_device * dev, drm_radeon_init_t * init)
 
        dev_priv->fb_location = (RADEON_READ(RADEON_MC_FB_LOCATION)
                                 & 0xffff) << 16;
-       dev_priv->fb_size = 
+       dev_priv->fb_size =
                ((RADEON_READ(RADEON_MC_FB_LOCATION) & 0xffff0000u) + 0x10000)
                - dev_priv->fb_location;
 
@@ -1639,7 +1639,7 @@ static int radeon_do_init_cp(struct drm_device * dev, drm_radeon_init_t * init)
                            ((base + dev_priv->gart_size) & 0xfffffffful) < base)
                                base = dev_priv->fb_location
                                        - dev_priv->gart_size;
-               }               
+               }
                dev_priv->gart_vm_start = base & 0xffc00000u;
                if (dev_priv->gart_vm_start != base)
                        DRM_INFO("GART aligned down from 0x%08x to 0x%08x\n",
index b0ef702..4594a83 100644 (file)
@@ -223,10 +223,10 @@ typedef union {
 #define R300_CMD_CP_DELAY              5
 #define R300_CMD_DMA_DISCARD           6
 #define R300_CMD_WAIT                  7
-#      define R300_WAIT_2D             0x1
-#      define R300_WAIT_3D             0x2
-#      define R300_WAIT_2D_CLEAN       0x3
-#      define R300_WAIT_3D_CLEAN       0x4
+#      define R300_WAIT_2D             0x1
+#      define R300_WAIT_3D             0x2
+#      define R300_WAIT_2D_CLEAN       0x3
+#      define R300_WAIT_3D_CLEAN       0x4
 #define R300_CMD_SCRATCH               8
 
 typedef union {
@@ -723,7 +723,7 @@ typedef struct drm_radeon_surface_free {
        unsigned int address;
 } drm_radeon_surface_free_t;
 
-#define        DRM_RADEON_VBLANK_CRTC1         1
-#define        DRM_RADEON_VBLANK_CRTC2         2
+#define        DRM_RADEON_VBLANK_CRTC1         1
+#define        DRM_RADEON_VBLANK_CRTC2         2
 
 #endif
index e7264a8..a1745cd 100644 (file)
@@ -436,7 +436,7 @@ extern int r300_do_cp_cmdbuf(struct drm_device *dev,
 #define RADEON_PCIE_INDEX               0x0030
 #define RADEON_PCIE_DATA                0x0034
 #define RADEON_PCIE_TX_GART_CNTL       0x10
-#      define RADEON_PCIE_TX_GART_EN           (1 << 0)
+#      define RADEON_PCIE_TX_GART_EN           (1 << 0)
 #      define RADEON_PCIE_TX_GART_UNMAPPED_ACCESS_PASS_THRU (0<<1)
 #      define RADEON_PCIE_TX_GART_UNMAPPED_ACCESS_CLAMP_LO  (1<<1)
 #      define RADEON_PCIE_TX_GART_UNMAPPED_ACCESS_DISCARD   (3<<1)
@@ -446,7 +446,7 @@ extern int r300_do_cp_cmdbuf(struct drm_device *dev,
 #      define RADEON_PCIE_TX_GART_INVALIDATE_TLB       (1<<8)
 #define RADEON_PCIE_TX_DISCARD_RD_ADDR_LO 0x11
 #define RADEON_PCIE_TX_DISCARD_RD_ADDR_HI 0x12
-#define RADEON_PCIE_TX_GART_BASE       0x13
+#define RADEON_PCIE_TX_GART_BASE       0x13
 #define RADEON_PCIE_TX_GART_START_LO   0x14
 #define RADEON_PCIE_TX_GART_START_HI   0x15
 #define RADEON_PCIE_TX_GART_END_LO     0x16
@@ -520,12 +520,12 @@ extern int r300_do_cp_cmdbuf(struct drm_device *dev,
 
 #define RADEON_GEN_INT_STATUS          0x0044
 #      define RADEON_CRTC_VBLANK_STAT          (1 << 0)
-#      define RADEON_CRTC_VBLANK_STAT_ACK      (1 << 0)
+#      define RADEON_CRTC_VBLANK_STAT_ACK      (1 << 0)
 #      define RADEON_CRTC2_VBLANK_STAT         (1 << 9)
-#      define RADEON_CRTC2_VBLANK_STAT_ACK     (1 << 9)
+#      define RADEON_CRTC2_VBLANK_STAT_ACK     (1 << 9)
 #      define RADEON_GUI_IDLE_INT_TEST_ACK     (1 << 19)
 #      define RADEON_SW_INT_TEST               (1 << 25)
-#      define RADEON_SW_INT_TEST_ACK           (1 << 25)
+#      define RADEON_SW_INT_TEST_ACK           (1 << 25)
 #      define RADEON_SW_INT_FIRE               (1 << 26)
 
 #define RADEON_HOST_PATH_CNTL          0x0130
@@ -644,30 +644,30 @@ extern int r300_do_cp_cmdbuf(struct drm_device *dev,
  */
 #define RADEON_RBBM_STATUS             0x0e40
 /* Same as the previous RADEON_RBBM_STATUS; this is a mirror of that register.  */
-/* #define RADEON_RBBM_STATUS          0x1740 */
+/* #define RADEON_RBBM_STATUS          0x1740 */
 /* bits 6:0 are dword slots available in the cmd fifo */
 #      define RADEON_RBBM_FIFOCNT_MASK         0x007f
-#      define RADEON_HIRQ_ON_RBB       (1 <<  8)
-#      define RADEON_CPRQ_ON_RBB       (1 <<  9)
-#      define RADEON_CFRQ_ON_RBB       (1 << 10)
-#      define RADEON_HIRQ_IN_RTBUF     (1 << 11)
-#      define RADEON_CPRQ_IN_RTBUF     (1 << 12)
-#      define RADEON_CFRQ_IN_RTBUF     (1 << 13)
-#      define RADEON_PIPE_BUSY         (1 << 14)
-#      define RADEON_ENG_EV_BUSY       (1 << 15)
-#      define RADEON_CP_CMDSTRM_BUSY   (1 << 16)
-#      define RADEON_E2_BUSY           (1 << 17)
-#      define RADEON_RB2D_BUSY         (1 << 18)
-#      define RADEON_RB3D_BUSY         (1 << 19) /* not used on r300 */
-#      define RADEON_VAP_BUSY          (1 << 20)
-#      define RADEON_RE_BUSY           (1 << 21) /* not used on r300 */
-#      define RADEON_TAM_BUSY          (1 << 22) /* not used on r300 */
-#      define RADEON_TDM_BUSY          (1 << 23) /* not used on r300 */
-#      define RADEON_PB_BUSY           (1 << 24) /* not used on r300 */
-#      define RADEON_TIM_BUSY          (1 << 25) /* not used on r300 */
-#      define RADEON_GA_BUSY           (1 << 26)
-#      define RADEON_CBA2D_BUSY        (1 << 27)
-#      define RADEON_RBBM_ACTIVE       (1 << 31)
+#      define RADEON_HIRQ_ON_RBB       (1 <<  8)
+#      define RADEON_CPRQ_ON_RBB       (1 <<  9)
+#      define RADEON_CFRQ_ON_RBB       (1 << 10)
+#      define RADEON_HIRQ_IN_RTBUF     (1 << 11)
+#      define RADEON_CPRQ_IN_RTBUF     (1 << 12)
+#      define RADEON_CFRQ_IN_RTBUF     (1 << 13)
+#      define RADEON_PIPE_BUSY         (1 << 14)
+#      define RADEON_ENG_EV_BUSY       (1 << 15)
+#      define RADEON_CP_CMDSTRM_BUSY   (1 << 16)
+#      define RADEON_E2_BUSY           (1 << 17)
+#      define RADEON_RB2D_BUSY         (1 << 18)
+#      define RADEON_RB3D_BUSY         (1 << 19) /* not used on r300 */
+#      define RADEON_VAP_BUSY          (1 << 20)
+#      define RADEON_RE_BUSY           (1 << 21) /* not used on r300 */
+#      define RADEON_TAM_BUSY          (1 << 22) /* not used on r300 */
+#      define RADEON_TDM_BUSY          (1 << 23) /* not used on r300 */
+#      define RADEON_PB_BUSY           (1 << 24) /* not used on r300 */
+#      define RADEON_TIM_BUSY          (1 << 25) /* not used on r300 */
+#      define RADEON_GA_BUSY           (1 << 26)
+#      define RADEON_CBA2D_BUSY        (1 << 27)
+#      define RADEON_RBBM_ACTIVE       (1 << 31)
 #define RADEON_RE_LINE_PATTERN         0x1cd0
 #define RADEON_RE_MISC                 0x26c4
 #define RADEON_RE_TOP_LEFT             0x26c0
@@ -1213,7 +1213,7 @@ do {                                                                      \
                          write, dev_priv->ring.tail );                 \
        }                                                               \
        if (((dev_priv->ring.tail + _nr) & mask) != write) {            \
-               DRM_ERROR(                                              \
+               DRM_ERROR(                                              \
                        "ADVANCE_RING(): mismatch: nr: %x write: %x line: %d\n",        \
                        ((dev_priv->ring.tail + _nr) & mask),           \
                        write, __LINE__);                                               \
index e3aadfb..71b19b1 100644 (file)
@@ -3069,7 +3069,7 @@ static int radeon_cp_getparam(struct drm_device *dev, void *data, struct drm_fil
                        return -EINVAL;
                value = RADEON_SCRATCH_REG_OFFSET;
                break;
-       
+
        case RADEON_PARAM_CARD_TYPE:
                if (dev_priv->flags & RADEON_IS_PCIE)
                        value = RADEON_CARD_PCIE;
index 32ac5ac..7710ba0 100644 (file)
@@ -584,7 +584,7 @@ int savage_driver_firstopen(struct drm_device *dev)
                         * MTRRs. */
                        dev_priv->mtrr[0].base = fb_base;
                        dev_priv->mtrr[0].size = 0x01000000;
-                       dev_priv->mtrr[0].handle = 
+                       dev_priv->mtrr[0].handle =
                            drm_mtrr_add(dev_priv->mtrr[0].base,
                                         dev_priv->mtrr[0].size, DRM_MTRR_WC);
                        dev_priv->mtrr[1].base = fb_base+0x02000000;
@@ -595,7 +595,7 @@ int savage_driver_firstopen(struct drm_device *dev)
                        dev_priv->mtrr[2].base = fb_base+0x04000000;
                        dev_priv->mtrr[2].size = 0x04000000;
                        dev_priv->mtrr[2].handle =
-                           drm_mtrr_add(dev_priv->mtrr[2].base, 
+                           drm_mtrr_add(dev_priv->mtrr[2].base,
                                         dev_priv->mtrr[2].size, DRM_MTRR_WC);
                } else {
                        DRM_ERROR("strange pci_resource_len %08lx\n",
@@ -615,7 +615,7 @@ int savage_driver_firstopen(struct drm_device *dev)
                         * aperture. */
                        dev_priv->mtrr[0].base = fb_base;
                        dev_priv->mtrr[0].size = 0x08000000;
-                       dev_priv->mtrr[0].handle = 
+                       dev_priv->mtrr[0].handle =
                            drm_mtrr_add(dev_priv->mtrr[0].base,
                                         dev_priv->mtrr[0].size, DRM_MTRR_WC);
                } else {
@@ -834,7 +834,7 @@ static int savage_do_init_bci(struct drm_device *dev, drm_savage_init_t *init)
                }
                front_stride = dev_priv->front_pitch / (dev_priv->fb_bpp / 8);
                back_stride  = dev_priv->back_pitch / (dev_priv->fb_bpp / 8);
-               depth_stride = 
+               depth_stride =
                    dev_priv->depth_pitch / (dev_priv->depth_bpp / 8);
 
                dev_priv->front_bd = front_stride | SAVAGE_BD_BW_DISABLE |
@@ -1092,4 +1092,3 @@ struct drm_ioctl_desc savage_ioctls[] = {
 };
 
 int savage_max_ioctl = DRM_ARRAY_SIZE(savage_ioctls);
-
index d86bac0..b9124b1 100644 (file)
@@ -237,7 +237,7 @@ extern void savage_emit_clip_rect_s4(drm_savage_private_t *dev_priv,
  */
 #define SAVAGE_STATUS_WORD0            0x48C00
 #define SAVAGE_STATUS_WORD1            0x48C04
-#define SAVAGE_ALT_STATUS_WORD0        0x48C60
+#define SAVAGE_ALT_STATUS_WORD0                0x48C60
 
 #define SAVAGE_FIFO_USED_MASK_S3D      0x0001ffff
 #define SAVAGE_FIFO_USED_MASK_S4       0x001fffff
@@ -310,7 +310,7 @@ extern void savage_emit_clip_rect_s4(drm_savage_private_t *dev_priv,
 #define SAVAGE_DESTCTRL_S3D            0x34
 #define SAVAGE_SCSTART_S3D             0x35
 #define SAVAGE_SCEND_S3D               0x36
-#define SAVAGE_ZWATERMARK_S3D          0x37 
+#define SAVAGE_ZWATERMARK_S3D          0x37
 #define SAVAGE_DESTTEXRWWATERMARK_S3D  0x38
 /* common stuff */
 #define SAVAGE_VERTBUFADDR             0x3e
index dd59334..61ec11c 100644 (file)
@@ -32,7 +32,7 @@ void savage_emit_clip_rect_s3d(drm_savage_private_t *dev_priv,
        uint32_t scstart = dev_priv->state.s3d.new_scstart;
        uint32_t scend   = dev_priv->state.s3d.new_scend;
        scstart = (scstart & ~SAVAGE_SCISSOR_MASK_S3D) |
-               ((uint32_t)pbox->x1 & 0x000007ff) | 
+               ((uint32_t)pbox->x1 & 0x000007ff) |
                (((uint32_t)pbox->y1 << 16) & 0x07ff0000);
        scend   = (scend   & ~SAVAGE_SCISSOR_MASK_S3D) |
                (((uint32_t)pbox->x2-1) & 0x000007ff) |
@@ -966,7 +966,7 @@ int savage_bci_cmdbuf(struct drm_device *dev, void *data, struct drm_file *file_
        int ret = 0;
 
        DRM_DEBUG("\n");
-       
+
        LOCK_TEST_WITH_RETURN(dev, file_priv);
 
        if (dma && dma->buflist) {
index bd737a7..89753aa 100644 (file)
@@ -1,11 +1,11 @@
 /* via_dma.c -- DMA support for the VIA Unichrome/Pro
- * 
+ *
  * Copyright 2003 Tungsten Graphics, Inc., Cedar Park, Texas.
  * All Rights Reserved.
  *
  * Copyright 2004 Digeo, Inc., Palo Alto, CA, U.S.A.
  * All Rights Reserved.
- * 
+ *
  * Copyright 2004 The Unichrome project.
  * All Rights Reserved.
  *
  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
- * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, 
- * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR 
- * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE 
+ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
+ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
+ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
  * USE OR OTHER DEALINGS IN THE SOFTWARE.
  *
- * Authors: 
- *    Tungsten Graphics, 
- *    Erdi Chen, 
+ * Authors:
+ *    Tungsten Graphics,
+ *    Erdi Chen,
  *    Thomas Hellstrom.
  */
 
        dev_priv->dma_low +=8;                                  \
 }
 
-#define via_flush_write_combine() DRM_MEMORYBARRIER() 
+#define via_flush_write_combine() DRM_MEMORYBARRIER()
 
 #define VIA_OUT_RING_QW(w1,w2)                 \
        *vb++ = (w1);                           \
        *vb++ = (w2);                           \
-       dev_priv->dma_low += 8; 
+       dev_priv->dma_low += 8;
 
 static void via_cmdbuf_start(drm_via_private_t * dev_priv);
 static void via_cmdbuf_pause(drm_via_private_t * dev_priv);
@@ -70,9 +70,9 @@ static uint32_t via_cmdbuf_space(drm_via_private_t *dev_priv)
 {
        uint32_t agp_base = dev_priv->dma_offset + (uint32_t) dev_priv->agpAddr;
        uint32_t hw_addr = *(dev_priv->hw_addr_ptr) - agp_base;
-       
-       return ((hw_addr <= dev_priv->dma_low) ? 
-               (dev_priv->dma_high + hw_addr - dev_priv->dma_low) : 
+
+       return ((hw_addr <= dev_priv->dma_low) ?
+               (dev_priv->dma_high + hw_addr - dev_priv->dma_low) :
                (hw_addr - dev_priv->dma_low));
 }
 
@@ -173,7 +173,7 @@ static int via_initialize(struct drm_device * dev,
        }
 
        if (!dev->agp || !dev->agp->base) {
-               DRM_ERROR("%s called with no agp memory available\n", 
+               DRM_ERROR("%s called with no agp memory available\n",
                          __FUNCTION__);
                return -EFAULT;
        }
@@ -476,12 +476,12 @@ static uint32_t *via_align_cmd(drm_via_private_t * dev_priv, uint32_t cmd_type,
 
        vb = via_get_dma(dev_priv);
        VIA_OUT_RING_QW( HC_HEADER2 | ((VIA_REG_TRANSET >> 2) << 12) |
-                        (VIA_REG_TRANSPACE >> 2), HC_ParaType_PreCR << 16); 
+                        (VIA_REG_TRANSPACE >> 2), HC_ParaType_PreCR << 16);
        agp_base = dev_priv->dma_offset + (uint32_t) dev_priv->agpAddr;
        qw_pad_count = (CMDBUF_ALIGNMENT_SIZE >> 3) -
                ((dev_priv->dma_low & CMDBUF_ALIGNMENT_MASK) >> 3);
 
-       cmd_addr = (addr) ? addr : 
+       cmd_addr = (addr) ? addr :
                agp_base + dev_priv->dma_low - 8 + (qw_pad_count << 3);
        addr_lo = ((HC_SubA_HAGPBpL << 24) | (cmd_type & HC_HAGPBpID_MASK) |
                   (cmd_addr & HC_HAGPBpL_MASK));
@@ -514,8 +514,8 @@ static void via_cmdbuf_start(drm_via_private_t * dev_priv)
        command = ((HC_SubA_HAGPCMNT << 24) | (start_addr >> 24) |
                   ((end_addr & 0xff000000) >> 16));
 
-       dev_priv->last_pause_ptr = 
-               via_align_cmd(dev_priv, HC_HAGPBpID_PAUSE, 0, 
+       dev_priv->last_pause_ptr =
+               via_align_cmd(dev_priv, HC_HAGPBpID_PAUSE, 0,
                              &pause_addr_hi, & pause_addr_lo, 1) - 1;
 
        via_flush_write_combine();
@@ -579,7 +579,7 @@ static void via_cmdbuf_jump(drm_via_private_t * dev_priv)
        agp_base = dev_priv->dma_offset + (uint32_t) dev_priv->agpAddr;
        via_align_cmd(dev_priv,  HC_HAGPBpID_JUMP, 0, &jump_addr_hi,
                      &jump_addr_lo, 0);
-       
+
        dev_priv->dma_wrap = dev_priv->dma_low;
 
 
@@ -606,7 +606,7 @@ static void via_cmdbuf_jump(drm_via_private_t * dev_priv)
 
 static void via_cmdbuf_rewind(drm_via_private_t * dev_priv)
 {
-       via_cmdbuf_jump(dev_priv); 
+       via_cmdbuf_jump(dev_priv);
 }
 
 static void via_cmdbuf_flush(drm_via_private_t * dev_priv, uint32_t cmd_type)
@@ -687,12 +687,12 @@ static int via_cmdbuf_size(struct drm_device *dev, void *data, struct drm_file *
 }
 
 #ifndef VIA_HAVE_DMABLIT
-int 
+int
 via_dma_blit_sync( struct drm_device *dev, void *data, struct drm_file *file_priv ) {
        DRM_ERROR("PCI DMA BitBlt is not implemented for this system.\n");
        return -EINVAL;
 }
-int 
+int
 via_dma_blit( struct drm_device *dev, void *data, struct drm_file *file_priv ) {
        DRM_ERROR("PCI DMA BitBlt is not implemented for this system.\n");
        return -EINVAL;
index b15785b..7ee69d2 100644 (file)
@@ -49,7 +49,7 @@
 #define VIA_DRM_DRIVER_PATCHLEVEL      1
 #define VIA_DRM_DRIVER_VERSION   (((VIA_DRM_DRIVER_MAJOR) << 16) | (VIA_DRM_DRIVER_MINOR))
 
-#define VIA_NR_SAREA_CLIPRECTS                 8
+#define VIA_NR_SAREA_CLIPRECTS         8
 #define VIA_NR_XVMC_PORTS             10
 #define VIA_NR_XVMC_LOCKS             5
 #define VIA_MAX_CACHELINE_SIZE   64
 
 #define VIA_MEM_VIDEO   0      /* matches drm constant */
 #define VIA_MEM_AGP     1      /* matches drm constant */
-#define VIA_MEM_SYSTEM  2              
+#define VIA_MEM_SYSTEM  2
 #define VIA_MEM_MIXED   3
 #define VIA_MEM_UNKNOWN 4
 
@@ -203,7 +203,7 @@ typedef struct _drm_via_sarea {
 
        unsigned int XvMCDisplaying[VIA_NR_XVMC_PORTS];
        unsigned int XvMCSubPicOn[VIA_NR_XVMC_PORTS];
-       unsigned int XvMCCtxNoGrabbed;  /* Last context to hold decoder */      
+       unsigned int XvMCCtxNoGrabbed;  /* Last context to hold decoder */
 
        /* Used by the 3d driver only at this point, for pageflipping:
         */
@@ -250,14 +250,14 @@ typedef union drm_via_irqwait {
        struct drm_wait_vblank_reply reply;
 } drm_via_irqwait_t;
 
-typedef struct drm_via_blitsync { 
+typedef struct drm_via_blitsync {
        uint32_t sync_handle;
        unsigned engine;
 } drm_via_blitsync_t;
 
-/* 
+/*
  * Below,"flags" is currently unused but will be used for possible future
- * extensions like kernel space bounce buffers for bad alignments and 
+ * extensions like kernel space bounce buffers for bad alignments and
  * blit engine busy-wait polling for better latency in the absence of
  * interrupts.
  */
@@ -271,11 +271,11 @@ typedef struct drm_via_dmablit {
 
        unsigned char *mem_addr;
        uint32_t  mem_stride;
-       
+
        uint32_t  flags;
        int to_fb;
 
-       drm_via_blitsync_t sync;   
+       drm_via_blitsync_t sync;
 } drm_via_dmablit_t;
 
 
index 0b47484..d6da8bd 100644 (file)
@@ -83,7 +83,7 @@ typedef struct drm_via_irq {
        uint32_t enable_mask;
        wait_queue_head_t irq_queue;
 } drm_via_irq_t;
-       
+
 typedef struct drm_via_private {
        drm_via_sarea_t *sarea_priv;
        drm_local_map_t *sarea;
@@ -110,8 +110,8 @@ typedef struct drm_via_private {
        drm_via_irq_t via_irqs[VIA_NUM_IRQS];
        unsigned num_irqs;
        maskarray_t *irq_masks;
-       uint32_t irq_enable_mask; 
-       uint32_t irq_pending_mask;      
+       uint32_t irq_enable_mask;
+       uint32_t irq_pending_mask;
        int *irq_map;
        /* Memory manager stuff */
 #ifdef VIA_HAVE_CORE_MM
@@ -213,7 +213,7 @@ extern int via_init_mem_type(struct drm_device *dev, uint32_t type,
                               struct drm_mem_type_manager *man);
 extern uint32_t via_evict_mask(struct drm_buffer_object *bo);
 extern int via_move(struct drm_buffer_object *bo, int evict,
-               int no_wait, struct drm_bo_mem_reg *new_mem);
+               int no_wait, struct drm_bo_mem_reg *new_mem);
 #endif
 
 #endif
index 475b646..df91ab0 100644 (file)
@@ -63,7 +63,7 @@
 /*
  * Device-specific IRQs go here. This type might need to be extended with
  * the register if there are multiple IRQ control registers.
- * Currently we activate the HQV interrupts of  Unichrome Pro group A. 
+ * Currently we activate the HQV interrupts of  Unichrome Pro group A.
  */
 
 static maskarray_t via_pro_group_a_irqs[] = {
@@ -71,7 +71,7 @@ static maskarray_t via_pro_group_a_irqs[] = {
         0x00000000 },
        {VIA_IRQ_HQV1_ENABLE, VIA_IRQ_HQV1_PENDING, 0x000013D0, 0x00008010,
         0x00000000 },
-       {VIA_IRQ_DMA0_TD_ENABLE, VIA_IRQ_DMA0_TD_PENDING, VIA_PCI_DMA_CSR0, 
+       {VIA_IRQ_DMA0_TD_ENABLE, VIA_IRQ_DMA0_TD_PENDING, VIA_PCI_DMA_CSR0,
         VIA_DMA_CSR_TA | VIA_DMA_CSR_TD, 0x00000008},
        {VIA_IRQ_DMA1_TD_ENABLE, VIA_IRQ_DMA1_TD_PENDING, VIA_PCI_DMA_CSR1,
         VIA_DMA_CSR_TA | VIA_DMA_CSR_TD, 0x00000008},
@@ -81,7 +81,7 @@ static int via_num_pro_group_a =
 static int via_irqmap_pro_group_a[] = {0, 1, -1, 2, -1, 3};
 
 static maskarray_t via_unichrome_irqs[] = {
-       {VIA_IRQ_DMA0_TD_ENABLE, VIA_IRQ_DMA0_TD_PENDING, VIA_PCI_DMA_CSR0, 
+       {VIA_IRQ_DMA0_TD_ENABLE, VIA_IRQ_DMA0_TD_PENDING, VIA_PCI_DMA_CSR0,
         VIA_DMA_CSR_TA | VIA_DMA_CSR_TD, 0x00000008},
        {VIA_IRQ_DMA1_TD_ENABLE, VIA_IRQ_DMA1_TD_PENDING, VIA_PCI_DMA_CSR1,
         VIA_DMA_CSR_TA | VIA_DMA_CSR_TD, 0x00000008}
@@ -90,7 +90,7 @@ static int via_num_unichrome = sizeof(via_unichrome_irqs)/sizeof(maskarray_t);
 static int via_irqmap_unichrome[] = {-1, -1, -1, 0, -1, 1};
 
 
-static unsigned time_diff(struct timeval *now,struct timeval *then) 
+static unsigned time_diff(struct timeval *now,struct timeval *then)
 {
     return (now->tv_usec >= then->tv_usec) ?
        now->tv_usec - then->tv_usec :
@@ -117,7 +117,7 @@ irqreturn_t via_driver_irq_handler(DRM_IRQ_ARGS)
                        microtime(&cur_vblank);
 #endif
                        if (dev_priv->last_vblank_valid) {
-                               dev_priv->usec_per_vblank = 
+                               dev_priv->usec_per_vblank =
                                        time_diff(&cur_vblank,
                                                  &dev_priv->last_vblank) >> 4;
                        }
@@ -132,7 +132,7 @@ irqreturn_t via_driver_irq_handler(DRM_IRQ_ARGS)
                drm_vbl_send_signals(dev);
                handled = 1;
        }
-       
+
        for (i=0; i<dev_priv->num_irqs; ++i) {
                if (status & cur_irq->pending_mask) {
                        atomic_inc( &cur_irq->irq_received );
@@ -148,7 +148,7 @@ irqreturn_t via_driver_irq_handler(DRM_IRQ_ARGS)
                }
                cur_irq++;
        }
-       
+
        /* Acknowlege interrupts */
        VIA_WRITE(VIA_REG_INTERRUPT, status);
 
@@ -166,7 +166,7 @@ static __inline__ void viadrv_acknowledge_irqs(drm_via_private_t * dev_priv)
        if (dev_priv) {
                /* Acknowlege interrupts */
                status = VIA_READ(VIA_REG_INTERRUPT);
-               VIA_WRITE(VIA_REG_INTERRUPT, status | 
+               VIA_WRITE(VIA_REG_INTERRUPT, status |
                          dev_priv->irq_pending_mask);
        }
 }
@@ -193,7 +193,7 @@ int via_driver_vblank_wait(struct drm_device * dev, unsigned int *sequence)
        DRM_WAIT_ON(ret, dev->vbl_queue, 3 * DRM_HZ,
                    (((cur_vblank = atomic_read(&dev->vbl_received)) -
                      *sequence) <= (1 << 23)));
-       
+
        *sequence = cur_vblank;
        return ret;
 }
@@ -221,7 +221,7 @@ via_driver_irq_wait(struct drm_device * dev, unsigned int irq, int force_sequenc
                          irq);
                return -EINVAL;
        }
-               
+
        real_irq = dev_priv->irq_map[irq];
 
        if (real_irq < 0) {
@@ -235,14 +235,14 @@ via_driver_irq_wait(struct drm_device * dev, unsigned int irq, int force_sequenc
 
        if (masks[real_irq][2] && !force_sequence) {
                DRM_WAIT_ON(ret, cur_irq->irq_queue, 3 * DRM_HZ,
-                           ((VIA_READ(masks[irq][2]) & masks[irq][3]) == 
+                           ((VIA_READ(masks[irq][2]) & masks[irq][3]) ==
                             masks[irq][4]));
                cur_irq_sequence = atomic_read(&cur_irq->irq_received);
        } else {
                DRM_WAIT_ON(ret, cur_irq->irq_queue, 3 * DRM_HZ,
                            (((cur_irq_sequence =
                               atomic_read(&cur_irq->irq_received)) -
-                             *sequence) <= (1 << 23)));                
+                             *sequence) <= (1 << 23)));
        }
        *sequence = cur_irq_sequence;
        return ret;
@@ -280,23 +280,23 @@ void via_driver_irq_preinstall(struct drm_device * dev)
 
                for(i=0; i < dev_priv->num_irqs; ++i) {
                        atomic_set(&cur_irq->irq_received, 0);
-                       cur_irq->enable_mask = dev_priv->irq_masks[i][0]; 
+                       cur_irq->enable_mask = dev_priv->irq_masks[i][0];
                        cur_irq->pending_mask = dev_priv->irq_masks[i][1];
                        DRM_INIT_WAITQUEUE( &cur_irq->irq_queue );
                        dev_priv->irq_enable_mask |= cur_irq->enable_mask;
                        dev_priv->irq_pending_mask |= cur_irq->pending_mask;
                        cur_irq++;
-                       
+
                        DRM_DEBUG("Initializing IRQ %d\n", i);
                }
-                       
+
                dev_priv->last_vblank_valid = 0;
 
                /* Clear VSync interrupt regs */
                status = VIA_READ(VIA_REG_INTERRUPT);
-               VIA_WRITE(VIA_REG_INTERRUPT, status & 
+               VIA_WRITE(VIA_REG_INTERRUPT, status &
                          ~(dev_priv->irq_enable_mask));
-               
+
                /* Clear bits if they're already high */
                viadrv_acknowledge_irqs(dev_priv);
        }
@@ -317,7 +317,7 @@ void via_driver_irq_postinstall(struct drm_device * dev)
 
                VIA_WRITE8(0x83d4, 0x11);
                VIA_WRITE8(0x83d5, VIA_READ8(0x83d5) | 0x30);
-               
+
        }
 }
 
@@ -335,7 +335,7 @@ void via_driver_irq_uninstall(struct drm_device * dev)
                VIA_WRITE8(0x83d5, VIA_READ8(0x83d5) & ~0x30);
 
                status = VIA_READ(VIA_REG_INTERRUPT);
-               VIA_WRITE(VIA_REG_INTERRUPT, status & 
+               VIA_WRITE(VIA_REG_INTERRUPT, status &
                          ~(VIA_IRQ_VBLANK_ENABLE | dev_priv->irq_enable_mask));
        }
 }
@@ -353,7 +353,7 @@ int via_wait_irq(struct drm_device *dev, void *data, struct drm_file *file_priv)
                return -EINVAL;
 
        if (irqwait->request.irq >= dev_priv->num_irqs) {
-               DRM_ERROR("%s Trying to wait on unknown irq %d\n", __FUNCTION__, 
+               DRM_ERROR("%s Trying to wait on unknown irq %d\n", __FUNCTION__,
                          irqwait->request.irq);
                return -EINVAL;
        }
@@ -372,7 +372,7 @@ int via_wait_irq(struct drm_device *dev, void *data, struct drm_file *file_priv)
        }
 
        if (irqwait->request.type & VIA_IRQ_SIGNAL) {
-               DRM_ERROR("%s Signals on Via IRQs not implemented yet.\n", 
+               DRM_ERROR("%s Signals on Via IRQs not implemented yet.\n",
                          __FUNCTION__);
                return -EINVAL;
        }
index 1623df6..b8f6167 100644 (file)
@@ -140,4 +140,3 @@ int via_driver_unload(struct drm_device *dev)
 
        return 0;
 }
-
index ded5c4e..cfacd0c 100644 (file)
@@ -77,7 +77,7 @@ typedef enum {
 /*
  * Associates each hazard above with a possible multi-command
  * sequence. For example an address that is split over multiple
- * commands and that needs to be checked at the first command 
+ * commands and that needs to be checked at the first command
  * that does not include any part of the address.
  */
 
@@ -283,10 +283,10 @@ static __inline__ drm_local_map_t *via_drm_lookup_agp_map(drm_via_state_t * seq,
 }
 
 /*
- * Require that all AGP texture levels reside in the same AGP map which should 
+ * Require that all AGP texture levels reside in the same AGP map which should
  * be mappable by the client. This is not a big restriction.
- * FIXME: To actually enforce this security policy strictly, drm_rmmap 
- * would have to wait for dma quiescent before removing an AGP map. 
+ * FIXME: To actually enforce this security policy strictly, drm_rmmap
+ * would have to wait for dma quiescent before removing an AGP map.
  * The via_drm_lookup_agp_map call in reality seems to take
  * very little CPU time.
  */
@@ -451,15 +451,15 @@ investigate_hazard(uint32_t cmd, hazard_t hz, drm_via_state_t * cur_seq)
        case check_texture_addr3:
                cur_seq->unfinished = tex_address;
                tmp = ((cmd >> 24) - HC_SubA_HTXnL0Pit);
-               if (tmp == 0 && 
+               if (tmp == 0 &&
                    (cmd & HC_HTXnEnPit_MASK)) {
-                       cur_seq->pitch[cur_seq->texture][tmp] = 
+                       cur_seq->pitch[cur_seq->texture][tmp] =
                                (cmd & HC_HTXnLnPit_MASK);
                        cur_seq->tex_npot[cur_seq->texture] = 1;
                } else {
                        cur_seq->pitch[cur_seq->texture][tmp] =
                                (cmd & HC_HTXnLnPitE_MASK) >> HC_HTXnLnPitE_SHIFT;
-                       cur_seq->tex_npot[cur_seq->texture] = 0;                        
+                       cur_seq->tex_npot[cur_seq->texture] = 0;
                        if (cmd & 0x000FFFFF) {
                                DRM_ERROR
                                        ("Unimplemented texture level 0 pitch mode.\n");
@@ -1007,7 +1007,7 @@ via_verify_command_stream(const uint32_t * buf, unsigned int size,
                        state = via_check_vheader6(&buf, buf_end);
                        break;
                case state_command:
-                       if ((HALCYON_HEADER2 == (cmd = *buf)) && 
+                       if ((HALCYON_HEADER2 == (cmd = *buf)) &&
                            supported_3d)
                                state = state_header2;
                        else if ((cmd & HALCYON_HEADER1MASK) == HALCYON_HEADER1)
index dac1db9..c50a813 100644 (file)
@@ -27,7 +27,7 @@
 #define _VIA_VERIFIER_H_
 
 typedef enum {
-       no_sequence = 0, 
+       no_sequence = 0,
        z_address,
        dest_address,
        tex_address
@@ -37,12 +37,12 @@ typedef enum {
 
 typedef struct {
        unsigned texture;
-       uint32_t z_addr; 
-       uint32_t d_addr; 
+       uint32_t z_addr;
+       uint32_t d_addr;
        uint32_t t_addr[2][10];
        uint32_t pitch[2][10];
        uint32_t height[2][10];
-       uint32_t tex_level_lo[2]; 
+       uint32_t tex_level_lo[2];
        uint32_t tex_level_hi[2];
        uint32_t tex_palette_size[2];
         uint32_t tex_npot[2];
@@ -56,7 +56,7 @@ typedef struct {
        const uint32_t *buf_start;
 } drm_via_state_t;
 
-extern int via_verify_command_stream(const uint32_t * buf, unsigned int size, 
+extern int via_verify_command_stream(const uint32_t * buf, unsigned int size,
                                    struct drm_device *dev, int agp);
 extern int via_parse_command_stream(struct drm_device *dev, const uint32_t * buf,
                                    unsigned int size);
index de0fb53..ce58442 100644 (file)
@@ -62,14 +62,14 @@ enum xgi_mem_location {
 struct xgi_mem_alloc {
        /**
         * Memory region to be used for allocation.
-        * 
+        *
         * Must be one of XGI_MEMLOC_NON_LOCAL or XGI_MEMLOC_LOCAL.
         */
        unsigned int location;
 
        /**
         * Number of bytes request.
-        * 
+        *
         * On successful allocation, set to the actual number of bytes
         * allocated.
         */
@@ -87,7 +87,7 @@ struct xgi_mem_alloc {
 
        /**
         * Magic handle used to release memory.
-        * 
+        *
         * See also DRM_XGI_FREE ioctl.
         */
        __u32 index;