80f930107f7bdf676b121f9ceebf2ec06db4a7c3
[platform/upstream/glib.git] / glib / gmem.c
1 /* GLIB - Library of useful routines for C programming
2  * Copyright (C) 1995-1997  Peter Mattis, Spencer Kimball and Josh MacDonald
3  *
4  * This library is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU Library General Public
6  * License as published by the Free Software Foundation; either
7  * version 2 of the License, or (at your option) any later version.
8  *
9  * This library is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
12  * Library General Public License for more details.
13  *
14  * You should have received a copy of the GNU Library General Public
15  * License along with this library; if not, write to the
16  * Free Software Foundation, Inc., 59 Temple Place - Suite 330,
17  * Boston, MA 02111-1307, USA.
18  */
19
20 /*
21  * Modified by the GLib Team and others 1997-1999.  See the AUTHORS
22  * file for a list of people on the GLib Team.  See the ChangeLog
23  * files for a list of changes.  These files are distributed with
24  * GLib at ftp://ftp.gtk.org/pub/gtk/. 
25  */
26
27 /* 
28  * MT safe
29  */
30
31 #ifdef HAVE_CONFIG_H
32 #include <config.h>
33 #endif
34
35 #include <stdlib.h>
36 #include <string.h>
37 #include "glib.h"
38
39 /* #define ENABLE_MEM_PROFILE */
40 /* #define ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS */
41 /* #define ENABLE_MEM_CHECK */
42 #define MEM_PROFILE_TABLE_SIZE 8192
43
44 /*
45  * This library can check for some attempts to do illegal things to
46  * memory (ENABLE_MEM_CHECK), and can do profiling
47  * (ENABLE_MEM_PROFILE).  Both features are implemented by storing
48  * words before the start of the memory chunk.
49  *
50  * The first, at offset -2*SIZEOF_LONG, is used only if
51  * ENABLE_MEM_CHECK is set, and stores 0 after the memory has been
52  * allocated and 1 when it has been freed.  The second, at offset
53  * -SIZEOF_LONG, is used if either flag is set and stores the size of
54  * the block.
55  *
56  * The MEM_CHECK flag is checked when memory is realloc'd and free'd,
57  * and it can be explicitly checked before using a block by calling
58  * g_mem_check().
59  */
60
61 #if defined(ENABLE_MEM_PROFILE) && defined(ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS)
62 #define ENTER_MEM_CHUNK_ROUTINE() \
63   g_static_set (allocating_for_mem_chunk, \
64                 g_static_get (allocating_for_mem_chunk) + 1)
65 #define LEAVE_MEM_CHUNK_ROUTINE() \
66   g_static_set (allocating_for_mem_chunk, \
67                 g_static_get (allocating_for_mem_chunk) - 1) 
68 #else
69 #define ENTER_MEM_CHUNK_ROUTINE()
70 #define LEAVE_MEM_CHUNK_ROUTINE()
71 #endif
72
73
74 #define MAX_MEM_AREA  65536L
75 #define MEM_AREA_SIZE 4L
76
77 #if SIZEOF_VOID_P > SIZEOF_LONG
78 #define MEM_ALIGN     SIZEOF_VOID_P
79 #else
80 #define MEM_ALIGN     SIZEOF_LONG
81 #endif
82
83
84 typedef struct _GFreeAtom      GFreeAtom;
85 typedef struct _GMemArea       GMemArea;
86 typedef struct _GRealMemChunk  GRealMemChunk;
87
88 struct _GFreeAtom
89 {
90   GFreeAtom *next;
91 };
92
93 struct _GMemArea
94 {
95   GMemArea *next;            /* the next mem area */
96   GMemArea *prev;            /* the previous mem area */
97   gulong index;              /* the current index into the "mem" array */
98   gulong free;               /* the number of free bytes in this mem area */
99   gulong allocated;          /* the number of atoms allocated from this area */
100   gulong mark;               /* is this mem area marked for deletion */
101   gchar mem[MEM_AREA_SIZE];  /* the mem array from which atoms get allocated
102                               * the actual size of this array is determined by
103                               *  the mem chunk "area_size". ANSI says that it
104                               *  must be declared to be the maximum size it
105                               *  can possibly be (even though the actual size
106                               *  may be less).
107                               */
108 };
109
110 struct _GRealMemChunk
111 {
112   gchar *name;               /* name of this MemChunk...used for debugging output */
113   gint type;                 /* the type of MemChunk: ALLOC_ONLY or ALLOC_AND_FREE */
114   gint num_mem_areas;        /* the number of memory areas */
115   gint num_marked_areas;     /* the number of areas marked for deletion */
116   guint atom_size;           /* the size of an atom */
117   gulong area_size;          /* the size of a memory area */
118   GMemArea *mem_area;        /* the current memory area */
119   GMemArea *mem_areas;       /* a list of all the mem areas owned by this chunk */
120   GMemArea *free_mem_area;   /* the free area...which is about to be destroyed */
121   GFreeAtom *free_atoms;     /* the free atoms list */
122   GTree *mem_tree;           /* tree of mem areas sorted by memory address */
123   GRealMemChunk *next;       /* pointer to the next chunk */
124   GRealMemChunk *prev;       /* pointer to the previous chunk */
125 };
126
127
128 static gulong g_mem_chunk_compute_size (gulong    size);
129 static gint   g_mem_chunk_area_compare (GMemArea *a,
130                                         GMemArea *b);
131 static gint   g_mem_chunk_area_search  (GMemArea *a,
132                                         gchar    *addr);
133
134
135 /* here we can't use StaticMutexes, as they depend upon a working
136  * g_malloc, the same holds true for StaticPrivate */
137 static GMutex* mem_chunks_lock = NULL;
138 static GRealMemChunk *mem_chunks = NULL;
139
140 #ifdef ENABLE_MEM_PROFILE
141 static GMutex* mem_profile_lock;
142 static gulong allocations[MEM_PROFILE_TABLE_SIZE] = { 0 };
143 static gulong allocated_mem = 0;
144 static gulong freed_mem = 0;
145 static GPrivate* allocating_for_mem_chunk = NULL;
146 #define IS_IN_MEM_CHUNK_ROUTINE() \
147   GPOINTER_TO_UINT (g_static_get (allocating_for_mem_chunk))
148 #endif /* ENABLE_MEM_PROFILE */
149
150
151 #ifndef USE_DMALLOC
152
153 gpointer
154 g_malloc (gulong size)
155 {
156   gpointer p;
157   
158   
159 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
160   gulong *t;
161 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
162   
163   
164   if (size == 0)
165     return NULL;
166   
167   
168 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
169   size += SIZEOF_LONG;
170 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
171   
172 #ifdef ENABLE_MEM_CHECK
173   size += SIZEOF_LONG;
174 #endif /* ENABLE_MEM_CHECK */
175   
176   
177   p = (gpointer) malloc (size);
178   if (!p)
179     g_error ("could not allocate %ld bytes", size);
180   
181   
182 #ifdef ENABLE_MEM_CHECK
183   size -= SIZEOF_LONG;
184   
185   t = p;
186   p = ((guchar*) p + SIZEOF_LONG);
187   *t = 0;
188 #endif /* ENABLE_MEM_CHECK */
189   
190 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
191   size -= SIZEOF_LONG;
192   
193   t = p;
194   p = ((guchar*) p + SIZEOF_LONG);
195   *t = size;
196   
197 #ifdef ENABLE_MEM_PROFILE
198   g_mutex_lock (mem_profile_lock);
199 #  ifdef ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS
200   if(!IS_IN_MEM_CHUNK_ROUTINE()) {
201 #  endif
202     if (size <= MEM_PROFILE_TABLE_SIZE - 1)
203       allocations[size-1] += 1;
204     else
205       allocations[MEM_PROFILE_TABLE_SIZE - 1] += 1;
206     allocated_mem += size;
207 #  ifdef ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS
208   }
209 #  endif
210   g_mutex_unlock (mem_profile_lock);
211 #endif /* ENABLE_MEM_PROFILE */
212 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
213   
214   
215   return p;
216 }
217
218 gpointer
219 g_malloc0 (gulong size)
220 {
221   gpointer p;
222   
223   
224 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
225   gulong *t;
226 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
227   
228   
229   if (size == 0)
230     return NULL;
231   
232   
233 #if defined (ENABLE_MEM_PROFILE) || defined (ENABLE_MEM_CHECK)
234   size += SIZEOF_LONG;
235 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
236   
237 #ifdef ENABLE_MEM_CHECK
238   size += SIZEOF_LONG;
239 #endif /* ENABLE_MEM_CHECK */
240   
241   
242   p = (gpointer) calloc (size, 1);
243   if (!p)
244     g_error ("could not allocate %ld bytes", size);
245   
246   
247 #ifdef ENABLE_MEM_CHECK
248   size -= SIZEOF_LONG;
249   
250   t = p;
251   p = ((guchar*) p + SIZEOF_LONG);
252   *t = 0;
253 #endif /* ENABLE_MEM_CHECK */
254   
255 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
256   size -= SIZEOF_LONG;
257   
258   t = p;
259   p = ((guchar*) p + SIZEOF_LONG);
260   *t = size;
261   
262 #  ifdef ENABLE_MEM_PROFILE
263   g_mutex_lock (mem_profile_lock);
264 #    ifdef ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS
265   if(!IS_IN_MEM_CHUNK_ROUTINE()) {
266 #    endif
267     if (size <= (MEM_PROFILE_TABLE_SIZE - 1))
268       allocations[size-1] += 1;
269     else
270       allocations[MEM_PROFILE_TABLE_SIZE - 1] += 1;
271     allocated_mem += size;
272 #    ifdef ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS
273   }
274 #    endif
275   g_mutex_unlock (mem_profile_lock);
276 #  endif /* ENABLE_MEM_PROFILE */
277 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
278   
279   
280   return p;
281 }
282
283 gpointer
284 g_realloc (gpointer mem,
285            gulong   size)
286 {
287   gpointer p;
288   
289 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
290   gulong *t;
291 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
292   
293   
294   if (size == 0)
295     {
296       g_free (mem);
297     
298       return NULL;
299     }
300   
301   
302 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
303   size += SIZEOF_LONG;
304 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
305   
306 #ifdef ENABLE_MEM_CHECK
307   size += SIZEOF_LONG;
308 #endif /* ENABLE_MEM_CHECK */
309   
310   
311   if (!mem)
312     {
313 #ifdef REALLOC_0_WORKS
314       p = (gpointer) realloc (NULL, size);
315 #else /* !REALLOC_0_WORKS */
316       p = (gpointer) malloc (size);
317 #endif /* !REALLOC_0_WORKS */
318     }
319   else
320     {
321 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
322       t = (gulong*) ((guchar*) mem - SIZEOF_LONG);
323 #ifdef ENABLE_MEM_PROFILE
324       g_mutex_lock (mem_profile_lock);
325       freed_mem += *t;
326       g_mutex_unlock (mem_profile_lock);
327 #endif /* ENABLE_MEM_PROFILE */
328       mem = t;
329 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
330       
331 #ifdef ENABLE_MEM_CHECK
332       t = (gulong*) ((guchar*) mem - SIZEOF_LONG);
333       if (*t >= 1)
334         g_warning ("trying to realloc freed memory\n");
335       mem = t;
336 #endif /* ENABLE_MEM_CHECK */
337       
338       p = (gpointer) realloc (mem, size);
339     }
340   
341   if (!p)
342     g_error ("could not reallocate %lu bytes", (gulong) size);
343   
344   
345 #ifdef ENABLE_MEM_CHECK
346   size -= SIZEOF_LONG;
347   
348   t = p;
349   p = ((guchar*) p + SIZEOF_LONG);
350   *t = 0;
351 #endif /* ENABLE_MEM_CHECK */
352   
353 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
354   size -= SIZEOF_LONG;
355   
356   t = p;
357   p = ((guchar*) p + SIZEOF_LONG);
358   *t = size;
359   
360 #ifdef ENABLE_MEM_PROFILE
361   g_mutex_lock (mem_profile_lock);
362 #ifdef ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS
363   if(!IS_IN_MEM_CHUNK_ROUTINE()) {
364 #endif
365     if (size <= (MEM_PROFILE_TABLE_SIZE - 1))
366       allocations[size-1] += 1;
367     else
368       allocations[MEM_PROFILE_TABLE_SIZE - 1] += 1;
369     allocated_mem += size;
370 #ifdef ENABLE_MEM_PROFILE_EXCLUDES_MEM_CHUNKS
371   }
372 #endif
373   g_mutex_unlock (mem_profile_lock);
374 #endif /* ENABLE_MEM_PROFILE */
375 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
376   
377   
378   return p;
379 }
380
381 void
382 g_free (gpointer mem)
383 {
384   if (mem)
385     {
386 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
387       gulong *t;
388       gulong size;
389 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
390       
391 #if defined(ENABLE_MEM_PROFILE) || defined(ENABLE_MEM_CHECK)
392       t = (gulong*) ((guchar*) mem - SIZEOF_LONG);
393       size = *t;
394 #ifdef ENABLE_MEM_PROFILE     
395       g_mutex_lock (mem_profile_lock);
396       freed_mem += size;
397       g_mutex_unlock (mem_profile_lock);
398 #endif /* ENABLE_MEM_PROFILE */
399       mem = t;
400 #endif /* ENABLE_MEM_PROFILE || ENABLE_MEM_CHECK */
401       
402 #ifdef ENABLE_MEM_CHECK
403       t = (gulong*) ((guchar*) mem - SIZEOF_LONG);
404       if (*t >= 1)
405         g_warning ("freeing previously freed memory\n");
406       *t += 1;
407       mem = t;
408       
409       memset ((guchar*) mem + 8, 0, size);
410 #else /* ENABLE_MEM_CHECK */
411       free (mem);
412 #endif /* ENABLE_MEM_CHECK */
413     }
414 }
415
416 #endif /* ! USE_DMALLOC */
417
418
419 void
420 g_mem_profile (void)
421 {
422 #ifdef ENABLE_MEM_PROFILE
423   gint i;
424   gulong local_allocations[MEM_PROFILE_TABLE_SIZE];
425   gulong local_allocated_mem;
426   gulong local_freed_mem;  
427
428   g_mutex_lock (mem_profile_lock);
429   for (i = 0; i < MEM_PROFILE_TABLE_SIZE; i++)
430     local_allocations[i] = allocations[i];
431   local_allocated_mem = allocated_mem;
432   local_freed_mem = freed_mem;
433   g_mutex_unlock (mem_profile_lock);
434
435   for (i = 0; i < (MEM_PROFILE_TABLE_SIZE - 1); i++)
436     if (local_allocations[i] > 0)
437       g_log (g_log_domain_glib, G_LOG_LEVEL_INFO,
438              "%lu allocations of %d bytes", local_allocations[i], i + 1);
439   
440   if (local_allocations[MEM_PROFILE_TABLE_SIZE - 1] > 0)
441     g_log (g_log_domain_glib, G_LOG_LEVEL_INFO,
442            "%lu allocations of greater than %d bytes",
443            local_allocations[MEM_PROFILE_TABLE_SIZE - 1], MEM_PROFILE_TABLE_SIZE - 1);
444   g_log (g_log_domain_glib, G_LOG_LEVEL_INFO, "%lu bytes allocated", local_allocated_mem);
445   g_log (g_log_domain_glib, G_LOG_LEVEL_INFO, "%lu bytes freed", local_freed_mem);
446   g_log (g_log_domain_glib, G_LOG_LEVEL_INFO, "%lu bytes in use", local_allocated_mem - local_freed_mem);
447 #endif /* ENABLE_MEM_PROFILE */
448 }
449
450 void
451 g_mem_check (gpointer mem)
452 {
453 #ifdef ENABLE_MEM_CHECK
454   gulong *t;
455   
456   t = (gulong*) ((guchar*) mem - SIZEOF_LONG - SIZEOF_LONG);
457   
458   if (*t >= 1)
459     g_warning ("mem: 0x%08x has been freed %lu times\n", (gulong) mem, *t);
460 #endif /* ENABLE_MEM_CHECK */
461 }
462
463 GMemChunk*
464 g_mem_chunk_new (gchar  *name,
465                  gint    atom_size,
466                  gulong  area_size,
467                  gint    type)
468 {
469   GRealMemChunk *mem_chunk;
470   gulong rarea_size;
471
472   ENTER_MEM_CHUNK_ROUTINE();
473
474   mem_chunk = g_new (struct _GRealMemChunk, 1);
475   mem_chunk->name = name;
476   mem_chunk->type = type;
477   mem_chunk->num_mem_areas = 0;
478   mem_chunk->num_marked_areas = 0;
479   mem_chunk->mem_area = NULL;
480   mem_chunk->free_mem_area = NULL;
481   mem_chunk->free_atoms = NULL;
482   mem_chunk->mem_tree = NULL;
483   mem_chunk->mem_areas = NULL;
484   mem_chunk->atom_size = atom_size;
485   
486   if (mem_chunk->type == G_ALLOC_AND_FREE)
487     mem_chunk->mem_tree = g_tree_new ((GCompareFunc) g_mem_chunk_area_compare);
488   
489   if (mem_chunk->atom_size % MEM_ALIGN)
490     mem_chunk->atom_size += MEM_ALIGN - (mem_chunk->atom_size % MEM_ALIGN);
491   
492   mem_chunk->area_size = area_size;
493   if (mem_chunk->area_size > MAX_MEM_AREA)
494     mem_chunk->area_size = MAX_MEM_AREA;
495   while (mem_chunk->area_size < mem_chunk->atom_size)
496     mem_chunk->area_size *= 2;
497   
498   rarea_size = mem_chunk->area_size + sizeof (GMemArea) - MEM_AREA_SIZE;
499   rarea_size = g_mem_chunk_compute_size (rarea_size);
500   mem_chunk->area_size = rarea_size - (sizeof (GMemArea) - MEM_AREA_SIZE);
501   
502   /*
503     mem_chunk->area_size -= (sizeof (GMemArea) - MEM_AREA_SIZE);
504     if (mem_chunk->area_size < mem_chunk->atom_size)
505     {
506     mem_chunk->area_size = (mem_chunk->area_size + sizeof (GMemArea) - MEM_AREA_SIZE) * 2;
507     mem_chunk->area_size -= (sizeof (GMemArea) - MEM_AREA_SIZE);
508     }
509     
510     if (mem_chunk->area_size % mem_chunk->atom_size)
511     mem_chunk->area_size += mem_chunk->atom_size - (mem_chunk->area_size % mem_chunk->atom_size);
512   */
513   
514   g_mutex_lock (mem_chunks_lock);
515   mem_chunk->next = mem_chunks;
516   mem_chunk->prev = NULL;
517   if (mem_chunks)
518     mem_chunks->prev = mem_chunk;
519   mem_chunks = mem_chunk;
520   g_mutex_unlock (mem_chunks_lock);
521
522   LEAVE_MEM_CHUNK_ROUTINE();
523
524   return ((GMemChunk*) mem_chunk);
525 }
526
527 void
528 g_mem_chunk_destroy (GMemChunk *mem_chunk)
529 {
530   GRealMemChunk *rmem_chunk;
531   GMemArea *mem_areas;
532   GMemArea *temp_area;
533   
534   g_return_if_fail (mem_chunk != NULL);
535
536   ENTER_MEM_CHUNK_ROUTINE();
537
538   rmem_chunk = (GRealMemChunk*) mem_chunk;
539   
540   mem_areas = rmem_chunk->mem_areas;
541   while (mem_areas)
542     {
543       temp_area = mem_areas;
544       mem_areas = mem_areas->next;
545       g_free (temp_area);
546     }
547   
548   if (rmem_chunk->next)
549     rmem_chunk->next->prev = rmem_chunk->prev;
550   if (rmem_chunk->prev)
551     rmem_chunk->prev->next = rmem_chunk->next;
552   
553   g_mutex_lock (mem_chunks_lock);
554   if (rmem_chunk == mem_chunks)
555     mem_chunks = mem_chunks->next;
556   g_mutex_unlock (mem_chunks_lock);
557   
558   if (rmem_chunk->type == G_ALLOC_AND_FREE)
559     g_tree_destroy (rmem_chunk->mem_tree);
560   
561   g_free (rmem_chunk);
562
563   LEAVE_MEM_CHUNK_ROUTINE();
564 }
565
566 gpointer
567 g_mem_chunk_alloc (GMemChunk *mem_chunk)
568 {
569   GRealMemChunk *rmem_chunk;
570   GMemArea *temp_area;
571   gpointer mem;
572
573   ENTER_MEM_CHUNK_ROUTINE();
574
575   g_return_val_if_fail (mem_chunk != NULL, NULL);
576   
577   rmem_chunk = (GRealMemChunk*) mem_chunk;
578   
579   while (rmem_chunk->free_atoms)
580     {
581       /* Get the first piece of memory on the "free_atoms" list.
582        * We can go ahead and destroy the list node we used to keep
583        *  track of it with and to update the "free_atoms" list to
584        *  point to its next element.
585        */
586       mem = rmem_chunk->free_atoms;
587       rmem_chunk->free_atoms = rmem_chunk->free_atoms->next;
588       
589       /* Determine which area this piece of memory is allocated from */
590       temp_area = g_tree_search (rmem_chunk->mem_tree,
591                                  (GSearchFunc) g_mem_chunk_area_search,
592                                  mem);
593       
594       /* If the area has been marked, then it is being destroyed.
595        *  (ie marked to be destroyed).
596        * We check to see if all of the segments on the free list that
597        *  reference this area have been removed. This occurs when
598        *  the ammount of free memory is less than the allocatable size.
599        * If the chunk should be freed, then we place it in the "free_mem_area".
600        * This is so we make sure not to free the mem area here and then
601        *  allocate it again a few lines down.
602        * If we don't allocate a chunk a few lines down then the "free_mem_area"
603        *  will be freed.
604        * If there is already a "free_mem_area" then we'll just free this mem area.
605        */
606       if (temp_area->mark)
607         {
608           /* Update the "free" memory available in that area */
609           temp_area->free += rmem_chunk->atom_size;
610           
611           if (temp_area->free == rmem_chunk->area_size)
612             {
613               if (temp_area == rmem_chunk->mem_area)
614                 rmem_chunk->mem_area = NULL;
615               
616               if (rmem_chunk->free_mem_area)
617                 {
618                   rmem_chunk->num_mem_areas -= 1;
619                   
620                   if (temp_area->next)
621                     temp_area->next->prev = temp_area->prev;
622                   if (temp_area->prev)
623                     temp_area->prev->next = temp_area->next;
624                   if (temp_area == rmem_chunk->mem_areas)
625                     rmem_chunk->mem_areas = rmem_chunk->mem_areas->next;
626                   
627                   if (rmem_chunk->type == G_ALLOC_AND_FREE)
628                     g_tree_remove (rmem_chunk->mem_tree, temp_area);
629                   g_free (temp_area);
630                 }
631               else
632                 rmem_chunk->free_mem_area = temp_area;
633               
634               rmem_chunk->num_marked_areas -= 1;
635             }
636         }
637       else
638         {
639           /* Update the number of allocated atoms count.
640            */
641           temp_area->allocated += 1;
642           
643           /* The area wasn't marked...return the memory
644            */
645           goto outa_here;
646         }
647     }
648   
649   /* If there isn't a current mem area or the current mem area is out of space
650    *  then allocate a new mem area. We'll first check and see if we can use
651    *  the "free_mem_area". Otherwise we'll just malloc the mem area.
652    */
653   if ((!rmem_chunk->mem_area) ||
654       ((rmem_chunk->mem_area->index + rmem_chunk->atom_size) > rmem_chunk->area_size))
655     {
656       if (rmem_chunk->free_mem_area)
657         {
658           rmem_chunk->mem_area = rmem_chunk->free_mem_area;
659           rmem_chunk->free_mem_area = NULL;
660         }
661       else
662         {
663           rmem_chunk->mem_area = (GMemArea*) g_malloc (sizeof (GMemArea) -
664                                                        MEM_AREA_SIZE +
665                                                        rmem_chunk->area_size);
666           
667           rmem_chunk->num_mem_areas += 1;
668           rmem_chunk->mem_area->next = rmem_chunk->mem_areas;
669           rmem_chunk->mem_area->prev = NULL;
670           
671           if (rmem_chunk->mem_areas)
672             rmem_chunk->mem_areas->prev = rmem_chunk->mem_area;
673           rmem_chunk->mem_areas = rmem_chunk->mem_area;
674           
675           if (rmem_chunk->type == G_ALLOC_AND_FREE)
676             g_tree_insert (rmem_chunk->mem_tree, rmem_chunk->mem_area, rmem_chunk->mem_area);
677         }
678       
679       rmem_chunk->mem_area->index = 0;
680       rmem_chunk->mem_area->free = rmem_chunk->area_size;
681       rmem_chunk->mem_area->allocated = 0;
682       rmem_chunk->mem_area->mark = 0;
683     }
684   
685   /* Get the memory and modify the state variables appropriately.
686    */
687   mem = (gpointer) &rmem_chunk->mem_area->mem[rmem_chunk->mem_area->index];
688   rmem_chunk->mem_area->index += rmem_chunk->atom_size;
689   rmem_chunk->mem_area->free -= rmem_chunk->atom_size;
690   rmem_chunk->mem_area->allocated += 1;
691
692 outa_here:
693
694   LEAVE_MEM_CHUNK_ROUTINE();
695
696   return mem;
697 }
698
699 gpointer
700 g_mem_chunk_alloc0 (GMemChunk *mem_chunk)
701 {
702   gpointer mem;
703
704   mem = g_mem_chunk_alloc (mem_chunk);
705   if (mem)
706     {
707       GRealMemChunk *rmem_chunk = (GRealMemChunk*) mem_chunk;
708
709       memset (mem, 0, rmem_chunk->atom_size);
710     }
711
712   return mem;
713 }
714
715 void
716 g_mem_chunk_free (GMemChunk *mem_chunk,
717                   gpointer   mem)
718 {
719   GRealMemChunk *rmem_chunk;
720   GMemArea *temp_area;
721   GFreeAtom *free_atom;
722   
723   g_return_if_fail (mem_chunk != NULL);
724   g_return_if_fail (mem != NULL);
725
726   ENTER_MEM_CHUNK_ROUTINE();
727
728   rmem_chunk = (GRealMemChunk*) mem_chunk;
729   
730   /* Don't do anything if this is an ALLOC_ONLY chunk
731    */
732   if (rmem_chunk->type == G_ALLOC_AND_FREE)
733     {
734       /* Place the memory on the "free_atoms" list
735        */
736       free_atom = (GFreeAtom*) mem;
737       free_atom->next = rmem_chunk->free_atoms;
738       rmem_chunk->free_atoms = free_atom;
739       
740       temp_area = g_tree_search (rmem_chunk->mem_tree,
741                                  (GSearchFunc) g_mem_chunk_area_search,
742                                  mem);
743       
744       temp_area->allocated -= 1;
745       
746       if (temp_area->allocated == 0)
747         {
748           temp_area->mark = 1;
749           rmem_chunk->num_marked_areas += 1;
750         }
751     }
752
753   LEAVE_MEM_CHUNK_ROUTINE();
754 }
755
756 /* This doesn't free the free_area if there is one */
757 void
758 g_mem_chunk_clean (GMemChunk *mem_chunk)
759 {
760   GRealMemChunk *rmem_chunk;
761   GMemArea *mem_area;
762   GFreeAtom *prev_free_atom;
763   GFreeAtom *temp_free_atom;
764   gpointer mem;
765   
766   g_return_if_fail (mem_chunk != NULL);
767   
768   rmem_chunk = (GRealMemChunk*) mem_chunk;
769   
770   if (rmem_chunk->type == G_ALLOC_AND_FREE)
771     {
772       prev_free_atom = NULL;
773       temp_free_atom = rmem_chunk->free_atoms;
774       
775       while (temp_free_atom)
776         {
777           mem = (gpointer) temp_free_atom;
778           
779           mem_area = g_tree_search (rmem_chunk->mem_tree,
780                                     (GSearchFunc) g_mem_chunk_area_search,
781                                     mem);
782           
783           /* If this mem area is marked for destruction then delete the
784            *  area and list node and decrement the free mem.
785            */
786           if (mem_area->mark)
787             {
788               if (prev_free_atom)
789                 prev_free_atom->next = temp_free_atom->next;
790               else
791                 rmem_chunk->free_atoms = temp_free_atom->next;
792               temp_free_atom = temp_free_atom->next;
793               
794               mem_area->free += rmem_chunk->atom_size;
795               if (mem_area->free == rmem_chunk->area_size)
796                 {
797                   rmem_chunk->num_mem_areas -= 1;
798                   rmem_chunk->num_marked_areas -= 1;
799                   
800                   if (mem_area->next)
801                     mem_area->next->prev = mem_area->prev;
802                   if (mem_area->prev)
803                     mem_area->prev->next = mem_area->next;
804                   if (mem_area == rmem_chunk->mem_areas)
805                     rmem_chunk->mem_areas = rmem_chunk->mem_areas->next;
806                   if (mem_area == rmem_chunk->mem_area)
807                     rmem_chunk->mem_area = NULL;
808                   
809                   if (rmem_chunk->type == G_ALLOC_AND_FREE)
810                     g_tree_remove (rmem_chunk->mem_tree, mem_area);
811                   g_free (mem_area);
812                 }
813             }
814           else
815             {
816               prev_free_atom = temp_free_atom;
817               temp_free_atom = temp_free_atom->next;
818             }
819         }
820     }
821 }
822
823 void
824 g_mem_chunk_reset (GMemChunk *mem_chunk)
825 {
826   GRealMemChunk *rmem_chunk;
827   GMemArea *mem_areas;
828   GMemArea *temp_area;
829   
830   g_return_if_fail (mem_chunk != NULL);
831   
832   rmem_chunk = (GRealMemChunk*) mem_chunk;
833   
834   mem_areas = rmem_chunk->mem_areas;
835   rmem_chunk->num_mem_areas = 0;
836   rmem_chunk->mem_areas = NULL;
837   rmem_chunk->mem_area = NULL;
838   
839   while (mem_areas)
840     {
841       temp_area = mem_areas;
842       mem_areas = mem_areas->next;
843       g_free (temp_area);
844     }
845   
846   rmem_chunk->free_atoms = NULL;
847   
848   if (rmem_chunk->mem_tree)
849     g_tree_destroy (rmem_chunk->mem_tree);
850   rmem_chunk->mem_tree = g_tree_new ((GCompareFunc) g_mem_chunk_area_compare);
851 }
852
853 void
854 g_mem_chunk_print (GMemChunk *mem_chunk)
855 {
856   GRealMemChunk *rmem_chunk;
857   GMemArea *mem_areas;
858   gulong mem;
859   
860   g_return_if_fail (mem_chunk != NULL);
861   
862   rmem_chunk = (GRealMemChunk*) mem_chunk;
863   mem_areas = rmem_chunk->mem_areas;
864   mem = 0;
865   
866   while (mem_areas)
867     {
868       mem += rmem_chunk->area_size - mem_areas->free;
869       mem_areas = mem_areas->next;
870     }
871   
872   g_log (g_log_domain_glib, G_LOG_LEVEL_INFO,
873          "%s: %ld bytes using %d mem areas",
874          rmem_chunk->name, mem, rmem_chunk->num_mem_areas);
875 }
876
877 void
878 g_mem_chunk_info (void)
879 {
880   GRealMemChunk *mem_chunk;
881   gint count;
882   
883   count = 0;
884   g_mutex_lock (mem_chunks_lock);
885   mem_chunk = mem_chunks;
886   while (mem_chunk)
887     {
888       count += 1;
889       mem_chunk = mem_chunk->next;
890     }
891   g_mutex_unlock (mem_chunks_lock);
892   
893   g_log (g_log_domain_glib, G_LOG_LEVEL_INFO, "%d mem chunks", count);
894   
895   g_mutex_lock (mem_chunks_lock);
896   mem_chunk = mem_chunks;
897   g_mutex_unlock (mem_chunks_lock);
898
899   while (mem_chunk)
900     {
901       g_mem_chunk_print ((GMemChunk*) mem_chunk);
902       mem_chunk = mem_chunk->next;
903     }  
904 }
905
906 void
907 g_blow_chunks (void)
908 {
909   GRealMemChunk *mem_chunk;
910   
911   g_mutex_lock (mem_chunks_lock);
912   mem_chunk = mem_chunks;
913   g_mutex_unlock (mem_chunks_lock);
914   while (mem_chunk)
915     {
916       g_mem_chunk_clean ((GMemChunk*) mem_chunk);
917       mem_chunk = mem_chunk->next;
918     }
919 }
920
921
922 static gulong
923 g_mem_chunk_compute_size (gulong size)
924 {
925   gulong power_of_2;
926   gulong lower, upper;
927   
928   power_of_2 = 16;
929   while (power_of_2 < size)
930     power_of_2 <<= 1;
931   
932   lower = power_of_2 >> 1;
933   upper = power_of_2;
934   
935   if ((size - lower) < (upper - size))
936     return lower;
937   return upper;
938 }
939
940 static gint
941 g_mem_chunk_area_compare (GMemArea *a,
942                           GMemArea *b)
943 {
944   return (a->mem - b->mem);
945 }
946
947 static gint
948 g_mem_chunk_area_search (GMemArea *a,
949                          gchar    *addr)
950 {
951   if (a->mem <= addr)
952     {
953       if (addr < &a->mem[a->index])
954         return 0;
955       return 1;
956     }
957   return -1;
958 }
959
960 /* generic allocators
961  */
962 struct _GAllocator /* from gmem.c */
963 {
964   gchar         *name;
965   guint16        n_preallocs;
966   guint          is_unused : 1;
967   guint          type : 4;
968   GAllocator    *last;
969   GMemChunk     *mem_chunk;
970   gpointer       dummy; /* implementation specific */
971 };
972
973 GAllocator*
974 g_allocator_new (const gchar *name,
975                  guint        n_preallocs)
976 {
977   GAllocator *allocator;
978
979   g_return_val_if_fail (name != NULL, NULL);
980
981   allocator = g_new0 (GAllocator, 1);
982   allocator->name = g_strdup (name);
983   allocator->n_preallocs = CLAMP (n_preallocs, 1, 65535);
984   allocator->is_unused = TRUE;
985   allocator->type = 0;
986   allocator->last = NULL;
987   allocator->mem_chunk = NULL;
988   allocator->dummy = NULL;
989
990   return allocator;
991 }
992
993 void
994 g_allocator_free (GAllocator *allocator)
995 {
996   g_return_if_fail (allocator != NULL);
997   g_return_if_fail (allocator->is_unused == TRUE);
998
999   g_free (allocator->name);
1000   if (allocator->mem_chunk)
1001     g_mem_chunk_destroy (allocator->mem_chunk);
1002
1003   g_free (allocator);
1004 }
1005
1006 void
1007 g_mem_init (void)
1008 {
1009   mem_chunks_lock = g_mutex_new();
1010 #ifdef ENABLE_MEM_PROFILE
1011   mem_profile_lock = g_mutex_new();
1012   allocating_for_mem_chunk = g_private_new(NULL);
1013 #endif
1014 }