memory: only check the locking refcount
[platform/upstream/gstreamer.git] / gst / gstmemory.c
1 /* GStreamer
2  * Copyright (C) 2011 Wim Taymans <wim.taymans@gmail.be>
3  *
4  * gstmemory.c: memory block handling
5  *
6  * This library is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Library General Public
8  * License as published by the Free Software Foundation; either
9  * version 2 of the License, or (at your option) any later version.
10  *
11  * This library is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Library General Public License for more details.
15  *
16  * You should have received a copy of the GNU Library General Public
17  * License along with this library; if not, write to the
18  * Free Software Foundation, Inc., 59 Temple Place - Suite 330,
19  * Boston, MA 02111-1307, USA.
20  */
21
22 /**
23  * SECTION:gstmemory
24  * @short_description: refcounted wrapper for memory blocks
25  * @see_also: #GstBuffer
26  *
27  * GstMemory is a lightweight refcounted object that wraps a region of memory.
28  * They are typically used to manage the data of a #GstBuffer.
29  *
30  * A GstMemory object has an allocated region of memory of maxsize. The maximum
31  * size does not change during the lifetime of the memory object. The memory
32  * also has an offset and size property that specifies the valid range of memory
33  * in the allocated region.
34  *
35  * Memory is usually created by allocators with a gst_allocator_alloc()
36  * method call. When NULL is used as the allocator, the default allocator will
37  * be used.
38  *
39  * New allocators can be registered with gst_allocator_register().
40  * Allocators are identified by name and can be retrieved with
41  * gst_allocator_find(). gst_allocator_set_default() can be used to change the
42  * default allocator.
43  *
44  * New memory can be created with gst_memory_new_wrapped() that wraps the memory
45  * allocated elsewhere.
46  *
47  * Refcounting of the memory block is performed with gst_memory_ref() and
48  * gst_memory_unref().
49  *
50  * The size of the memory can be retrieved and changed with
51  * gst_memory_get_sizes() and gst_memory_resize() respectively.
52  *
53  * Getting access to the data of the memory is performed with gst_memory_map().
54  * The call will return a pointer to offset bytes into the region of memory.
55  * After the memory access is completed, gst_memory_unmap() should be called.
56  *
57  * Memory can be copied with gst_memory_copy(), which will return a writable
58  * copy. gst_memory_share() will create a new memory block that shares the
59  * memory with an existing memory block at a custom offset and with a custom
60  * size.
61  *
62  * Memory can be efficiently merged when gst_memory_is_span() returns TRUE.
63  *
64  * Last reviewed on 2012-03-28 (0.11.3)
65  */
66
67 #ifdef HAVE_CONFIG_H
68 #include "config.h"
69 #endif
70
71 #include "gst_private.h"
72 #include "gstmemory.h"
73
74 GST_DEFINE_MINI_OBJECT_TYPE (GstMemory, gst_memory);
75
76 GST_DEFINE_MINI_OBJECT_TYPE (GstAllocator, gst_allocator);
77
78 G_DEFINE_BOXED_TYPE (GstAllocationParams, gst_allocation_params,
79     (GBoxedCopyFunc) gst_allocation_params_copy,
80     (GBoxedFreeFunc) gst_allocation_params_free);
81
82 #if defined(MEMORY_ALIGNMENT_MALLOC)
83 size_t gst_memory_alignment = 7;
84 #elif defined(MEMORY_ALIGNMENT_PAGESIZE)
85 /* we fill this in in the _init method */
86 size_t gst_memory_alignment = 0;
87 #elif defined(MEMORY_ALIGNMENT)
88 size_t gst_memory_alignment = MEMORY_ALIGNMENT - 1;
89 #else
90 #error "No memory alignment configured"
91 size_t gst_memory_alignment = 0;
92 #endif
93
94 struct _GstAllocator
95 {
96   GstMiniObject mini_object;
97
98   GstMemoryInfo info;
99
100   gpointer user_data;
101   GDestroyNotify notify;
102 };
103
104 /* default memory implementation */
105 typedef struct
106 {
107   GstMemory mem;
108   gsize slice_size;
109   guint8 *data;
110   gpointer user_data;
111   GDestroyNotify notify;
112 } GstMemoryDefault;
113
114 /* the default allocator */
115 static GstAllocator *_default_allocator;
116
117 /* our predefined allocators */
118 static GstAllocator *_default_mem_impl;
119
120 #define SHARE_ONE (1 << 16)
121 #define LOCK_ONE (GST_LOCK_FLAG_LAST)
122 #define FLAG_MASK (GST_LOCK_FLAG_LAST - 1)
123 #define LOCK_MASK ((SHARE_ONE - 1) - FLAG_MASK)
124 #define LOCK_FLAG_MASK (SHARE_ONE - 1)
125
126 static GstMemory *
127 _gst_memory_copy (GstMemory * mem)
128 {
129   return gst_memory_copy (mem, 0, -1);
130 }
131
132 static void
133 _gst_memory_free (GstMemory * mem)
134 {
135   /* there should be no outstanding mappings */
136   g_return_if_fail ((g_atomic_int_get (&mem->state) & LOCK_MASK) < 4);
137   mem->allocator->info.mem_free (mem);
138 }
139
140 /* initialize the fields */
141 static void
142 _default_mem_init (GstMemoryDefault * mem, GstMemoryFlags flags,
143     GstMemory * parent, gsize slice_size, gpointer data,
144     gsize maxsize, gsize offset, gsize size, gsize align,
145     gpointer user_data, GDestroyNotify notify)
146 {
147   gst_mini_object_init (GST_MINI_OBJECT_CAST (mem), GST_TYPE_MEMORY,
148       (GstMiniObjectCopyFunction) _gst_memory_copy, NULL,
149       (GstMiniObjectFreeFunction) _gst_memory_free);
150
151   mem->mem.mini_object.flags = flags;
152
153   mem->mem.allocator = _default_mem_impl;
154   mem->mem.parent = parent ? gst_memory_ref (parent) : NULL;
155   mem->mem.state = (flags & GST_MEMORY_FLAG_READONLY ? GST_LOCK_FLAG_READ : 0);
156   mem->mem.state |= (flags & GST_MEMORY_FLAG_NO_SHARE ? SHARE_ONE : 0);
157   mem->mem.maxsize = maxsize;
158   mem->mem.align = align;
159   mem->mem.offset = offset;
160   mem->mem.size = size;
161   mem->slice_size = slice_size;
162   mem->data = data;
163   mem->user_data = user_data;
164   mem->notify = notify;
165
166   GST_CAT_DEBUG (GST_CAT_MEMORY, "new memory %p, maxsize:%" G_GSIZE_FORMAT
167       " offset:%" G_GSIZE_FORMAT " size:%" G_GSIZE_FORMAT, mem, maxsize,
168       offset, size);
169 }
170
171 /* create a new memory block that manages the given memory */
172 static GstMemoryDefault *
173 _default_mem_new (GstMemoryFlags flags, GstMemory * parent, gpointer data,
174     gsize maxsize, gsize offset, gsize size, gsize align, gpointer user_data,
175     GDestroyNotify notify)
176 {
177   GstMemoryDefault *mem;
178   gsize slice_size;
179
180   slice_size = sizeof (GstMemoryDefault);
181
182   mem = g_slice_alloc (slice_size);
183   _default_mem_init (mem, flags, parent, slice_size,
184       data, maxsize, offset, size, align, user_data, notify);
185
186   return mem;
187 }
188
189 /* allocate the memory and structure in one block */
190 static GstMemoryDefault *
191 _default_mem_new_block (GstMemoryFlags flags, gsize maxsize, gsize align,
192     gsize offset, gsize size)
193 {
194   GstMemoryDefault *mem;
195   gsize aoffset, slice_size, padding;
196   guint8 *data;
197
198   /* ensure configured alignment */
199   align |= gst_memory_alignment;
200   /* allocate more to compensate for alignment */
201   maxsize += align;
202   /* alloc header and data in one block */
203   slice_size = sizeof (GstMemoryDefault) + maxsize;
204
205   mem = g_slice_alloc (slice_size);
206   if (mem == NULL)
207     return NULL;
208
209   data = (guint8 *) mem + sizeof (GstMemoryDefault);
210
211   /* do alignment */
212   if ((aoffset = ((guintptr) data & align))) {
213     aoffset = (align + 1) - aoffset;
214     data += aoffset;
215     maxsize -= aoffset;
216   }
217
218   if (offset && (flags & GST_MEMORY_FLAG_ZERO_PREFIXED))
219     memset (data, 0, offset);
220
221   padding = maxsize - (offset + size);
222   if (padding && (flags & GST_MEMORY_FLAG_ZERO_PADDED))
223     memset (data + offset + size, 0, padding);
224
225   _default_mem_init (mem, flags, NULL, slice_size, data, maxsize,
226       offset, size, align, NULL, NULL);
227
228   return mem;
229 }
230
231 static GstMemory *
232 _default_alloc_alloc (GstAllocator * allocator, gsize size,
233     GstAllocationParams * params, gpointer user_data)
234 {
235   gsize maxsize = size + params->prefix + params->padding;
236
237   return (GstMemory *) _default_mem_new_block (params->flags,
238       maxsize, params->align, params->prefix, size);
239 }
240
241 static gpointer
242 _default_mem_map (GstMemoryDefault * mem, gsize maxsize, GstMapFlags flags)
243 {
244   return mem->data;
245 }
246
247 static gboolean
248 _default_mem_unmap (GstMemoryDefault * mem)
249 {
250   return TRUE;
251 }
252
253 static void
254 _default_mem_free (GstMemoryDefault * mem)
255 {
256   GST_CAT_DEBUG (GST_CAT_MEMORY, "free memory %p", mem);
257
258   if (mem->mem.parent)
259     gst_memory_unref (mem->mem.parent);
260
261   if (mem->notify)
262     mem->notify (mem->user_data);
263
264   g_slice_free1 (mem->slice_size, mem);
265 }
266
267 static GstMemoryDefault *
268 _default_mem_copy (GstMemoryDefault * mem, gssize offset, gsize size)
269 {
270   GstMemoryDefault *copy;
271
272   if (size == -1)
273     size = mem->mem.size > offset ? mem->mem.size - offset : 0;
274
275   copy =
276       _default_mem_new_block (0, mem->mem.maxsize, 0, mem->mem.offset + offset,
277       size);
278   GST_CAT_DEBUG (GST_CAT_PERFORMANCE,
279       "memcpy %" G_GSIZE_FORMAT " memory %p -> %p", mem->mem.maxsize, mem,
280       copy);
281   memcpy (copy->data, mem->data, mem->mem.maxsize);
282
283   return copy;
284 }
285
286 static GstMemoryDefault *
287 _default_mem_share (GstMemoryDefault * mem, gssize offset, gsize size)
288 {
289   GstMemoryDefault *sub;
290   GstMemory *parent;
291
292   /* find the real parent */
293   if ((parent = mem->mem.parent) == NULL)
294     parent = (GstMemory *) mem;
295
296   if (size == -1)
297     size = mem->mem.size - offset;
298
299   sub =
300       _default_mem_new (GST_MINI_OBJECT_FLAGS (parent), parent, mem->data,
301       mem->mem.maxsize, mem->mem.offset + offset, size, mem->mem.align, NULL,
302       NULL);
303
304   return sub;
305 }
306
307 static gboolean
308 _default_mem_is_span (GstMemoryDefault * mem1, GstMemoryDefault * mem2,
309     gsize * offset)
310 {
311
312   if (offset) {
313     GstMemoryDefault *parent;
314
315     parent = (GstMemoryDefault *) mem1->mem.parent;
316
317     *offset = mem1->mem.offset - parent->mem.offset;
318   }
319
320   /* and memory is contiguous */
321   return mem1->data + mem1->mem.offset + mem1->mem.size ==
322       mem2->data + mem2->mem.offset;
323 }
324
325 static GstMemory *
326 _fallback_mem_copy (GstMemory * mem, gssize offset, gssize size)
327 {
328   GstMemory *copy;
329   GstMapInfo sinfo, dinfo;
330   GstAllocationParams params = { 0, 0, 0, mem->align, };
331
332   if (!gst_memory_map (mem, &sinfo, GST_MAP_READ))
333     return NULL;
334
335   if (size == -1)
336     size = sinfo.size > offset ? sinfo.size - offset : 0;
337
338   /* use the same allocator as the memory we copy  */
339   copy = gst_allocator_alloc (mem->allocator, size, &params);
340   if (!gst_memory_map (copy, &dinfo, GST_MAP_WRITE)) {
341     GST_CAT_WARNING (GST_CAT_MEMORY, "could not write map memory %p", copy);
342     gst_memory_unmap (mem, &sinfo);
343     return NULL;
344   }
345
346   GST_CAT_DEBUG (GST_CAT_PERFORMANCE,
347       "memcpy %" G_GSSIZE_FORMAT " memory %p -> %p", size, mem, copy);
348   memcpy (dinfo.data, sinfo.data + offset, size);
349   gst_memory_unmap (copy, &dinfo);
350   gst_memory_unmap (mem, &sinfo);
351
352   return copy;
353 }
354
355 static gboolean
356 _fallback_mem_is_span (GstMemory * mem1, GstMemory * mem2, gsize * offset)
357 {
358   return FALSE;
359 }
360
361 static GRWLock lock;
362 static GHashTable *allocators;
363
364 static void
365 _priv_sysmem_notify (gpointer user_data)
366 {
367   g_warning ("The default memory allocator was freed!");
368 }
369
370 void
371 _priv_gst_memory_initialize (void)
372 {
373   static const GstMemoryInfo _mem_info = {
374     GST_ALLOCATOR_SYSMEM,
375     (GstAllocatorAllocFunction) _default_alloc_alloc,
376     (GstMemoryMapFunction) _default_mem_map,
377     (GstMemoryUnmapFunction) _default_mem_unmap,
378     (GstMemoryFreeFunction) _default_mem_free,
379     (GstMemoryCopyFunction) _default_mem_copy,
380     (GstMemoryShareFunction) _default_mem_share,
381     (GstMemoryIsSpanFunction) _default_mem_is_span,
382   };
383
384   g_rw_lock_init (&lock);
385   allocators = g_hash_table_new (g_str_hash, g_str_equal);
386
387 #ifdef HAVE_GETPAGESIZE
388 #ifdef MEMORY_ALIGNMENT_PAGESIZE
389   gst_memory_alignment = getpagesize () - 1;
390 #endif
391 #endif
392
393   GST_CAT_DEBUG (GST_CAT_MEMORY, "memory alignment: %" G_GSIZE_FORMAT,
394       gst_memory_alignment);
395
396   _default_mem_impl = gst_allocator_new (&_mem_info, NULL, _priv_sysmem_notify);
397
398   _default_allocator = gst_allocator_ref (_default_mem_impl);
399   gst_allocator_register (GST_ALLOCATOR_SYSMEM,
400       gst_allocator_ref (_default_mem_impl));
401 }
402
403 /**
404  * gst_memory_new_wrapped:
405  * @flags: #GstMemoryFlags
406  * @data: data to wrap
407  * @maxsize: allocated size of @data
408  * @offset: offset in @data
409  * @size: size of valid data
410  * @user_data: user_data
411  * @notify: called with @user_data when the memory is freed
412  *
413  * Allocate a new memory block that wraps the given @data.
414  *
415  * The prefix/padding must be filled with 0 if @flags contains
416  * #GST_MEMORY_FLAG_ZERO_PREFIXED and #GST_MEMORY_FLAG_ZERO_PADDED respectively.
417  *
418  * Returns: a new #GstMemory.
419  */
420 GstMemory *
421 gst_memory_new_wrapped (GstMemoryFlags flags, gpointer data,
422     gsize maxsize, gsize offset, gsize size, gpointer user_data,
423     GDestroyNotify notify)
424 {
425   GstMemoryDefault *mem;
426
427   g_return_val_if_fail (data != NULL, NULL);
428   g_return_val_if_fail (offset + size <= maxsize, NULL);
429
430   mem =
431       _default_mem_new (flags, NULL, data, maxsize, offset, size, 0, user_data,
432       notify);
433
434   return (GstMemory *) mem;
435 }
436
437 /**
438  * gst_memory_is_exclusive:
439  * @mem: a #GstMemory
440  *
441  * Check if the current ref to @mem is exclusive, this means that no other
442  * references exist other than @mem.
443  */
444 gboolean
445 gst_memory_is_exclusive (GstMemory * mem)
446 {
447   g_return_val_if_fail (mem != NULL, FALSE);
448
449   return GST_MINI_OBJECT_REFCOUNT_VALUE (mem) == 1;
450 }
451
452 /**
453  * gst_memory_get_sizes:
454  * @mem: a #GstMemory
455  * @offset: pointer to offset
456  * @maxsize: pointer to maxsize
457  *
458  * Get the current @size, @offset and @maxsize of @mem.
459  *
460  * Returns: the current sizes of @mem
461  */
462 gsize
463 gst_memory_get_sizes (GstMemory * mem, gsize * offset, gsize * maxsize)
464 {
465   g_return_val_if_fail (mem != NULL, 0);
466
467   if (offset)
468     *offset = mem->offset;
469   if (maxsize)
470     *maxsize = mem->maxsize;
471
472   return mem->size;
473 }
474
475 /**
476  * gst_memory_resize:
477  * @mem: a #GstMemory
478  * @offset: a new offset
479  * @size: a new size
480  *
481  * Resize the memory region. @mem should be writable and offset + size should be
482  * less than the maxsize of @mem.
483  *
484  * #GST_MEMORY_FLAG_ZERO_PREFIXED and #GST_MEMORY_FLAG_ZERO_PADDED will be
485  * cleared when offset or padding is increased respectively.
486  */
487 void
488 gst_memory_resize (GstMemory * mem, gssize offset, gsize size)
489 {
490   g_return_if_fail (mem != NULL);
491   g_return_if_fail (offset >= 0 || mem->offset >= -offset);
492   g_return_if_fail (size + mem->offset + offset <= mem->maxsize);
493
494   /* if we increase the prefix, we can't guarantee it is still 0 filled */
495   if ((offset > 0) && GST_MEMORY_IS_ZERO_PREFIXED (mem))
496     GST_MEMORY_FLAG_UNSET (mem, GST_MEMORY_FLAG_ZERO_PREFIXED);
497
498   /* if we increase the padding, we can't guarantee it is still 0 filled */
499   if ((offset + size < mem->size) && GST_MEMORY_IS_ZERO_PADDED (mem))
500     GST_MEMORY_FLAG_UNSET (mem, GST_MEMORY_FLAG_ZERO_PADDED);
501
502   mem->offset += offset;
503   mem->size = size;
504 }
505
506 /**
507  * gst_memory_lock:
508  * @mem: a #GstMemory
509  * @flags: #GstLockFlags
510  *
511  * Lock the memory with the specified access mode in @flags.
512  *
513  * Returns: %TRUE if the memory could be locked.
514  */
515 gboolean
516 gst_memory_lock (GstMemory * mem, GstLockFlags flags)
517 {
518   gint access_mode, state, newstate;
519
520   access_mode = flags & FLAG_MASK;
521
522   do {
523     newstate = state = g_atomic_int_get (&mem->state);
524
525     GST_CAT_TRACE (GST_CAT_MEMORY, "lock %p: state %08x, access_mode %d",
526         mem, state, access_mode);
527
528     if (access_mode & GST_LOCK_FLAG_EXCLUSIVE) {
529       /* shared ref */
530       newstate += SHARE_ONE;
531       access_mode &= ~GST_LOCK_FLAG_EXCLUSIVE;
532     }
533
534     if (access_mode) {
535       if ((state & LOCK_FLAG_MASK) == 0) {
536         /* shared counter > 1 and write access */
537         if (state > SHARE_ONE && access_mode & GST_LOCK_FLAG_WRITE)
538           goto lock_failed;
539         /* nothing mapped, set access_mode */
540         newstate |= access_mode;
541       } else {
542         /* access_mode must match */
543         if ((state & access_mode) != access_mode)
544           goto lock_failed;
545       }
546       /* increase refcount */
547       newstate += LOCK_ONE;
548     }
549   } while (!g_atomic_int_compare_and_exchange (&mem->state, state, newstate));
550
551   return TRUE;
552
553 lock_failed:
554   {
555     GST_CAT_DEBUG (GST_CAT_MEMORY, "lock failed %p: state %08x, access_mode %d",
556         mem, state, access_mode);
557     return FALSE;
558   }
559 }
560
561 /**
562  * gst_memory_unlock:
563  * @mem: a #GstMemory
564  * @flags: #GstLockFlags
565  *
566  * Unlock the memory with the specified access mode in @flags.
567  */
568 void
569 gst_memory_unlock (GstMemory * mem, GstLockFlags flags)
570 {
571   gint access_mode, state, newstate;
572
573   access_mode = flags & FLAG_MASK;
574
575   do {
576     newstate = state = g_atomic_int_get (&mem->state);
577
578     GST_CAT_TRACE (GST_CAT_MEMORY, "unlock %p: state %08x, access_mode %d",
579         mem, state, access_mode);
580
581     if (access_mode & GST_LOCK_FLAG_EXCLUSIVE) {
582       /* shared counter */
583       g_return_if_fail (state >= SHARE_ONE);
584       newstate = state - SHARE_ONE;
585       access_mode &= ~GST_LOCK_FLAG_EXCLUSIVE;
586     }
587
588     if (access_mode) {
589       g_return_if_fail ((state & access_mode) == access_mode);
590       /* decrease the refcount */
591       newstate -= LOCK_ONE;
592       /* last refcount, unset access_mode */
593       if ((newstate & LOCK_FLAG_MASK) == access_mode)
594         newstate &= ~LOCK_FLAG_MASK;
595     }
596   } while (!g_atomic_int_compare_and_exchange (&mem->state, state, newstate));
597 }
598
599 /**
600  * gst_memory_make_mapped:
601  * @mem: (transfer full): a #GstMemory
602  * @info: (out): pointer for info
603  * @flags: mapping flags
604  *
605  * Create a #GstMemory object that is mapped with @flags. If @mem is mappable
606  * with @flags, this function returns the mapped @mem directly. Otherwise a
607  * mapped copy of @mem is returned.
608  *
609  * This function takes ownership of old @mem and returns a reference to a new
610  * #GstMemory.
611  *
612  * Returns: (transfer full): a #GstMemory object mapped with @flags or NULL when
613  * a mapping is not possible.
614  */
615 GstMemory *
616 gst_memory_make_mapped (GstMemory * mem, GstMapInfo * info, GstMapFlags flags)
617 {
618   GstMemory *result;
619
620   if (gst_memory_map (mem, info, flags)) {
621     result = mem;
622   } else {
623     result = gst_memory_copy (mem, 0, -1);
624     gst_memory_unref (mem);
625
626     if (result == NULL)
627       goto cannot_copy;
628
629     if (!gst_memory_map (result, info, flags))
630       goto cannot_map;
631   }
632   return result;
633
634   /* ERRORS */
635 cannot_copy:
636   {
637     GST_CAT_DEBUG (GST_CAT_MEMORY, "cannot copy memory %p", mem);
638     return NULL;
639   }
640 cannot_map:
641   {
642     GST_CAT_DEBUG (GST_CAT_MEMORY, "cannot map memory %p with flags %d", mem,
643         flags);
644     gst_memory_unref (result);
645     return NULL;
646   }
647 }
648
649 /**
650  * gst_memory_map:
651  * @mem: a #GstMemory
652  * @info: (out): pointer for info
653  * @flags: mapping flags
654  *
655  * Fill @info with the pointer and sizes of the memory in @mem that can be
656  * accessed according to @flags.
657  *
658  * This function can return %FALSE for various reasons:
659  * - the memory backed by @mem is not accessible with the given @flags.
660  * - the memory was already mapped with a different mapping.
661  *
662  * @info and its contents remain valid for as long as @mem is valid and
663  * until gst_memory_unmap() is called.
664  *
665  * For each gst_memory_map() call, a corresponding gst_memory_unmap() call
666  * should be done.
667  *
668  * Returns: %TRUE if the map operation was successful.
669  */
670 gboolean
671 gst_memory_map (GstMemory * mem, GstMapInfo * info, GstMapFlags flags)
672 {
673   g_return_val_if_fail (mem != NULL, FALSE);
674   g_return_val_if_fail (info != NULL, FALSE);
675
676   if (!gst_memory_lock (mem, flags))
677     goto lock_failed;
678
679   info->data = mem->allocator->info.mem_map (mem, mem->maxsize, flags);
680
681   if (G_UNLIKELY (info->data == NULL))
682     goto error;
683
684   info->memory = mem;
685   info->flags = flags;
686   info->size = mem->size;
687   info->maxsize = mem->maxsize - mem->offset;
688   info->data = info->data + mem->offset;
689
690   return TRUE;
691
692   /* ERRORS */
693 lock_failed:
694   {
695     GST_CAT_DEBUG (GST_CAT_MEMORY, "mem %p: lock %d failed", mem, flags);
696     return FALSE;
697   }
698 error:
699   {
700     /* something went wrong, restore the orginal state again */
701     GST_CAT_ERROR (GST_CAT_MEMORY, "mem %p: map failed", mem);
702     gst_memory_unlock (mem, flags);
703     return FALSE;
704   }
705 }
706
707 /**
708  * gst_memory_unmap:
709  * @mem: a #GstMemory
710  * @info: a #GstMapInfo
711  *
712  * Release the memory obtained with gst_memory_map()
713  */
714 void
715 gst_memory_unmap (GstMemory * mem, GstMapInfo * info)
716 {
717   g_return_if_fail (mem != NULL);
718   g_return_if_fail (info != NULL);
719   g_return_if_fail (info->memory == mem);
720   /* there must be a ref */
721   g_return_if_fail (g_atomic_int_get (&mem->state) >= 4);
722
723   mem->allocator->info.mem_unmap (mem);
724   gst_memory_unlock (mem, info->flags);
725 }
726
727 /**
728  * gst_memory_copy:
729  * @mem: a #GstMemory
730  * @offset: an offset to copy
731  * @size: size to copy or -1 to copy all bytes from offset
732  *
733  * Return a copy of @size bytes from @mem starting from @offset. This copy is
734  * guaranteed to be writable. @size can be set to -1 to return a copy all bytes
735  * from @offset.
736  *
737  * Returns: a new #GstMemory.
738  */
739 GstMemory *
740 gst_memory_copy (GstMemory * mem, gssize offset, gssize size)
741 {
742   GstMemory *copy;
743
744   g_return_val_if_fail (mem != NULL, NULL);
745
746   copy = mem->allocator->info.mem_copy (mem, offset, size);
747
748   return copy;
749 }
750
751 /**
752  * gst_memory_share:
753  * @mem: a #GstMemory
754  * @offset: an offset to share
755  * @size: size to share or -1 to share bytes from offset
756  *
757  * Return a shared copy of @size bytes from @mem starting from @offset. No
758  * memory copy is performed and the memory region is simply shared. The result
759  * is guaranteed to be not-writable. @size can be set to -1 to return a share
760  * all bytes from @offset.
761  *
762  * Returns: a new #GstMemory.
763  */
764 GstMemory *
765 gst_memory_share (GstMemory * mem, gssize offset, gssize size)
766 {
767   GstMemory *shared;
768
769   g_return_val_if_fail (mem != NULL, NULL);
770   g_return_val_if_fail (!GST_MEMORY_FLAG_IS_SET (mem, GST_MEMORY_FLAG_NO_SHARE),
771       NULL);
772
773   shared = mem->allocator->info.mem_share (mem, offset, size);
774
775   return shared;
776 }
777
778 /**
779  * gst_memory_is_span:
780  * @mem1: a #GstMemory
781  * @mem2: a #GstMemory
782  * @offset: a pointer to a result offset
783  *
784  * Check if @mem1 and mem2 share the memory with a common parent memory object
785  * and that the memory is contiguous.
786  *
787  * If this is the case, the memory of @mem1 and @mem2 can be merged
788  * efficiently by performing gst_memory_share() on the parent object from
789  * the returned @offset.
790  *
791  * Returns: %TRUE if the memory is contiguous and of a common parent.
792  */
793 gboolean
794 gst_memory_is_span (GstMemory * mem1, GstMemory * mem2, gsize * offset)
795 {
796   g_return_val_if_fail (mem1 != NULL, FALSE);
797   g_return_val_if_fail (mem2 != NULL, FALSE);
798
799   /* need to have the same allocators */
800   if (mem1->allocator != mem2->allocator)
801     return FALSE;
802
803   /* need to have the same parent */
804   if (mem1->parent == NULL || mem1->parent != mem2->parent)
805     return FALSE;
806
807   /* and memory is contiguous */
808   if (!mem1->allocator->info.mem_is_span (mem1, mem2, offset))
809     return FALSE;
810
811   return TRUE;
812 }
813
814 static void
815 _gst_allocator_free (GstAllocator * allocator)
816 {
817   if (allocator->notify)
818     allocator->notify (allocator->user_data);
819
820   g_slice_free1 (sizeof (GstAllocator), allocator);
821 }
822
823 static GstAllocator *
824 _gst_allocator_copy (GstAllocator * allocator)
825 {
826   return gst_allocator_ref (allocator);
827 }
828
829 /**
830  * gst_allocator_new:
831  * @info: a #GstMemoryInfo
832  * @user_data: user data
833  * @notify: a #GDestroyNotify for @user_data
834  *
835  * Create a new memory allocator with @info and @user_data.
836  *
837  * All functions in @info are mandatory exept the copy and is_span
838  * functions, which will have a default implementation when left NULL.
839  *
840  * The @user_data will be passed to all calls of the alloc function. @notify
841  * will be called with @user_data when the allocator is freed.
842  *
843  * Returns: a new #GstAllocator.
844  */
845 GstAllocator *
846 gst_allocator_new (const GstMemoryInfo * info, gpointer user_data,
847     GDestroyNotify notify)
848 {
849   GstAllocator *allocator;
850
851   g_return_val_if_fail (info != NULL, NULL);
852   g_return_val_if_fail (info->alloc != NULL, NULL);
853   g_return_val_if_fail (info->mem_map != NULL, NULL);
854   g_return_val_if_fail (info->mem_unmap != NULL, NULL);
855   g_return_val_if_fail (info->mem_free != NULL, NULL);
856   g_return_val_if_fail (info->mem_share != NULL, NULL);
857
858   allocator = g_slice_new0 (GstAllocator);
859
860   gst_mini_object_init (GST_MINI_OBJECT_CAST (allocator), GST_TYPE_ALLOCATOR,
861       (GstMiniObjectCopyFunction) _gst_allocator_copy, NULL,
862       (GstMiniObjectFreeFunction) _gst_allocator_free);
863
864   allocator->info = *info;
865   allocator->user_data = user_data;
866   allocator->notify = notify;
867
868 #define INSTALL_FALLBACK(_t) \
869   if (allocator->info._t == NULL) allocator->info._t = _fallback_ ##_t;
870   INSTALL_FALLBACK (mem_copy);
871   INSTALL_FALLBACK (mem_is_span);
872 #undef INSTALL_FALLBACK
873
874   GST_CAT_DEBUG (GST_CAT_MEMORY, "new allocator %p", allocator);
875
876   return allocator;
877 }
878
879 /**
880  * gst_allocator_get_memory_type:
881  * @allocator: a #GstAllocator
882  *
883  * Get the memory type allocated by this allocator
884  *
885  * Returns: the memory type provided by @allocator
886  */
887 const gchar *
888 gst_allocator_get_memory_type (GstAllocator * allocator)
889 {
890   g_return_val_if_fail (allocator != NULL, NULL);
891
892   return allocator->info.mem_type;
893 }
894
895 /**
896  * gst_allocator_register:
897  * @name: the name of the allocator
898  * @allocator: (transfer full): #GstAllocator
899  *
900  * Registers the memory @allocator with @name. This function takes ownership of
901  * @allocator.
902  */
903 void
904 gst_allocator_register (const gchar * name, GstAllocator * allocator)
905 {
906   g_return_if_fail (name != NULL);
907   g_return_if_fail (allocator != NULL);
908
909   GST_CAT_DEBUG (GST_CAT_MEMORY, "registering allocator %p with name \"%s\"",
910       allocator, name);
911
912   g_rw_lock_writer_lock (&lock);
913   g_hash_table_insert (allocators, (gpointer) name, (gpointer) allocator);
914   g_rw_lock_writer_unlock (&lock);
915 }
916
917 /**
918  * gst_allocator_find:
919  * @name: the name of the allocator
920  *
921  * Find a previously registered allocator with @name. When @name is NULL, the
922  * default allocator will be returned.
923  *
924  * Returns: (transfer full): a #GstAllocator or NULL when the allocator with @name was not
925  * registered. Use gst_allocator_unref() to release the allocator after usage.
926  */
927 GstAllocator *
928 gst_allocator_find (const gchar * name)
929 {
930   GstAllocator *allocator;
931
932   g_rw_lock_reader_lock (&lock);
933   if (name) {
934     allocator = g_hash_table_lookup (allocators, (gconstpointer) name);
935   } else {
936     allocator = _default_allocator;
937   }
938   if (allocator)
939     gst_allocator_ref (allocator);
940   g_rw_lock_reader_unlock (&lock);
941
942   return allocator;
943 }
944
945 /**
946  * gst_allocator_set_default:
947  * @allocator: (transfer full): a #GstAllocator
948  *
949  * Set the default allocator. This function takes ownership of @allocator.
950  */
951 void
952 gst_allocator_set_default (GstAllocator * allocator)
953 {
954   GstAllocator *old;
955   g_return_if_fail (allocator != NULL);
956
957   g_rw_lock_writer_lock (&lock);
958   old = _default_allocator;
959   _default_allocator = allocator;
960   g_rw_lock_writer_unlock (&lock);
961
962   if (old)
963     gst_allocator_unref (old);
964 }
965
966 /**
967  * gst_allocation_params_init:
968  * @params: a #GstAllocationParams
969  *
970  * Initialize @params to its default values
971  */
972 void
973 gst_allocation_params_init (GstAllocationParams * params)
974 {
975   g_return_if_fail (params != NULL);
976
977   memset (params, 0, sizeof (GstAllocationParams));
978 }
979
980 /**
981  * gst_allocation_params_copy:
982  * @params: (transfer none): a #GstAllocationParams
983  *
984  * Create a copy of @params.
985  *
986  * Free-function: gst_allocation_params_free
987  *
988  * Returns: (transfer full): a new ##GstAllocationParams, free with
989  * gst_allocation_params_free().
990  */
991 GstAllocationParams *
992 gst_allocation_params_copy (const GstAllocationParams * params)
993 {
994   GstAllocationParams *result = NULL;
995
996   if (params) {
997     result =
998         (GstAllocationParams *) g_slice_copy (sizeof (GstAllocationParams),
999         params);
1000   }
1001   return result;
1002 }
1003
1004 /**
1005  * gst_allocation_params_free:
1006  * @params: (in) (transfer full): a #GstAllocationParams
1007  *
1008  * Free @params
1009  */
1010 void
1011 gst_allocation_params_free (GstAllocationParams * params)
1012 {
1013   g_slice_free (GstAllocationParams, params);
1014 }
1015
1016 /**
1017  * gst_allocator_alloc:
1018  * @allocator: (transfer none) (allow-none): a #GstAllocator to use
1019  * @size: size of the visible memory area
1020  * @params: (transfer none) (allow-none): optional parameters
1021  *
1022  * Use @allocator to allocate a new memory block with memory that is at least
1023  * @size big.
1024  *
1025  * The optional @params can specify the prefix and padding for the memory. If
1026  * NULL is passed, no flags, no extra prefix/padding and a default alignment is
1027  * used.
1028  *
1029  * The prefix/padding will be filled with 0 if flags contains
1030  * #GST_MEMORY_FLAG_ZERO_PREFIXED and #GST_MEMORY_FLAG_ZERO_PADDED respectively.
1031  *
1032  * When @allocator is NULL, the default allocator will be used.
1033  *
1034  * The alignment in @params is given as a bitmask so that @align + 1 equals
1035  * the amount of bytes to align to. For example, to align to 8 bytes,
1036  * use an alignment of 7.
1037  *
1038  * Returns: (transfer full): a new #GstMemory.
1039  */
1040 GstMemory *
1041 gst_allocator_alloc (GstAllocator * allocator, gsize size,
1042     GstAllocationParams * params)
1043 {
1044   GstMemory *mem;
1045   static GstAllocationParams defparams = { 0, 0, 0, 0, };
1046
1047   if (params) {
1048     g_return_val_if_fail (((params->align + 1) & params->align) == 0, NULL);
1049   } else {
1050     params = &defparams;
1051   }
1052
1053   if (allocator == NULL)
1054     allocator = _default_allocator;
1055
1056   mem = allocator->info.alloc (allocator, size, params, allocator->user_data);
1057
1058   return mem;
1059 }