]> git.sesse.net Git - ffmpeg/blobdiff - libavutil/mem.c
intreadwrite: common.h is not needed, attributes.h is sufficient
[ffmpeg] / libavutil / mem.c
index 1b960f291193bf11843002a465957bdffd6fde1a..8cad089a7db29d790ae707628602dde646eb48d0 100644 (file)
  */
 
 /**
- * @file mem.c
- * default memory allocator for libavutil.
+ * @file
+ * default memory allocator for libavutil
  */
 
 #include "config.h"
-#include "common.h"
-
-/* here we can use OS dependent allocation functions */
-#undef malloc
-#undef free
-#undef realloc
 
 #include <limits.h>
 #include <stdlib.h>
 #include <malloc.h>
 #endif
 
-/* you can redefine av_malloc and av_free in your project to use your
+#include "avutil.h"
+#include "mem.h"
+
+/* here we can use OS-dependent allocation functions */
+#undef free
+#undef malloc
+#undef realloc
+
+#ifdef MALLOC_PREFIX
+
+#define malloc         AV_JOIN(MALLOC_PREFIX, malloc)
+#define memalign       AV_JOIN(MALLOC_PREFIX, memalign)
+#define posix_memalign AV_JOIN(MALLOC_PREFIX, posix_memalign)
+#define realloc        AV_JOIN(MALLOC_PREFIX, realloc)
+#define free           AV_JOIN(MALLOC_PREFIX, free)
+
+void *malloc(size_t size);
+void *memalign(size_t align, size_t size);
+int   posix_memalign(void **ptr, size_t align, size_t size);
+void *realloc(void *ptr, size_t size);
+void  free(void *ptr);
+
+#endif /* MALLOC_PREFIX */
+
+/* You can redefine av_malloc and av_free in your project to use your
    memory allocator. You do not need to suppress this file because the
-   linker will do it automatically */
+   linker will do it automatically. */
 
 void *av_malloc(unsigned int size)
 {
@@ -62,14 +80,15 @@ void *av_malloc(unsigned int size)
     ptr = (char*)ptr + diff;
     ((char*)ptr)[-1]= diff;
 #elif HAVE_POSIX_MEMALIGN
-    posix_memalign(&ptr,16,size);
+    if (posix_memalign(&ptr,16,size))
+        ptr = NULL;
 #elif HAVE_MEMALIGN
     ptr = memalign(16,size);
     /* Why 64?
        Indeed, we should align it:
          on 4 for 386
          on 16 for 486
-         on 32 for 586, PPro - k6-III
+         on 32 for 586, PPro - K6-III
          on 64 for K7 (maybe for P3 too).
        Because L1 and L2 caches are aligned on those values.
        But I don't want to code such logic here!
@@ -77,10 +96,10 @@ void *av_malloc(unsigned int size)
      /* Why 16?
         Because some CPUs need alignment, for example SSE2 on P4, & most RISC CPUs
         it will just trigger an exception and the unaligned load will be done in the
-        exception handler or it will just segfault (SSE2 on P4)
+        exception handler or it will just segfault (SSE2 on P4).
         Why not larger? Because I did not see a difference in benchmarks ...
      */
-     /* benchmarks with p3
+     /* benchmarks with P3
         memalign(64)+1          3071,3051,3032
         memalign(64)+2          3051,3032,3041
         memalign(64)+4          2911,2896,2915
@@ -89,7 +108,7 @@ void *av_malloc(unsigned int size)
         memalign(64)+32         2546,2545,2571
         memalign(64)+64         2570,2533,2558
 
-        btw, malloc seems to do 8 byte alignment by default here
+        BTW, malloc seems to do 8-byte alignment by default here.
      */
 #else
     ptr = malloc(size);