]> git.sesse.net Git - x264/blob - common/cpu.h
x86inc: Add cvisible macro for C functions with public prefix
[x264] / common / cpu.h
1 /*****************************************************************************
2  * cpu.h: cpu detection
3  *****************************************************************************
4  * Copyright (C) 2004-2013 x264 project
5  *
6  * Authors: Loren Merritt <lorenm@u.washington.edu>
7  *
8  * This program is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU General Public License as published by
10  * the Free Software Foundation; either version 2 of the License, or
11  * (at your option) any later version.
12  *
13  * This program is distributed in the hope that it will be useful,
14  * but WITHOUT ANY WARRANTY; without even the implied warranty of
15  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16  * GNU General Public License for more details.
17  *
18  * You should have received a copy of the GNU General Public License
19  * along with this program; if not, write to the Free Software
20  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02111, USA.
21  *
22  * This program is also available under a commercial proprietary license.
23  * For more information, contact us at licensing@x264.com.
24  *****************************************************************************/
25
26 #ifndef X264_CPU_H
27 #define X264_CPU_H
28
29 uint32_t x264_cpu_detect( void );
30 int      x264_cpu_num_processors( void );
31 void     x264_cpu_emms( void );
32 void     x264_cpu_sfence( void );
33 #if HAVE_MMX
34 /* There is no way to forbid the compiler from using float instructions
35  * before the emms so miscompilation could theoretically occur in the
36  * unlikely event that the compiler reorders emms and float instructions. */
37 #if HAVE_X86_INLINE_ASM
38 /* Clobbering memory makes the compiler less likely to reorder code. */
39 #define x264_emms() asm volatile( "emms":::"memory","st","st(1)","st(2)", \
40                                   "st(3)","st(4)","st(5)","st(6)","st(7)" )
41 #else
42 #define x264_emms() x264_cpu_emms()
43 #endif
44 #else
45 #define x264_emms()
46 #endif
47 #define x264_sfence x264_cpu_sfence
48 void     x264_cpu_mask_misalign_sse( void );
49 void     x264_safe_intel_cpu_indicator_init( void );
50
51 /* kluge:
52  * gcc can't give variables any greater alignment than the stack frame has.
53  * We need 16 byte alignment for SSE2, so here we make sure that the stack is
54  * aligned to 16 bytes.
55  * gcc 4.2 introduced __attribute__((force_align_arg_pointer)) to fix this
56  * problem, but I don't want to require such a new version.
57  * This applies only to x86_32, since other architectures that need alignment
58  * either have ABIs that ensure aligned stack, or don't support it at all. */
59 #if ARCH_X86 && HAVE_MMX
60 int x264_stack_align( void (*func)(), ... );
61 #define x264_stack_align(func,...) x264_stack_align((void (*)())func, __VA_ARGS__)
62 #else
63 #define x264_stack_align(func,...) func(__VA_ARGS__)
64 #endif
65
66 typedef struct
67 {
68     const char name[16];
69     uint32_t flags;
70 } x264_cpu_name_t;
71 extern const x264_cpu_name_t x264_cpu_names[];
72
73 #endif