]> git.sesse.net Git - ffmpeg/blob - libavcodec/x86/dsputil_mmx.h
VP8: optimize DC-only chroma case in the same way as luma.
[ffmpeg] / libavcodec / x86 / dsputil_mmx.h
1 /*
2  * MMX optimized DSP utils
3  * Copyright (c) 2007  Aurelien Jacobs <aurel@gnuage.org>
4  *
5  * This file is part of FFmpeg.
6  *
7  * FFmpeg is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * FFmpeg is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with FFmpeg; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 #ifndef AVCODEC_X86_DSPUTIL_MMX_H
23 #define AVCODEC_X86_DSPUTIL_MMX_H
24
25 #include <stdint.h>
26 #include "libavcodec/dsputil.h"
27
28 typedef struct { uint64_t a, b; } xmm_reg;
29
30 extern const uint64_t ff_bone;
31 extern const uint64_t ff_wtwo;
32
33 extern const uint64_t ff_pdw_80000000[2];
34
35 extern const uint64_t ff_pw_3;
36 extern const xmm_reg  ff_pw_4;
37 extern const xmm_reg  ff_pw_5;
38 extern const xmm_reg  ff_pw_8;
39 extern const uint64_t ff_pw_15;
40 extern const xmm_reg  ff_pw_16;
41 extern const xmm_reg  ff_pw_18;
42 extern const uint64_t ff_pw_20;
43 extern const xmm_reg  ff_pw_27;
44 extern const xmm_reg  ff_pw_28;
45 extern const xmm_reg  ff_pw_32;
46 extern const uint64_t ff_pw_42;
47 extern const uint64_t ff_pw_53;
48 extern const xmm_reg  ff_pw_63;
49 extern const xmm_reg  ff_pw_64;
50 extern const uint64_t ff_pw_96;
51 extern const uint64_t ff_pw_128;
52 extern const uint64_t ff_pw_255;
53
54 extern const xmm_reg  ff_pb_1;
55 extern const xmm_reg  ff_pb_3;
56 extern const uint64_t ff_pb_7;
57 extern const uint64_t ff_pb_1F;
58 extern const uint64_t ff_pb_3F;
59 extern const uint64_t ff_pb_81;
60 extern const uint64_t ff_pb_A1;
61 extern const xmm_reg  ff_pb_F8;
62 extern const uint64_t ff_pb_FC;
63 extern const xmm_reg  ff_pb_FE;
64
65 extern const double ff_pd_1[2];
66 extern const double ff_pd_2[2];
67
68 #define LOAD4(stride,in,a,b,c,d)\
69     "movq 0*"#stride"+"#in", "#a"\n\t"\
70     "movq 1*"#stride"+"#in", "#b"\n\t"\
71     "movq 2*"#stride"+"#in", "#c"\n\t"\
72     "movq 3*"#stride"+"#in", "#d"\n\t"
73
74 #define STORE4(stride,out,a,b,c,d)\
75     "movq "#a", 0*"#stride"+"#out"\n\t"\
76     "movq "#b", 1*"#stride"+"#out"\n\t"\
77     "movq "#c", 2*"#stride"+"#out"\n\t"\
78     "movq "#d", 3*"#stride"+"#out"\n\t"
79
80 /* in/out: mma=mma+mmb, mmb=mmb-mma */
81 #define SUMSUB_BA( a, b ) \
82     "paddw "#b", "#a" \n\t"\
83     "paddw "#b", "#b" \n\t"\
84     "psubw "#a", "#b" \n\t"
85
86 #define SBUTTERFLY(a,b,t,n,m)\
87     "mov" #m " " #a ", " #t "         \n\t" /* abcd */\
88     "punpckl" #n " " #b ", " #a "     \n\t" /* aebf */\
89     "punpckh" #n " " #b ", " #t "     \n\t" /* cgdh */\
90
91 #define TRANSPOSE4(a,b,c,d,t)\
92     SBUTTERFLY(a,b,t,wd,q) /* a=aebf t=cgdh */\
93     SBUTTERFLY(c,d,b,wd,q) /* c=imjn b=kolp */\
94     SBUTTERFLY(a,c,d,dq,q) /* a=aeim d=bfjn */\
95     SBUTTERFLY(t,b,c,dq,q) /* t=cgko c=dhlp */
96
97 // e,f,g,h can be memory
98 // out: a,d,t,c
99 #define TRANSPOSE8x4(a,b,c,d,e,f,g,h,t)\
100     "punpcklbw " #e ", " #a " \n\t" /* a0 e0 a1 e1 a2 e2 a3 e3 */\
101     "punpcklbw " #f ", " #b " \n\t" /* b0 f0 b1 f1 b2 f2 b3 f3 */\
102     "punpcklbw " #g ", " #c " \n\t" /* c0 g0 c1 g1 c2 g2 d3 g3 */\
103     "punpcklbw " #h ", " #d " \n\t" /* d0 h0 d1 h1 d2 h2 d3 h3 */\
104     SBUTTERFLY(a, b, t, bw, q)   /* a= a0 b0 e0 f0 a1 b1 e1 f1 */\
105                                  /* t= a2 b2 e2 f2 a3 b3 e3 f3 */\
106     SBUTTERFLY(c, d, b, bw, q)   /* c= c0 d0 g0 h0 c1 d1 g1 h1 */\
107                                  /* b= c2 d2 g2 h2 c3 d3 g3 h3 */\
108     SBUTTERFLY(a, c, d, wd, q)   /* a= a0 b0 c0 d0 e0 f0 g0 h0 */\
109                                  /* d= a1 b1 c1 d1 e1 f1 g1 h1 */\
110     SBUTTERFLY(t, b, c, wd, q)   /* t= a2 b2 c2 d2 e2 f2 g2 h2 */\
111                                  /* c= a3 b3 c3 d3 e3 f3 g3 h3 */
112
113 #if ARCH_X86_64
114 // permutes 01234567 -> 05736421
115 #define TRANSPOSE8(a,b,c,d,e,f,g,h,t)\
116     SBUTTERFLY(a,b,%%xmm8,wd,dqa)\
117     SBUTTERFLY(c,d,b,wd,dqa)\
118     SBUTTERFLY(e,f,d,wd,dqa)\
119     SBUTTERFLY(g,h,f,wd,dqa)\
120     SBUTTERFLY(a,c,h,dq,dqa)\
121     SBUTTERFLY(%%xmm8,b,c,dq,dqa)\
122     SBUTTERFLY(e,g,b,dq,dqa)\
123     SBUTTERFLY(d,f,g,dq,dqa)\
124     SBUTTERFLY(a,e,f,qdq,dqa)\
125     SBUTTERFLY(%%xmm8,d,e,qdq,dqa)\
126     SBUTTERFLY(h,b,d,qdq,dqa)\
127     SBUTTERFLY(c,g,b,qdq,dqa)\
128     "movdqa %%xmm8, "#g"              \n\t"
129 #else
130 #define TRANSPOSE8(a,b,c,d,e,f,g,h,t)\
131     "movdqa "#h", "#t"                \n\t"\
132     SBUTTERFLY(a,b,h,wd,dqa)\
133     "movdqa "#h", 16"#t"              \n\t"\
134     "movdqa "#t", "#h"                \n\t"\
135     SBUTTERFLY(c,d,b,wd,dqa)\
136     SBUTTERFLY(e,f,d,wd,dqa)\
137     SBUTTERFLY(g,h,f,wd,dqa)\
138     SBUTTERFLY(a,c,h,dq,dqa)\
139     "movdqa "#h", "#t"                \n\t"\
140     "movdqa 16"#t", "#h"              \n\t"\
141     SBUTTERFLY(h,b,c,dq,dqa)\
142     SBUTTERFLY(e,g,b,dq,dqa)\
143     SBUTTERFLY(d,f,g,dq,dqa)\
144     SBUTTERFLY(a,e,f,qdq,dqa)\
145     SBUTTERFLY(h,d,e,qdq,dqa)\
146     "movdqa "#h", 16"#t"              \n\t"\
147     "movdqa "#t", "#h"                \n\t"\
148     SBUTTERFLY(h,b,d,qdq,dqa)\
149     SBUTTERFLY(c,g,b,qdq,dqa)\
150     "movdqa 16"#t", "#g"              \n\t"
151 #endif
152
153 #define MOVQ_WONE(regd) \
154     __asm__ volatile ( \
155     "pcmpeqd %%" #regd ", %%" #regd " \n\t" \
156     "psrlw $15, %%" #regd ::)
157
158 void dsputilenc_init_mmx(DSPContext* c, AVCodecContext *avctx);
159 void dsputil_init_pix_mmx(DSPContext* c, AVCodecContext *avctx);
160
161 void add_pixels_clamped_mmx(const DCTELEM *block, uint8_t *pixels, int line_size);
162 void put_pixels_clamped_mmx(const DCTELEM *block, uint8_t *pixels, int line_size);
163 void put_signed_pixels_clamped_mmx(const DCTELEM *block, uint8_t *pixels, int line_size);
164
165 void ff_cavsdsp_init_mmx2(DSPContext* c, AVCodecContext *avctx);
166 void ff_cavsdsp_init_3dnow(DSPContext* c, AVCodecContext *avctx);
167 void ff_put_cavs_qpel8_mc00_mmx2(uint8_t *dst, uint8_t *src, int stride);
168 void ff_avg_cavs_qpel8_mc00_mmx2(uint8_t *dst, uint8_t *src, int stride);
169 void ff_put_cavs_qpel16_mc00_mmx2(uint8_t *dst, uint8_t *src, int stride);
170 void ff_avg_cavs_qpel16_mc00_mmx2(uint8_t *dst, uint8_t *src, int stride);
171
172 void ff_vc1dsp_init_mmx(DSPContext* dsp, AVCodecContext *avctx);
173 void ff_put_vc1_mspel_mc00_mmx(uint8_t *dst, const uint8_t *src, int stride, int rnd);
174 void ff_avg_vc1_mspel_mc00_mmx2(uint8_t *dst, const uint8_t *src, int stride, int rnd);
175
176 void ff_lpc_compute_autocorr_sse2(const int32_t *data, int len, int lag,
177                                    double *autoc);
178
179 void ff_mmx_idct(DCTELEM *block);
180 void ff_mmxext_idct(DCTELEM *block);
181
182 #endif /* AVCODEC_X86_DSPUTIL_MMX_H */