]> git.sesse.net Git - ffmpeg/blob - libswscale/swscale.c
swscale: split out unscaled altivec YUV converters in their own file.
[ffmpeg] / libswscale / swscale.c
1 /*
2  * Copyright (C) 2001-2003 Michael Niedermayer <michaelni@gmx.at>
3  *
4  * This file is part of Libav.
5  *
6  * Libav is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * Libav is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with Libav; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 /*
22   supported Input formats: YV12, I420/IYUV, YUY2, UYVY, BGR32, BGR32_1, BGR24, BGR16, BGR15, RGB32, RGB32_1, RGB24, Y8/Y800, YVU9/IF09, PAL8
23   supported output formats: YV12, I420/IYUV, YUY2, UYVY, {BGR,RGB}{1,4,8,15,16,24,32}, Y8/Y800, YVU9/IF09
24   {BGR,RGB}{1,4,8,15,16} support dithering
25
26   unscaled special converters (YV12=I420=IYUV, Y800=Y8)
27   YV12 -> {BGR,RGB}{1,4,8,12,15,16,24,32}
28   x -> x
29   YUV9 -> YV12
30   YUV9/YV12 -> Y800
31   Y800 -> YUV9/YV12
32   BGR24 -> BGR32 & RGB24 -> RGB32
33   BGR32 -> BGR24 & RGB32 -> RGB24
34   BGR15 -> BGR16
35 */
36
37 /*
38 tested special converters (most are tested actually, but I did not write it down ...)
39  YV12 -> BGR12/BGR16
40  YV12 -> YV12
41  BGR15 -> BGR16
42  BGR16 -> BGR16
43  YVU9 -> YV12
44
45 untested special converters
46   YV12/I420 -> BGR15/BGR24/BGR32 (it is the yuv2rgb stuff, so it should be OK)
47   YV12/I420 -> YV12/I420
48   YUY2/BGR15/BGR24/BGR32/RGB24/RGB32 -> same format
49   BGR24 -> BGR32 & RGB24 -> RGB32
50   BGR32 -> BGR24 & RGB32 -> RGB24
51   BGR24 -> YV12
52 */
53
54 #include <inttypes.h>
55 #include <string.h>
56 #include <math.h>
57 #include <stdio.h>
58 #include "config.h"
59 #include <assert.h>
60 #include "swscale.h"
61 #include "swscale_internal.h"
62 #include "rgb2rgb.h"
63 #include "libavutil/intreadwrite.h"
64 #include "libavutil/x86_cpu.h"
65 #include "libavutil/cpu.h"
66 #include "libavutil/avutil.h"
67 #include "libavutil/mathematics.h"
68 #include "libavutil/bswap.h"
69 #include "libavutil/pixdesc.h"
70
71 #undef MOVNTQ
72 #undef PAVGB
73
74 #define DITHER1XBPP
75
76 #define isPacked(x)         (       \
77            (x)==PIX_FMT_PAL8        \
78         || (x)==PIX_FMT_YUYV422     \
79         || (x)==PIX_FMT_UYVY422     \
80         || (x)==PIX_FMT_Y400A       \
81         || isAnyRGB(x)              \
82     )
83
84 #define RGB2YUV_SHIFT 15
85 #define BY ( (int)(0.114*219/255*(1<<RGB2YUV_SHIFT)+0.5))
86 #define BV (-(int)(0.081*224/255*(1<<RGB2YUV_SHIFT)+0.5))
87 #define BU ( (int)(0.500*224/255*(1<<RGB2YUV_SHIFT)+0.5))
88 #define GY ( (int)(0.587*219/255*(1<<RGB2YUV_SHIFT)+0.5))
89 #define GV (-(int)(0.419*224/255*(1<<RGB2YUV_SHIFT)+0.5))
90 #define GU (-(int)(0.331*224/255*(1<<RGB2YUV_SHIFT)+0.5))
91 #define RY ( (int)(0.299*219/255*(1<<RGB2YUV_SHIFT)+0.5))
92 #define RV ( (int)(0.500*224/255*(1<<RGB2YUV_SHIFT)+0.5))
93 #define RU (-(int)(0.169*224/255*(1<<RGB2YUV_SHIFT)+0.5))
94
95 static const double rgb2yuv_table[8][9]={
96     {0.7152, 0.0722, 0.2126, -0.386, 0.5, -0.115, -0.454, -0.046, 0.5}, //ITU709
97     {0.7152, 0.0722, 0.2126, -0.386, 0.5, -0.115, -0.454, -0.046, 0.5}, //ITU709
98     {0.587 , 0.114 , 0.299 , -0.331, 0.5, -0.169, -0.419, -0.081, 0.5}, //DEFAULT / ITU601 / ITU624 / SMPTE 170M
99     {0.587 , 0.114 , 0.299 , -0.331, 0.5, -0.169, -0.419, -0.081, 0.5}, //DEFAULT / ITU601 / ITU624 / SMPTE 170M
100     {0.59  , 0.11  , 0.30  , -0.331, 0.5, -0.169, -0.421, -0.079, 0.5}, //FCC
101     {0.587 , 0.114 , 0.299 , -0.331, 0.5, -0.169, -0.419, -0.081, 0.5}, //DEFAULT / ITU601 / ITU624 / SMPTE 170M
102     {0.587 , 0.114 , 0.299 , -0.331, 0.5, -0.169, -0.419, -0.081, 0.5}, //DEFAULT / ITU601 / ITU624 / SMPTE 170M
103     {0.701 , 0.087 , 0.212 , -0.384, 0.5, -0.116, -0.445, -0.055, 0.5}, //SMPTE 240M
104 };
105
106 /*
107 NOTES
108 Special versions: fast Y 1:1 scaling (no interpolation in y direction)
109
110 TODO
111 more intelligent misalignment avoidance for the horizontal scaler
112 write special vertical cubic upscale version
113 optimize C code (YV12 / minmax)
114 add support for packed pixel YUV input & output
115 add support for Y8 output
116 optimize BGR24 & BGR32
117 add BGR4 output support
118 write special BGR->BGR scaler
119 */
120
121 DECLARE_ALIGNED(8, static const uint8_t, dither_2x2_4)[2][8]={
122 {  1,   3,   1,   3,   1,   3,   1,   3, },
123 {  2,   0,   2,   0,   2,   0,   2,   0, },
124 };
125
126 DECLARE_ALIGNED(8, static const uint8_t, dither_2x2_8)[2][8]={
127 {  6,   2,   6,   2,   6,   2,   6,   2, },
128 {  0,   4,   0,   4,   0,   4,   0,   4, },
129 };
130
131 DECLARE_ALIGNED(8, const uint8_t, dither_4x4_16)[4][8]={
132 {  8,   4,  11,   7,   8,   4,  11,   7, },
133 {  2,  14,   1,  13,   2,  14,   1,  13, },
134 { 10,   6,   9,   5,  10,   6,   9,   5, },
135 {  0,  12,   3,  15,   0,  12,   3,  15, },
136 };
137
138 DECLARE_ALIGNED(8, const uint8_t, dither_8x8_32)[8][8]={
139 { 17,   9,  23,  15,  16,   8,  22,  14, },
140 {  5,  29,   3,  27,   4,  28,   2,  26, },
141 { 21,  13,  19,  11,  20,  12,  18,  10, },
142 {  0,  24,   6,  30,   1,  25,   7,  31, },
143 { 16,   8,  22,  14,  17,   9,  23,  15, },
144 {  4,  28,   2,  26,   5,  29,   3,  27, },
145 { 20,  12,  18,  10,  21,  13,  19,  11, },
146 {  1,  25,   7,  31,   0,  24,   6,  30, },
147 };
148
149 DECLARE_ALIGNED(8, const uint8_t, dither_8x8_73)[8][8]={
150 {  0,  55,  14,  68,   3,  58,  17,  72, },
151 { 37,  18,  50,  32,  40,  22,  54,  35, },
152 {  9,  64,   5,  59,  13,  67,   8,  63, },
153 { 46,  27,  41,  23,  49,  31,  44,  26, },
154 {  2,  57,  16,  71,   1,  56,  15,  70, },
155 { 39,  21,  52,  34,  38,  19,  51,  33, },
156 { 11,  66,   7,  62,  10,  65,   6,  60, },
157 { 48,  30,  43,  25,  47,  29,  42,  24, },
158 };
159
160 #if 1
161 DECLARE_ALIGNED(8, const uint8_t, dither_8x8_220)[8][8]={
162 {117,  62, 158, 103, 113,  58, 155, 100, },
163 { 34, 199,  21, 186,  31, 196,  17, 182, },
164 {144,  89, 131,  76, 141,  86, 127,  72, },
165 {  0, 165,  41, 206,  10, 175,  52, 217, },
166 {110,  55, 151,  96, 120,  65, 162, 107, },
167 { 28, 193,  14, 179,  38, 203,  24, 189, },
168 {138,  83, 124,  69, 148,  93, 134,  79, },
169 {  7, 172,  48, 213,   3, 168,  45, 210, },
170 };
171 #elif 1
172 // tries to correct a gamma of 1.5
173 DECLARE_ALIGNED(8, const uint8_t, dither_8x8_220)[8][8]={
174 {  0, 143,  18, 200,   2, 156,  25, 215, },
175 { 78,  28, 125,  64,  89,  36, 138,  74, },
176 { 10, 180,   3, 161,  16, 195,   8, 175, },
177 {109,  51,  93,  38, 121,  60, 105,  47, },
178 {  1, 152,  23, 210,   0, 147,  20, 205, },
179 { 85,  33, 134,  71,  81,  30, 130,  67, },
180 { 14, 190,   6, 171,  12, 185,   5, 166, },
181 {117,  57, 101,  44, 113,  54,  97,  41, },
182 };
183 #elif 1
184 // tries to correct a gamma of 2.0
185 DECLARE_ALIGNED(8, const uint8_t, dither_8x8_220)[8][8]={
186 {  0, 124,   8, 193,   0, 140,  12, 213, },
187 { 55,  14, 104,  42,  66,  19, 119,  52, },
188 {  3, 168,   1, 145,   6, 187,   3, 162, },
189 { 86,  31,  70,  21,  99,  39,  82,  28, },
190 {  0, 134,  11, 206,   0, 129,   9, 200, },
191 { 62,  17, 114,  48,  58,  16, 109,  45, },
192 {  5, 181,   2, 157,   4, 175,   1, 151, },
193 { 95,  36,  78,  26,  90,  34,  74,  24, },
194 };
195 #else
196 // tries to correct a gamma of 2.5
197 DECLARE_ALIGNED(8, const uint8_t, dither_8x8_220)[8][8]={
198 {  0, 107,   3, 187,   0, 125,   6, 212, },
199 { 39,   7,  86,  28,  49,  11, 102,  36, },
200 {  1, 158,   0, 131,   3, 180,   1, 151, },
201 { 68,  19,  52,  12,  81,  25,  64,  17, },
202 {  0, 119,   5, 203,   0, 113,   4, 195, },
203 { 45,   9,  96,  33,  42,   8,  91,  30, },
204 {  2, 172,   1, 144,   2, 165,   0, 137, },
205 { 77,  23,  60,  15,  72,  21,  56,  14, },
206 };
207 #endif
208
209 static av_always_inline void yuv2yuvX16inC_template(const int16_t *lumFilter, const int16_t **lumSrc, int lumFilterSize,
210                                                     const int16_t *chrFilter, const int16_t **chrUSrc,
211                                                     const int16_t **chrVSrc, int chrFilterSize,
212                                                     const int16_t **alpSrc, uint16_t *dest, uint16_t *uDest, uint16_t *vDest, uint16_t *aDest,
213                                                     int dstW, int chrDstW, int big_endian, int output_bits)
214 {
215     //FIXME Optimize (just quickly written not optimized..)
216     int i;
217     int shift = 11 + 16 - output_bits;
218
219 #define output_pixel(pos, val) \
220     if (big_endian) { \
221         if (output_bits == 16) { \
222             AV_WB16(pos, av_clip_uint16(val >> shift)); \
223         } else { \
224             AV_WB16(pos, av_clip_uintp2(val >> shift, output_bits)); \
225         } \
226     } else { \
227         if (output_bits == 16) { \
228             AV_WL16(pos, av_clip_uint16(val >> shift)); \
229         } else { \
230             AV_WL16(pos, av_clip_uintp2(val >> shift, output_bits)); \
231         } \
232     }
233     for (i = 0; i < dstW; i++) {
234         int val = 1 << (26-output_bits);
235         int j;
236
237         for (j = 0; j < lumFilterSize; j++)
238             val += lumSrc[j][i] * lumFilter[j];
239
240         output_pixel(&dest[i], val);
241     }
242
243     if (uDest) {
244         for (i = 0; i < chrDstW; i++) {
245             int u = 1 << (26-output_bits);
246             int v = 1 << (26-output_bits);
247             int j;
248
249             for (j = 0; j < chrFilterSize; j++) {
250                 u += chrUSrc[j][i] * chrFilter[j];
251                 v += chrVSrc[j][i] * chrFilter[j];
252             }
253
254             output_pixel(&uDest[i], u);
255             output_pixel(&vDest[i], v);
256         }
257     }
258
259     if (CONFIG_SWSCALE_ALPHA && aDest) {
260         for (i = 0; i < dstW; i++) {
261             int val = 1 << (26-output_bits);
262             int j;
263
264             for (j = 0; j < lumFilterSize; j++)
265                 val += alpSrc[j][i] * lumFilter[j];
266
267             output_pixel(&aDest[i], val);
268         }
269     }
270 }
271
272 #define yuv2NBPS(bits, BE_LE, is_be) \
273 static void yuv2yuvX ## bits ## BE_LE ## _c(const int16_t *lumFilter, \
274                               const int16_t **lumSrc, int lumFilterSize, \
275                               const int16_t *chrFilter, const int16_t **chrUSrc, \
276                               const int16_t **chrVSrc, \
277                               int chrFilterSize, const int16_t **alpSrc, \
278                               uint16_t *dest, uint16_t *uDest, uint16_t *vDest, \
279                               uint16_t *aDest, int dstW, int chrDstW) \
280 { \
281     yuv2yuvX16inC_template(lumFilter, lumSrc, lumFilterSize, \
282                            chrFilter, chrUSrc, chrVSrc, chrFilterSize, \
283                            alpSrc, \
284                            dest, uDest, vDest, aDest, \
285                            dstW, chrDstW, is_be, bits); \
286 }
287 yuv2NBPS( 9, BE, 1);
288 yuv2NBPS( 9, LE, 0);
289 yuv2NBPS(10, BE, 1);
290 yuv2NBPS(10, LE, 0);
291 yuv2NBPS(16, BE, 1);
292 yuv2NBPS(16, LE, 0);
293
294 static inline void yuv2yuvX16inC(const int16_t *lumFilter, const int16_t **lumSrc, int lumFilterSize,
295                                  const int16_t *chrFilter, const int16_t **chrUSrc, const int16_t **chrVSrc, int chrFilterSize,
296                                  const int16_t **alpSrc, uint16_t *dest, uint16_t *uDest, uint16_t *vDest, uint16_t *aDest, int dstW, int chrDstW,
297                                  enum PixelFormat dstFormat)
298 {
299 #define conv16(bits) \
300     if (isBE(dstFormat)) { \
301         yuv2yuvX ## bits ## BE_c(lumFilter, lumSrc, lumFilterSize, \
302                                chrFilter, chrUSrc, chrVSrc, chrFilterSize, \
303                                alpSrc, \
304                                dest, uDest, vDest, aDest, \
305                                dstW, chrDstW); \
306     } else { \
307         yuv2yuvX ## bits ## LE_c(lumFilter, lumSrc, lumFilterSize, \
308                                chrFilter, chrUSrc, chrVSrc, chrFilterSize, \
309                                alpSrc, \
310                                dest, uDest, vDest, aDest, \
311                                dstW, chrDstW); \
312     }
313     if (is16BPS(dstFormat)) {
314         conv16(16);
315     } else if (av_pix_fmt_descriptors[dstFormat].comp[0].depth_minus1 == 8) {
316         conv16(9);
317     } else {
318         conv16(10);
319     }
320 #undef conv16
321 }
322
323 static inline void yuv2yuvXinC(const int16_t *lumFilter, const int16_t **lumSrc, int lumFilterSize,
324                                const int16_t *chrFilter, const int16_t **chrUSrc,
325                                const int16_t **chrVSrc, int chrFilterSize,
326                                const int16_t **alpSrc, uint8_t *dest, uint8_t *uDest, uint8_t *vDest, uint8_t *aDest, int dstW, int chrDstW)
327 {
328     //FIXME Optimize (just quickly written not optimized..)
329     int i;
330     for (i=0; i<dstW; i++) {
331         int val=1<<18;
332         int j;
333         for (j=0; j<lumFilterSize; j++)
334             val += lumSrc[j][i] * lumFilter[j];
335
336         dest[i]= av_clip_uint8(val>>19);
337     }
338
339     if (uDest)
340         for (i=0; i<chrDstW; i++) {
341             int u=1<<18;
342             int v=1<<18;
343             int j;
344             for (j=0; j<chrFilterSize; j++) {
345                 u += chrUSrc[j][i] * chrFilter[j];
346                 v += chrVSrc[j][i] * chrFilter[j];
347             }
348
349             uDest[i]= av_clip_uint8(u>>19);
350             vDest[i]= av_clip_uint8(v>>19);
351         }
352
353     if (CONFIG_SWSCALE_ALPHA && aDest)
354         for (i=0; i<dstW; i++) {
355             int val=1<<18;
356             int j;
357             for (j=0; j<lumFilterSize; j++)
358                 val += alpSrc[j][i] * lumFilter[j];
359
360             aDest[i]= av_clip_uint8(val>>19);
361         }
362
363 }
364
365 static inline void yuv2nv12XinC(const int16_t *lumFilter, const int16_t **lumSrc, int lumFilterSize,
366                                 const int16_t *chrFilter, const int16_t **chrUSrc,
367                                 const int16_t **chrVSrc, int chrFilterSize,
368                                 uint8_t *dest, uint8_t *uDest, int dstW, int chrDstW, int dstFormat)
369 {
370     //FIXME Optimize (just quickly written not optimized..)
371     int i;
372     for (i=0; i<dstW; i++) {
373         int val=1<<18;
374         int j;
375         for (j=0; j<lumFilterSize; j++)
376             val += lumSrc[j][i] * lumFilter[j];
377
378         dest[i]= av_clip_uint8(val>>19);
379     }
380
381     if (!uDest)
382         return;
383
384     if (dstFormat == PIX_FMT_NV12)
385         for (i=0; i<chrDstW; i++) {
386             int u=1<<18;
387             int v=1<<18;
388             int j;
389             for (j=0; j<chrFilterSize; j++) {
390                 u += chrUSrc[j][i] * chrFilter[j];
391                 v += chrVSrc[j][i] * chrFilter[j];
392             }
393
394             uDest[2*i]= av_clip_uint8(u>>19);
395             uDest[2*i+1]= av_clip_uint8(v>>19);
396         }
397     else
398         for (i=0; i<chrDstW; i++) {
399             int u=1<<18;
400             int v=1<<18;
401             int j;
402             for (j=0; j<chrFilterSize; j++) {
403                 u += chrUSrc[j][i] * chrFilter[j];
404                 v += chrVSrc[j][i] * chrFilter[j];
405             }
406
407             uDest[2*i]= av_clip_uint8(v>>19);
408             uDest[2*i+1]= av_clip_uint8(u>>19);
409         }
410 }
411
412 #define YSCALE_YUV_2_PACKEDX_NOCLIP_C(type,alpha) \
413     for (i=0; i<(dstW>>1); i++) {\
414         int j;\
415         int Y1 = 1<<18;\
416         int Y2 = 1<<18;\
417         int U  = 1<<18;\
418         int V  = 1<<18;\
419         int av_unused A1, A2;\
420         type av_unused *r, *b, *g;\
421         const int i2= 2*i;\
422         \
423         for (j=0; j<lumFilterSize; j++) {\
424             Y1 += lumSrc[j][i2] * lumFilter[j];\
425             Y2 += lumSrc[j][i2+1] * lumFilter[j];\
426         }\
427         for (j=0; j<chrFilterSize; j++) {\
428             U += chrUSrc[j][i] * chrFilter[j];\
429             V += chrVSrc[j][i] * chrFilter[j];\
430         }\
431         Y1>>=19;\
432         Y2>>=19;\
433         U >>=19;\
434         V >>=19;\
435         if (alpha) {\
436             A1 = 1<<18;\
437             A2 = 1<<18;\
438             for (j=0; j<lumFilterSize; j++) {\
439                 A1 += alpSrc[j][i2  ] * lumFilter[j];\
440                 A2 += alpSrc[j][i2+1] * lumFilter[j];\
441             }\
442             A1>>=19;\
443             A2>>=19;\
444         }
445
446 #define YSCALE_YUV_2_PACKEDX_C(type,alpha) \
447         YSCALE_YUV_2_PACKEDX_NOCLIP_C(type,alpha)\
448         if ((Y1|Y2|U|V)&256) {\
449             if (Y1>255)   Y1=255; \
450             else if (Y1<0)Y1=0;   \
451             if (Y2>255)   Y2=255; \
452             else if (Y2<0)Y2=0;   \
453             if (U>255)    U=255;  \
454             else if (U<0) U=0;    \
455             if (V>255)    V=255;  \
456             else if (V<0) V=0;    \
457         }\
458         if (alpha && ((A1|A2)&256)) {\
459             A1=av_clip_uint8(A1);\
460             A2=av_clip_uint8(A2);\
461         }
462
463 #define YSCALE_YUV_2_PACKEDX_FULL_C(rnd,alpha) \
464     for (i=0; i<dstW; i++) {\
465         int j;\
466         int Y = 0;\
467         int U = -128<<19;\
468         int V = -128<<19;\
469         int av_unused A;\
470         int R,G,B;\
471         \
472         for (j=0; j<lumFilterSize; j++) {\
473             Y += lumSrc[j][i     ] * lumFilter[j];\
474         }\
475         for (j=0; j<chrFilterSize; j++) {\
476             U += chrUSrc[j][i] * chrFilter[j];\
477             V += chrVSrc[j][i] * chrFilter[j];\
478         }\
479         Y >>=10;\
480         U >>=10;\
481         V >>=10;\
482         if (alpha) {\
483             A = rnd;\
484             for (j=0; j<lumFilterSize; j++)\
485                 A += alpSrc[j][i     ] * lumFilter[j];\
486             A >>=19;\
487             if (A&256)\
488                 A = av_clip_uint8(A);\
489         }
490
491 #define YSCALE_YUV_2_RGBX_FULL_C(rnd,alpha) \
492     YSCALE_YUV_2_PACKEDX_FULL_C(rnd>>3,alpha)\
493         Y-= c->yuv2rgb_y_offset;\
494         Y*= c->yuv2rgb_y_coeff;\
495         Y+= rnd;\
496         R= Y + V*c->yuv2rgb_v2r_coeff;\
497         G= Y + V*c->yuv2rgb_v2g_coeff + U*c->yuv2rgb_u2g_coeff;\
498         B= Y +                          U*c->yuv2rgb_u2b_coeff;\
499         if ((R|G|B)&(0xC0000000)) {\
500             if (R>=(256<<22))   R=(256<<22)-1; \
501             else if (R<0)R=0;   \
502             if (G>=(256<<22))   G=(256<<22)-1; \
503             else if (G<0)G=0;   \
504             if (B>=(256<<22))   B=(256<<22)-1; \
505             else if (B<0)B=0;   \
506         }
507
508 #define YSCALE_YUV_2_GRAY16_C \
509     for (i=0; i<(dstW>>1); i++) {\
510         int j;\
511         int Y1 = 1<<18;\
512         int Y2 = 1<<18;\
513         int U  = 1<<18;\
514         int V  = 1<<18;\
515         \
516         const int i2= 2*i;\
517         \
518         for (j=0; j<lumFilterSize; j++) {\
519             Y1 += lumSrc[j][i2] * lumFilter[j];\
520             Y2 += lumSrc[j][i2+1] * lumFilter[j];\
521         }\
522         Y1>>=11;\
523         Y2>>=11;\
524         if ((Y1|Y2|U|V)&65536) {\
525             if (Y1>65535)   Y1=65535; \
526             else if (Y1<0)Y1=0;   \
527             if (Y2>65535)   Y2=65535; \
528             else if (Y2<0)Y2=0;   \
529         }
530
531 #define YSCALE_YUV_2_RGBX_C(type,alpha) \
532     YSCALE_YUV_2_PACKEDX_C(type,alpha)  /* FIXME fix tables so that clipping is not needed and then use _NOCLIP*/\
533     r = (type *)c->table_rV[V];   \
534     g = (type *)(c->table_gU[U] + c->table_gV[V]); \
535     b = (type *)c->table_bU[U];
536
537 #define YSCALE_YUV_2_PACKED2_C(type,alpha)   \
538     for (i=0; i<(dstW>>1); i++) { \
539         const int i2= 2*i;       \
540         int Y1= (buf0[i2  ]*yalpha1+buf1[i2  ]*yalpha)>>19;           \
541         int Y2= (buf0[i2+1]*yalpha1+buf1[i2+1]*yalpha)>>19;           \
542         int U= (ubuf0[i]*uvalpha1+ubuf1[i]*uvalpha)>>19;              \
543         int V= (vbuf0[i]*uvalpha1+vbuf1[i]*uvalpha)>>19;              \
544         type av_unused *r, *b, *g;                                    \
545         int av_unused A1, A2;                                         \
546         if (alpha) {\
547             A1= (abuf0[i2  ]*yalpha1+abuf1[i2  ]*yalpha)>>19;         \
548             A2= (abuf0[i2+1]*yalpha1+abuf1[i2+1]*yalpha)>>19;         \
549         }
550
551 #define YSCALE_YUV_2_GRAY16_2_C   \
552     for (i=0; i<(dstW>>1); i++) { \
553         const int i2= 2*i;       \
554         int Y1= (buf0[i2  ]*yalpha1+buf1[i2  ]*yalpha)>>11;           \
555         int Y2= (buf0[i2+1]*yalpha1+buf1[i2+1]*yalpha)>>11;
556
557 #define YSCALE_YUV_2_RGB2_C(type,alpha) \
558     YSCALE_YUV_2_PACKED2_C(type,alpha)\
559     r = (type *)c->table_rV[V];\
560     g = (type *)(c->table_gU[U] + c->table_gV[V]);\
561     b = (type *)c->table_bU[U];
562
563 #define YSCALE_YUV_2_PACKED1_C(type,alpha) \
564     for (i=0; i<(dstW>>1); i++) {\
565         const int i2= 2*i;\
566         int Y1= buf0[i2  ]>>7;\
567         int Y2= buf0[i2+1]>>7;\
568         int U= (ubuf1[i])>>7;\
569         int V= (vbuf1[i])>>7;\
570         type av_unused *r, *b, *g;\
571         int av_unused A1, A2;\
572         if (alpha) {\
573             A1= abuf0[i2  ]>>7;\
574             A2= abuf0[i2+1]>>7;\
575         }
576
577 #define YSCALE_YUV_2_GRAY16_1_C \
578     for (i=0; i<(dstW>>1); i++) {\
579         const int i2= 2*i;\
580         int Y1= buf0[i2  ]<<1;\
581         int Y2= buf0[i2+1]<<1;
582
583 #define YSCALE_YUV_2_RGB1_C(type,alpha) \
584     YSCALE_YUV_2_PACKED1_C(type,alpha)\
585     r = (type *)c->table_rV[V];\
586     g = (type *)(c->table_gU[U] + c->table_gV[V]);\
587     b = (type *)c->table_bU[U];
588
589 #define YSCALE_YUV_2_PACKED1B_C(type,alpha) \
590     for (i=0; i<(dstW>>1); i++) {\
591         const int i2= 2*i;\
592         int Y1= buf0[i2  ]>>7;\
593         int Y2= buf0[i2+1]>>7;\
594         int U= (ubuf0[i] + ubuf1[i])>>8;\
595         int V= (vbuf0[i] + vbuf1[i])>>8;\
596         type av_unused *r, *b, *g;\
597         int av_unused A1, A2;\
598         if (alpha) {\
599             A1= abuf0[i2  ]>>7;\
600             A2= abuf0[i2+1]>>7;\
601         }
602
603 #define YSCALE_YUV_2_RGB1B_C(type,alpha) \
604     YSCALE_YUV_2_PACKED1B_C(type,alpha)\
605     r = (type *)c->table_rV[V];\
606     g = (type *)(c->table_gU[U] + c->table_gV[V]);\
607     b = (type *)c->table_bU[U];
608
609 #define YSCALE_YUV_2_MONO2_C \
610     const uint8_t * const d128=dither_8x8_220[y&7];\
611     uint8_t *g= c->table_gU[128] + c->table_gV[128];\
612     for (i=0; i<dstW-7; i+=8) {\
613         int acc;\
614         acc =       g[((buf0[i  ]*yalpha1+buf1[i  ]*yalpha)>>19) + d128[0]];\
615         acc+= acc + g[((buf0[i+1]*yalpha1+buf1[i+1]*yalpha)>>19) + d128[1]];\
616         acc+= acc + g[((buf0[i+2]*yalpha1+buf1[i+2]*yalpha)>>19) + d128[2]];\
617         acc+= acc + g[((buf0[i+3]*yalpha1+buf1[i+3]*yalpha)>>19) + d128[3]];\
618         acc+= acc + g[((buf0[i+4]*yalpha1+buf1[i+4]*yalpha)>>19) + d128[4]];\
619         acc+= acc + g[((buf0[i+5]*yalpha1+buf1[i+5]*yalpha)>>19) + d128[5]];\
620         acc+= acc + g[((buf0[i+6]*yalpha1+buf1[i+6]*yalpha)>>19) + d128[6]];\
621         acc+= acc + g[((buf0[i+7]*yalpha1+buf1[i+7]*yalpha)>>19) + d128[7]];\
622         ((uint8_t*)dest)[0]= c->dstFormat == PIX_FMT_MONOBLACK ? acc : ~acc;\
623         dest++;\
624     }
625
626 #define YSCALE_YUV_2_MONOX_C \
627     const uint8_t * const d128=dither_8x8_220[y&7];\
628     uint8_t *g= c->table_gU[128] + c->table_gV[128];\
629     int acc=0;\
630     for (i=0; i<dstW-1; i+=2) {\
631         int j;\
632         int Y1=1<<18;\
633         int Y2=1<<18;\
634 \
635         for (j=0; j<lumFilterSize; j++) {\
636             Y1 += lumSrc[j][i] * lumFilter[j];\
637             Y2 += lumSrc[j][i+1] * lumFilter[j];\
638         }\
639         Y1>>=19;\
640         Y2>>=19;\
641         if ((Y1|Y2)&256) {\
642             if (Y1>255)   Y1=255;\
643             else if (Y1<0)Y1=0;\
644             if (Y2>255)   Y2=255;\
645             else if (Y2<0)Y2=0;\
646         }\
647         acc+= acc + g[Y1+d128[(i+0)&7]];\
648         acc+= acc + g[Y2+d128[(i+1)&7]];\
649         if ((i&7)==6) {\
650             ((uint8_t*)dest)[0]= c->dstFormat == PIX_FMT_MONOBLACK ? acc : ~acc;\
651             dest++;\
652         }\
653     }
654
655 #define YSCALE_YUV_2_ANYRGB_C(func, func2, func_g16, func_monoblack)\
656     switch(c->dstFormat) {\
657     case PIX_FMT_RGB48BE:\
658     case PIX_FMT_RGB48LE:\
659         func(uint8_t,0)\
660             ((uint8_t*)dest)[ 0]= r[Y1];\
661             ((uint8_t*)dest)[ 1]= r[Y1];\
662             ((uint8_t*)dest)[ 2]= g[Y1];\
663             ((uint8_t*)dest)[ 3]= g[Y1];\
664             ((uint8_t*)dest)[ 4]= b[Y1];\
665             ((uint8_t*)dest)[ 5]= b[Y1];\
666             ((uint8_t*)dest)[ 6]= r[Y2];\
667             ((uint8_t*)dest)[ 7]= r[Y2];\
668             ((uint8_t*)dest)[ 8]= g[Y2];\
669             ((uint8_t*)dest)[ 9]= g[Y2];\
670             ((uint8_t*)dest)[10]= b[Y2];\
671             ((uint8_t*)dest)[11]= b[Y2];\
672             dest+=12;\
673         }\
674         break;\
675     case PIX_FMT_BGR48BE:\
676     case PIX_FMT_BGR48LE:\
677         func(uint8_t,0)\
678             ((uint8_t*)dest)[ 0] = ((uint8_t*)dest)[ 1] = b[Y1];\
679             ((uint8_t*)dest)[ 2] = ((uint8_t*)dest)[ 3] = g[Y1];\
680             ((uint8_t*)dest)[ 4] = ((uint8_t*)dest)[ 5] = r[Y1];\
681             ((uint8_t*)dest)[ 6] = ((uint8_t*)dest)[ 7] = b[Y2];\
682             ((uint8_t*)dest)[ 8] = ((uint8_t*)dest)[ 9] = g[Y2];\
683             ((uint8_t*)dest)[10] = ((uint8_t*)dest)[11] = r[Y2];\
684             dest+=12;\
685         }\
686         break;\
687     case PIX_FMT_RGBA:\
688     case PIX_FMT_BGRA:\
689         if (CONFIG_SMALL) {\
690             int needAlpha = CONFIG_SWSCALE_ALPHA && c->alpPixBuf;\
691             func(uint32_t,needAlpha)\
692                 ((uint32_t*)dest)[i2+0]= r[Y1] + g[Y1] + b[Y1] + (needAlpha ? (A1<<24) : 0);\
693                 ((uint32_t*)dest)[i2+1]= r[Y2] + g[Y2] + b[Y2] + (needAlpha ? (A2<<24) : 0);\
694             }\
695         } else {\
696             if (CONFIG_SWSCALE_ALPHA && c->alpPixBuf) {\
697                 func(uint32_t,1)\
698                     ((uint32_t*)dest)[i2+0]= r[Y1] + g[Y1] + b[Y1] + (A1<<24);\
699                     ((uint32_t*)dest)[i2+1]= r[Y2] + g[Y2] + b[Y2] + (A2<<24);\
700                 }\
701             } else {\
702                 func(uint32_t,0)\
703                     ((uint32_t*)dest)[i2+0]= r[Y1] + g[Y1] + b[Y1];\
704                     ((uint32_t*)dest)[i2+1]= r[Y2] + g[Y2] + b[Y2];\
705                 }\
706             }\
707         }\
708         break;\
709     case PIX_FMT_ARGB:\
710     case PIX_FMT_ABGR:\
711         if (CONFIG_SMALL) {\
712             int needAlpha = CONFIG_SWSCALE_ALPHA && c->alpPixBuf;\
713             func(uint32_t,needAlpha)\
714                 ((uint32_t*)dest)[i2+0]= r[Y1] + g[Y1] + b[Y1] + (needAlpha ? A1 : 0);\
715                 ((uint32_t*)dest)[i2+1]= r[Y2] + g[Y2] + b[Y2] + (needAlpha ? A2 : 0);\
716             }\
717         } else {\
718             if (CONFIG_SWSCALE_ALPHA && c->alpPixBuf) {\
719                 func(uint32_t,1)\
720                     ((uint32_t*)dest)[i2+0]= r[Y1] + g[Y1] + b[Y1] + A1;\
721                     ((uint32_t*)dest)[i2+1]= r[Y2] + g[Y2] + b[Y2] + A2;\
722                 }\
723             } else {\
724                 func(uint32_t,0)\
725                     ((uint32_t*)dest)[i2+0]= r[Y1] + g[Y1] + b[Y1];\
726                     ((uint32_t*)dest)[i2+1]= r[Y2] + g[Y2] + b[Y2];\
727                 }\
728             }\
729         }                \
730         break;\
731     case PIX_FMT_RGB24:\
732         func(uint8_t,0)\
733             ((uint8_t*)dest)[0]= r[Y1];\
734             ((uint8_t*)dest)[1]= g[Y1];\
735             ((uint8_t*)dest)[2]= b[Y1];\
736             ((uint8_t*)dest)[3]= r[Y2];\
737             ((uint8_t*)dest)[4]= g[Y2];\
738             ((uint8_t*)dest)[5]= b[Y2];\
739             dest+=6;\
740         }\
741         break;\
742     case PIX_FMT_BGR24:\
743         func(uint8_t,0)\
744             ((uint8_t*)dest)[0]= b[Y1];\
745             ((uint8_t*)dest)[1]= g[Y1];\
746             ((uint8_t*)dest)[2]= r[Y1];\
747             ((uint8_t*)dest)[3]= b[Y2];\
748             ((uint8_t*)dest)[4]= g[Y2];\
749             ((uint8_t*)dest)[5]= r[Y2];\
750             dest+=6;\
751         }\
752         break;\
753     case PIX_FMT_RGB565BE:\
754     case PIX_FMT_RGB565LE:\
755     case PIX_FMT_BGR565BE:\
756     case PIX_FMT_BGR565LE:\
757         {\
758             const int dr1= dither_2x2_8[y&1    ][0];\
759             const int dg1= dither_2x2_4[y&1    ][0];\
760             const int db1= dither_2x2_8[(y&1)^1][0];\
761             const int dr2= dither_2x2_8[y&1    ][1];\
762             const int dg2= dither_2x2_4[y&1    ][1];\
763             const int db2= dither_2x2_8[(y&1)^1][1];\
764             func(uint16_t,0)\
765                 ((uint16_t*)dest)[i2+0]= r[Y1+dr1] + g[Y1+dg1] + b[Y1+db1];\
766                 ((uint16_t*)dest)[i2+1]= r[Y2+dr2] + g[Y2+dg2] + b[Y2+db2];\
767             }\
768         }\
769         break;\
770     case PIX_FMT_RGB555BE:\
771     case PIX_FMT_RGB555LE:\
772     case PIX_FMT_BGR555BE:\
773     case PIX_FMT_BGR555LE:\
774         {\
775             const int dr1= dither_2x2_8[y&1    ][0];\
776             const int dg1= dither_2x2_8[y&1    ][1];\
777             const int db1= dither_2x2_8[(y&1)^1][0];\
778             const int dr2= dither_2x2_8[y&1    ][1];\
779             const int dg2= dither_2x2_8[y&1    ][0];\
780             const int db2= dither_2x2_8[(y&1)^1][1];\
781             func(uint16_t,0)\
782                 ((uint16_t*)dest)[i2+0]= r[Y1+dr1] + g[Y1+dg1] + b[Y1+db1];\
783                 ((uint16_t*)dest)[i2+1]= r[Y2+dr2] + g[Y2+dg2] + b[Y2+db2];\
784             }\
785         }\
786         break;\
787     case PIX_FMT_RGB444BE:\
788     case PIX_FMT_RGB444LE:\
789     case PIX_FMT_BGR444BE:\
790     case PIX_FMT_BGR444LE:\
791         {\
792             const int dr1= dither_4x4_16[y&3    ][0];\
793             const int dg1= dither_4x4_16[y&3    ][1];\
794             const int db1= dither_4x4_16[(y&3)^3][0];\
795             const int dr2= dither_4x4_16[y&3    ][1];\
796             const int dg2= dither_4x4_16[y&3    ][0];\
797             const int db2= dither_4x4_16[(y&3)^3][1];\
798             func(uint16_t,0)\
799                 ((uint16_t*)dest)[i2+0]= r[Y1+dr1] + g[Y1+dg1] + b[Y1+db1];\
800                 ((uint16_t*)dest)[i2+1]= r[Y2+dr2] + g[Y2+dg2] + b[Y2+db2];\
801             }\
802         }\
803         break;\
804     case PIX_FMT_RGB8:\
805     case PIX_FMT_BGR8:\
806         {\
807             const uint8_t * const d64= dither_8x8_73[y&7];\
808             const uint8_t * const d32= dither_8x8_32[y&7];\
809             func(uint8_t,0)\
810                 ((uint8_t*)dest)[i2+0]= r[Y1+d32[(i2+0)&7]] + g[Y1+d32[(i2+0)&7]] + b[Y1+d64[(i2+0)&7]];\
811                 ((uint8_t*)dest)[i2+1]= r[Y2+d32[(i2+1)&7]] + g[Y2+d32[(i2+1)&7]] + b[Y2+d64[(i2+1)&7]];\
812             }\
813         }\
814         break;\
815     case PIX_FMT_RGB4:\
816     case PIX_FMT_BGR4:\
817         {\
818             const uint8_t * const d64= dither_8x8_73 [y&7];\
819             const uint8_t * const d128=dither_8x8_220[y&7];\
820             func(uint8_t,0)\
821                 ((uint8_t*)dest)[i]= r[Y1+d128[(i2+0)&7]] + g[Y1+d64[(i2+0)&7]] + b[Y1+d128[(i2+0)&7]]\
822                                  + ((r[Y2+d128[(i2+1)&7]] + g[Y2+d64[(i2+1)&7]] + b[Y2+d128[(i2+1)&7]])<<4);\
823             }\
824         }\
825         break;\
826     case PIX_FMT_RGB4_BYTE:\
827     case PIX_FMT_BGR4_BYTE:\
828         {\
829             const uint8_t * const d64= dither_8x8_73 [y&7];\
830             const uint8_t * const d128=dither_8x8_220[y&7];\
831             func(uint8_t,0)\
832                 ((uint8_t*)dest)[i2+0]= r[Y1+d128[(i2+0)&7]] + g[Y1+d64[(i2+0)&7]] + b[Y1+d128[(i2+0)&7]];\
833                 ((uint8_t*)dest)[i2+1]= r[Y2+d128[(i2+1)&7]] + g[Y2+d64[(i2+1)&7]] + b[Y2+d128[(i2+1)&7]];\
834             }\
835         }\
836         break;\
837     case PIX_FMT_MONOBLACK:\
838     case PIX_FMT_MONOWHITE:\
839         {\
840             func_monoblack\
841         }\
842         break;\
843     case PIX_FMT_YUYV422:\
844         func2\
845             ((uint8_t*)dest)[2*i2+0]= Y1;\
846             ((uint8_t*)dest)[2*i2+1]= U;\
847             ((uint8_t*)dest)[2*i2+2]= Y2;\
848             ((uint8_t*)dest)[2*i2+3]= V;\
849         }                \
850         break;\
851     case PIX_FMT_UYVY422:\
852         func2\
853             ((uint8_t*)dest)[2*i2+0]= U;\
854             ((uint8_t*)dest)[2*i2+1]= Y1;\
855             ((uint8_t*)dest)[2*i2+2]= V;\
856             ((uint8_t*)dest)[2*i2+3]= Y2;\
857         }                \
858         break;\
859     case PIX_FMT_GRAY16BE:\
860         func_g16\
861             ((uint8_t*)dest)[2*i2+0]= Y1>>8;\
862             ((uint8_t*)dest)[2*i2+1]= Y1;\
863             ((uint8_t*)dest)[2*i2+2]= Y2>>8;\
864             ((uint8_t*)dest)[2*i2+3]= Y2;\
865         }                \
866         break;\
867     case PIX_FMT_GRAY16LE:\
868         func_g16\
869             ((uint8_t*)dest)[2*i2+0]= Y1;\
870             ((uint8_t*)dest)[2*i2+1]= Y1>>8;\
871             ((uint8_t*)dest)[2*i2+2]= Y2;\
872             ((uint8_t*)dest)[2*i2+3]= Y2>>8;\
873         }                \
874         break;\
875     }
876
877 static inline void yuv2packedXinC(SwsContext *c, const int16_t *lumFilter,
878                                   const int16_t **lumSrc, int lumFilterSize,
879                                   const int16_t *chrFilter, const int16_t **chrUSrc,
880                                   const int16_t **chrVSrc, int chrFilterSize,
881                                   const int16_t **alpSrc, uint8_t *dest, int dstW, int y)
882 {
883     int i;
884     YSCALE_YUV_2_ANYRGB_C(YSCALE_YUV_2_RGBX_C, YSCALE_YUV_2_PACKEDX_C(void,0), YSCALE_YUV_2_GRAY16_C, YSCALE_YUV_2_MONOX_C)
885 }
886
887 static inline void yuv2rgbXinC_full(SwsContext *c, const int16_t *lumFilter,
888                                     const int16_t **lumSrc, int lumFilterSize,
889                                     const int16_t *chrFilter, const int16_t **chrUSrc,
890                                     const int16_t **chrVSrc, int chrFilterSize,
891                                     const int16_t **alpSrc, uint8_t *dest, int dstW, int y)
892 {
893     int i;
894     int step= c->dstFormatBpp/8;
895     int aidx= 3;
896
897     switch(c->dstFormat) {
898     case PIX_FMT_ARGB:
899         dest++;
900         aidx= 0;
901     case PIX_FMT_RGB24:
902         aidx--;
903     case PIX_FMT_RGBA:
904         if (CONFIG_SMALL) {
905             int needAlpha = CONFIG_SWSCALE_ALPHA && c->alpPixBuf;
906             YSCALE_YUV_2_RGBX_FULL_C(1<<21, needAlpha)
907                 dest[aidx]= needAlpha ? A : 255;
908                 dest[0]= R>>22;
909                 dest[1]= G>>22;
910                 dest[2]= B>>22;
911                 dest+= step;
912             }
913         } else {
914             if (CONFIG_SWSCALE_ALPHA && c->alpPixBuf) {
915                 YSCALE_YUV_2_RGBX_FULL_C(1<<21, 1)
916                     dest[aidx]= A;
917                     dest[0]= R>>22;
918                     dest[1]= G>>22;
919                     dest[2]= B>>22;
920                     dest+= step;
921                 }
922             } else {
923                 YSCALE_YUV_2_RGBX_FULL_C(1<<21, 0)
924                     dest[aidx]= 255;
925                     dest[0]= R>>22;
926                     dest[1]= G>>22;
927                     dest[2]= B>>22;
928                     dest+= step;
929                 }
930             }
931         }
932         break;
933     case PIX_FMT_ABGR:
934         dest++;
935         aidx= 0;
936     case PIX_FMT_BGR24:
937         aidx--;
938     case PIX_FMT_BGRA:
939         if (CONFIG_SMALL) {
940             int needAlpha = CONFIG_SWSCALE_ALPHA && c->alpPixBuf;
941             YSCALE_YUV_2_RGBX_FULL_C(1<<21, needAlpha)
942                 dest[aidx]= needAlpha ? A : 255;
943                 dest[0]= B>>22;
944                 dest[1]= G>>22;
945                 dest[2]= R>>22;
946                 dest+= step;
947             }
948         } else {
949             if (CONFIG_SWSCALE_ALPHA && c->alpPixBuf) {
950                 YSCALE_YUV_2_RGBX_FULL_C(1<<21, 1)
951                     dest[aidx]= A;
952                     dest[0]= B>>22;
953                     dest[1]= G>>22;
954                     dest[2]= R>>22;
955                     dest+= step;
956                 }
957             } else {
958                 YSCALE_YUV_2_RGBX_FULL_C(1<<21, 0)
959                     dest[aidx]= 255;
960                     dest[0]= B>>22;
961                     dest[1]= G>>22;
962                     dest[2]= R>>22;
963                     dest+= step;
964                 }
965             }
966         }
967         break;
968     default:
969         assert(0);
970     }
971 }
972
973 static void fillPlane(uint8_t* plane, int stride, int width, int height, int y, uint8_t val)
974 {
975     int i;
976     uint8_t *ptr = plane + stride*y;
977     for (i=0; i<height; i++) {
978         memset(ptr, val, width);
979         ptr += stride;
980     }
981 }
982
983 static inline void rgb48ToY(uint8_t *dst, const uint8_t *src, int width,
984                             uint32_t *unused)
985 {
986     int i;
987     for (i = 0; i < width; i++) {
988         int r = src[i*6+0];
989         int g = src[i*6+2];
990         int b = src[i*6+4];
991
992         dst[i] = (RY*r + GY*g + BY*b + (33<<(RGB2YUV_SHIFT-1))) >> RGB2YUV_SHIFT;
993     }
994 }
995
996 static inline void rgb48ToUV(uint8_t *dstU, uint8_t *dstV,
997                              const uint8_t *src1, const uint8_t *src2,
998                              int width, uint32_t *unused)
999 {
1000     int i;
1001     assert(src1==src2);
1002     for (i = 0; i < width; i++) {
1003         int r = src1[6*i + 0];
1004         int g = src1[6*i + 2];
1005         int b = src1[6*i + 4];
1006
1007         dstU[i] = (RU*r + GU*g + BU*b + (257<<(RGB2YUV_SHIFT-1))) >> RGB2YUV_SHIFT;
1008         dstV[i] = (RV*r + GV*g + BV*b + (257<<(RGB2YUV_SHIFT-1))) >> RGB2YUV_SHIFT;
1009     }
1010 }
1011
1012 static inline void rgb48ToUV_half(uint8_t *dstU, uint8_t *dstV,
1013                                   const uint8_t *src1, const uint8_t *src2,
1014                                   int width, uint32_t *unused)
1015 {
1016     int i;
1017     assert(src1==src2);
1018     for (i = 0; i < width; i++) {
1019         int r= src1[12*i + 0] + src1[12*i + 6];
1020         int g= src1[12*i + 2] + src1[12*i + 8];
1021         int b= src1[12*i + 4] + src1[12*i + 10];
1022
1023         dstU[i]= (RU*r + GU*g + BU*b + (257<<RGB2YUV_SHIFT)) >> (RGB2YUV_SHIFT+1);
1024         dstV[i]= (RV*r + GV*g + BV*b + (257<<RGB2YUV_SHIFT)) >> (RGB2YUV_SHIFT+1);
1025     }
1026 }
1027
1028 static inline void bgr48ToY(uint8_t *dst, const uint8_t *src, int width,
1029                             uint32_t *unused)
1030 {
1031     int i;
1032     for (i = 0; i < width; i++) {
1033         int b = src[i*6+0];
1034         int g = src[i*6+2];
1035         int r = src[i*6+4];
1036
1037         dst[i] = (RY*r + GY*g + BY*b + (33<<(RGB2YUV_SHIFT-1))) >> RGB2YUV_SHIFT;
1038     }
1039 }
1040
1041 static inline void bgr48ToUV(uint8_t *dstU, uint8_t *dstV,
1042                              const uint8_t *src1, const uint8_t *src2,
1043                              int width, uint32_t *unused)
1044 {
1045     int i;
1046     for (i = 0; i < width; i++) {
1047         int b = src1[6*i + 0];
1048         int g = src1[6*i + 2];
1049         int r = src1[6*i + 4];
1050
1051         dstU[i] = (RU*r + GU*g + BU*b + (257<<(RGB2YUV_SHIFT-1))) >> RGB2YUV_SHIFT;
1052         dstV[i] = (RV*r + GV*g + BV*b + (257<<(RGB2YUV_SHIFT-1))) >> RGB2YUV_SHIFT;
1053     }
1054 }
1055
1056 static inline void bgr48ToUV_half(uint8_t *dstU, uint8_t *dstV,
1057                                   const uint8_t *src1, const uint8_t *src2,
1058                                   int width, uint32_t *unused)
1059 {
1060     int i;
1061     for (i = 0; i < width; i++) {
1062         int b= src1[12*i + 0] + src1[12*i + 6];
1063         int g= src1[12*i + 2] + src1[12*i + 8];
1064         int r= src1[12*i + 4] + src1[12*i + 10];
1065
1066         dstU[i]= (RU*r + GU*g + BU*b + (257<<RGB2YUV_SHIFT)) >> (RGB2YUV_SHIFT+1);
1067         dstV[i]= (RV*r + GV*g + BV*b + (257<<RGB2YUV_SHIFT)) >> (RGB2YUV_SHIFT+1);
1068     }
1069 }
1070
1071 #define BGR2Y(type, name, shr, shg, shb, maskr, maskg, maskb, RY, GY, BY, S)\
1072 static inline void name(uint8_t *dst, const uint8_t *src, int width, uint32_t *unused)\
1073 {\
1074     int i;\
1075     for (i=0; i<width; i++) {\
1076         int b= (((const type*)src)[i]>>shb)&maskb;\
1077         int g= (((const type*)src)[i]>>shg)&maskg;\
1078         int r= (((const type*)src)[i]>>shr)&maskr;\
1079 \
1080         dst[i]= (((RY)*r + (GY)*g + (BY)*b + (33<<((S)-1)))>>(S));\
1081     }\
1082 }
1083
1084 BGR2Y(uint32_t, bgr32ToY,16, 0, 0, 0x00FF, 0xFF00, 0x00FF, RY<< 8, GY   , BY<< 8, RGB2YUV_SHIFT+8)
1085 BGR2Y(uint32_t,bgr321ToY,16,16, 0, 0xFF00, 0x00FF, 0xFF00, RY    , GY<<8, BY    , RGB2YUV_SHIFT+8)
1086 BGR2Y(uint32_t, rgb32ToY, 0, 0,16, 0x00FF, 0xFF00, 0x00FF, RY<< 8, GY   , BY<< 8, RGB2YUV_SHIFT+8)
1087 BGR2Y(uint32_t,rgb321ToY, 0,16,16, 0xFF00, 0x00FF, 0xFF00, RY    , GY<<8, BY    , RGB2YUV_SHIFT+8)
1088 BGR2Y(uint16_t, bgr16ToY, 0, 0, 0, 0x001F, 0x07E0, 0xF800, RY<<11, GY<<5, BY    , RGB2YUV_SHIFT+8)
1089 BGR2Y(uint16_t, bgr15ToY, 0, 0, 0, 0x001F, 0x03E0, 0x7C00, RY<<10, GY<<5, BY    , RGB2YUV_SHIFT+7)
1090 BGR2Y(uint16_t, rgb16ToY, 0, 0, 0, 0xF800, 0x07E0, 0x001F, RY    , GY<<5, BY<<11, RGB2YUV_SHIFT+8)
1091 BGR2Y(uint16_t, rgb15ToY, 0, 0, 0, 0x7C00, 0x03E0, 0x001F, RY    , GY<<5, BY<<10, RGB2YUV_SHIFT+7)
1092
1093 static inline void abgrToA(uint8_t *dst, const uint8_t *src, int width, uint32_t *unused)
1094 {
1095     int i;
1096     for (i=0; i<width; i++) {
1097         dst[i]= src[4*i];
1098     }
1099 }
1100
1101 #define BGR2UV(type, name, shr, shg, shb, shp, maskr, maskg, maskb, RU, GU, BU, RV, GV, BV, S) \
1102 static inline void name(uint8_t *dstU, uint8_t *dstV, const uint8_t *src, const uint8_t *dummy, int width, uint32_t *unused)\
1103 {\
1104     int i;\
1105     for (i=0; i<width; i++) {\
1106         int b= ((((const type*)src)[i]>>shp)&maskb)>>shb;\
1107         int g= ((((const type*)src)[i]>>shp)&maskg)>>shg;\
1108         int r= ((((const type*)src)[i]>>shp)&maskr)>>shr;\
1109 \
1110         dstU[i]= ((RU)*r + (GU)*g + (BU)*b + (257<<((S)-1)))>>(S);\
1111         dstV[i]= ((RV)*r + (GV)*g + (BV)*b + (257<<((S)-1)))>>(S);\
1112     }\
1113 }\
1114 static inline void name ## _half(uint8_t *dstU, uint8_t *dstV, const uint8_t *src, const uint8_t *dummy, int width, uint32_t *unused)\
1115 {\
1116     int i;\
1117     for (i=0; i<width; i++) {\
1118         int pix0= ((const type*)src)[2*i+0]>>shp;\
1119         int pix1= ((const type*)src)[2*i+1]>>shp;\
1120         int g= (pix0&~(maskr|maskb))+(pix1&~(maskr|maskb));\
1121         int b= ((pix0+pix1-g)&(maskb|(2*maskb)))>>shb;\
1122         int r= ((pix0+pix1-g)&(maskr|(2*maskr)))>>shr;\
1123         g&= maskg|(2*maskg);\
1124 \
1125         g>>=shg;\
1126 \
1127         dstU[i]= ((RU)*r + (GU)*g + (BU)*b + (257<<(S)))>>((S)+1);\
1128         dstV[i]= ((RV)*r + (GV)*g + (BV)*b + (257<<(S)))>>((S)+1);\
1129     }\
1130 }
1131
1132 BGR2UV(uint32_t, bgr32ToUV,16, 0, 0, 0, 0xFF0000, 0xFF00,   0x00FF, RU<< 8, GU   , BU<< 8, RV<< 8, GV   , BV<< 8, RGB2YUV_SHIFT+8)
1133 BGR2UV(uint32_t,bgr321ToUV,16, 0, 0, 8, 0xFF0000, 0xFF00,   0x00FF, RU<< 8, GU   , BU<< 8, RV<< 8, GV   , BV<< 8, RGB2YUV_SHIFT+8)
1134 BGR2UV(uint32_t, rgb32ToUV, 0, 0,16, 0,   0x00FF, 0xFF00, 0xFF0000, RU<< 8, GU   , BU<< 8, RV<< 8, GV   , BV<< 8, RGB2YUV_SHIFT+8)
1135 BGR2UV(uint32_t,rgb321ToUV, 0, 0,16, 8,   0x00FF, 0xFF00, 0xFF0000, RU<< 8, GU   , BU<< 8, RV<< 8, GV   , BV<< 8, RGB2YUV_SHIFT+8)
1136 BGR2UV(uint16_t, bgr16ToUV, 0, 0, 0, 0,   0x001F, 0x07E0,   0xF800, RU<<11, GU<<5, BU    , RV<<11, GV<<5, BV    , RGB2YUV_SHIFT+8)
1137 BGR2UV(uint16_t, bgr15ToUV, 0, 0, 0, 0,   0x001F, 0x03E0,   0x7C00, RU<<10, GU<<5, BU    , RV<<10, GV<<5, BV    , RGB2YUV_SHIFT+7)
1138 BGR2UV(uint16_t, rgb16ToUV, 0, 0, 0, 0,   0xF800, 0x07E0,   0x001F, RU    , GU<<5, BU<<11, RV    , GV<<5, BV<<11, RGB2YUV_SHIFT+8)
1139 BGR2UV(uint16_t, rgb15ToUV, 0, 0, 0, 0,   0x7C00, 0x03E0,   0x001F, RU    , GU<<5, BU<<10, RV    , GV<<5, BV<<10, RGB2YUV_SHIFT+7)
1140
1141 static inline void palToY(uint8_t *dst, const uint8_t *src, int width, uint32_t *pal)
1142 {
1143     int i;
1144     for (i=0; i<width; i++) {
1145         int d= src[i];
1146
1147         dst[i]= pal[d] & 0xFF;
1148     }
1149 }
1150
1151 static inline void palToUV(uint8_t *dstU, uint8_t *dstV,
1152                            const uint8_t *src1, const uint8_t *src2,
1153                            int width, uint32_t *pal)
1154 {
1155     int i;
1156     assert(src1 == src2);
1157     for (i=0; i<width; i++) {
1158         int p= pal[src1[i]];
1159
1160         dstU[i]= p>>8;
1161         dstV[i]= p>>16;
1162     }
1163 }
1164
1165 static inline void monowhite2Y(uint8_t *dst, const uint8_t *src, int width, uint32_t *unused)
1166 {
1167     int i, j;
1168     for (i=0; i<width/8; i++) {
1169         int d= ~src[i];
1170         for(j=0; j<8; j++)
1171             dst[8*i+j]= ((d>>(7-j))&1)*255;
1172     }
1173 }
1174
1175 static inline void monoblack2Y(uint8_t *dst, const uint8_t *src, int width, uint32_t *unused)
1176 {
1177     int i, j;
1178     for (i=0; i<width/8; i++) {
1179         int d= src[i];
1180         for(j=0; j<8; j++)
1181             dst[8*i+j]= ((d>>(7-j))&1)*255;
1182     }
1183 }
1184
1185 //Note: we have C, MMX, MMX2, 3DNOW versions, there is no 3DNOW+MMX2 one
1186 //Plain C versions
1187
1188 #define COMPILE_TEMPLATE_MMX2 0
1189
1190 #include "swscale_template.c"
1191
1192 #if HAVE_ALTIVEC
1193 #undef RENAME
1194 #define RENAME(a) a ## _altivec
1195 #include "ppc/swscale_template.c"
1196 #endif
1197
1198 //MMX versions
1199 #if HAVE_MMX
1200 #undef RENAME
1201 #undef COMPILE_TEMPLATE_MMX2
1202 #define COMPILE_TEMPLATE_MMX2 0
1203 #define RENAME(a) a ## _MMX
1204 #include "x86/swscale_template.c"
1205 #endif
1206
1207 //MMX2 versions
1208 #if HAVE_MMX2
1209 #undef RENAME
1210 #undef COMPILE_TEMPLATE_MMX2
1211 #define COMPILE_TEMPLATE_MMX2 1
1212 #define RENAME(a) a ## _MMX2
1213 #include "x86/swscale_template.c"
1214 #endif
1215
1216 SwsFunc ff_getSwsFunc(SwsContext *c)
1217 {
1218     int cpu_flags = av_get_cpu_flags();
1219
1220     sws_init_swScale_c(c);
1221
1222 #if HAVE_MMX
1223     if (cpu_flags & AV_CPU_FLAG_MMX)
1224         sws_init_swScale_MMX(c);
1225 #endif
1226 #if HAVE_MMX2
1227     if (cpu_flags & AV_CPU_FLAG_MMX2)
1228         sws_init_swScale_MMX2(c);
1229 #endif
1230 #if HAVE_ALTIVEC
1231     if (cpu_flags & AV_CPU_FLAG_ALTIVEC)
1232         sws_init_swScale_altivec(c);
1233 #endif
1234
1235     return swScale_c;
1236 }
1237
1238 static void copyPlane(const uint8_t *src, int srcStride,
1239                       int srcSliceY, int srcSliceH, int width,
1240                       uint8_t *dst, int dstStride)
1241 {
1242     dst += dstStride * srcSliceY;
1243     if (dstStride == srcStride && srcStride > 0) {
1244         memcpy(dst, src, srcSliceH * dstStride);
1245     } else {
1246         int i;
1247         for (i=0; i<srcSliceH; i++) {
1248             memcpy(dst, src, width);
1249             src += srcStride;
1250             dst += dstStride;
1251         }
1252     }
1253 }
1254
1255 static int planarToNv12Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1256                                int srcSliceH, uint8_t* dstParam[], int dstStride[])
1257 {
1258     uint8_t *dst = dstParam[1] + dstStride[1]*srcSliceY/2;
1259
1260     copyPlane(src[0], srcStride[0], srcSliceY, srcSliceH, c->srcW,
1261               dstParam[0], dstStride[0]);
1262
1263     if (c->dstFormat == PIX_FMT_NV12)
1264         interleaveBytes(src[1], src[2], dst, c->srcW/2, srcSliceH/2, srcStride[1], srcStride[2], dstStride[0]);
1265     else
1266         interleaveBytes(src[2], src[1], dst, c->srcW/2, srcSliceH/2, srcStride[2], srcStride[1], dstStride[0]);
1267
1268     return srcSliceH;
1269 }
1270
1271 static int planarToYuy2Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1272                                int srcSliceH, uint8_t* dstParam[], int dstStride[])
1273 {
1274     uint8_t *dst=dstParam[0] + dstStride[0]*srcSliceY;
1275
1276     yv12toyuy2(src[0], src[1], src[2], dst, c->srcW, srcSliceH, srcStride[0], srcStride[1], dstStride[0]);
1277
1278     return srcSliceH;
1279 }
1280
1281 static int planarToUyvyWrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1282                                int srcSliceH, uint8_t* dstParam[], int dstStride[])
1283 {
1284     uint8_t *dst=dstParam[0] + dstStride[0]*srcSliceY;
1285
1286     yv12touyvy(src[0], src[1], src[2], dst, c->srcW, srcSliceH, srcStride[0], srcStride[1], dstStride[0]);
1287
1288     return srcSliceH;
1289 }
1290
1291 static int yuv422pToYuy2Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1292                                 int srcSliceH, uint8_t* dstParam[], int dstStride[])
1293 {
1294     uint8_t *dst=dstParam[0] + dstStride[0]*srcSliceY;
1295
1296     yuv422ptoyuy2(src[0],src[1],src[2],dst,c->srcW,srcSliceH,srcStride[0],srcStride[1],dstStride[0]);
1297
1298     return srcSliceH;
1299 }
1300
1301 static int yuv422pToUyvyWrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1302                                 int srcSliceH, uint8_t* dstParam[], int dstStride[])
1303 {
1304     uint8_t *dst=dstParam[0] + dstStride[0]*srcSliceY;
1305
1306     yuv422ptouyvy(src[0],src[1],src[2],dst,c->srcW,srcSliceH,srcStride[0],srcStride[1],dstStride[0]);
1307
1308     return srcSliceH;
1309 }
1310
1311 static int yuyvToYuv420Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1312                                int srcSliceH, uint8_t* dstParam[], int dstStride[])
1313 {
1314     uint8_t *ydst=dstParam[0] + dstStride[0]*srcSliceY;
1315     uint8_t *udst=dstParam[1] + dstStride[1]*srcSliceY/2;
1316     uint8_t *vdst=dstParam[2] + dstStride[2]*srcSliceY/2;
1317
1318     yuyvtoyuv420(ydst, udst, vdst, src[0], c->srcW, srcSliceH, dstStride[0], dstStride[1], srcStride[0]);
1319
1320     if (dstParam[3])
1321         fillPlane(dstParam[3], dstStride[3], c->srcW, srcSliceH, srcSliceY, 255);
1322
1323     return srcSliceH;
1324 }
1325
1326 static int yuyvToYuv422Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1327                                int srcSliceH, uint8_t* dstParam[], int dstStride[])
1328 {
1329     uint8_t *ydst=dstParam[0] + dstStride[0]*srcSliceY;
1330     uint8_t *udst=dstParam[1] + dstStride[1]*srcSliceY;
1331     uint8_t *vdst=dstParam[2] + dstStride[2]*srcSliceY;
1332
1333     yuyvtoyuv422(ydst, udst, vdst, src[0], c->srcW, srcSliceH, dstStride[0], dstStride[1], srcStride[0]);
1334
1335     return srcSliceH;
1336 }
1337
1338 static int uyvyToYuv420Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1339                                int srcSliceH, uint8_t* dstParam[], int dstStride[])
1340 {
1341     uint8_t *ydst=dstParam[0] + dstStride[0]*srcSliceY;
1342     uint8_t *udst=dstParam[1] + dstStride[1]*srcSliceY/2;
1343     uint8_t *vdst=dstParam[2] + dstStride[2]*srcSliceY/2;
1344
1345     uyvytoyuv420(ydst, udst, vdst, src[0], c->srcW, srcSliceH, dstStride[0], dstStride[1], srcStride[0]);
1346
1347     if (dstParam[3])
1348         fillPlane(dstParam[3], dstStride[3], c->srcW, srcSliceH, srcSliceY, 255);
1349
1350     return srcSliceH;
1351 }
1352
1353 static int uyvyToYuv422Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1354                                int srcSliceH, uint8_t* dstParam[], int dstStride[])
1355 {
1356     uint8_t *ydst=dstParam[0] + dstStride[0]*srcSliceY;
1357     uint8_t *udst=dstParam[1] + dstStride[1]*srcSliceY;
1358     uint8_t *vdst=dstParam[2] + dstStride[2]*srcSliceY;
1359
1360     uyvytoyuv422(ydst, udst, vdst, src[0], c->srcW, srcSliceH, dstStride[0], dstStride[1], srcStride[0]);
1361
1362     return srcSliceH;
1363 }
1364
1365 static void gray8aToPacked32(const uint8_t *src, uint8_t *dst, int num_pixels, const uint8_t *palette)
1366 {
1367     int i;
1368     for (i=0; i<num_pixels; i++)
1369         ((uint32_t *) dst)[i] = ((const uint32_t *)palette)[src[i<<1]] | (src[(i<<1)+1] << 24);
1370 }
1371
1372 static void gray8aToPacked32_1(const uint8_t *src, uint8_t *dst, int num_pixels, const uint8_t *palette)
1373 {
1374     int i;
1375
1376     for (i=0; i<num_pixels; i++)
1377         ((uint32_t *) dst)[i] = ((const uint32_t *)palette)[src[i<<1]] | src[(i<<1)+1];
1378 }
1379
1380 static void gray8aToPacked24(const uint8_t *src, uint8_t *dst, int num_pixels, const uint8_t *palette)
1381 {
1382     int i;
1383
1384     for (i=0; i<num_pixels; i++) {
1385         //FIXME slow?
1386         dst[0]= palette[src[i<<1]*4+0];
1387         dst[1]= palette[src[i<<1]*4+1];
1388         dst[2]= palette[src[i<<1]*4+2];
1389         dst+= 3;
1390     }
1391 }
1392
1393 static int palToRgbWrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1394                            int srcSliceH, uint8_t* dst[], int dstStride[])
1395 {
1396     const enum PixelFormat srcFormat= c->srcFormat;
1397     const enum PixelFormat dstFormat= c->dstFormat;
1398     void (*conv)(const uint8_t *src, uint8_t *dst, int num_pixels,
1399                  const uint8_t *palette)=NULL;
1400     int i;
1401     uint8_t *dstPtr= dst[0] + dstStride[0]*srcSliceY;
1402     const uint8_t *srcPtr= src[0];
1403
1404     if (srcFormat == PIX_FMT_Y400A) {
1405         switch (dstFormat) {
1406         case PIX_FMT_RGB32  : conv = gray8aToPacked32; break;
1407         case PIX_FMT_BGR32  : conv = gray8aToPacked32; break;
1408         case PIX_FMT_BGR32_1: conv = gray8aToPacked32_1; break;
1409         case PIX_FMT_RGB32_1: conv = gray8aToPacked32_1; break;
1410         case PIX_FMT_RGB24  : conv = gray8aToPacked24; break;
1411         case PIX_FMT_BGR24  : conv = gray8aToPacked24; break;
1412         }
1413     } else if (usePal(srcFormat)) {
1414         switch (dstFormat) {
1415         case PIX_FMT_RGB32  : conv = sws_convertPalette8ToPacked32; break;
1416         case PIX_FMT_BGR32  : conv = sws_convertPalette8ToPacked32; break;
1417         case PIX_FMT_BGR32_1: conv = sws_convertPalette8ToPacked32; break;
1418         case PIX_FMT_RGB32_1: conv = sws_convertPalette8ToPacked32; break;
1419         case PIX_FMT_RGB24  : conv = sws_convertPalette8ToPacked24; break;
1420         case PIX_FMT_BGR24  : conv = sws_convertPalette8ToPacked24; break;
1421         }
1422     }
1423
1424     if (!conv)
1425         av_log(c, AV_LOG_ERROR, "internal error %s -> %s converter\n",
1426                sws_format_name(srcFormat), sws_format_name(dstFormat));
1427     else {
1428         for (i=0; i<srcSliceH; i++) {
1429             conv(srcPtr, dstPtr, c->srcW, (uint8_t *) c->pal_rgb);
1430             srcPtr+= srcStride[0];
1431             dstPtr+= dstStride[0];
1432         }
1433     }
1434
1435     return srcSliceH;
1436 }
1437
1438 #define isRGBA32(x) (            \
1439            (x) == PIX_FMT_ARGB   \
1440         || (x) == PIX_FMT_RGBA   \
1441         || (x) == PIX_FMT_BGRA   \
1442         || (x) == PIX_FMT_ABGR   \
1443         )
1444
1445 /* {RGB,BGR}{15,16,24,32,32_1} -> {RGB,BGR}{15,16,24,32} */
1446 static int rgbToRgbWrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1447                            int srcSliceH, uint8_t* dst[], int dstStride[])
1448 {
1449     const enum PixelFormat srcFormat= c->srcFormat;
1450     const enum PixelFormat dstFormat= c->dstFormat;
1451     const int srcBpp= (c->srcFormatBpp + 7) >> 3;
1452     const int dstBpp= (c->dstFormatBpp + 7) >> 3;
1453     const int srcId= c->srcFormatBpp >> 2; /* 1:0, 4:1, 8:2, 15:3, 16:4, 24:6, 32:8 */
1454     const int dstId= c->dstFormatBpp >> 2;
1455     void (*conv)(const uint8_t *src, uint8_t *dst, int src_size)=NULL;
1456
1457 #define CONV_IS(src, dst) (srcFormat == PIX_FMT_##src && dstFormat == PIX_FMT_##dst)
1458
1459     if (isRGBA32(srcFormat) && isRGBA32(dstFormat)) {
1460         if (     CONV_IS(ABGR, RGBA)
1461               || CONV_IS(ARGB, BGRA)
1462               || CONV_IS(BGRA, ARGB)
1463               || CONV_IS(RGBA, ABGR)) conv = shuffle_bytes_3210;
1464         else if (CONV_IS(ABGR, ARGB)
1465               || CONV_IS(ARGB, ABGR)) conv = shuffle_bytes_0321;
1466         else if (CONV_IS(ABGR, BGRA)
1467               || CONV_IS(ARGB, RGBA)) conv = shuffle_bytes_1230;
1468         else if (CONV_IS(BGRA, RGBA)
1469               || CONV_IS(RGBA, BGRA)) conv = shuffle_bytes_2103;
1470         else if (CONV_IS(BGRA, ABGR)
1471               || CONV_IS(RGBA, ARGB)) conv = shuffle_bytes_3012;
1472     } else
1473     /* BGR -> BGR */
1474     if (  (isBGRinInt(srcFormat) && isBGRinInt(dstFormat))
1475        || (isRGBinInt(srcFormat) && isRGBinInt(dstFormat))) {
1476         switch(srcId | (dstId<<4)) {
1477         case 0x34: conv= rgb16to15; break;
1478         case 0x36: conv= rgb24to15; break;
1479         case 0x38: conv= rgb32to15; break;
1480         case 0x43: conv= rgb15to16; break;
1481         case 0x46: conv= rgb24to16; break;
1482         case 0x48: conv= rgb32to16; break;
1483         case 0x63: conv= rgb15to24; break;
1484         case 0x64: conv= rgb16to24; break;
1485         case 0x68: conv= rgb32to24; break;
1486         case 0x83: conv= rgb15to32; break;
1487         case 0x84: conv= rgb16to32; break;
1488         case 0x86: conv= rgb24to32; break;
1489         }
1490     } else if (  (isBGRinInt(srcFormat) && isRGBinInt(dstFormat))
1491              || (isRGBinInt(srcFormat) && isBGRinInt(dstFormat))) {
1492         switch(srcId | (dstId<<4)) {
1493         case 0x33: conv= rgb15tobgr15; break;
1494         case 0x34: conv= rgb16tobgr15; break;
1495         case 0x36: conv= rgb24tobgr15; break;
1496         case 0x38: conv= rgb32tobgr15; break;
1497         case 0x43: conv= rgb15tobgr16; break;
1498         case 0x44: conv= rgb16tobgr16; break;
1499         case 0x46: conv= rgb24tobgr16; break;
1500         case 0x48: conv= rgb32tobgr16; break;
1501         case 0x63: conv= rgb15tobgr24; break;
1502         case 0x64: conv= rgb16tobgr24; break;
1503         case 0x66: conv= rgb24tobgr24; break;
1504         case 0x68: conv= rgb32tobgr24; break;
1505         case 0x83: conv= rgb15tobgr32; break;
1506         case 0x84: conv= rgb16tobgr32; break;
1507         case 0x86: conv= rgb24tobgr32; break;
1508         }
1509     }
1510
1511     if (!conv) {
1512         av_log(c, AV_LOG_ERROR, "internal error %s -> %s converter\n",
1513                sws_format_name(srcFormat), sws_format_name(dstFormat));
1514     } else {
1515         const uint8_t *srcPtr= src[0];
1516               uint8_t *dstPtr= dst[0];
1517         if ((srcFormat == PIX_FMT_RGB32_1 || srcFormat == PIX_FMT_BGR32_1) && !isRGBA32(dstFormat))
1518             srcPtr += ALT32_CORR;
1519
1520         if ((dstFormat == PIX_FMT_RGB32_1 || dstFormat == PIX_FMT_BGR32_1) && !isRGBA32(srcFormat))
1521             dstPtr += ALT32_CORR;
1522
1523         if (dstStride[0]*srcBpp == srcStride[0]*dstBpp && srcStride[0] > 0)
1524             conv(srcPtr, dstPtr + dstStride[0]*srcSliceY, srcSliceH*srcStride[0]);
1525         else {
1526             int i;
1527             dstPtr += dstStride[0]*srcSliceY;
1528
1529             for (i=0; i<srcSliceH; i++) {
1530                 conv(srcPtr, dstPtr, c->srcW*srcBpp);
1531                 srcPtr+= srcStride[0];
1532                 dstPtr+= dstStride[0];
1533             }
1534         }
1535     }
1536     return srcSliceH;
1537 }
1538
1539 static int bgr24ToYv12Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1540                               int srcSliceH, uint8_t* dst[], int dstStride[])
1541 {
1542     rgb24toyv12(
1543         src[0],
1544         dst[0]+ srcSliceY    *dstStride[0],
1545         dst[1]+(srcSliceY>>1)*dstStride[1],
1546         dst[2]+(srcSliceY>>1)*dstStride[2],
1547         c->srcW, srcSliceH,
1548         dstStride[0], dstStride[1], srcStride[0]);
1549     if (dst[3])
1550         fillPlane(dst[3], dstStride[3], c->srcW, srcSliceH, srcSliceY, 255);
1551     return srcSliceH;
1552 }
1553
1554 static int yvu9ToYv12Wrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1555                              int srcSliceH, uint8_t* dst[], int dstStride[])
1556 {
1557     copyPlane(src[0], srcStride[0], srcSliceY, srcSliceH, c->srcW,
1558               dst[0], dstStride[0]);
1559
1560     planar2x(src[1], dst[1] + dstStride[1]*(srcSliceY >> 1), c->chrSrcW,
1561              srcSliceH >> 2, srcStride[1], dstStride[1]);
1562     planar2x(src[2], dst[2] + dstStride[2]*(srcSliceY >> 1), c->chrSrcW,
1563              srcSliceH >> 2, srcStride[2], dstStride[2]);
1564     if (dst[3])
1565         fillPlane(dst[3], dstStride[3], c->srcW, srcSliceH, srcSliceY, 255);
1566     return srcSliceH;
1567 }
1568
1569 /* unscaled copy like stuff (assumes nearly identical formats) */
1570 static int packedCopyWrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1571                              int srcSliceH, uint8_t* dst[], int dstStride[])
1572 {
1573     if (dstStride[0]==srcStride[0] && srcStride[0] > 0)
1574         memcpy(dst[0] + dstStride[0]*srcSliceY, src[0], srcSliceH*dstStride[0]);
1575     else {
1576         int i;
1577         const uint8_t *srcPtr= src[0];
1578         uint8_t *dstPtr= dst[0] + dstStride[0]*srcSliceY;
1579         int length=0;
1580
1581         /* universal length finder */
1582         while(length+c->srcW <= FFABS(dstStride[0])
1583            && length+c->srcW <= FFABS(srcStride[0])) length+= c->srcW;
1584         assert(length!=0);
1585
1586         for (i=0; i<srcSliceH; i++) {
1587             memcpy(dstPtr, srcPtr, length);
1588             srcPtr+= srcStride[0];
1589             dstPtr+= dstStride[0];
1590         }
1591     }
1592     return srcSliceH;
1593 }
1594
1595 static int planarCopyWrapper(SwsContext *c, const uint8_t* src[], int srcStride[], int srcSliceY,
1596                              int srcSliceH, uint8_t* dst[], int dstStride[])
1597 {
1598     int plane, i, j;
1599     for (plane=0; plane<4; plane++) {
1600         int length= (plane==0 || plane==3) ? c->srcW  : -((-c->srcW  )>>c->chrDstHSubSample);
1601         int y=      (plane==0 || plane==3) ? srcSliceY: -((-srcSliceY)>>c->chrDstVSubSample);
1602         int height= (plane==0 || plane==3) ? srcSliceH: -((-srcSliceH)>>c->chrDstVSubSample);
1603         const uint8_t *srcPtr= src[plane];
1604         uint8_t *dstPtr= dst[plane] + dstStride[plane]*y;
1605
1606         if (!dst[plane]) continue;
1607         // ignore palette for GRAY8
1608         if (plane == 1 && !dst[2]) continue;
1609         if (!src[plane] || (plane == 1 && !src[2])) {
1610             if(is16BPS(c->dstFormat))
1611                 length*=2;
1612             fillPlane(dst[plane], dstStride[plane], length, height, y, (plane==3) ? 255 : 128);
1613         } else {
1614             if(is9_OR_10BPS(c->srcFormat)) {
1615                 const int src_depth = av_pix_fmt_descriptors[c->srcFormat].comp[plane].depth_minus1+1;
1616                 const int dst_depth = av_pix_fmt_descriptors[c->dstFormat].comp[plane].depth_minus1+1;
1617                 const uint16_t *srcPtr2 = (const uint16_t*)srcPtr;
1618
1619                 if (is16BPS(c->dstFormat)) {
1620                     uint16_t *dstPtr2 = (uint16_t*)dstPtr;
1621 #define COPY9_OR_10TO16(rfunc, wfunc) \
1622                     for (i = 0; i < height; i++) { \
1623                         for (j = 0; j < length; j++) { \
1624                             int srcpx = rfunc(&srcPtr2[j]); \
1625                             wfunc(&dstPtr2[j], (srcpx<<(16-src_depth)) | (srcpx>>(2*src_depth-16))); \
1626                         } \
1627                         dstPtr2 += dstStride[plane]/2; \
1628                         srcPtr2 += srcStride[plane]/2; \
1629                     }
1630                     if (isBE(c->dstFormat)) {
1631                         if (isBE(c->srcFormat)) {
1632                             COPY9_OR_10TO16(AV_RB16, AV_WB16);
1633                         } else {
1634                             COPY9_OR_10TO16(AV_RL16, AV_WB16);
1635                         }
1636                     } else {
1637                         if (isBE(c->srcFormat)) {
1638                             COPY9_OR_10TO16(AV_RB16, AV_WL16);
1639                         } else {
1640                             COPY9_OR_10TO16(AV_RL16, AV_WL16);
1641                         }
1642                     }
1643                 } else if (is9_OR_10BPS(c->dstFormat)) {
1644                     uint16_t *dstPtr2 = (uint16_t*)dstPtr;
1645 #define COPY9_OR_10TO9_OR_10(loop) \
1646                     for (i = 0; i < height; i++) { \
1647                         for (j = 0; j < length; j++) { \
1648                             loop; \
1649                         } \
1650                         dstPtr2 += dstStride[plane]/2; \
1651                         srcPtr2 += srcStride[plane]/2; \
1652                     }
1653 #define COPY9_OR_10TO9_OR_10_2(rfunc, wfunc) \
1654                     if (dst_depth > src_depth) { \
1655                         COPY9_OR_10TO9_OR_10(int srcpx = rfunc(&srcPtr2[j]); \
1656                             wfunc(&dstPtr2[j], (srcpx << 1) | (srcpx >> 9))); \
1657                     } else if (dst_depth < src_depth) { \
1658                         COPY9_OR_10TO9_OR_10(wfunc(&dstPtr2[j], rfunc(&srcPtr2[j]) >> 1)); \
1659                     } else { \
1660                         COPY9_OR_10TO9_OR_10(wfunc(&dstPtr2[j], rfunc(&srcPtr2[j]))); \
1661                     }
1662                     if (isBE(c->dstFormat)) {
1663                         if (isBE(c->srcFormat)) {
1664                             COPY9_OR_10TO9_OR_10_2(AV_RB16, AV_WB16);
1665                         } else {
1666                             COPY9_OR_10TO9_OR_10_2(AV_RL16, AV_WB16);
1667                         }
1668                     } else {
1669                         if (isBE(c->srcFormat)) {
1670                             COPY9_OR_10TO9_OR_10_2(AV_RB16, AV_WL16);
1671                         } else {
1672                             COPY9_OR_10TO9_OR_10_2(AV_RL16, AV_WL16);
1673                         }
1674                     }
1675                 } else {
1676                     // FIXME Maybe dither instead.
1677 #define COPY9_OR_10TO8(rfunc) \
1678                     for (i = 0; i < height; i++) { \
1679                         for (j = 0; j < length; j++) { \
1680                             dstPtr[j] = rfunc(&srcPtr2[j])>>(src_depth-8); \
1681                         } \
1682                         dstPtr  += dstStride[plane]; \
1683                         srcPtr2 += srcStride[plane]/2; \
1684                     }
1685                     if (isBE(c->srcFormat)) {
1686                         COPY9_OR_10TO8(AV_RB16);
1687                     } else {
1688                         COPY9_OR_10TO8(AV_RL16);
1689                     }
1690                 }
1691             } else if(is9_OR_10BPS(c->dstFormat)) {
1692                 const int dst_depth = av_pix_fmt_descriptors[c->dstFormat].comp[plane].depth_minus1+1;
1693                 uint16_t *dstPtr2 = (uint16_t*)dstPtr;
1694
1695                 if (is16BPS(c->srcFormat)) {
1696                     const uint16_t *srcPtr2 = (const uint16_t*)srcPtr;
1697 #define COPY16TO9_OR_10(rfunc, wfunc) \
1698                     for (i = 0; i < height; i++) { \
1699                         for (j = 0; j < length; j++) { \
1700                             wfunc(&dstPtr2[j], rfunc(&srcPtr2[j])>>(16-dst_depth)); \
1701                         } \
1702                         dstPtr2 += dstStride[plane]/2; \
1703                         srcPtr2 += srcStride[plane]/2; \
1704                     }
1705                     if (isBE(c->dstFormat)) {
1706                         if (isBE(c->srcFormat)) {
1707                             COPY16TO9_OR_10(AV_RB16, AV_WB16);
1708                         } else {
1709                             COPY16TO9_OR_10(AV_RL16, AV_WB16);
1710                         }
1711                     } else {
1712                         if (isBE(c->srcFormat)) {
1713                             COPY16TO9_OR_10(AV_RB16, AV_WL16);
1714                         } else {
1715                             COPY16TO9_OR_10(AV_RL16, AV_WL16);
1716                         }
1717                     }
1718                 } else /* 8bit */ {
1719 #define COPY8TO9_OR_10(wfunc) \
1720                     for (i = 0; i < height; i++) { \
1721                         for (j = 0; j < length; j++) { \
1722                             const int srcpx = srcPtr[j]; \
1723                             wfunc(&dstPtr2[j], (srcpx<<(dst_depth-8)) | (srcpx >> (16-dst_depth))); \
1724                         } \
1725                         dstPtr2 += dstStride[plane]/2; \
1726                         srcPtr  += srcStride[plane]; \
1727                     }
1728                     if (isBE(c->dstFormat)) {
1729                         COPY8TO9_OR_10(AV_WB16);
1730                     } else {
1731                         COPY8TO9_OR_10(AV_WL16);
1732                     }
1733                 }
1734             } else if(is16BPS(c->srcFormat) && !is16BPS(c->dstFormat)) {
1735                 if (!isBE(c->srcFormat)) srcPtr++;
1736                 for (i=0; i<height; i++) {
1737                     for (j=0; j<length; j++) dstPtr[j] = srcPtr[j<<1];
1738                     srcPtr+= srcStride[plane];
1739                     dstPtr+= dstStride[plane];
1740                 }
1741             } else if(!is16BPS(c->srcFormat) && is16BPS(c->dstFormat)) {
1742                 for (i=0; i<height; i++) {
1743                     for (j=0; j<length; j++) {
1744                         dstPtr[ j<<1   ] = srcPtr[j];
1745                         dstPtr[(j<<1)+1] = srcPtr[j];
1746                     }
1747                     srcPtr+= srcStride[plane];
1748                     dstPtr+= dstStride[plane];
1749                 }
1750             } else if(is16BPS(c->srcFormat) && is16BPS(c->dstFormat)
1751                   && isBE(c->srcFormat) != isBE(c->dstFormat)) {
1752
1753                 for (i=0; i<height; i++) {
1754                     for (j=0; j<length; j++)
1755                         ((uint16_t*)dstPtr)[j] = av_bswap16(((const uint16_t*)srcPtr)[j]);
1756                     srcPtr+= srcStride[plane];
1757                     dstPtr+= dstStride[plane];
1758                 }
1759             } else if (dstStride[plane] == srcStride[plane] &&
1760                        srcStride[plane] > 0 && srcStride[plane] == length) {
1761                 memcpy(dst[plane] + dstStride[plane]*y, src[plane],
1762                        height*dstStride[plane]);
1763             } else {
1764                 if(is16BPS(c->srcFormat) && is16BPS(c->dstFormat))
1765                     length*=2;
1766                 for (i=0; i<height; i++) {
1767                     memcpy(dstPtr, srcPtr, length);
1768                     srcPtr+= srcStride[plane];
1769                     dstPtr+= dstStride[plane];
1770                 }
1771             }
1772         }
1773     }
1774     return srcSliceH;
1775 }
1776
1777 void ff_get_unscaled_swscale(SwsContext *c)
1778 {
1779     const enum PixelFormat srcFormat = c->srcFormat;
1780     const enum PixelFormat dstFormat = c->dstFormat;
1781     const int flags = c->flags;
1782     const int dstH = c->dstH;
1783     int needsDither;
1784
1785     needsDither= isAnyRGB(dstFormat)
1786         &&  c->dstFormatBpp < 24
1787         && (c->dstFormatBpp < c->srcFormatBpp || (!isAnyRGB(srcFormat)));
1788
1789     /* yv12_to_nv12 */
1790     if ((srcFormat == PIX_FMT_YUV420P || srcFormat == PIX_FMT_YUVA420P) && (dstFormat == PIX_FMT_NV12 || dstFormat == PIX_FMT_NV21)) {
1791         c->swScale= planarToNv12Wrapper;
1792     }
1793     /* yuv2bgr */
1794     if ((srcFormat==PIX_FMT_YUV420P || srcFormat==PIX_FMT_YUV422P || srcFormat==PIX_FMT_YUVA420P) && isAnyRGB(dstFormat)
1795         && !(flags & SWS_ACCURATE_RND) && !(dstH&1)) {
1796         c->swScale= ff_yuv2rgb_get_func_ptr(c);
1797     }
1798
1799     if (srcFormat==PIX_FMT_YUV410P && (dstFormat==PIX_FMT_YUV420P || dstFormat==PIX_FMT_YUVA420P) && !(flags & SWS_BITEXACT)) {
1800         c->swScale= yvu9ToYv12Wrapper;
1801     }
1802
1803     /* bgr24toYV12 */
1804     if (srcFormat==PIX_FMT_BGR24 && (dstFormat==PIX_FMT_YUV420P || dstFormat==PIX_FMT_YUVA420P) && !(flags & SWS_ACCURATE_RND))
1805         c->swScale= bgr24ToYv12Wrapper;
1806
1807     /* RGB/BGR -> RGB/BGR (no dither needed forms) */
1808     if (   isAnyRGB(srcFormat)
1809         && isAnyRGB(dstFormat)
1810         && srcFormat != PIX_FMT_BGR8      && dstFormat != PIX_FMT_BGR8
1811         && srcFormat != PIX_FMT_RGB8      && dstFormat != PIX_FMT_RGB8
1812         && srcFormat != PIX_FMT_BGR4      && dstFormat != PIX_FMT_BGR4
1813         && srcFormat != PIX_FMT_RGB4      && dstFormat != PIX_FMT_RGB4
1814         && srcFormat != PIX_FMT_BGR4_BYTE && dstFormat != PIX_FMT_BGR4_BYTE
1815         && srcFormat != PIX_FMT_RGB4_BYTE && dstFormat != PIX_FMT_RGB4_BYTE
1816         && srcFormat != PIX_FMT_MONOBLACK && dstFormat != PIX_FMT_MONOBLACK
1817         && srcFormat != PIX_FMT_MONOWHITE && dstFormat != PIX_FMT_MONOWHITE
1818         && srcFormat != PIX_FMT_RGB48LE   && dstFormat != PIX_FMT_RGB48LE
1819         && srcFormat != PIX_FMT_RGB48BE   && dstFormat != PIX_FMT_RGB48BE
1820         && srcFormat != PIX_FMT_BGR48LE   && dstFormat != PIX_FMT_BGR48LE
1821         && srcFormat != PIX_FMT_BGR48BE   && dstFormat != PIX_FMT_BGR48BE
1822         && (!needsDither || (c->flags&(SWS_FAST_BILINEAR|SWS_POINT))))
1823         c->swScale= rgbToRgbWrapper;
1824
1825     if ((usePal(srcFormat) && (
1826         dstFormat == PIX_FMT_RGB32   ||
1827         dstFormat == PIX_FMT_RGB32_1 ||
1828         dstFormat == PIX_FMT_RGB24   ||
1829         dstFormat == PIX_FMT_BGR32   ||
1830         dstFormat == PIX_FMT_BGR32_1 ||
1831         dstFormat == PIX_FMT_BGR24)))
1832         c->swScale= palToRgbWrapper;
1833
1834     if (srcFormat == PIX_FMT_YUV422P) {
1835         if (dstFormat == PIX_FMT_YUYV422)
1836             c->swScale= yuv422pToYuy2Wrapper;
1837         else if (dstFormat == PIX_FMT_UYVY422)
1838             c->swScale= yuv422pToUyvyWrapper;
1839     }
1840
1841     /* LQ converters if -sws 0 or -sws 4*/
1842     if (c->flags&(SWS_FAST_BILINEAR|SWS_POINT)) {
1843         /* yv12_to_yuy2 */
1844         if (srcFormat == PIX_FMT_YUV420P || srcFormat == PIX_FMT_YUVA420P) {
1845             if (dstFormat == PIX_FMT_YUYV422)
1846                 c->swScale= planarToYuy2Wrapper;
1847             else if (dstFormat == PIX_FMT_UYVY422)
1848                 c->swScale= planarToUyvyWrapper;
1849         }
1850     }
1851     if(srcFormat == PIX_FMT_YUYV422 && (dstFormat == PIX_FMT_YUV420P || dstFormat == PIX_FMT_YUVA420P))
1852         c->swScale= yuyvToYuv420Wrapper;
1853     if(srcFormat == PIX_FMT_UYVY422 && (dstFormat == PIX_FMT_YUV420P || dstFormat == PIX_FMT_YUVA420P))
1854         c->swScale= uyvyToYuv420Wrapper;
1855     if(srcFormat == PIX_FMT_YUYV422 && dstFormat == PIX_FMT_YUV422P)
1856         c->swScale= yuyvToYuv422Wrapper;
1857     if(srcFormat == PIX_FMT_UYVY422 && dstFormat == PIX_FMT_YUV422P)
1858         c->swScale= uyvyToYuv422Wrapper;
1859
1860     /* simple copy */
1861     if (  srcFormat == dstFormat
1862         || (srcFormat == PIX_FMT_YUVA420P && dstFormat == PIX_FMT_YUV420P)
1863         || (srcFormat == PIX_FMT_YUV420P && dstFormat == PIX_FMT_YUVA420P)
1864         || (isPlanarYUV(srcFormat) && isGray(dstFormat))
1865         || (isPlanarYUV(dstFormat) && isGray(srcFormat))
1866         || (isGray(dstFormat) && isGray(srcFormat))
1867         || (isPlanarYUV(srcFormat) && isPlanarYUV(dstFormat)
1868             && c->chrDstHSubSample == c->chrSrcHSubSample
1869             && c->chrDstVSubSample == c->chrSrcVSubSample
1870             && dstFormat != PIX_FMT_NV12 && dstFormat != PIX_FMT_NV21
1871             && srcFormat != PIX_FMT_NV12 && srcFormat != PIX_FMT_NV21))
1872     {
1873         if (isPacked(c->srcFormat))
1874             c->swScale= packedCopyWrapper;
1875         else /* Planar YUV or gray */
1876             c->swScale= planarCopyWrapper;
1877     }
1878
1879     if (ARCH_BFIN)
1880         ff_bfin_get_unscaled_swscale(c);
1881     if (HAVE_ALTIVEC)
1882         ff_swscale_get_unscaled_altivec(c);
1883 }
1884
1885 static void reset_ptr(const uint8_t* src[], int format)
1886 {
1887     if(!isALPHA(format))
1888         src[3]=NULL;
1889     if(!isPlanarYUV(format)) {
1890         src[3]=src[2]=NULL;
1891
1892         if (!usePal(format))
1893             src[1]= NULL;
1894     }
1895 }
1896
1897 static int check_image_pointers(uint8_t *data[4], enum PixelFormat pix_fmt,
1898                                 const int linesizes[4])
1899 {
1900     const AVPixFmtDescriptor *desc = &av_pix_fmt_descriptors[pix_fmt];
1901     int i;
1902
1903     for (i = 0; i < 4; i++) {
1904         int plane = desc->comp[i].plane;
1905         if (!data[plane] || !linesizes[plane])
1906             return 0;
1907     }
1908
1909     return 1;
1910 }
1911
1912 /**
1913  * swscale wrapper, so we don't need to export the SwsContext.
1914  * Assumes planar YUV to be in YUV order instead of YVU.
1915  */
1916 int sws_scale(SwsContext *c, const uint8_t* const src[], const int srcStride[], int srcSliceY,
1917               int srcSliceH, uint8_t* const dst[], const int dstStride[])
1918 {
1919     int i;
1920     const uint8_t* src2[4]= {src[0], src[1], src[2], src[3]};
1921     uint8_t* dst2[4]= {dst[0], dst[1], dst[2], dst[3]};
1922
1923     // do not mess up sliceDir if we have a "trailing" 0-size slice
1924     if (srcSliceH == 0)
1925         return 0;
1926
1927     if (!check_image_pointers(src, c->srcFormat, srcStride)) {
1928         av_log(c, AV_LOG_ERROR, "bad src image pointers\n");
1929         return 0;
1930     }
1931     if (!check_image_pointers(dst, c->dstFormat, dstStride)) {
1932         av_log(c, AV_LOG_ERROR, "bad dst image pointers\n");
1933         return 0;
1934     }
1935
1936     if (c->sliceDir == 0 && srcSliceY != 0 && srcSliceY + srcSliceH != c->srcH) {
1937         av_log(c, AV_LOG_ERROR, "Slices start in the middle!\n");
1938         return 0;
1939     }
1940     if (c->sliceDir == 0) {
1941         if (srcSliceY == 0) c->sliceDir = 1; else c->sliceDir = -1;
1942     }
1943
1944     if (usePal(c->srcFormat)) {
1945         for (i=0; i<256; i++) {
1946             int p, r, g, b,y,u,v;
1947             if(c->srcFormat == PIX_FMT_PAL8) {
1948                 p=((const uint32_t*)(src[1]))[i];
1949                 r= (p>>16)&0xFF;
1950                 g= (p>> 8)&0xFF;
1951                 b=  p     &0xFF;
1952             } else if(c->srcFormat == PIX_FMT_RGB8) {
1953                 r= (i>>5    )*36;
1954                 g= ((i>>2)&7)*36;
1955                 b= (i&3     )*85;
1956             } else if(c->srcFormat == PIX_FMT_BGR8) {
1957                 b= (i>>6    )*85;
1958                 g= ((i>>3)&7)*36;
1959                 r= (i&7     )*36;
1960             } else if(c->srcFormat == PIX_FMT_RGB4_BYTE) {
1961                 r= (i>>3    )*255;
1962                 g= ((i>>1)&3)*85;
1963                 b= (i&1     )*255;
1964             } else if(c->srcFormat == PIX_FMT_GRAY8 || c->srcFormat == PIX_FMT_Y400A) {
1965                 r = g = b = i;
1966             } else {
1967                 assert(c->srcFormat == PIX_FMT_BGR4_BYTE);
1968                 b= (i>>3    )*255;
1969                 g= ((i>>1)&3)*85;
1970                 r= (i&1     )*255;
1971             }
1972             y= av_clip_uint8((RY*r + GY*g + BY*b + ( 33<<(RGB2YUV_SHIFT-1)))>>RGB2YUV_SHIFT);
1973             u= av_clip_uint8((RU*r + GU*g + BU*b + (257<<(RGB2YUV_SHIFT-1)))>>RGB2YUV_SHIFT);
1974             v= av_clip_uint8((RV*r + GV*g + BV*b + (257<<(RGB2YUV_SHIFT-1)))>>RGB2YUV_SHIFT);
1975             c->pal_yuv[i]= y + (u<<8) + (v<<16);
1976
1977             switch(c->dstFormat) {
1978             case PIX_FMT_BGR32:
1979 #if !HAVE_BIGENDIAN
1980             case PIX_FMT_RGB24:
1981 #endif
1982                 c->pal_rgb[i]=  r + (g<<8) + (b<<16);
1983                 break;
1984             case PIX_FMT_BGR32_1:
1985 #if HAVE_BIGENDIAN
1986             case PIX_FMT_BGR24:
1987 #endif
1988                 c->pal_rgb[i]= (r + (g<<8) + (b<<16)) << 8;
1989                 break;
1990             case PIX_FMT_RGB32_1:
1991 #if HAVE_BIGENDIAN
1992             case PIX_FMT_RGB24:
1993 #endif
1994                 c->pal_rgb[i]= (b + (g<<8) + (r<<16)) << 8;
1995                 break;
1996             case PIX_FMT_RGB32:
1997 #if !HAVE_BIGENDIAN
1998             case PIX_FMT_BGR24:
1999 #endif
2000             default:
2001                 c->pal_rgb[i]=  b + (g<<8) + (r<<16);
2002             }
2003         }
2004     }
2005
2006     // copy strides, so they can safely be modified
2007     if (c->sliceDir == 1) {
2008         // slices go from top to bottom
2009         int srcStride2[4]= {srcStride[0], srcStride[1], srcStride[2], srcStride[3]};
2010         int dstStride2[4]= {dstStride[0], dstStride[1], dstStride[2], dstStride[3]};
2011
2012         reset_ptr(src2, c->srcFormat);
2013         reset_ptr((const uint8_t**)dst2, c->dstFormat);
2014
2015         /* reset slice direction at end of frame */
2016         if (srcSliceY + srcSliceH == c->srcH)
2017             c->sliceDir = 0;
2018
2019         return c->swScale(c, src2, srcStride2, srcSliceY, srcSliceH, dst2, dstStride2);
2020     } else {
2021         // slices go from bottom to top => we flip the image internally
2022         int srcStride2[4]= {-srcStride[0], -srcStride[1], -srcStride[2], -srcStride[3]};
2023         int dstStride2[4]= {-dstStride[0], -dstStride[1], -dstStride[2], -dstStride[3]};
2024
2025         src2[0] += (srcSliceH-1)*srcStride[0];
2026         if (!usePal(c->srcFormat))
2027             src2[1] += ((srcSliceH>>c->chrSrcVSubSample)-1)*srcStride[1];
2028         src2[2] += ((srcSliceH>>c->chrSrcVSubSample)-1)*srcStride[2];
2029         src2[3] += (srcSliceH-1)*srcStride[3];
2030         dst2[0] += ( c->dstH                      -1)*dstStride[0];
2031         dst2[1] += ((c->dstH>>c->chrDstVSubSample)-1)*dstStride[1];
2032         dst2[2] += ((c->dstH>>c->chrDstVSubSample)-1)*dstStride[2];
2033         dst2[3] += ( c->dstH                      -1)*dstStride[3];
2034
2035         reset_ptr(src2, c->srcFormat);
2036         reset_ptr((const uint8_t**)dst2, c->dstFormat);
2037
2038         /* reset slice direction at end of frame */
2039         if (!srcSliceY)
2040             c->sliceDir = 0;
2041
2042         return c->swScale(c, src2, srcStride2, c->srcH-srcSliceY-srcSliceH, srcSliceH, dst2, dstStride2);
2043     }
2044 }
2045
2046 /* Convert the palette to the same packed 32-bit format as the palette */
2047 void sws_convertPalette8ToPacked32(const uint8_t *src, uint8_t *dst, int num_pixels, const uint8_t *palette)
2048 {
2049     int i;
2050
2051     for (i=0; i<num_pixels; i++)
2052         ((uint32_t *) dst)[i] = ((const uint32_t *) palette)[src[i]];
2053 }
2054
2055 /* Palette format: ABCD -> dst format: ABC */
2056 void sws_convertPalette8ToPacked24(const uint8_t *src, uint8_t *dst, int num_pixels, const uint8_t *palette)
2057 {
2058     int i;
2059
2060     for (i=0; i<num_pixels; i++) {
2061         //FIXME slow?
2062         dst[0]= palette[src[i]*4+0];
2063         dst[1]= palette[src[i]*4+1];
2064         dst[2]= palette[src[i]*4+2];
2065         dst+= 3;
2066     }
2067 }