]> git.sesse.net Git - ffmpeg/blob - libavcodec/rawdec.c
Merge commit '6655c933a887a2d20707fff657b614aa1d86a25b'
[ffmpeg] / libavcodec / rawdec.c
1 /*
2  * Raw Video Decoder
3  * Copyright (c) 2001 Fabrice Bellard
4  *
5  * This file is part of FFmpeg.
6  *
7  * FFmpeg is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * FFmpeg is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with FFmpeg; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 /**
23  * @file
24  * Raw Video Decoder
25  */
26
27 #include "avcodec.h"
28 #include "dsputil.h"
29 #include "get_bits.h"
30 #include "internal.h"
31 #include "raw.h"
32 #include "libavutil/avassert.h"
33 #include "libavutil/buffer.h"
34 #include "libavutil/common.h"
35 #include "libavutil/intreadwrite.h"
36 #include "libavutil/imgutils.h"
37 #include "libavutil/opt.h"
38
39 typedef struct RawVideoContext {
40     AVClass *av_class;
41     AVBufferRef *palette;
42     int frame_size;  /* size of the frame in bytes */
43     int flip;
44     int is_2_4_bpp; // 2 or 4 bpp raw in avi/mov
45     int is_yuv2;
46     int is_lt_16bpp; // 16bpp pixfmt and bits_per_coded_sample < 16
47     int tff;
48
49     DSPContext dsp;
50     void *bitstream_buf;
51     unsigned int bitstream_buf_size;
52 } RawVideoContext;
53
54 static const AVOption options[]={
55 {"top", "top field first", offsetof(RawVideoContext, tff), AV_OPT_TYPE_INT, {.i64 = -1}, -1, 1, AV_OPT_FLAG_DECODING_PARAM|AV_OPT_FLAG_VIDEO_PARAM},
56 {NULL}
57 };
58
59 static const AVClass rawdec_class = {
60     .class_name = "rawdec",
61     .option     = options,
62     .version    = LIBAVUTIL_VERSION_INT,
63 };
64
65 static const PixelFormatTag pix_fmt_bps_avi[] = {
66     { AV_PIX_FMT_MONOWHITE, 1 },
67     { AV_PIX_FMT_PAL8,    2 },
68     { AV_PIX_FMT_PAL8,    4 },
69     { AV_PIX_FMT_PAL8,    8 },
70     { AV_PIX_FMT_RGB444LE, 12 },
71     { AV_PIX_FMT_RGB555LE, 15 },
72     { AV_PIX_FMT_RGB555LE, 16 },
73     { AV_PIX_FMT_BGR24,  24 },
74     { AV_PIX_FMT_BGRA,   32 },
75     { AV_PIX_FMT_NONE,    0 },
76 };
77
78 static const PixelFormatTag pix_fmt_bps_mov[] = {
79     { AV_PIX_FMT_MONOWHITE, 1 },
80     { AV_PIX_FMT_PAL8,      2 },
81     { AV_PIX_FMT_PAL8,      4 },
82     { AV_PIX_FMT_PAL8,      8 },
83     // FIXME swscale does not support 16 bit in .mov, sample 16bit.mov
84     // http://developer.apple.com/documentation/QuickTime/QTFF/QTFFChap3/qtff3.html
85     { AV_PIX_FMT_RGB555BE, 16 },
86     { AV_PIX_FMT_RGB24,    24 },
87     { AV_PIX_FMT_ARGB,     32 },
88     { AV_PIX_FMT_MONOWHITE,33 },
89     { AV_PIX_FMT_NONE,      0 },
90 };
91
92 enum AVPixelFormat avpriv_find_pix_fmt(const PixelFormatTag *tags,
93                                        unsigned int fourcc)
94 {
95     while (tags->pix_fmt >= 0) {
96         if (tags->fourcc == fourcc)
97             return tags->pix_fmt;
98         tags++;
99     }
100     return AV_PIX_FMT_NONE;
101 }
102
103 #if LIBAVCODEC_VERSION_MAJOR < 55
104 enum AVPixelFormat ff_find_pix_fmt(const PixelFormatTag *tags, unsigned int fourcc)
105 {
106     return avpriv_find_pix_fmt(tags, fourcc);
107 }
108 #endif
109
110 static av_cold int raw_init_decoder(AVCodecContext *avctx)
111 {
112     RawVideoContext *context = avctx->priv_data;
113     const AVPixFmtDescriptor *desc;
114
115     ff_dsputil_init(&context->dsp, avctx);
116
117     if (   avctx->codec_tag == MKTAG('r','a','w',' ')
118         || avctx->codec_tag == MKTAG('N','O','1','6'))
119         avctx->pix_fmt = avpriv_find_pix_fmt(pix_fmt_bps_mov,
120                                       avctx->bits_per_coded_sample);
121     else if (avctx->codec_tag == MKTAG('W', 'R', 'A', 'W'))
122         avctx->pix_fmt = avpriv_find_pix_fmt(pix_fmt_bps_avi,
123                                       avctx->bits_per_coded_sample);
124     else if (avctx->codec_tag && (avctx->codec_tag & 0xFFFFFF) != MKTAG('B','I','T', 0))
125         avctx->pix_fmt = avpriv_find_pix_fmt(ff_raw_pix_fmt_tags, avctx->codec_tag);
126     else if (avctx->pix_fmt == AV_PIX_FMT_NONE && avctx->bits_per_coded_sample)
127         avctx->pix_fmt = avpriv_find_pix_fmt(pix_fmt_bps_avi,
128                                       avctx->bits_per_coded_sample);
129
130     desc = av_pix_fmt_desc_get(avctx->pix_fmt);
131     if (!desc) {
132         av_log(avctx, AV_LOG_ERROR, "Invalid pixel format.\n");
133         return AVERROR(EINVAL);
134     }
135
136     if (desc->flags & (AV_PIX_FMT_FLAG_PAL | AV_PIX_FMT_FLAG_PSEUDOPAL)) {
137         context->palette = av_buffer_alloc(AVPALETTE_SIZE);
138         if (!context->palette)
139             return AVERROR(ENOMEM);
140         if (desc->flags & AV_PIX_FMT_FLAG_PSEUDOPAL)
141             avpriv_set_systematic_pal2((uint32_t*)context->palette->data, avctx->pix_fmt);
142         else
143             memset(context->palette->data, 0, AVPALETTE_SIZE);
144     }
145
146     if ((avctx->bits_per_coded_sample == 4 || avctx->bits_per_coded_sample == 2) &&
147         avctx->pix_fmt == AV_PIX_FMT_PAL8 &&
148        (!avctx->codec_tag || avctx->codec_tag == MKTAG('r','a','w',' '))) {
149         context->is_2_4_bpp = 1;
150         context->frame_size = avpicture_get_size(avctx->pix_fmt,
151                                                  FFALIGN(avctx->width, 16),
152                                                  avctx->height);
153     } else {
154         context->is_lt_16bpp = av_get_bits_per_pixel(desc) == 16 && avctx->bits_per_coded_sample && avctx->bits_per_coded_sample < 16;
155         context->frame_size = avpicture_get_size(avctx->pix_fmt, avctx->width,
156                                                  avctx->height);
157     }
158
159     if ((avctx->extradata_size >= 9 &&
160          !memcmp(avctx->extradata + avctx->extradata_size - 9, "BottomUp", 9)) ||
161         avctx->codec_tag == MKTAG('c','y','u','v') ||
162         avctx->codec_tag == MKTAG(3, 0, 0, 0) ||
163         avctx->codec_tag == MKTAG('W','R','A','W'))
164         context->flip = 1;
165
166     if (avctx->codec_tag == AV_RL32("yuv2") &&
167         avctx->pix_fmt   == AV_PIX_FMT_YUYV422)
168         context->is_yuv2 = 1;
169
170     return 0;
171 }
172
173 static void flip(AVCodecContext *avctx, AVPicture *picture)
174 {
175     picture->data[0]     += picture->linesize[0] * (avctx->height - 1);
176     picture->linesize[0] *= -1;
177 }
178
179 /*
180  * Scale sample to 16-bit resolution
181  */
182 #define SCALE16(x, bits) (((x) << (16 - (bits))) | ((x) >> (2 * (bits) - 16)))
183
184 /**
185  * Scale buffer to 16 bits per coded sample resolution
186  */
187 #define MKSCALE16(name, r16, w16) \
188 static void name(AVCodecContext *avctx, uint8_t * dst, const uint8_t *buf, int buf_size, int packed) \
189 { \
190     int i; \
191     if (!packed) { \
192         for (i = 0; i + 1 < buf_size; i += 2) \
193             w16(dst + i, SCALE16(r16(buf + i), avctx->bits_per_coded_sample)); \
194     } else { \
195         GetBitContext gb; \
196         init_get_bits(&gb, buf, buf_size * 8); \
197         for (i = 0; i < avctx->width * avctx->height; i++) { \
198             int sample = get_bits(&gb, avctx->bits_per_coded_sample); \
199             w16(dst + i*2, SCALE16(sample, avctx->bits_per_coded_sample)); \
200         } \
201    } \
202 }
203
204 MKSCALE16(scale16be, AV_RB16, AV_WB16)
205 MKSCALE16(scale16le, AV_RL16, AV_WL16)
206
207 static int raw_decode(AVCodecContext *avctx, void *data, int *got_frame,
208                       AVPacket *avpkt)
209 {
210     const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(avctx->pix_fmt);
211     RawVideoContext *context       = avctx->priv_data;
212     const uint8_t *buf             = avpkt->data;
213     int buf_size                   = avpkt->size;
214     int linesize_align             = 4;
215     int res, len;
216     int need_copy                  = !avpkt->buf || context->is_2_4_bpp || context->is_yuv2 || context->is_lt_16bpp;
217
218     AVFrame   *frame   = data;
219     AVPicture *picture = data;
220
221     frame->pict_type        = AV_PICTURE_TYPE_I;
222     frame->key_frame        = 1;
223     frame->reordered_opaque = avctx->reordered_opaque;
224     frame->pkt_pts          = avctx->internal->pkt->pts;
225     av_frame_set_pkt_pos     (frame, avctx->internal->pkt->pos);
226     av_frame_set_pkt_duration(frame, avctx->internal->pkt->duration);
227
228     if (context->tff >= 0) {
229         frame->interlaced_frame = 1;
230         frame->top_field_first  = context->tff;
231     }
232
233     if ((res = av_image_check_size(avctx->width, avctx->height, 0, avctx)) < 0)
234         return res;
235
236     if (need_copy)
237         frame->buf[0] = av_buffer_alloc(FFMAX(context->frame_size, buf_size));
238     else
239         frame->buf[0] = av_buffer_ref(avpkt->buf);
240     if (!frame->buf[0])
241         return AVERROR(ENOMEM);
242
243     //2bpp and 4bpp raw in avi and mov (yes this is ugly ...)
244     if (context->is_2_4_bpp) {
245         int i;
246         uint8_t *dst = frame->buf[0]->data;
247         buf_size = context->frame_size - AVPALETTE_SIZE;
248         if (avctx->bits_per_coded_sample == 4) {
249             for (i = 0; 2 * i + 1 < buf_size && i<avpkt->size; i++) {
250                 dst[2 * i + 0] = buf[i] >> 4;
251                 dst[2 * i + 1] = buf[i] & 15;
252             }
253             linesize_align = 8;
254         } else {
255             av_assert0(avctx->bits_per_coded_sample == 2);
256             for (i = 0; 4 * i + 3 < buf_size && i<avpkt->size; i++) {
257                 dst[4 * i + 0] = buf[i] >> 6;
258                 dst[4 * i + 1] = buf[i] >> 4 & 3;
259                 dst[4 * i + 2] = buf[i] >> 2 & 3;
260                 dst[4 * i + 3] = buf[i]      & 3;
261             }
262             linesize_align = 16;
263         }
264         buf = dst;
265     } else if (context->is_lt_16bpp) {
266         uint8_t *dst = frame->buf[0]->data;
267         int packed = (avctx->codec_tag & 0xFFFFFF) == MKTAG('B','I','T', 0);
268         int swap   =  avctx->codec_tag >> 24;
269
270         if (packed && swap) {
271             av_fast_padded_malloc(&context->bitstream_buf, &context->bitstream_buf_size, buf_size);
272             if (!context->bitstream_buf)
273                 return AVERROR(ENOMEM);
274             if (swap == 16)
275                 context->dsp.bswap16_buf(context->bitstream_buf, (const uint16_t*)buf, buf_size / 2);
276             else if (swap == 32)
277                 context->dsp.bswap_buf(context->bitstream_buf, (const uint32_t*)buf, buf_size / 4);
278             else
279                 return AVERROR_INVALIDDATA;
280             buf = context->bitstream_buf;
281         }
282
283         if (desc->flags & AV_PIX_FMT_FLAG_BE)
284             scale16be(avctx, dst, buf, buf_size, packed);
285         else
286             scale16le(avctx, dst, buf, buf_size, packed);
287
288         buf = dst;
289     } else if (need_copy) {
290         memcpy(frame->buf[0]->data, buf, buf_size);
291         buf = frame->buf[0]->data;
292     }
293
294     if (avctx->codec_tag == MKTAG('A', 'V', '1', 'x') ||
295         avctx->codec_tag == MKTAG('A', 'V', 'u', 'p'))
296         buf += buf_size - context->frame_size;
297
298     len = context->frame_size - (avctx->pix_fmt==AV_PIX_FMT_PAL8 ? AVPALETTE_SIZE : 0);
299     if (buf_size < len && (avctx->codec_tag & 0xFFFFFF) != MKTAG('B','I','T', 0)) {
300         av_log(avctx, AV_LOG_ERROR, "Invalid buffer size, packet size %d < expected frame_size %d\n", buf_size, len);
301         av_buffer_unref(&frame->buf[0]);
302         return AVERROR(EINVAL);
303     }
304
305     if ((res = avpicture_fill(picture, buf, avctx->pix_fmt,
306                               avctx->width, avctx->height)) < 0) {
307         av_buffer_unref(&frame->buf[0]);
308         return res;
309     }
310
311     if (avctx->pix_fmt == AV_PIX_FMT_PAL8) {
312         const uint8_t *pal = av_packet_get_side_data(avpkt, AV_PKT_DATA_PALETTE,
313                                                      NULL);
314
315         if (pal) {
316             av_buffer_unref(&context->palette);
317             context->palette = av_buffer_alloc(AVPALETTE_SIZE);
318             if (!context->palette) {
319                 av_buffer_unref(&frame->buf[0]);
320                 return AVERROR(ENOMEM);
321             }
322             memcpy(context->palette->data, pal, AVPALETTE_SIZE);
323             frame->palette_has_changed = 1;
324         }
325     }
326
327     if ((avctx->pix_fmt==AV_PIX_FMT_BGR24    ||
328         avctx->pix_fmt==AV_PIX_FMT_GRAY8    ||
329         avctx->pix_fmt==AV_PIX_FMT_RGB555LE ||
330         avctx->pix_fmt==AV_PIX_FMT_RGB555BE ||
331         avctx->pix_fmt==AV_PIX_FMT_RGB565LE ||
332         avctx->pix_fmt==AV_PIX_FMT_MONOWHITE ||
333         avctx->pix_fmt==AV_PIX_FMT_PAL8) &&
334         FFALIGN(frame->linesize[0], linesize_align) * avctx->height <= buf_size)
335         frame->linesize[0] = FFALIGN(frame->linesize[0], linesize_align);
336
337     if (avctx->pix_fmt == AV_PIX_FMT_NV12 && avctx->codec_tag == MKTAG('N', 'V', '1', '2') &&
338         FFALIGN(frame->linesize[0], linesize_align) * avctx->height +
339         FFALIGN(frame->linesize[1], linesize_align) * ((avctx->height + 1) / 2) <= buf_size) {
340         int la0 = FFALIGN(frame->linesize[0], linesize_align);
341         frame->data[1] += (la0 - frame->linesize[0]) * avctx->height;
342         frame->linesize[0] = la0;
343         frame->linesize[1] = FFALIGN(frame->linesize[1], linesize_align);
344     }
345
346     if ((avctx->pix_fmt == AV_PIX_FMT_PAL8 && buf_size < context->frame_size) ||
347         (desc->flags & AV_PIX_FMT_FLAG_PSEUDOPAL)) {
348         frame->buf[1]  = av_buffer_ref(context->palette);
349         if (!frame->buf[1]) {
350             av_buffer_unref(&frame->buf[0]);
351             return AVERROR(ENOMEM);
352         }
353         frame->data[1] = frame->buf[1]->data;
354     }
355
356     if (avctx->pix_fmt == AV_PIX_FMT_BGR24 &&
357         ((frame->linesize[0] + 3) & ~3) * avctx->height <= buf_size)
358         frame->linesize[0] = (frame->linesize[0] + 3) & ~3;
359
360     if (context->flip)
361         flip(avctx, picture);
362
363     if (avctx->codec_tag == MKTAG('Y', 'V', '1', '2') ||
364         avctx->codec_tag == MKTAG('Y', 'V', '1', '6') ||
365         avctx->codec_tag == MKTAG('Y', 'V', '2', '4') ||
366         avctx->codec_tag == MKTAG('Y', 'V', 'U', '9'))
367         FFSWAP(uint8_t *, picture->data[1], picture->data[2]);
368
369     if (avctx->codec_tag == AV_RL32("I420") && (avctx->width+1)*(avctx->height+1) * 3/2 == buf_size) {
370         picture->data[1] = picture->data[1] +  (avctx->width+1)*(avctx->height+1) -avctx->width*avctx->height;
371         picture->data[2] = picture->data[2] + ((avctx->width+1)*(avctx->height+1) -avctx->width*avctx->height)*5/4;
372     }
373
374     if (avctx->codec_tag == AV_RL32("yuv2") &&
375         avctx->pix_fmt   == AV_PIX_FMT_YUYV422) {
376         int x, y;
377         uint8_t *line = picture->data[0];
378         for (y = 0; y < avctx->height; y++) {
379             for (x = 0; x < avctx->width; x++)
380                 line[2 * x + 1] ^= 0x80;
381             line += picture->linesize[0];
382         }
383     }
384     if (avctx->codec_tag == AV_RL32("YVYU") &&
385         avctx->pix_fmt   == AV_PIX_FMT_YUYV422) {
386         int x, y;
387         uint8_t *line = picture->data[0];
388         for(y = 0; y < avctx->height; y++) {
389             for(x = 0; x < avctx->width - 1; x += 2)
390                 FFSWAP(uint8_t, line[2*x + 1], line[2*x + 3]);
391             line += picture->linesize[0];
392         }
393     }
394
395     if (avctx->field_order > AV_FIELD_PROGRESSIVE) { /* we have interlaced material flagged in container */
396         frame->interlaced_frame = 1;
397         if (avctx->field_order == AV_FIELD_TT || avctx->field_order == AV_FIELD_TB)
398             frame->top_field_first = 1;
399     }
400
401     *got_frame = 1;
402     return buf_size;
403 }
404
405 static av_cold int raw_close_decoder(AVCodecContext *avctx)
406 {
407     RawVideoContext *context = avctx->priv_data;
408
409     av_buffer_unref(&context->palette);
410     return 0;
411 }
412
413 AVCodec ff_rawvideo_decoder = {
414     .name           = "rawvideo",
415     .long_name      = NULL_IF_CONFIG_SMALL("raw video"),
416     .type           = AVMEDIA_TYPE_VIDEO,
417     .id             = AV_CODEC_ID_RAWVIDEO,
418     .priv_data_size = sizeof(RawVideoContext),
419     .init           = raw_init_decoder,
420     .close          = raw_close_decoder,
421     .decode         = raw_decode,
422     .priv_class     = &rawdec_class,
423 };