]> git.sesse.net Git - ffmpeg/blob - libavcodec/rawdec.c
Merge commit 'a846dccb29d2bb0798af1d47d06100eda9ca87cc'
[ffmpeg] / libavcodec / rawdec.c
1 /*
2  * Raw Video Decoder
3  * Copyright (c) 2001 Fabrice Bellard
4  *
5  * This file is part of FFmpeg.
6  *
7  * FFmpeg is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * FFmpeg is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with FFmpeg; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 /**
23  * @file
24  * Raw Video Decoder
25  */
26
27 #include "avcodec.h"
28 #include "raw.h"
29 #include "libavutil/avassert.h"
30 #include "libavutil/common.h"
31 #include "libavutil/intreadwrite.h"
32 #include "libavutil/imgutils.h"
33 #include "libavutil/opt.h"
34
35 typedef struct RawVideoContext {
36     AVClass *av_class;
37     uint32_t palette[AVPALETTE_COUNT];
38     unsigned char *buffer;  /* block of memory for holding one frame */
39     int            length;  /* number of bytes in buffer */
40     int flip;
41     AVFrame pic;             ///< AVCodecContext.coded_frame
42     int tff;
43 } RawVideoContext;
44
45 static const AVOption options[]={
46 {"top", "top field first", offsetof(RawVideoContext, tff), AV_OPT_TYPE_INT, {.i64 = -1}, -1, 1, AV_OPT_FLAG_DECODING_PARAM|AV_OPT_FLAG_VIDEO_PARAM},
47 {NULL}
48 };
49
50 static const AVClass class = {
51     .class_name = "rawdec",
52     .option     = options,
53     .version    = LIBAVUTIL_VERSION_INT,
54 };
55
56 static const PixelFormatTag pix_fmt_bps_avi[] = {
57     { AV_PIX_FMT_MONOWHITE, 1 },
58     { AV_PIX_FMT_PAL8,    2 },
59     { AV_PIX_FMT_PAL8,    4 },
60     { AV_PIX_FMT_PAL8,    8 },
61     { AV_PIX_FMT_RGB444LE, 12 },
62     { AV_PIX_FMT_RGB555LE, 15 },
63     { AV_PIX_FMT_RGB555LE, 16 },
64     { AV_PIX_FMT_BGR24,  24 },
65     { AV_PIX_FMT_BGRA,   32 },
66     { AV_PIX_FMT_NONE,    0 },
67 };
68
69 static const PixelFormatTag pix_fmt_bps_mov[] = {
70     { AV_PIX_FMT_MONOWHITE, 1 },
71     { AV_PIX_FMT_PAL8,      2 },
72     { AV_PIX_FMT_PAL8,      4 },
73     { AV_PIX_FMT_PAL8,      8 },
74     // FIXME swscale does not support 16 bit in .mov, sample 16bit.mov
75     // http://developer.apple.com/documentation/QuickTime/QTFF/QTFFChap3/qtff3.html
76     { AV_PIX_FMT_RGB555BE, 16 },
77     { AV_PIX_FMT_RGB24,    24 },
78     { AV_PIX_FMT_ARGB,     32 },
79     { AV_PIX_FMT_MONOWHITE,33 },
80     { AV_PIX_FMT_NONE,      0 },
81 };
82
83 enum AVPixelFormat avpriv_find_pix_fmt(const PixelFormatTag *tags,
84                                        unsigned int fourcc)
85 {
86     while (tags->pix_fmt >= 0) {
87         if (tags->fourcc == fourcc)
88             return tags->pix_fmt;
89         tags++;
90     }
91     return AV_PIX_FMT_NONE;
92 }
93
94 #if LIBAVCODEC_VERSION_MAJOR < 55
95 enum AVPixelFormat ff_find_pix_fmt(const PixelFormatTag *tags, unsigned int fourcc)
96 {
97     return avpriv_find_pix_fmt(tags, fourcc);
98 }
99 #endif
100
101 static av_cold int raw_init_decoder(AVCodecContext *avctx)
102 {
103     RawVideoContext *context = avctx->priv_data;
104
105     if (   avctx->codec_tag == MKTAG('r','a','w',' ')
106         || avctx->codec_tag == MKTAG('N','O','1','6'))
107         avctx->pix_fmt = avpriv_find_pix_fmt(pix_fmt_bps_mov,
108                                       avctx->bits_per_coded_sample);
109     else if (avctx->codec_tag == MKTAG('W', 'R', 'A', 'W'))
110         avctx->pix_fmt = avpriv_find_pix_fmt(pix_fmt_bps_avi,
111                                       avctx->bits_per_coded_sample);
112     else if (avctx->codec_tag)
113         avctx->pix_fmt = avpriv_find_pix_fmt(ff_raw_pix_fmt_tags, avctx->codec_tag);
114     else if (avctx->pix_fmt == AV_PIX_FMT_NONE && avctx->bits_per_coded_sample)
115         avctx->pix_fmt = avpriv_find_pix_fmt(pix_fmt_bps_avi,
116                                       avctx->bits_per_coded_sample);
117
118     if (avctx->pix_fmt == AV_PIX_FMT_NONE) {
119         av_log(avctx, AV_LOG_ERROR, "Pixel format was not specified and cannot be detected\n");
120         return AVERROR(EINVAL);
121     }
122
123     avpriv_set_systematic_pal2(context->palette, avctx->pix_fmt);
124     if ((avctx->bits_per_coded_sample == 4 || avctx->bits_per_coded_sample == 2) &&
125         avctx->pix_fmt == AV_PIX_FMT_PAL8 &&
126        (!avctx->codec_tag || avctx->codec_tag == MKTAG('r','a','w',' '))) {
127         context->length = avpicture_get_size(avctx->pix_fmt,
128                                              FFALIGN(avctx->width, 16),
129                                              avctx->height);
130         if (context->length < 0)
131             return context->length;
132         context->buffer = av_malloc(context->length);
133         if (!context->buffer)
134             return AVERROR(ENOMEM);
135     } else {
136         context->length = avpicture_get_size(avctx->pix_fmt, avctx->width, avctx->height);
137         if (context->length < 0)
138             return context->length;
139     }
140     context->pic.pict_type = AV_PICTURE_TYPE_I;
141     context->pic.key_frame = 1;
142
143     avctx->coded_frame = &context->pic;
144
145     if ((avctx->extradata_size >= 9 &&
146          !memcmp(avctx->extradata + avctx->extradata_size - 9, "BottomUp", 9)) ||
147         avctx->codec_tag == MKTAG('c','y','u','v') ||
148         avctx->codec_tag == MKTAG(3, 0, 0, 0) ||
149         avctx->codec_tag == MKTAG('W','R','A','W'))
150         context->flip = 1;
151
152     if (avctx->field_order > AV_FIELD_PROGRESSIVE) { /*we have interlaced material flagged in container */
153         avctx->coded_frame->interlaced_frame = 1;
154         if (avctx->field_order == AV_FIELD_TT  || avctx->field_order == AV_FIELD_TB)
155             avctx->coded_frame->top_field_first = 1;
156     }
157
158
159     return 0;
160 }
161
162 static void flip(AVCodecContext *avctx, AVPicture *picture)
163 {
164     picture->data[0]     += picture->linesize[0] * (avctx->height - 1);
165     picture->linesize[0] *= -1;
166 }
167
168 static int raw_decode(AVCodecContext *avctx, void *data, int *got_frame,
169                       AVPacket *avpkt)
170 {
171     const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(avctx->pix_fmt);
172     RawVideoContext *context       = avctx->priv_data;
173     const uint8_t *buf             = avpkt->data;
174     int buf_size                   = avpkt->size;
175     int linesize_align             = 4;
176     int res, len;
177
178     AVFrame   *frame   = data;
179     AVPicture *picture = data;
180
181     frame->pict_type        = avctx->coded_frame->pict_type;
182     frame->interlaced_frame = avctx->coded_frame->interlaced_frame;
183     frame->top_field_first  = avctx->coded_frame->top_field_first;
184     frame->reordered_opaque = avctx->reordered_opaque;
185     frame->pkt_pts          = avctx->pkt->pts;
186     frame->pkt_pos          = avctx->pkt->pos;
187     frame->pkt_duration     = avctx->pkt->duration;
188
189     if (context->tff >= 0) {
190         frame->interlaced_frame = 1;
191         frame->top_field_first  = context->tff;
192     }
193
194     if ((res = av_image_check_size(avctx->width, avctx->height, 0, avctx)) < 0)
195         return res;
196
197     //2bpp and 4bpp raw in avi and mov (yes this is ugly ...)
198     if (context->buffer) {
199         int i;
200         uint8_t *dst = context->buffer;
201         buf_size = context->length - AVPALETTE_SIZE;
202         if (avctx->bits_per_coded_sample == 4) {
203             for (i = 0; 2 * i + 1 < buf_size && i<avpkt->size; i++) {
204                 dst[2 * i + 0] = buf[i] >> 4;
205                 dst[2 * i + 1] = buf[i] & 15;
206             }
207             linesize_align = 8;
208         } else {
209             av_assert0(avctx->bits_per_coded_sample == 2);
210             for (i = 0; 4 * i + 3 < buf_size && i<avpkt->size; i++) {
211                 dst[4 * i + 0] = buf[i] >> 6;
212                 dst[4 * i + 1] = buf[i] >> 4 & 3;
213                 dst[4 * i + 2] = buf[i] >> 2 & 3;
214                 dst[4 * i + 3] = buf[i]      & 3;
215             }
216             linesize_align = 16;
217         }
218         buf = dst;
219     }
220
221     if (avctx->codec_tag == MKTAG('A', 'V', '1', 'x') ||
222         avctx->codec_tag == MKTAG('A', 'V', 'u', 'p'))
223         buf += buf_size - context->length;
224
225     len = context->length - (avctx->pix_fmt==AV_PIX_FMT_PAL8 ? AVPALETTE_SIZE : 0);
226     if (buf_size < len) {
227         av_log(avctx, AV_LOG_ERROR, "Invalid buffer size, packet size %d < expected length %d\n", buf_size, len);
228         return AVERROR(EINVAL);
229     }
230
231     if ((res = avpicture_fill(picture, buf, avctx->pix_fmt,
232                               avctx->width, avctx->height)) < 0)
233         return res;
234     if ((avctx->pix_fmt == AV_PIX_FMT_PAL8 && buf_size < context->length) ||
235         (desc->flags & PIX_FMT_PSEUDOPAL)) {
236         frame->data[1] = (uint8_t*)context->palette;
237     }
238     if (avctx->pix_fmt == AV_PIX_FMT_PAL8) {
239         const uint8_t *pal = av_packet_get_side_data(avpkt, AV_PKT_DATA_PALETTE,
240                                                      NULL);
241
242         if (pal) {
243             memcpy(frame->data[1], pal, AVPALETTE_SIZE);
244             frame->palette_has_changed = 1;
245         }
246     }
247     if ((avctx->pix_fmt==AV_PIX_FMT_BGR24    ||
248         avctx->pix_fmt==AV_PIX_FMT_GRAY8    ||
249         avctx->pix_fmt==AV_PIX_FMT_RGB555LE ||
250         avctx->pix_fmt==AV_PIX_FMT_RGB555BE ||
251         avctx->pix_fmt==AV_PIX_FMT_RGB565LE ||
252         avctx->pix_fmt==AV_PIX_FMT_MONOWHITE ||
253         avctx->pix_fmt==AV_PIX_FMT_PAL8) &&
254         FFALIGN(frame->linesize[0], linesize_align) * avctx->height <= buf_size)
255         frame->linesize[0] = FFALIGN(frame->linesize[0], linesize_align);
256
257     if (avctx->pix_fmt == AV_PIX_FMT_NV12 && avctx->codec_tag == MKTAG('N', 'V', '1', '2') &&
258         FFALIGN(frame->linesize[0], linesize_align) * avctx->height +
259         FFALIGN(frame->linesize[1], linesize_align) * ((avctx->height + 1) / 2) <= buf_size) {
260         int la0 = FFALIGN(frame->linesize[0], linesize_align);
261         frame->data[1] += (la0 - frame->linesize[0]) * avctx->height;
262         frame->linesize[0] = la0;
263         frame->linesize[1] = FFALIGN(frame->linesize[1], linesize_align);
264     }
265
266     if (context->flip)
267         flip(avctx, picture);
268
269     if (avctx->codec_tag == MKTAG('Y', 'V', '1', '2') ||
270         avctx->codec_tag == MKTAG('Y', 'V', '1', '6') ||
271         avctx->codec_tag == MKTAG('Y', 'V', '2', '4') ||
272         avctx->codec_tag == MKTAG('Y', 'V', 'U', '9'))
273         FFSWAP(uint8_t *, picture->data[1], picture->data[2]);
274
275     if (avctx->codec_tag == AV_RL32("I420") && (avctx->width+1)*(avctx->height+1) * 3/2 == buf_size) {
276         picture->data[1] = picture->data[1] +  (avctx->width+1)*(avctx->height+1) -avctx->width*avctx->height;
277         picture->data[2] = picture->data[2] + ((avctx->width+1)*(avctx->height+1) -avctx->width*avctx->height)*5/4;
278     }
279
280     if (avctx->codec_tag == AV_RL32("yuv2") &&
281         avctx->pix_fmt   == AV_PIX_FMT_YUYV422) {
282         int x, y;
283         uint8_t *line = picture->data[0];
284         for (y = 0; y < avctx->height; y++) {
285             for (x = 0; x < avctx->width; x++)
286                 line[2 * x + 1] ^= 0x80;
287             line += picture->linesize[0];
288         }
289     }
290     if (avctx->codec_tag == AV_RL32("YVYU") &&
291         avctx->pix_fmt   == AV_PIX_FMT_YUYV422) {
292         int x, y;
293         uint8_t *line = picture->data[0];
294         for(y = 0; y < avctx->height; y++) {
295             for(x = 0; x < avctx->width - 1; x += 2)
296                 FFSWAP(uint8_t, line[2*x + 1], line[2*x + 3]);
297             line += picture->linesize[0];
298         }
299     }
300
301     *got_frame = 1;
302     return buf_size;
303 }
304
305 static av_cold int raw_close_decoder(AVCodecContext *avctx)
306 {
307     RawVideoContext *context = avctx->priv_data;
308
309     av_freep(&context->buffer);
310     return 0;
311 }
312
313 AVCodec ff_rawvideo_decoder = {
314     .name           = "rawvideo",
315     .type           = AVMEDIA_TYPE_VIDEO,
316     .id             = AV_CODEC_ID_RAWVIDEO,
317     .priv_data_size = sizeof(RawVideoContext),
318     .init           = raw_init_decoder,
319     .close          = raw_close_decoder,
320     .decode         = raw_decode,
321     .long_name      = NULL_IF_CONFIG_SMALL("raw video"),
322     .priv_class     = &class,
323 };