]> git.sesse.net Git - ffmpeg/blob - libavcodec/mjpegenc.c
avcodec/ac3enc: Use specific error code in validate_float_option()
[ffmpeg] / libavcodec / mjpegenc.c
1 /*
2  * MJPEG encoder
3  * Copyright (c) 2000, 2001 Fabrice Bellard
4  * Copyright (c) 2003 Alex Beregszaszi
5  * Copyright (c) 2003-2004 Michael Niedermayer
6  *
7  * Support for external huffman table, various fixes (AVID workaround),
8  * aspecting, new decode_frame mechanism and apple mjpeg-b support
9  *                                  by Alex Beregszaszi
10  *
11  * This file is part of FFmpeg.
12  *
13  * FFmpeg is free software; you can redistribute it and/or
14  * modify it under the terms of the GNU Lesser General Public
15  * License as published by the Free Software Foundation; either
16  * version 2.1 of the License, or (at your option) any later version.
17  *
18  * FFmpeg is distributed in the hope that it will be useful,
19  * but WITHOUT ANY WARRANTY; without even the implied warranty of
20  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
21  * Lesser General Public License for more details.
22  *
23  * You should have received a copy of the GNU Lesser General Public
24  * License along with FFmpeg; if not, write to the Free Software
25  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
26  */
27
28 /**
29  * @file
30  * MJPEG encoder.
31  */
32
33 #include "libavutil/pixdesc.h"
34
35 #include "avcodec.h"
36 #include "jpegtables.h"
37 #include "mjpegenc_common.h"
38 #include "mpegvideo.h"
39 #include "mjpeg.h"
40 #include "mjpegenc.h"
41 #include "profiles.h"
42
43 static int alloc_huffman(MpegEncContext *s)
44 {
45     MJpegContext *m = s->mjpeg_ctx;
46     size_t num_mbs, num_blocks, num_codes;
47     int blocks_per_mb;
48
49     // We need to init this here as the mjpeg init is called before the common init,
50     s->mb_width  = (s->width  + 15) / 16;
51     s->mb_height = (s->height + 15) / 16;
52
53     switch (s->chroma_format) {
54     case CHROMA_420: blocks_per_mb =  6; break;
55     case CHROMA_422: blocks_per_mb =  8; break;
56     case CHROMA_444: blocks_per_mb = 12; break;
57     default: av_assert0(0);
58     };
59
60     // Make sure we have enough space to hold this frame.
61     num_mbs = s->mb_width * s->mb_height;
62     num_blocks = num_mbs * blocks_per_mb;
63     num_codes = num_blocks * 64;
64
65     m->huff_buffer = av_malloc_array(num_codes, sizeof(MJpegHuffmanCode));
66     if (!m->huff_buffer)
67         return AVERROR(ENOMEM);
68     return 0;
69 }
70
71 av_cold int ff_mjpeg_encode_init(MpegEncContext *s)
72 {
73     MJpegContext *m;
74
75     av_assert0(s->slice_context_count == 1);
76
77     if (s->width > 65500 || s->height > 65500) {
78         av_log(s, AV_LOG_ERROR, "JPEG does not support resolutions above 65500x65500\n");
79         return AVERROR(EINVAL);
80     }
81
82     m = av_mallocz(sizeof(MJpegContext));
83     if (!m)
84         return AVERROR(ENOMEM);
85
86     s->min_qcoeff=-1023;
87     s->max_qcoeff= 1023;
88
89     // Build default Huffman tables.
90     // These may be overwritten later with more optimal Huffman tables, but
91     // they are needed at least right now for some processes like trellis.
92     ff_mjpeg_build_huffman_codes(m->huff_size_dc_luminance,
93                                  m->huff_code_dc_luminance,
94                                  avpriv_mjpeg_bits_dc_luminance,
95                                  avpriv_mjpeg_val_dc);
96     ff_mjpeg_build_huffman_codes(m->huff_size_dc_chrominance,
97                                  m->huff_code_dc_chrominance,
98                                  avpriv_mjpeg_bits_dc_chrominance,
99                                  avpriv_mjpeg_val_dc);
100     ff_mjpeg_build_huffman_codes(m->huff_size_ac_luminance,
101                                  m->huff_code_ac_luminance,
102                                  avpriv_mjpeg_bits_ac_luminance,
103                                  avpriv_mjpeg_val_ac_luminance);
104     ff_mjpeg_build_huffman_codes(m->huff_size_ac_chrominance,
105                                  m->huff_code_ac_chrominance,
106                                  avpriv_mjpeg_bits_ac_chrominance,
107                                  avpriv_mjpeg_val_ac_chrominance);
108
109     ff_init_uni_ac_vlc(m->huff_size_ac_luminance,   m->uni_ac_vlc_len);
110     ff_init_uni_ac_vlc(m->huff_size_ac_chrominance, m->uni_chroma_ac_vlc_len);
111     s->intra_ac_vlc_length      =
112     s->intra_ac_vlc_last_length = m->uni_ac_vlc_len;
113     s->intra_chroma_ac_vlc_length      =
114     s->intra_chroma_ac_vlc_last_length = m->uni_chroma_ac_vlc_len;
115
116     // Buffers start out empty.
117     m->huff_ncode = 0;
118     s->mjpeg_ctx = m;
119
120     if(s->huffman == HUFFMAN_TABLE_OPTIMAL)
121         return alloc_huffman(s);
122
123     return 0;
124 }
125
126 av_cold void ff_mjpeg_encode_close(MpegEncContext *s)
127 {
128     av_freep(&s->mjpeg_ctx->huff_buffer);
129     av_freep(&s->mjpeg_ctx);
130 }
131
132 /**
133  * Add code and table_id to the JPEG buffer.
134  *
135  * @param s The MJpegContext which contains the JPEG buffer.
136  * @param table_id Which Huffman table the code belongs to.
137  * @param code The encoded exponent of the coefficients and the run-bits.
138  */
139 static inline void ff_mjpeg_encode_code(MJpegContext *s, uint8_t table_id, int code)
140 {
141     MJpegHuffmanCode *c = &s->huff_buffer[s->huff_ncode++];
142     c->table_id = table_id;
143     c->code = code;
144 }
145
146 /**
147  * Add the coefficient's data to the JPEG buffer.
148  *
149  * @param s The MJpegContext which contains the JPEG buffer.
150  * @param table_id Which Huffman table the code belongs to.
151  * @param val The coefficient.
152  * @param run The run-bits.
153  */
154 static void ff_mjpeg_encode_coef(MJpegContext *s, uint8_t table_id, int val, int run)
155 {
156     int mant, code;
157
158     if (val == 0) {
159         av_assert0(run == 0);
160         ff_mjpeg_encode_code(s, table_id, 0);
161     } else {
162         mant = val;
163         if (val < 0) {
164             val = -val;
165             mant--;
166         }
167
168         code = (run << 4) | (av_log2_16bit(val) + 1);
169
170         s->huff_buffer[s->huff_ncode].mant = mant;
171         ff_mjpeg_encode_code(s, table_id, code);
172     }
173 }
174
175 /**
176  * Add the block's data into the JPEG buffer.
177  *
178  * @param s The MJpegEncContext that contains the JPEG buffer.
179  * @param block The block.
180  * @param n The block's index or number.
181  */
182 static void record_block(MpegEncContext *s, int16_t *block, int n)
183 {
184     int i, j, table_id;
185     int component, dc, last_index, val, run;
186     MJpegContext *m = s->mjpeg_ctx;
187
188     /* DC coef */
189     component = (n <= 3 ? 0 : (n&1) + 1);
190     table_id = (n <= 3 ? 0 : 1);
191     dc = block[0]; /* overflow is impossible */
192     val = dc - s->last_dc[component];
193
194     ff_mjpeg_encode_coef(m, table_id, val, 0);
195
196     s->last_dc[component] = dc;
197
198     /* AC coefs */
199
200     run = 0;
201     last_index = s->block_last_index[n];
202     table_id |= 2;
203
204     for(i=1;i<=last_index;i++) {
205         j = s->intra_scantable.permutated[i];
206         val = block[j];
207
208         if (val == 0) {
209             run++;
210         } else {
211             while (run >= 16) {
212                 ff_mjpeg_encode_code(m, table_id, 0xf0);
213                 run -= 16;
214             }
215             ff_mjpeg_encode_coef(m, table_id, val, run);
216             run = 0;
217         }
218     }
219
220     /* output EOB only if not already 64 values */
221     if (last_index < 63 || run != 0)
222         ff_mjpeg_encode_code(m, table_id, 0);
223 }
224
225 static void encode_block(MpegEncContext *s, int16_t *block, int n)
226 {
227     int mant, nbits, code, i, j;
228     int component, dc, run, last_index, val;
229     MJpegContext *m = s->mjpeg_ctx;
230     uint8_t *huff_size_ac;
231     uint16_t *huff_code_ac;
232
233     /* DC coef */
234     component = (n <= 3 ? 0 : (n&1) + 1);
235     dc = block[0]; /* overflow is impossible */
236     val = dc - s->last_dc[component];
237     if (n < 4) {
238         ff_mjpeg_encode_dc(&s->pb, val, m->huff_size_dc_luminance, m->huff_code_dc_luminance);
239         huff_size_ac = m->huff_size_ac_luminance;
240         huff_code_ac = m->huff_code_ac_luminance;
241     } else {
242         ff_mjpeg_encode_dc(&s->pb, val, m->huff_size_dc_chrominance, m->huff_code_dc_chrominance);
243         huff_size_ac = m->huff_size_ac_chrominance;
244         huff_code_ac = m->huff_code_ac_chrominance;
245     }
246     s->last_dc[component] = dc;
247
248     /* AC coefs */
249
250     run = 0;
251     last_index = s->block_last_index[n];
252     for(i=1;i<=last_index;i++) {
253         j = s->intra_scantable.permutated[i];
254         val = block[j];
255         if (val == 0) {
256             run++;
257         } else {
258             while (run >= 16) {
259                 put_bits(&s->pb, huff_size_ac[0xf0], huff_code_ac[0xf0]);
260                 run -= 16;
261             }
262             mant = val;
263             if (val < 0) {
264                 val = -val;
265                 mant--;
266             }
267
268             nbits= av_log2_16bit(val) + 1;
269             code = (run << 4) | nbits;
270
271             put_bits(&s->pb, huff_size_ac[code], huff_code_ac[code]);
272
273             put_sbits(&s->pb, nbits, mant);
274             run = 0;
275         }
276     }
277
278     /* output EOB only if not already 64 values */
279     if (last_index < 63 || run != 0)
280         put_bits(&s->pb, huff_size_ac[0], huff_code_ac[0]);
281 }
282
283 void ff_mjpeg_encode_mb(MpegEncContext *s, int16_t block[12][64])
284 {
285     int i;
286     if (s->huffman == HUFFMAN_TABLE_OPTIMAL) {
287         if (s->chroma_format == CHROMA_444) {
288             record_block(s, block[0], 0);
289             record_block(s, block[2], 2);
290             record_block(s, block[4], 4);
291             record_block(s, block[8], 8);
292             record_block(s, block[5], 5);
293             record_block(s, block[9], 9);
294
295             if (16*s->mb_x+8 < s->width) {
296                 record_block(s, block[1], 1);
297                 record_block(s, block[3], 3);
298                 record_block(s, block[6], 6);
299                 record_block(s, block[10], 10);
300                 record_block(s, block[7], 7);
301                 record_block(s, block[11], 11);
302             }
303         } else {
304             for(i=0;i<5;i++) {
305                 record_block(s, block[i], i);
306             }
307             if (s->chroma_format == CHROMA_420) {
308                 record_block(s, block[5], 5);
309             } else {
310                 record_block(s, block[6], 6);
311                 record_block(s, block[5], 5);
312                 record_block(s, block[7], 7);
313             }
314         }
315     } else {
316         if (s->chroma_format == CHROMA_444) {
317             encode_block(s, block[0], 0);
318             encode_block(s, block[2], 2);
319             encode_block(s, block[4], 4);
320             encode_block(s, block[8], 8);
321             encode_block(s, block[5], 5);
322             encode_block(s, block[9], 9);
323
324             if (16*s->mb_x+8 < s->width) {
325                 encode_block(s, block[1], 1);
326                 encode_block(s, block[3], 3);
327                 encode_block(s, block[6], 6);
328                 encode_block(s, block[10], 10);
329                 encode_block(s, block[7], 7);
330                 encode_block(s, block[11], 11);
331             }
332         } else {
333             for(i=0;i<5;i++) {
334                 encode_block(s, block[i], i);
335             }
336             if (s->chroma_format == CHROMA_420) {
337                 encode_block(s, block[5], 5);
338             } else {
339                 encode_block(s, block[6], 6);
340                 encode_block(s, block[5], 5);
341                 encode_block(s, block[7], 7);
342             }
343         }
344
345         s->i_tex_bits += get_bits_diff(s);
346     }
347 }
348
349 #if CONFIG_AMV_ENCODER
350 // maximum over s->mjpeg_vsample[i]
351 #define V_MAX 2
352 static int amv_encode_picture(AVCodecContext *avctx, AVPacket *pkt,
353                               const AVFrame *pic_arg, int *got_packet)
354 {
355     MpegEncContext *s = avctx->priv_data;
356     AVFrame *pic;
357     int i, ret;
358     int chroma_h_shift, chroma_v_shift;
359
360     av_pix_fmt_get_chroma_sub_sample(avctx->pix_fmt, &chroma_h_shift, &chroma_v_shift);
361
362     if ((avctx->height & 15) && avctx->strict_std_compliance > FF_COMPLIANCE_UNOFFICIAL) {
363         av_log(avctx, AV_LOG_ERROR,
364                "Heights which are not a multiple of 16 might fail with some decoders, "
365                "use vstrict=-1 / -strict -1 to use %d anyway.\n", avctx->height);
366         av_log(avctx, AV_LOG_WARNING, "If you have a device that plays AMV videos, please test if videos "
367                "with such heights work with it and report your findings to ffmpeg-devel@ffmpeg.org\n");
368         return AVERROR_EXPERIMENTAL;
369     }
370
371     pic = av_frame_clone(pic_arg);
372     if (!pic)
373         return AVERROR(ENOMEM);
374     //picture should be flipped upside-down
375     for(i=0; i < 3; i++) {
376         int vsample = i ? 2 >> chroma_v_shift : 2;
377         pic->data[i] += pic->linesize[i] * (vsample * s->height / V_MAX - 1);
378         pic->linesize[i] *= -1;
379     }
380     ret = ff_mpv_encode_picture(avctx, pkt, pic, got_packet);
381     av_frame_free(&pic);
382     return ret;
383 }
384 #endif
385
386 #define OFFSET(x) offsetof(MpegEncContext, x)
387 #define VE AV_OPT_FLAG_VIDEO_PARAM | AV_OPT_FLAG_ENCODING_PARAM
388 static const AVOption options[] = {
389 FF_MPV_COMMON_OPTS
390 { "pred", "Prediction method", OFFSET(pred), AV_OPT_TYPE_INT, { .i64 = 1 }, 1, 3, VE, "pred" },
391     { "left",   NULL, 0, AV_OPT_TYPE_CONST, { .i64 = 1 }, INT_MIN, INT_MAX, VE, "pred" },
392     { "plane",  NULL, 0, AV_OPT_TYPE_CONST, { .i64 = 2 }, INT_MIN, INT_MAX, VE, "pred" },
393     { "median", NULL, 0, AV_OPT_TYPE_CONST, { .i64 = 3 }, INT_MIN, INT_MAX, VE, "pred" },
394 { "huffman", "Huffman table strategy", OFFSET(huffman), AV_OPT_TYPE_INT, { .i64 = HUFFMAN_TABLE_OPTIMAL }, 0, NB_HUFFMAN_TABLE_OPTION - 1, VE, "huffman" },
395     { "default", NULL, 0, AV_OPT_TYPE_CONST, { .i64 = HUFFMAN_TABLE_DEFAULT }, INT_MIN, INT_MAX, VE, "huffman" },
396     { "optimal", NULL, 0, AV_OPT_TYPE_CONST, { .i64 = HUFFMAN_TABLE_OPTIMAL }, INT_MIN, INT_MAX, VE, "huffman" },
397 { NULL},
398 };
399
400 #if CONFIG_MJPEG_ENCODER
401 static const AVClass mjpeg_class = {
402     .class_name = "mjpeg encoder",
403     .item_name  = av_default_item_name,
404     .option     = options,
405     .version    = LIBAVUTIL_VERSION_INT,
406 };
407
408 AVCodec ff_mjpeg_encoder = {
409     .name           = "mjpeg",
410     .long_name      = NULL_IF_CONFIG_SMALL("MJPEG (Motion JPEG)"),
411     .type           = AVMEDIA_TYPE_VIDEO,
412     .id             = AV_CODEC_ID_MJPEG,
413     .priv_data_size = sizeof(MpegEncContext),
414     .init           = ff_mpv_encode_init,
415     .encode2        = ff_mpv_encode_picture,
416     .close          = ff_mpv_encode_end,
417     .capabilities   = AV_CODEC_CAP_SLICE_THREADS | AV_CODEC_CAP_FRAME_THREADS | AV_CODEC_CAP_INTRA_ONLY,
418     .pix_fmts       = (const enum AVPixelFormat[]) {
419         AV_PIX_FMT_YUVJ420P, AV_PIX_FMT_YUVJ422P, AV_PIX_FMT_YUVJ444P, AV_PIX_FMT_NONE
420     },
421     .priv_class     = &mjpeg_class,
422     .profiles       = NULL_IF_CONFIG_SMALL(ff_mjpeg_profiles),
423 };
424 #endif
425
426 #if CONFIG_AMV_ENCODER
427 static const AVClass amv_class = {
428     .class_name = "amv encoder",
429     .item_name  = av_default_item_name,
430     .option     = options,
431     .version    = LIBAVUTIL_VERSION_INT,
432 };
433
434 AVCodec ff_amv_encoder = {
435     .name           = "amv",
436     .long_name      = NULL_IF_CONFIG_SMALL("AMV Video"),
437     .type           = AVMEDIA_TYPE_VIDEO,
438     .id             = AV_CODEC_ID_AMV,
439     .priv_data_size = sizeof(MpegEncContext),
440     .init           = ff_mpv_encode_init,
441     .encode2        = amv_encode_picture,
442     .close          = ff_mpv_encode_end,
443     .pix_fmts       = (const enum AVPixelFormat[]) {
444         AV_PIX_FMT_YUVJ420P, AV_PIX_FMT_NONE
445     },
446     .priv_class     = &amv_class,
447 };
448 #endif