]> git.sesse.net Git - ffmpeg/blob - avconv.c
76f73db43bcc669f9638a96c7aa89031d50624e6
[ffmpeg] / avconv.c
1 /*
2  * avconv main
3  * Copyright (c) 2000-2011 The libav developers.
4  *
5  * This file is part of Libav.
6  *
7  * Libav is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * Libav is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with Libav; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 #include "config.h"
23 #include <ctype.h>
24 #include <string.h>
25 #include <math.h>
26 #include <stdlib.h>
27 #include <errno.h>
28 #include <signal.h>
29 #include <limits.h>
30 #include <unistd.h>
31 #include "libavformat/avformat.h"
32 #include "libavdevice/avdevice.h"
33 #include "libswscale/swscale.h"
34 #include "libavutil/opt.h"
35 #include "libavcodec/audioconvert.h"
36 #include "libavutil/audioconvert.h"
37 #include "libavutil/parseutils.h"
38 #include "libavutil/samplefmt.h"
39 #include "libavutil/colorspace.h"
40 #include "libavutil/fifo.h"
41 #include "libavutil/intreadwrite.h"
42 #include "libavutil/dict.h"
43 #include "libavutil/mathematics.h"
44 #include "libavutil/pixdesc.h"
45 #include "libavutil/avstring.h"
46 #include "libavutil/libm.h"
47 #include "libavutil/imgutils.h"
48 #include "libavformat/os_support.h"
49
50 #if CONFIG_AVFILTER
51 # include "libavfilter/avfilter.h"
52 # include "libavfilter/avfiltergraph.h"
53 # include "libavfilter/buffersrc.h"
54 # include "libavfilter/vsrc_buffer.h"
55 #endif
56
57 #if HAVE_SYS_RESOURCE_H
58 #include <sys/types.h>
59 #include <sys/time.h>
60 #include <sys/resource.h>
61 #elif HAVE_GETPROCESSTIMES
62 #include <windows.h>
63 #endif
64 #if HAVE_GETPROCESSMEMORYINFO
65 #include <windows.h>
66 #include <psapi.h>
67 #endif
68
69 #if HAVE_SYS_SELECT_H
70 #include <sys/select.h>
71 #endif
72
73 #include <time.h>
74
75 #include "cmdutils.h"
76
77 #include "libavutil/avassert.h"
78
79 #define VSYNC_AUTO       -1
80 #define VSYNC_PASSTHROUGH 0
81 #define VSYNC_CFR         1
82 #define VSYNC_VFR         2
83
84 const char program_name[] = "avconv";
85 const int program_birth_year = 2000;
86
87 /* select an input stream for an output stream */
88 typedef struct StreamMap {
89     int disabled;           /** 1 is this mapping is disabled by a negative map */
90     int file_index;
91     int stream_index;
92     int sync_file_index;
93     int sync_stream_index;
94 } StreamMap;
95
96 /**
97  * select an input file for an output file
98  */
99 typedef struct MetadataMap {
100     int  file;      ///< file index
101     char type;      ///< type of metadata to copy -- (g)lobal, (s)tream, (c)hapter or (p)rogram
102     int  index;     ///< stream/chapter/program number
103 } MetadataMap;
104
105 static const OptionDef options[];
106
107 static int video_discard = 0;
108 static int same_quant = 0;
109 static int do_deinterlace = 0;
110 static int intra_dc_precision = 8;
111 static int qp_hist = 0;
112
113 static int file_overwrite = 0;
114 static int do_benchmark = 0;
115 static int do_hex_dump = 0;
116 static int do_pkt_dump = 0;
117 static int do_pass = 0;
118 static char *pass_logfilename_prefix = NULL;
119 static int video_sync_method = VSYNC_AUTO;
120 static int audio_sync_method = 0;
121 static float audio_drift_threshold = 0.1;
122 static int copy_ts = 0;
123 static int copy_tb = 1;
124 static int opt_shortest = 0;
125 static char *vstats_filename;
126 static FILE *vstats_file;
127
128 static int audio_volume = 256;
129
130 static int exit_on_error = 0;
131 static int using_stdin = 0;
132 static int64_t video_size = 0;
133 static int64_t audio_size = 0;
134 static int64_t extra_size = 0;
135 static int nb_frames_dup = 0;
136 static int nb_frames_drop = 0;
137 static int input_sync;
138
139 static float dts_delta_threshold = 10;
140
141 static int print_stats = 1;
142
143 static uint8_t *audio_buf;
144 static unsigned int allocated_audio_buf_size;
145
146 #define DEFAULT_PASS_LOGFILENAME_PREFIX "av2pass"
147
148 typedef struct FrameBuffer {
149     uint8_t *base[4];
150     uint8_t *data[4];
151     int  linesize[4];
152
153     int h, w;
154     enum PixelFormat pix_fmt;
155
156     int refcount;
157     struct InputStream *ist;
158     struct FrameBuffer *next;
159 } FrameBuffer;
160
161 typedef struct InputStream {
162     int file_index;
163     AVStream *st;
164     int discard;             /* true if stream data should be discarded */
165     int decoding_needed;     /* true if the packets must be decoded in 'raw_fifo' */
166     AVCodec *dec;
167     AVFrame *decoded_frame;
168     AVFrame *filtered_frame;
169
170     int64_t       start;     /* time when read started */
171     /* predicted dts of the next packet read for this stream or (when there are
172      * several frames in a packet) of the next frame in current packet */
173     int64_t       next_dts;
174     /* dts of the last packet read for this stream */
175     int64_t       last_dts;
176     PtsCorrectionContext pts_ctx;
177     double ts_scale;
178     int is_start;            /* is 1 at the start and after a discontinuity */
179     int showed_multi_packet_warning;
180     AVDictionary *opts;
181
182     /* a pool of free buffers for decoded data */
183     FrameBuffer *buffer_pool;
184 } InputStream;
185
186 typedef struct InputFile {
187     AVFormatContext *ctx;
188     int eof_reached;      /* true if eof reached */
189     int ist_index;        /* index of first stream in ist_table */
190     int buffer_size;      /* current total buffer size */
191     int64_t ts_offset;
192     int nb_streams;       /* number of stream that avconv is aware of; may be different
193                              from ctx.nb_streams if new streams appear during av_read_frame() */
194     int rate_emu;
195 } InputFile;
196
197 typedef struct OutputStream {
198     int file_index;          /* file index */
199     int index;               /* stream index in the output file */
200     int source_index;        /* InputStream index */
201     AVStream *st;            /* stream in the output file */
202     int encoding_needed;     /* true if encoding needed for this stream */
203     int frame_number;
204     /* input pts and corresponding output pts
205        for A/V sync */
206     // double sync_ipts;        /* dts from the AVPacket of the demuxer in second units */
207     struct InputStream *sync_ist; /* input stream to sync against */
208     int64_t sync_opts;       /* output frame counter, could be changed to some true timestamp */ // FIXME look at frame_number
209     /* pts of the first frame encoded for this stream, used for limiting
210      * recording time */
211     int64_t first_pts;
212     AVBitStreamFilterContext *bitstream_filters;
213     AVCodec *enc;
214     int64_t max_frames;
215     AVFrame *output_frame;
216
217     /* video only */
218     int video_resample;
219     AVFrame pict_tmp;      /* temporary image for resampling */
220     struct SwsContext *img_resample_ctx; /* for image resampling */
221     int resample_height;
222     int resample_width;
223     int resample_pix_fmt;
224     AVRational frame_rate;
225     int force_fps;
226     int top_field_first;
227
228     float frame_aspect_ratio;
229
230     /* forced key frames */
231     int64_t *forced_kf_pts;
232     int forced_kf_count;
233     int forced_kf_index;
234
235     /* audio only */
236     int audio_resample;
237     ReSampleContext *resample; /* for audio resampling */
238     int resample_sample_fmt;
239     int resample_channels;
240     int resample_sample_rate;
241     int reformat_pair;
242     AVAudioConvert *reformat_ctx;
243     AVFifoBuffer *fifo;     /* for compression: one audio fifo per codec */
244     FILE *logfile;
245
246 #if CONFIG_AVFILTER
247     AVFilterContext *output_video_filter;
248     AVFilterContext *input_video_filter;
249     AVFilterBufferRef *picref;
250     char *avfilter;
251     AVFilterGraph *graph;
252 #endif
253
254     int64_t sws_flags;
255     AVDictionary *opts;
256     int is_past_recording_time;
257     int stream_copy;
258     const char *attachment_filename;
259     int copy_initial_nonkeyframes;
260 } OutputStream;
261
262
263 typedef struct OutputFile {
264     AVFormatContext *ctx;
265     AVDictionary *opts;
266     int ost_index;       /* index of the first stream in output_streams */
267     int64_t recording_time; /* desired length of the resulting file in microseconds */
268     int64_t start_time;     /* start time in microseconds */
269     uint64_t limit_filesize;
270 } OutputFile;
271
272 static InputStream *input_streams   = NULL;
273 static int         nb_input_streams = 0;
274 static InputFile   *input_files     = NULL;
275 static int         nb_input_files   = 0;
276
277 static OutputStream *output_streams = NULL;
278 static int        nb_output_streams = 0;
279 static OutputFile   *output_files   = NULL;
280 static int        nb_output_files   = 0;
281
282 typedef struct OptionsContext {
283     /* input/output options */
284     int64_t start_time;
285     const char *format;
286
287     SpecifierOpt *codec_names;
288     int        nb_codec_names;
289     SpecifierOpt *audio_channels;
290     int        nb_audio_channels;
291     SpecifierOpt *audio_sample_rate;
292     int        nb_audio_sample_rate;
293     SpecifierOpt *frame_rates;
294     int        nb_frame_rates;
295     SpecifierOpt *frame_sizes;
296     int        nb_frame_sizes;
297     SpecifierOpt *frame_pix_fmts;
298     int        nb_frame_pix_fmts;
299
300     /* input options */
301     int64_t input_ts_offset;
302     int rate_emu;
303
304     SpecifierOpt *ts_scale;
305     int        nb_ts_scale;
306     SpecifierOpt *dump_attachment;
307     int        nb_dump_attachment;
308
309     /* output options */
310     StreamMap *stream_maps;
311     int     nb_stream_maps;
312     /* first item specifies output metadata, second is input */
313     MetadataMap (*meta_data_maps)[2];
314     int nb_meta_data_maps;
315     int metadata_global_manual;
316     int metadata_streams_manual;
317     int metadata_chapters_manual;
318     const char **attachments;
319     int       nb_attachments;
320
321     int chapters_input_file;
322
323     int64_t recording_time;
324     uint64_t limit_filesize;
325     float mux_preload;
326     float mux_max_delay;
327
328     int video_disable;
329     int audio_disable;
330     int subtitle_disable;
331     int data_disable;
332
333     /* indexed by output file stream index */
334     int   *streamid_map;
335     int nb_streamid_map;
336
337     SpecifierOpt *metadata;
338     int        nb_metadata;
339     SpecifierOpt *max_frames;
340     int        nb_max_frames;
341     SpecifierOpt *bitstream_filters;
342     int        nb_bitstream_filters;
343     SpecifierOpt *codec_tags;
344     int        nb_codec_tags;
345     SpecifierOpt *sample_fmts;
346     int        nb_sample_fmts;
347     SpecifierOpt *qscale;
348     int        nb_qscale;
349     SpecifierOpt *forced_key_frames;
350     int        nb_forced_key_frames;
351     SpecifierOpt *force_fps;
352     int        nb_force_fps;
353     SpecifierOpt *frame_aspect_ratios;
354     int        nb_frame_aspect_ratios;
355     SpecifierOpt *rc_overrides;
356     int        nb_rc_overrides;
357     SpecifierOpt *intra_matrices;
358     int        nb_intra_matrices;
359     SpecifierOpt *inter_matrices;
360     int        nb_inter_matrices;
361     SpecifierOpt *top_field_first;
362     int        nb_top_field_first;
363     SpecifierOpt *metadata_map;
364     int        nb_metadata_map;
365     SpecifierOpt *presets;
366     int        nb_presets;
367     SpecifierOpt *copy_initial_nonkeyframes;
368     int        nb_copy_initial_nonkeyframes;
369 #if CONFIG_AVFILTER
370     SpecifierOpt *filters;
371     int        nb_filters;
372 #endif
373 } OptionsContext;
374
375 #define MATCH_PER_STREAM_OPT(name, type, outvar, fmtctx, st)\
376 {\
377     int i, ret;\
378     for (i = 0; i < o->nb_ ## name; i++) {\
379         char *spec = o->name[i].specifier;\
380         if ((ret = check_stream_specifier(fmtctx, st, spec)) > 0)\
381             outvar = o->name[i].u.type;\
382         else if (ret < 0)\
383             exit_program(1);\
384     }\
385 }
386
387 static void reset_options(OptionsContext *o)
388 {
389     const OptionDef *po = options;
390
391     /* all OPT_SPEC and OPT_STRING can be freed in generic way */
392     while (po->name) {
393         void *dst = (uint8_t*)o + po->u.off;
394
395         if (po->flags & OPT_SPEC) {
396             SpecifierOpt **so = dst;
397             int i, *count = (int*)(so + 1);
398             for (i = 0; i < *count; i++) {
399                 av_freep(&(*so)[i].specifier);
400                 if (po->flags & OPT_STRING)
401                     av_freep(&(*so)[i].u.str);
402             }
403             av_freep(so);
404             *count = 0;
405         } else if (po->flags & OPT_OFFSET && po->flags & OPT_STRING)
406             av_freep(dst);
407         po++;
408     }
409
410     av_freep(&o->stream_maps);
411     av_freep(&o->meta_data_maps);
412     av_freep(&o->streamid_map);
413
414     memset(o, 0, sizeof(*o));
415
416     o->mux_max_delay  = 0.7;
417     o->recording_time = INT64_MAX;
418     o->limit_filesize = UINT64_MAX;
419     o->chapters_input_file = INT_MAX;
420
421     uninit_opts();
422     init_opts();
423 }
424
425 static int alloc_buffer(InputStream *ist, FrameBuffer **pbuf)
426 {
427     AVCodecContext *s = ist->st->codec;
428     FrameBuffer  *buf = av_mallocz(sizeof(*buf));
429     int i, ret;
430     const int pixel_size = av_pix_fmt_descriptors[s->pix_fmt].comp[0].step_minus1+1;
431     int h_chroma_shift, v_chroma_shift;
432     int edge = 32; // XXX should be avcodec_get_edge_width(), but that fails on svq1
433     int w = s->width, h = s->height;
434
435     if (!buf)
436         return AVERROR(ENOMEM);
437
438     if (!(s->flags & CODEC_FLAG_EMU_EDGE)) {
439         w += 2*edge;
440         h += 2*edge;
441     }
442
443     avcodec_align_dimensions(s, &w, &h);
444     if ((ret = av_image_alloc(buf->base, buf->linesize, w, h,
445                               s->pix_fmt, 32)) < 0) {
446         av_freep(&buf);
447         return ret;
448     }
449     /* XXX this shouldn't be needed, but some tests break without this line
450      * those decoders are buggy and need to be fixed.
451      * the following tests fail:
452      * cdgraphics, ansi, aasc, fraps-v1, qtrle-1bit
453      */
454     memset(buf->base[0], 128, ret);
455
456     avcodec_get_chroma_sub_sample(s->pix_fmt, &h_chroma_shift, &v_chroma_shift);
457     for (i = 0; i < FF_ARRAY_ELEMS(buf->data); i++) {
458         const int h_shift = i==0 ? 0 : h_chroma_shift;
459         const int v_shift = i==0 ? 0 : v_chroma_shift;
460         if (s->flags & CODEC_FLAG_EMU_EDGE)
461             buf->data[i] = buf->base[i];
462         else
463             buf->data[i] = buf->base[i] +
464                            FFALIGN((buf->linesize[i]*edge >> v_shift) +
465                                    (pixel_size*edge >> h_shift), 32);
466     }
467     buf->w       = s->width;
468     buf->h       = s->height;
469     buf->pix_fmt = s->pix_fmt;
470     buf->ist     = ist;
471
472     *pbuf = buf;
473     return 0;
474 }
475
476 static void free_buffer_pool(InputStream *ist)
477 {
478     FrameBuffer *buf = ist->buffer_pool;
479     while (buf) {
480         ist->buffer_pool = buf->next;
481         av_freep(&buf->base[0]);
482         av_free(buf);
483         buf = ist->buffer_pool;
484     }
485 }
486
487 static void unref_buffer(InputStream *ist, FrameBuffer *buf)
488 {
489     av_assert0(buf->refcount);
490     buf->refcount--;
491     if (!buf->refcount) {
492         buf->next = ist->buffer_pool;
493         ist->buffer_pool = buf;
494     }
495 }
496
497 static int codec_get_buffer(AVCodecContext *s, AVFrame *frame)
498 {
499     InputStream *ist = s->opaque;
500     FrameBuffer *buf;
501     int ret, i;
502
503     if (!ist->buffer_pool && (ret = alloc_buffer(ist, &ist->buffer_pool)) < 0)
504         return ret;
505
506     buf              = ist->buffer_pool;
507     ist->buffer_pool = buf->next;
508     buf->next        = NULL;
509     if (buf->w != s->width || buf->h != s->height || buf->pix_fmt != s->pix_fmt) {
510         av_freep(&buf->base[0]);
511         av_free(buf);
512         if ((ret = alloc_buffer(ist, &buf)) < 0)
513             return ret;
514     }
515     buf->refcount++;
516
517     frame->opaque        = buf;
518     frame->type          = FF_BUFFER_TYPE_USER;
519     frame->extended_data = frame->data;
520     frame->pkt_pts       = s->pkt ? s->pkt->pts : AV_NOPTS_VALUE;
521
522     for (i = 0; i < FF_ARRAY_ELEMS(buf->data); i++) {
523         frame->base[i]     = buf->base[i];  // XXX h264.c uses base though it shouldn't
524         frame->data[i]     = buf->data[i];
525         frame->linesize[i] = buf->linesize[i];
526     }
527
528     return 0;
529 }
530
531 static void codec_release_buffer(AVCodecContext *s, AVFrame *frame)
532 {
533     InputStream *ist = s->opaque;
534     FrameBuffer *buf = frame->opaque;
535     int i;
536
537     for (i = 0; i < FF_ARRAY_ELEMS(frame->data); i++)
538         frame->data[i] = NULL;
539
540     unref_buffer(ist, buf);
541 }
542
543 static void filter_release_buffer(AVFilterBuffer *fb)
544 {
545     FrameBuffer *buf = fb->priv;
546     av_free(fb);
547     unref_buffer(buf->ist, buf);
548 }
549
550 #if CONFIG_AVFILTER
551
552 static int configure_video_filters(InputStream *ist, OutputStream *ost)
553 {
554     AVFilterContext *last_filter, *filter;
555     /** filter graph containing all filters including input & output */
556     AVCodecContext *codec = ost->st->codec;
557     AVCodecContext *icodec = ist->st->codec;
558     SinkContext sink_ctx = { .pix_fmt = codec->pix_fmt };
559     AVRational sample_aspect_ratio;
560     char args[255];
561     int ret;
562
563     ost->graph = avfilter_graph_alloc();
564
565     if (ist->st->sample_aspect_ratio.num) {
566         sample_aspect_ratio = ist->st->sample_aspect_ratio;
567     } else
568         sample_aspect_ratio = ist->st->codec->sample_aspect_ratio;
569
570     snprintf(args, 255, "%d:%d:%d:%d:%d:%d:%d", ist->st->codec->width,
571              ist->st->codec->height, ist->st->codec->pix_fmt, 1, AV_TIME_BASE,
572              sample_aspect_ratio.num, sample_aspect_ratio.den);
573
574     ret = avfilter_graph_create_filter(&ost->input_video_filter, avfilter_get_by_name("buffer"),
575                                        "src", args, NULL, ost->graph);
576     if (ret < 0)
577         return ret;
578     ret = avfilter_graph_create_filter(&ost->output_video_filter, &sink,
579                                        "out", NULL, &sink_ctx, ost->graph);
580     if (ret < 0)
581         return ret;
582     last_filter = ost->input_video_filter;
583
584     if (codec->width != icodec->width || codec->height != icodec->height) {
585         snprintf(args, 255, "%d:%d:flags=0x%X",
586                  codec->width,
587                  codec->height,
588                  (unsigned)ost->sws_flags);
589         if ((ret = avfilter_graph_create_filter(&filter, avfilter_get_by_name("scale"),
590                                                 NULL, args, NULL, ost->graph)) < 0)
591             return ret;
592         if ((ret = avfilter_link(last_filter, 0, filter, 0)) < 0)
593             return ret;
594         last_filter = filter;
595     }
596
597     snprintf(args, sizeof(args), "flags=0x%X", (unsigned)ost->sws_flags);
598     ost->graph->scale_sws_opts = av_strdup(args);
599
600     if (ost->avfilter) {
601         AVFilterInOut *outputs = av_malloc(sizeof(AVFilterInOut));
602         AVFilterInOut *inputs  = av_malloc(sizeof(AVFilterInOut));
603
604         outputs->name    = av_strdup("in");
605         outputs->filter_ctx = last_filter;
606         outputs->pad_idx = 0;
607         outputs->next    = NULL;
608
609         inputs->name    = av_strdup("out");
610         inputs->filter_ctx = ost->output_video_filter;
611         inputs->pad_idx = 0;
612         inputs->next    = NULL;
613
614         if ((ret = avfilter_graph_parse(ost->graph, ost->avfilter, inputs, outputs, NULL)) < 0)
615             return ret;
616     } else {
617         if ((ret = avfilter_link(last_filter, 0, ost->output_video_filter, 0)) < 0)
618             return ret;
619     }
620
621     if ((ret = avfilter_graph_config(ost->graph, NULL)) < 0)
622         return ret;
623
624     codec->width  = ost->output_video_filter->inputs[0]->w;
625     codec->height = ost->output_video_filter->inputs[0]->h;
626     codec->sample_aspect_ratio = ost->st->sample_aspect_ratio =
627         ost->frame_aspect_ratio ? // overridden by the -aspect cli option
628         av_d2q(ost->frame_aspect_ratio * codec->height/codec->width, 255) :
629         ost->output_video_filter->inputs[0]->sample_aspect_ratio;
630
631     return 0;
632 }
633 #endif /* CONFIG_AVFILTER */
634
635 static void term_exit(void)
636 {
637     av_log(NULL, AV_LOG_QUIET, "");
638 }
639
640 static volatile int received_sigterm = 0;
641 static volatile int received_nb_signals = 0;
642
643 static void
644 sigterm_handler(int sig)
645 {
646     received_sigterm = sig;
647     received_nb_signals++;
648     term_exit();
649 }
650
651 static void term_init(void)
652 {
653     signal(SIGINT , sigterm_handler); /* Interrupt (ANSI).    */
654     signal(SIGTERM, sigterm_handler); /* Termination (ANSI).  */
655 #ifdef SIGXCPU
656     signal(SIGXCPU, sigterm_handler);
657 #endif
658 }
659
660 static int decode_interrupt_cb(void *ctx)
661 {
662     return received_nb_signals > 1;
663 }
664
665 static const AVIOInterruptCB int_cb = { decode_interrupt_cb, NULL };
666
667 void exit_program(int ret)
668 {
669     int i;
670
671     /* close files */
672     for (i = 0; i < nb_output_files; i++) {
673         AVFormatContext *s = output_files[i].ctx;
674         if (!(s->oformat->flags & AVFMT_NOFILE) && s->pb)
675             avio_close(s->pb);
676         avformat_free_context(s);
677         av_dict_free(&output_files[i].opts);
678     }
679     for (i = 0; i < nb_output_streams; i++) {
680         AVBitStreamFilterContext *bsfc = output_streams[i].bitstream_filters;
681         while (bsfc) {
682             AVBitStreamFilterContext *next = bsfc->next;
683             av_bitstream_filter_close(bsfc);
684             bsfc = next;
685         }
686         output_streams[i].bitstream_filters = NULL;
687
688         if (output_streams[i].output_frame) {
689             AVFrame *frame = output_streams[i].output_frame;
690             if (frame->extended_data != frame->data)
691                 av_freep(&frame->extended_data);
692             av_freep(&frame);
693         }
694
695 #if CONFIG_AVFILTER
696         av_freep(&output_streams[i].avfilter);
697 #endif
698     }
699     for (i = 0; i < nb_input_files; i++) {
700         avformat_close_input(&input_files[i].ctx);
701     }
702     for (i = 0; i < nb_input_streams; i++) {
703         av_freep(&input_streams[i].decoded_frame);
704         av_freep(&input_streams[i].filtered_frame);
705         av_dict_free(&input_streams[i].opts);
706         free_buffer_pool(&input_streams[i]);
707     }
708
709     if (vstats_file)
710         fclose(vstats_file);
711     av_free(vstats_filename);
712
713     av_freep(&input_streams);
714     av_freep(&input_files);
715     av_freep(&output_streams);
716     av_freep(&output_files);
717
718     uninit_opts();
719     av_free(audio_buf);
720     allocated_audio_buf_size = 0;
721
722 #if CONFIG_AVFILTER
723     avfilter_uninit();
724 #endif
725     avformat_network_deinit();
726
727     if (received_sigterm) {
728         av_log(NULL, AV_LOG_INFO, "Received signal %d: terminating.\n",
729                (int) received_sigterm);
730         exit (255);
731     }
732
733     exit(ret);
734 }
735
736 static void assert_avoptions(AVDictionary *m)
737 {
738     AVDictionaryEntry *t;
739     if ((t = av_dict_get(m, "", NULL, AV_DICT_IGNORE_SUFFIX))) {
740         av_log(NULL, AV_LOG_FATAL, "Option %s not found.\n", t->key);
741         exit_program(1);
742     }
743 }
744
745 static void assert_codec_experimental(AVCodecContext *c, int encoder)
746 {
747     const char *codec_string = encoder ? "encoder" : "decoder";
748     AVCodec *codec;
749     if (c->codec->capabilities & CODEC_CAP_EXPERIMENTAL &&
750         c->strict_std_compliance > FF_COMPLIANCE_EXPERIMENTAL) {
751         av_log(NULL, AV_LOG_FATAL, "%s '%s' is experimental and might produce bad "
752                 "results.\nAdd '-strict experimental' if you want to use it.\n",
753                 codec_string, c->codec->name);
754         codec = encoder ? avcodec_find_encoder(c->codec->id) : avcodec_find_decoder(c->codec->id);
755         if (!(codec->capabilities & CODEC_CAP_EXPERIMENTAL))
756             av_log(NULL, AV_LOG_FATAL, "Or use the non experimental %s '%s'.\n",
757                    codec_string, codec->name);
758         exit_program(1);
759     }
760 }
761
762 static void choose_sample_fmt(AVStream *st, AVCodec *codec)
763 {
764     if (codec && codec->sample_fmts) {
765         const enum AVSampleFormat *p = codec->sample_fmts;
766         for (; *p != -1; p++) {
767             if (*p == st->codec->sample_fmt)
768                 break;
769         }
770         if (*p == -1) {
771             av_log(NULL, AV_LOG_WARNING,
772                    "Incompatible sample format '%s' for codec '%s', auto-selecting format '%s'\n",
773                    av_get_sample_fmt_name(st->codec->sample_fmt),
774                    codec->name,
775                    av_get_sample_fmt_name(codec->sample_fmts[0]));
776             st->codec->sample_fmt = codec->sample_fmts[0];
777         }
778     }
779 }
780
781 /**
782  * Update the requested input sample format based on the output sample format.
783  * This is currently only used to request float output from decoders which
784  * support multiple sample formats, one of which is AV_SAMPLE_FMT_FLT.
785  * Ideally this will be removed in the future when decoders do not do format
786  * conversion and only output in their native format.
787  */
788 static void update_sample_fmt(AVCodecContext *dec, AVCodec *dec_codec,
789                               AVCodecContext *enc)
790 {
791     /* if sample formats match or a decoder sample format has already been
792        requested, just return */
793     if (enc->sample_fmt == dec->sample_fmt ||
794         dec->request_sample_fmt > AV_SAMPLE_FMT_NONE)
795         return;
796
797     /* if decoder supports more than one output format */
798     if (dec_codec && dec_codec->sample_fmts &&
799         dec_codec->sample_fmts[0] != AV_SAMPLE_FMT_NONE &&
800         dec_codec->sample_fmts[1] != AV_SAMPLE_FMT_NONE) {
801         const enum AVSampleFormat *p;
802         int min_dec = -1, min_inc = -1;
803
804         /* find a matching sample format in the encoder */
805         for (p = dec_codec->sample_fmts; *p != AV_SAMPLE_FMT_NONE; p++) {
806             if (*p == enc->sample_fmt) {
807                 dec->request_sample_fmt = *p;
808                 return;
809             } else if (*p > enc->sample_fmt) {
810                 min_inc = FFMIN(min_inc, *p - enc->sample_fmt);
811             } else
812                 min_dec = FFMIN(min_dec, enc->sample_fmt - *p);
813         }
814
815         /* if none match, provide the one that matches quality closest */
816         dec->request_sample_fmt = min_inc > 0 ? enc->sample_fmt + min_inc :
817                                   enc->sample_fmt - min_dec;
818     }
819 }
820
821 static void choose_sample_rate(AVStream *st, AVCodec *codec)
822 {
823     if (codec && codec->supported_samplerates) {
824         const int *p  = codec->supported_samplerates;
825         int best      = 0;
826         int best_dist = INT_MAX;
827         for (; *p; p++) {
828             int dist = abs(st->codec->sample_rate - *p);
829             if (dist < best_dist) {
830                 best_dist = dist;
831                 best      = *p;
832             }
833         }
834         if (best_dist) {
835             av_log(st->codec, AV_LOG_WARNING, "Requested sampling rate unsupported using closest supported (%d)\n", best);
836         }
837         st->codec->sample_rate = best;
838     }
839 }
840
841 static void choose_pixel_fmt(AVStream *st, AVCodec *codec)
842 {
843     if (codec && codec->pix_fmts) {
844         const enum PixelFormat *p = codec->pix_fmts;
845         if (st->codec->strict_std_compliance <= FF_COMPLIANCE_UNOFFICIAL) {
846             if (st->codec->codec_id == CODEC_ID_MJPEG) {
847                 p = (const enum PixelFormat[]) { PIX_FMT_YUVJ420P, PIX_FMT_YUVJ422P, PIX_FMT_YUV420P, PIX_FMT_YUV422P, PIX_FMT_NONE };
848             } else if (st->codec->codec_id == CODEC_ID_LJPEG) {
849                 p = (const enum PixelFormat[]) { PIX_FMT_YUVJ420P, PIX_FMT_YUVJ422P, PIX_FMT_YUVJ444P, PIX_FMT_YUV420P,
850                                                  PIX_FMT_YUV422P, PIX_FMT_YUV444P, PIX_FMT_BGRA, PIX_FMT_NONE };
851             }
852         }
853         for (; *p != PIX_FMT_NONE; p++) {
854             if (*p == st->codec->pix_fmt)
855                 break;
856         }
857         if (*p == PIX_FMT_NONE) {
858             if (st->codec->pix_fmt != PIX_FMT_NONE)
859                 av_log(NULL, AV_LOG_WARNING,
860                        "Incompatible pixel format '%s' for codec '%s', auto-selecting format '%s'\n",
861                        av_pix_fmt_descriptors[st->codec->pix_fmt].name,
862                        codec->name,
863                        av_pix_fmt_descriptors[codec->pix_fmts[0]].name);
864             st->codec->pix_fmt = codec->pix_fmts[0];
865         }
866     }
867 }
868
869 static double
870 get_sync_ipts(const OutputStream *ost, int64_t pts)
871 {
872     OutputFile *of = &output_files[ost->file_index];
873     return (double)(pts - of->start_time) / AV_TIME_BASE;
874 }
875
876 static void write_frame(AVFormatContext *s, AVPacket *pkt, OutputStream *ost)
877 {
878     AVBitStreamFilterContext *bsfc = ost->bitstream_filters;
879     AVCodecContext          *avctx = ost->st->codec;
880     int ret;
881
882     /*
883      * Audio encoders may split the packets --  #frames in != #packets out.
884      * But there is no reordering, so we can limit the number of output packets
885      * by simply dropping them here.
886      * Counting encoded video frames needs to be done separately because of
887      * reordering, see do_video_out()
888      */
889     if (!(avctx->codec_type == AVMEDIA_TYPE_VIDEO && avctx->codec)) {
890         if (ost->frame_number >= ost->max_frames)
891             return;
892         ost->frame_number++;
893     }
894
895     while (bsfc) {
896         AVPacket new_pkt = *pkt;
897         int a = av_bitstream_filter_filter(bsfc, avctx, NULL,
898                                            &new_pkt.data, &new_pkt.size,
899                                            pkt->data, pkt->size,
900                                            pkt->flags & AV_PKT_FLAG_KEY);
901         if (a > 0) {
902             av_free_packet(pkt);
903             new_pkt.destruct = av_destruct_packet;
904         } else if (a < 0) {
905             av_log(NULL, AV_LOG_ERROR, "%s failed for stream %d, codec %s",
906                    bsfc->filter->name, pkt->stream_index,
907                    avctx->codec ? avctx->codec->name : "copy");
908             print_error("", a);
909             if (exit_on_error)
910                 exit_program(1);
911         }
912         *pkt = new_pkt;
913
914         bsfc = bsfc->next;
915     }
916
917     pkt->stream_index = ost->index;
918     ret = av_interleaved_write_frame(s, pkt);
919     if (ret < 0) {
920         print_error("av_interleaved_write_frame()", ret);
921         exit_program(1);
922     }
923 }
924
925 static int check_recording_time(OutputStream *ost)
926 {
927     OutputFile *of = &output_files[ost->file_index];
928
929     if (of->recording_time != INT64_MAX &&
930         av_compare_ts(ost->sync_opts - ost->first_pts, ost->st->codec->time_base, of->recording_time,
931                       AV_TIME_BASE_Q) >= 0) {
932         ost->is_past_recording_time = 1;
933         return 0;
934     }
935     return 1;
936 }
937
938 static void generate_silence(uint8_t* buf, enum AVSampleFormat sample_fmt, size_t size)
939 {
940     int fill_char = 0x00;
941     if (sample_fmt == AV_SAMPLE_FMT_U8)
942         fill_char = 0x80;
943     memset(buf, fill_char, size);
944 }
945
946 static int encode_audio_frame(AVFormatContext *s, OutputStream *ost,
947                               const uint8_t *buf, int buf_size)
948 {
949     AVCodecContext *enc = ost->st->codec;
950     AVFrame *frame = NULL;
951     AVPacket pkt;
952     int ret, got_packet;
953
954     av_init_packet(&pkt);
955     pkt.data = NULL;
956     pkt.size = 0;
957
958     if (buf) {
959         if (!ost->output_frame) {
960             ost->output_frame = avcodec_alloc_frame();
961             if (!ost->output_frame) {
962                 av_log(NULL, AV_LOG_FATAL, "out-of-memory in encode_audio_frame()\n");
963                 exit_program(1);
964             }
965         }
966         frame = ost->output_frame;
967         if (frame->extended_data != frame->data)
968             av_freep(&frame->extended_data);
969         avcodec_get_frame_defaults(frame);
970
971         frame->nb_samples  = buf_size /
972                              (enc->channels * av_get_bytes_per_sample(enc->sample_fmt));
973         if ((ret = avcodec_fill_audio_frame(frame, enc->channels, enc->sample_fmt,
974                                             buf, buf_size, 1)) < 0) {
975             av_log(NULL, AV_LOG_FATAL, "Audio encoding failed\n");
976             exit_program(1);
977         }
978
979         if (!check_recording_time(ost))
980             return 0;
981
982         ost->sync_opts += frame->nb_samples;
983     }
984
985     got_packet = 0;
986     if (avcodec_encode_audio2(enc, &pkt, frame, &got_packet) < 0) {
987         av_log(NULL, AV_LOG_FATAL, "Audio encoding failed\n");
988         exit_program(1);
989     }
990
991     if (got_packet) {
992         if (pkt.pts != AV_NOPTS_VALUE)
993             pkt.pts      = av_rescale_q(pkt.pts,      enc->time_base, ost->st->time_base);
994         if (pkt.dts != AV_NOPTS_VALUE)
995             pkt.dts      = av_rescale_q(pkt.dts,      enc->time_base, ost->st->time_base);
996         if (pkt.duration > 0)
997             pkt.duration = av_rescale_q(pkt.duration, enc->time_base, ost->st->time_base);
998
999         write_frame(s, &pkt, ost);
1000
1001         audio_size += pkt.size;
1002     }
1003
1004     return pkt.size;
1005 }
1006
1007 static void do_audio_out(AVFormatContext *s, OutputStream *ost,
1008                          InputStream *ist, AVFrame *decoded_frame)
1009 {
1010     uint8_t *buftmp;
1011     int64_t audio_buf_size;
1012
1013     int size_out, frame_bytes, resample_changed;
1014     AVCodecContext *enc = ost->st->codec;
1015     AVCodecContext *dec = ist->st->codec;
1016     int osize = av_get_bytes_per_sample(enc->sample_fmt);
1017     int isize = av_get_bytes_per_sample(dec->sample_fmt);
1018     uint8_t *buf = decoded_frame->data[0];
1019     int size     = decoded_frame->nb_samples * dec->channels * isize;
1020     int64_t allocated_for_size = size;
1021
1022 need_realloc:
1023     audio_buf_size  = (allocated_for_size + isize * dec->channels - 1) / (isize * dec->channels);
1024     audio_buf_size  = (audio_buf_size * enc->sample_rate + dec->sample_rate) / dec->sample_rate;
1025     audio_buf_size  = audio_buf_size * 2 + 10000; // safety factors for the deprecated resampling API
1026     audio_buf_size  = FFMAX(audio_buf_size, enc->frame_size);
1027     audio_buf_size *= osize * enc->channels;
1028
1029     if (audio_buf_size > INT_MAX) {
1030         av_log(NULL, AV_LOG_FATAL, "Buffer sizes too large\n");
1031         exit_program(1);
1032     }
1033
1034     av_fast_malloc(&audio_buf, &allocated_audio_buf_size, audio_buf_size);
1035     if (!audio_buf) {
1036         av_log(NULL, AV_LOG_FATAL, "Out of memory in do_audio_out\n");
1037         exit_program(1);
1038     }
1039
1040     if (enc->channels != dec->channels || enc->sample_rate != dec->sample_rate)
1041         ost->audio_resample = 1;
1042
1043     resample_changed = ost->resample_sample_fmt  != dec->sample_fmt ||
1044                        ost->resample_channels    != dec->channels   ||
1045                        ost->resample_sample_rate != dec->sample_rate;
1046
1047     if ((ost->audio_resample && !ost->resample) || resample_changed) {
1048         if (resample_changed) {
1049             av_log(NULL, AV_LOG_INFO, "Input stream #%d:%d frame changed from rate:%d fmt:%s ch:%d to rate:%d fmt:%s ch:%d\n",
1050                    ist->file_index, ist->st->index,
1051                    ost->resample_sample_rate, av_get_sample_fmt_name(ost->resample_sample_fmt), ost->resample_channels,
1052                    dec->sample_rate, av_get_sample_fmt_name(dec->sample_fmt), dec->channels);
1053             ost->resample_sample_fmt  = dec->sample_fmt;
1054             ost->resample_channels    = dec->channels;
1055             ost->resample_sample_rate = dec->sample_rate;
1056             if (ost->resample)
1057                 audio_resample_close(ost->resample);
1058         }
1059         /* if audio_sync_method is >1 the resampler is needed for audio drift compensation */
1060         if (audio_sync_method <= 1 &&
1061             ost->resample_sample_fmt  == enc->sample_fmt &&
1062             ost->resample_channels    == enc->channels   &&
1063             ost->resample_sample_rate == enc->sample_rate) {
1064             ost->resample = NULL;
1065             ost->audio_resample = 0;
1066         } else if (ost->audio_resample) {
1067             if (dec->sample_fmt != AV_SAMPLE_FMT_S16)
1068                 av_log(NULL, AV_LOG_WARNING, "Using s16 intermediate sample format for resampling\n");
1069             ost->resample = av_audio_resample_init(enc->channels,    dec->channels,
1070                                                    enc->sample_rate, dec->sample_rate,
1071                                                    enc->sample_fmt,  dec->sample_fmt,
1072                                                    16, 10, 0, 0.8);
1073             if (!ost->resample) {
1074                 av_log(NULL, AV_LOG_FATAL, "Can not resample %d channels @ %d Hz to %d channels @ %d Hz\n",
1075                        dec->channels, dec->sample_rate,
1076                        enc->channels, enc->sample_rate);
1077                 exit_program(1);
1078             }
1079         }
1080     }
1081
1082 #define MAKE_SFMT_PAIR(a,b) ((a)+AV_SAMPLE_FMT_NB*(b))
1083     if (!ost->audio_resample && dec->sample_fmt != enc->sample_fmt &&
1084         MAKE_SFMT_PAIR(enc->sample_fmt,dec->sample_fmt) != ost->reformat_pair) {
1085         if (ost->reformat_ctx)
1086             av_audio_convert_free(ost->reformat_ctx);
1087         ost->reformat_ctx = av_audio_convert_alloc(enc->sample_fmt, 1,
1088                                                    dec->sample_fmt, 1, NULL, 0);
1089         if (!ost->reformat_ctx) {
1090             av_log(NULL, AV_LOG_FATAL, "Cannot convert %s sample format to %s sample format\n",
1091                    av_get_sample_fmt_name(dec->sample_fmt),
1092                    av_get_sample_fmt_name(enc->sample_fmt));
1093             exit_program(1);
1094         }
1095         ost->reformat_pair = MAKE_SFMT_PAIR(enc->sample_fmt,dec->sample_fmt);
1096     }
1097
1098     if (audio_sync_method) {
1099         double delta = get_sync_ipts(ost, ist->last_dts) * enc->sample_rate - ost->sync_opts -
1100                        av_fifo_size(ost->fifo) / (enc->channels * osize);
1101         int idelta = delta * dec->sample_rate / enc->sample_rate;
1102         int byte_delta = idelta * isize * dec->channels;
1103
1104         // FIXME resample delay
1105         if (fabs(delta) > 50) {
1106             if (ist->is_start || fabs(delta) > audio_drift_threshold*enc->sample_rate) {
1107                 if (byte_delta < 0) {
1108                     byte_delta = FFMAX(byte_delta, -size);
1109                     size += byte_delta;
1110                     buf  -= byte_delta;
1111                     av_log(NULL, AV_LOG_VERBOSE, "discarding %d audio samples\n",
1112                            -byte_delta / (isize * dec->channels));
1113                     if (!size)
1114                         return;
1115                     ist->is_start = 0;
1116                 } else {
1117                     static uint8_t *input_tmp = NULL;
1118                     input_tmp = av_realloc(input_tmp, byte_delta + size);
1119
1120                     if (byte_delta > allocated_for_size - size) {
1121                         allocated_for_size = byte_delta + (int64_t)size;
1122                         goto need_realloc;
1123                     }
1124                     ist->is_start = 0;
1125
1126                     generate_silence(input_tmp, dec->sample_fmt, byte_delta);
1127                     memcpy(input_tmp + byte_delta, buf, size);
1128                     buf = input_tmp;
1129                     size += byte_delta;
1130                     av_log(NULL, AV_LOG_VERBOSE, "adding %d audio samples of silence\n", idelta);
1131                 }
1132             } else if (audio_sync_method > 1) {
1133                 int comp = av_clip(delta, -audio_sync_method, audio_sync_method);
1134                 av_assert0(ost->audio_resample);
1135                 av_log(NULL, AV_LOG_VERBOSE, "compensating audio timestamp drift:%f compensation:%d in:%d\n",
1136                        delta, comp, enc->sample_rate);
1137 //                fprintf(stderr, "drift:%f len:%d opts:%"PRId64" ipts:%"PRId64" fifo:%d\n", delta, -1, ost->sync_opts, (int64_t)(get_sync_ipts(ost) * enc->sample_rate), av_fifo_size(ost->fifo)/(ost->st->codec->channels * 2));
1138                 av_resample_compensate(*(struct AVResampleContext**)ost->resample, comp, enc->sample_rate);
1139             }
1140         }
1141     } else
1142         ost->sync_opts = lrintf(get_sync_ipts(ost, ist->last_dts) * enc->sample_rate) -
1143                                 av_fifo_size(ost->fifo) / (enc->channels * osize); // FIXME wrong
1144
1145     if (ost->audio_resample) {
1146         buftmp = audio_buf;
1147         size_out = audio_resample(ost->resample,
1148                                   (short *)buftmp, (short *)buf,
1149                                   size / (dec->channels * isize));
1150         size_out = size_out * enc->channels * osize;
1151     } else {
1152         buftmp = buf;
1153         size_out = size;
1154     }
1155
1156     if (!ost->audio_resample && dec->sample_fmt != enc->sample_fmt) {
1157         const void *ibuf[6] = { buftmp };
1158         void *obuf[6]  = { audio_buf };
1159         int istride[6] = { isize };
1160         int ostride[6] = { osize };
1161         int len = size_out / istride[0];
1162         if (av_audio_convert(ost->reformat_ctx, obuf, ostride, ibuf, istride, len) < 0) {
1163             printf("av_audio_convert() failed\n");
1164             if (exit_on_error)
1165                 exit_program(1);
1166             return;
1167         }
1168         buftmp = audio_buf;
1169         size_out = len * osize;
1170     }
1171
1172     /* now encode as many frames as possible */
1173     if (!(enc->codec->capabilities & CODEC_CAP_VARIABLE_FRAME_SIZE)) {
1174         /* output resampled raw samples */
1175         if (av_fifo_realloc2(ost->fifo, av_fifo_size(ost->fifo) + size_out) < 0) {
1176             av_log(NULL, AV_LOG_FATAL, "av_fifo_realloc2() failed\n");
1177             exit_program(1);
1178         }
1179         av_fifo_generic_write(ost->fifo, buftmp, size_out, NULL);
1180
1181         frame_bytes = enc->frame_size * osize * enc->channels;
1182
1183         while (av_fifo_size(ost->fifo) >= frame_bytes) {
1184             av_fifo_generic_read(ost->fifo, audio_buf, frame_bytes, NULL);
1185             encode_audio_frame(s, ost, audio_buf, frame_bytes);
1186         }
1187     } else {
1188         encode_audio_frame(s, ost, buftmp, size_out);
1189     }
1190 }
1191
1192 static void pre_process_video_frame(InputStream *ist, AVPicture *picture, void **bufp)
1193 {
1194     AVCodecContext *dec;
1195     AVPicture *picture2;
1196     AVPicture picture_tmp;
1197     uint8_t *buf = 0;
1198
1199     dec = ist->st->codec;
1200
1201     /* deinterlace : must be done before any resize */
1202     if (do_deinterlace) {
1203         int size;
1204
1205         /* create temporary picture */
1206         size = avpicture_get_size(dec->pix_fmt, dec->width, dec->height);
1207         buf  = av_malloc(size);
1208         if (!buf)
1209             return;
1210
1211         picture2 = &picture_tmp;
1212         avpicture_fill(picture2, buf, dec->pix_fmt, dec->width, dec->height);
1213
1214         if (avpicture_deinterlace(picture2, picture,
1215                                  dec->pix_fmt, dec->width, dec->height) < 0) {
1216             /* if error, do not deinterlace */
1217             av_log(NULL, AV_LOG_WARNING, "Deinterlacing failed\n");
1218             av_free(buf);
1219             buf = NULL;
1220             picture2 = picture;
1221         }
1222     } else {
1223         picture2 = picture;
1224     }
1225
1226     if (picture != picture2)
1227         *picture = *picture2;
1228     *bufp = buf;
1229 }
1230
1231 static void do_subtitle_out(AVFormatContext *s,
1232                             OutputStream *ost,
1233                             InputStream *ist,
1234                             AVSubtitle *sub,
1235                             int64_t pts)
1236 {
1237     static uint8_t *subtitle_out = NULL;
1238     int subtitle_out_max_size = 1024 * 1024;
1239     int subtitle_out_size, nb, i;
1240     AVCodecContext *enc;
1241     AVPacket pkt;
1242
1243     if (pts == AV_NOPTS_VALUE) {
1244         av_log(NULL, AV_LOG_ERROR, "Subtitle packets must have a pts\n");
1245         if (exit_on_error)
1246             exit_program(1);
1247         return;
1248     }
1249
1250     enc = ost->st->codec;
1251
1252     if (!subtitle_out) {
1253         subtitle_out = av_malloc(subtitle_out_max_size);
1254     }
1255
1256     /* Note: DVB subtitle need one packet to draw them and one other
1257        packet to clear them */
1258     /* XXX: signal it in the codec context ? */
1259     if (enc->codec_id == CODEC_ID_DVB_SUBTITLE)
1260         nb = 2;
1261     else
1262         nb = 1;
1263
1264     for (i = 0; i < nb; i++) {
1265         ost->sync_opts = av_rescale_q(pts, ist->st->time_base, enc->time_base);
1266         if (!check_recording_time(ost))
1267             return;
1268
1269         sub->pts = av_rescale_q(pts, ist->st->time_base, AV_TIME_BASE_Q);
1270         // start_display_time is required to be 0
1271         sub->pts               += av_rescale_q(sub->start_display_time, (AVRational){ 1, 1000 }, AV_TIME_BASE_Q);
1272         sub->end_display_time  -= sub->start_display_time;
1273         sub->start_display_time = 0;
1274         subtitle_out_size = avcodec_encode_subtitle(enc, subtitle_out,
1275                                                     subtitle_out_max_size, sub);
1276         if (subtitle_out_size < 0) {
1277             av_log(NULL, AV_LOG_FATAL, "Subtitle encoding failed\n");
1278             exit_program(1);
1279         }
1280
1281         av_init_packet(&pkt);
1282         pkt.data = subtitle_out;
1283         pkt.size = subtitle_out_size;
1284         pkt.pts  = av_rescale_q(sub->pts, AV_TIME_BASE_Q, ost->st->time_base);
1285         if (enc->codec_id == CODEC_ID_DVB_SUBTITLE) {
1286             /* XXX: the pts correction is handled here. Maybe handling
1287                it in the codec would be better */
1288             if (i == 0)
1289                 pkt.pts += 90 * sub->start_display_time;
1290             else
1291                 pkt.pts += 90 * sub->end_display_time;
1292         }
1293         write_frame(s, &pkt, ost);
1294     }
1295 }
1296
1297 #if !CONFIG_AVFILTER
1298 static void do_video_resample(OutputStream *ost,
1299                               InputStream *ist,
1300                               AVFrame *in_picture,
1301                               AVFrame **out_picture)
1302 {
1303     int resample_changed = 0;
1304     *out_picture = in_picture;
1305
1306     resample_changed = ost->resample_width   != in_picture->width  ||
1307                        ost->resample_height  != in_picture->height ||
1308                        ost->resample_pix_fmt != in_picture->format;
1309
1310     if (resample_changed) {
1311         av_log(NULL, AV_LOG_INFO,
1312                "Input stream #%d:%d frame changed from size:%dx%d fmt:%s to size:%dx%d fmt:%s\n",
1313                ist->file_index, ist->st->index,
1314                ost->resample_width, ost->resample_height, av_get_pix_fmt_name(ost->resample_pix_fmt),
1315                in_picture->width, in_picture->height, av_get_pix_fmt_name(in_picture->format));
1316         if (!ost->video_resample)
1317             ost->video_resample = 1;
1318     }
1319
1320     if (ost->video_resample) {
1321         *out_picture = &ost->pict_tmp;
1322         if (resample_changed) {
1323             /* initialize a new scaler context */
1324             sws_freeContext(ost->img_resample_ctx);
1325             ost->img_resample_ctx = sws_getContext(
1326                 ist->st->codec->width,
1327                 ist->st->codec->height,
1328                 ist->st->codec->pix_fmt,
1329                 ost->st->codec->width,
1330                 ost->st->codec->height,
1331                 ost->st->codec->pix_fmt,
1332                 ost->sws_flags, NULL, NULL, NULL);
1333             if (ost->img_resample_ctx == NULL) {
1334                 av_log(NULL, AV_LOG_FATAL, "Cannot get resampling context\n");
1335                 exit_program(1);
1336             }
1337         }
1338         sws_scale(ost->img_resample_ctx, in_picture->data, in_picture->linesize,
1339               0, ost->resample_height, (*out_picture)->data, (*out_picture)->linesize);
1340     }
1341     if (resample_changed) {
1342         ost->resample_width   = in_picture->width;
1343         ost->resample_height  = in_picture->height;
1344         ost->resample_pix_fmt = in_picture->format;
1345     }
1346 }
1347 #endif
1348
1349
1350 static void do_video_out(AVFormatContext *s,
1351                          OutputStream *ost,
1352                          InputStream *ist,
1353                          AVFrame *in_picture,
1354                          int *frame_size, float quality)
1355 {
1356     int nb_frames, i, ret, format_video_sync;
1357     AVFrame *final_picture;
1358     AVCodecContext *enc;
1359     double sync_ipts, delta;
1360
1361     enc = ost->st->codec;
1362
1363     sync_ipts = get_sync_ipts(ost, in_picture->pts) / av_q2d(enc->time_base);
1364     delta = sync_ipts - ost->sync_opts;
1365
1366     /* by default, we output a single frame */
1367     nb_frames = 1;
1368
1369     *frame_size = 0;
1370
1371     format_video_sync = video_sync_method;
1372     if (format_video_sync == VSYNC_AUTO)
1373         format_video_sync = (s->oformat->flags & AVFMT_NOTIMESTAMPS) ? VSYNC_PASSTHROUGH :
1374                             (s->oformat->flags & AVFMT_VARIABLE_FPS) ? VSYNC_VFR : VSYNC_CFR;
1375
1376     switch (format_video_sync) {
1377     case VSYNC_CFR:
1378         // FIXME set to 0.5 after we fix some dts/pts bugs like in avidec.c
1379         if (delta < -1.1)
1380             nb_frames = 0;
1381         else if (delta > 1.1)
1382             nb_frames = lrintf(delta);
1383         break;
1384     case VSYNC_VFR:
1385         if (delta <= -0.6)
1386             nb_frames = 0;
1387         else if (delta > 0.6)
1388             ost->sync_opts = lrintf(sync_ipts);
1389         break;
1390     case VSYNC_PASSTHROUGH:
1391         ost->sync_opts = lrintf(sync_ipts);
1392         break;
1393     default:
1394         av_assert0(0);
1395     }
1396
1397     nb_frames = FFMIN(nb_frames, ost->max_frames - ost->frame_number);
1398     if (nb_frames == 0) {
1399         nb_frames_drop++;
1400         av_log(NULL, AV_LOG_VERBOSE, "*** drop!\n");
1401         return;
1402     } else if (nb_frames > 1) {
1403         nb_frames_dup += nb_frames - 1;
1404         av_log(NULL, AV_LOG_VERBOSE, "*** %d dup!\n", nb_frames - 1);
1405     }
1406
1407 #if !CONFIG_AVFILTER
1408     do_video_resample(ost, ist, in_picture, &final_picture);
1409 #else
1410     final_picture = in_picture;
1411 #endif
1412
1413     if (!ost->frame_number)
1414         ost->first_pts = ost->sync_opts;
1415
1416     /* duplicates frame if needed */
1417     for (i = 0; i < nb_frames; i++) {
1418         AVPacket pkt;
1419         av_init_packet(&pkt);
1420         pkt.data = NULL;
1421         pkt.size = 0;
1422
1423         if (!check_recording_time(ost))
1424             return;
1425
1426         if (s->oformat->flags & AVFMT_RAWPICTURE &&
1427             enc->codec->id == CODEC_ID_RAWVIDEO) {
1428             /* raw pictures are written as AVPicture structure to
1429                avoid any copies. We support temporarily the older
1430                method. */
1431             enc->coded_frame->interlaced_frame = in_picture->interlaced_frame;
1432             enc->coded_frame->top_field_first  = in_picture->top_field_first;
1433             pkt.data   = (uint8_t *)final_picture;
1434             pkt.size   =  sizeof(AVPicture);
1435             pkt.pts    = av_rescale_q(ost->sync_opts, enc->time_base, ost->st->time_base);
1436             pkt.flags |= AV_PKT_FLAG_KEY;
1437
1438             write_frame(s, &pkt, ost);
1439         } else {
1440             int got_packet;
1441             AVFrame big_picture;
1442
1443             big_picture = *final_picture;
1444             /* better than nothing: use input picture interlaced
1445                settings */
1446             big_picture.interlaced_frame = in_picture->interlaced_frame;
1447             if (ost->st->codec->flags & (CODEC_FLAG_INTERLACED_DCT|CODEC_FLAG_INTERLACED_ME)) {
1448                 if (ost->top_field_first == -1)
1449                     big_picture.top_field_first = in_picture->top_field_first;
1450                 else
1451                     big_picture.top_field_first = !!ost->top_field_first;
1452             }
1453
1454             /* handles same_quant here. This is not correct because it may
1455                not be a global option */
1456             big_picture.quality = quality;
1457             if (!enc->me_threshold)
1458                 big_picture.pict_type = 0;
1459             big_picture.pts = ost->sync_opts;
1460             if (ost->forced_kf_index < ost->forced_kf_count &&
1461                 big_picture.pts >= ost->forced_kf_pts[ost->forced_kf_index]) {
1462                 big_picture.pict_type = AV_PICTURE_TYPE_I;
1463                 ost->forced_kf_index++;
1464             }
1465             ret = avcodec_encode_video2(enc, &pkt, &big_picture, &got_packet);
1466             if (ret < 0) {
1467                 av_log(NULL, AV_LOG_FATAL, "Video encoding failed\n");
1468                 exit_program(1);
1469             }
1470
1471             if (got_packet) {
1472                 if (pkt.pts != AV_NOPTS_VALUE)
1473                     pkt.pts = av_rescale_q(pkt.pts, enc->time_base, ost->st->time_base);
1474                 if (pkt.dts != AV_NOPTS_VALUE)
1475                     pkt.dts = av_rescale_q(pkt.dts, enc->time_base, ost->st->time_base);
1476
1477                 write_frame(s, &pkt, ost);
1478                 *frame_size = pkt.size;
1479                 video_size += pkt.size;
1480
1481                 /* if two pass, output log */
1482                 if (ost->logfile && enc->stats_out) {
1483                     fprintf(ost->logfile, "%s", enc->stats_out);
1484                 }
1485             }
1486         }
1487         ost->sync_opts++;
1488         /*
1489          * For video, number of frames in == number of packets out.
1490          * But there may be reordering, so we can't throw away frames on encoder
1491          * flush, we need to limit them here, before they go into encoder.
1492          */
1493         ost->frame_number++;
1494     }
1495 }
1496
1497 static double psnr(double d)
1498 {
1499     return -10.0 * log(d) / log(10.0);
1500 }
1501
1502 static void do_video_stats(AVFormatContext *os, OutputStream *ost,
1503                            int frame_size)
1504 {
1505     AVCodecContext *enc;
1506     int frame_number;
1507     double ti1, bitrate, avg_bitrate;
1508
1509     /* this is executed just the first time do_video_stats is called */
1510     if (!vstats_file) {
1511         vstats_file = fopen(vstats_filename, "w");
1512         if (!vstats_file) {
1513             perror("fopen");
1514             exit_program(1);
1515         }
1516     }
1517
1518     enc = ost->st->codec;
1519     if (enc->codec_type == AVMEDIA_TYPE_VIDEO) {
1520         frame_number = ost->frame_number;
1521         fprintf(vstats_file, "frame= %5d q= %2.1f ", frame_number, enc->coded_frame->quality / (float)FF_QP2LAMBDA);
1522         if (enc->flags&CODEC_FLAG_PSNR)
1523             fprintf(vstats_file, "PSNR= %6.2f ", psnr(enc->coded_frame->error[0] / (enc->width * enc->height * 255.0 * 255.0)));
1524
1525         fprintf(vstats_file,"f_size= %6d ", frame_size);
1526         /* compute pts value */
1527         ti1 = ost->sync_opts * av_q2d(enc->time_base);
1528         if (ti1 < 0.01)
1529             ti1 = 0.01;
1530
1531         bitrate     = (frame_size * 8) / av_q2d(enc->time_base) / 1000.0;
1532         avg_bitrate = (double)(video_size * 8) / ti1 / 1000.0;
1533         fprintf(vstats_file, "s_size= %8.0fkB time= %0.3f br= %7.1fkbits/s avg_br= %7.1fkbits/s ",
1534                (double)video_size / 1024, ti1, bitrate, avg_bitrate);
1535         fprintf(vstats_file, "type= %c\n", av_get_picture_type_char(enc->coded_frame->pict_type));
1536     }
1537 }
1538
1539 static void print_report(OutputFile *output_files,
1540                          OutputStream *ost_table, int nb_ostreams,
1541                          int is_last_report, int64_t timer_start)
1542 {
1543     char buf[1024];
1544     OutputStream *ost;
1545     AVFormatContext *oc;
1546     int64_t total_size;
1547     AVCodecContext *enc;
1548     int frame_number, vid, i;
1549     double bitrate, ti1, pts;
1550     static int64_t last_time = -1;
1551     static int qp_histogram[52];
1552
1553     if (!print_stats && !is_last_report)
1554         return;
1555
1556     if (!is_last_report) {
1557         int64_t cur_time;
1558         /* display the report every 0.5 seconds */
1559         cur_time = av_gettime();
1560         if (last_time == -1) {
1561             last_time = cur_time;
1562             return;
1563         }
1564         if ((cur_time - last_time) < 500000)
1565             return;
1566         last_time = cur_time;
1567     }
1568
1569
1570     oc = output_files[0].ctx;
1571
1572     total_size = avio_size(oc->pb);
1573     if (total_size < 0) // FIXME improve avio_size() so it works with non seekable output too
1574         total_size = avio_tell(oc->pb);
1575
1576     buf[0] = '\0';
1577     ti1 = 1e10;
1578     vid = 0;
1579     for (i = 0; i < nb_ostreams; i++) {
1580         float q = -1;
1581         ost = &ost_table[i];
1582         enc = ost->st->codec;
1583         if (!ost->stream_copy && enc->coded_frame)
1584             q = enc->coded_frame->quality / (float)FF_QP2LAMBDA;
1585         if (vid && enc->codec_type == AVMEDIA_TYPE_VIDEO) {
1586             snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "q=%2.1f ", q);
1587         }
1588         if (!vid && enc->codec_type == AVMEDIA_TYPE_VIDEO) {
1589             float t = (av_gettime() - timer_start) / 1000000.0;
1590
1591             frame_number = ost->frame_number;
1592             snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "frame=%5d fps=%3d q=%3.1f ",
1593                      frame_number, (t > 1) ? (int)(frame_number / t + 0.5) : 0, q);
1594             if (is_last_report)
1595                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "L");
1596             if (qp_hist) {
1597                 int j;
1598                 int qp = lrintf(q);
1599                 if (qp >= 0 && qp < FF_ARRAY_ELEMS(qp_histogram))
1600                     qp_histogram[qp]++;
1601                 for (j = 0; j < 32; j++)
1602                     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "%X", (int)lrintf(log(qp_histogram[j] + 1) / log(2)));
1603             }
1604             if (enc->flags&CODEC_FLAG_PSNR) {
1605                 int j;
1606                 double error, error_sum = 0;
1607                 double scale, scale_sum = 0;
1608                 char type[3] = { 'Y','U','V' };
1609                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "PSNR=");
1610                 for (j = 0; j < 3; j++) {
1611                     if (is_last_report) {
1612                         error = enc->error[j];
1613                         scale = enc->width * enc->height * 255.0 * 255.0 * frame_number;
1614                     } else {
1615                         error = enc->coded_frame->error[j];
1616                         scale = enc->width * enc->height * 255.0 * 255.0;
1617                     }
1618                     if (j)
1619                         scale /= 4;
1620                     error_sum += error;
1621                     scale_sum += scale;
1622                     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "%c:%2.2f ", type[j], psnr(error / scale));
1623                 }
1624                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "*:%2.2f ", psnr(error_sum / scale_sum));
1625             }
1626             vid = 1;
1627         }
1628         /* compute min output value */
1629         pts = (double)ost->st->pts.val * av_q2d(ost->st->time_base);
1630         if ((pts < ti1) && (pts > 0))
1631             ti1 = pts;
1632     }
1633     if (ti1 < 0.01)
1634         ti1 = 0.01;
1635
1636     bitrate = (double)(total_size * 8) / ti1 / 1000.0;
1637
1638     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf),
1639             "size=%8.0fkB time=%0.2f bitrate=%6.1fkbits/s",
1640             (double)total_size / 1024, ti1, bitrate);
1641
1642     if (nb_frames_dup || nb_frames_drop)
1643         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), " dup=%d drop=%d",
1644                 nb_frames_dup, nb_frames_drop);
1645
1646     av_log(NULL, AV_LOG_INFO, "%s    \r", buf);
1647
1648     fflush(stderr);
1649
1650     if (is_last_report) {
1651         int64_t raw= audio_size + video_size + extra_size;
1652         av_log(NULL, AV_LOG_INFO, "\n");
1653         av_log(NULL, AV_LOG_INFO, "video:%1.0fkB audio:%1.0fkB global headers:%1.0fkB muxing overhead %f%%\n",
1654                video_size / 1024.0,
1655                audio_size / 1024.0,
1656                extra_size / 1024.0,
1657                100.0 * (total_size - raw) / raw
1658         );
1659     }
1660 }
1661
1662 static void flush_encoders(OutputStream *ost_table, int nb_ostreams)
1663 {
1664     int i, ret;
1665
1666     for (i = 0; i < nb_ostreams; i++) {
1667         OutputStream   *ost = &ost_table[i];
1668         AVCodecContext *enc = ost->st->codec;
1669         AVFormatContext *os = output_files[ost->file_index].ctx;
1670         int stop_encoding = 0;
1671
1672         if (!ost->encoding_needed)
1673             continue;
1674
1675         if (ost->st->codec->codec_type == AVMEDIA_TYPE_AUDIO && enc->frame_size <= 1)
1676             continue;
1677         if (ost->st->codec->codec_type == AVMEDIA_TYPE_VIDEO && (os->oformat->flags & AVFMT_RAWPICTURE) && enc->codec->id == CODEC_ID_RAWVIDEO)
1678             continue;
1679
1680         for (;;) {
1681             AVPacket pkt;
1682             int fifo_bytes, got_packet;
1683             av_init_packet(&pkt);
1684             pkt.data = NULL;
1685             pkt.size = 0;
1686
1687             switch (ost->st->codec->codec_type) {
1688             case AVMEDIA_TYPE_AUDIO:
1689                 fifo_bytes = av_fifo_size(ost->fifo);
1690                 if (fifo_bytes > 0) {
1691                     /* encode any samples remaining in fifo */
1692                     int frame_bytes = fifo_bytes;
1693
1694                     av_fifo_generic_read(ost->fifo, audio_buf, fifo_bytes, NULL);
1695
1696                     /* pad last frame with silence if needed */
1697                     if (!(enc->codec->capabilities & CODEC_CAP_SMALL_LAST_FRAME)) {
1698                         frame_bytes = enc->frame_size * enc->channels *
1699                                       av_get_bytes_per_sample(enc->sample_fmt);
1700                         if (allocated_audio_buf_size < frame_bytes)
1701                             exit_program(1);
1702                         generate_silence(audio_buf+fifo_bytes, enc->sample_fmt, frame_bytes - fifo_bytes);
1703                     }
1704                     encode_audio_frame(os, ost, audio_buf, frame_bytes);
1705                 } else {
1706                     /* flush encoder with NULL frames until it is done
1707                        returning packets */
1708                     if (encode_audio_frame(os, ost, NULL, 0) == 0) {
1709                         stop_encoding = 1;
1710                         break;
1711                     }
1712                 }
1713                 break;
1714             case AVMEDIA_TYPE_VIDEO:
1715                 ret = avcodec_encode_video2(enc, &pkt, NULL, &got_packet);
1716                 if (ret < 0) {
1717                     av_log(NULL, AV_LOG_FATAL, "Video encoding failed\n");
1718                     exit_program(1);
1719                 }
1720                 video_size += ret;
1721                 if (ost->logfile && enc->stats_out) {
1722                     fprintf(ost->logfile, "%s", enc->stats_out);
1723                 }
1724                 if (!got_packet) {
1725                     stop_encoding = 1;
1726                     break;
1727                 }
1728                 if (pkt.pts != AV_NOPTS_VALUE)
1729                     pkt.pts = av_rescale_q(pkt.pts, enc->time_base, ost->st->time_base);
1730                 if (pkt.dts != AV_NOPTS_VALUE)
1731                     pkt.dts = av_rescale_q(pkt.dts, enc->time_base, ost->st->time_base);
1732                 write_frame(os, &pkt, ost);
1733                 break;
1734             default:
1735                 stop_encoding = 1;
1736             }
1737             if (stop_encoding)
1738                 break;
1739         }
1740     }
1741 }
1742
1743 /*
1744  * Check whether a packet from ist should be written into ost at this time
1745  */
1746 static int check_output_constraints(InputStream *ist, OutputStream *ost)
1747 {
1748     OutputFile *of = &output_files[ost->file_index];
1749     int ist_index  = ist - input_streams;
1750
1751     if (ost->source_index != ist_index)
1752         return 0;
1753
1754     if (of->start_time && ist->last_dts < of->start_time)
1755         return 0;
1756
1757     return 1;
1758 }
1759
1760 static void do_streamcopy(InputStream *ist, OutputStream *ost, const AVPacket *pkt)
1761 {
1762     OutputFile *of = &output_files[ost->file_index];
1763     int64_t ost_tb_start_time = av_rescale_q(of->start_time, AV_TIME_BASE_Q, ost->st->time_base);
1764     AVPacket opkt;
1765
1766     av_init_packet(&opkt);
1767
1768     if ((!ost->frame_number && !(pkt->flags & AV_PKT_FLAG_KEY)) &&
1769         !ost->copy_initial_nonkeyframes)
1770         return;
1771
1772     if (of->recording_time != INT64_MAX &&
1773         ist->last_dts >= of->recording_time + of->start_time) {
1774         ost->is_past_recording_time = 1;
1775         return;
1776     }
1777
1778     /* force the input stream PTS */
1779     if (ost->st->codec->codec_type == AVMEDIA_TYPE_AUDIO)
1780         audio_size += pkt->size;
1781     else if (ost->st->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
1782         video_size += pkt->size;
1783         ost->sync_opts++;
1784     }
1785
1786     if (pkt->pts != AV_NOPTS_VALUE)
1787         opkt.pts = av_rescale_q(pkt->pts, ist->st->time_base, ost->st->time_base) - ost_tb_start_time;
1788     else
1789         opkt.pts = AV_NOPTS_VALUE;
1790
1791     if (pkt->dts == AV_NOPTS_VALUE)
1792         opkt.dts = av_rescale_q(ist->last_dts, AV_TIME_BASE_Q, ost->st->time_base);
1793     else
1794         opkt.dts = av_rescale_q(pkt->dts, ist->st->time_base, ost->st->time_base);
1795     opkt.dts -= ost_tb_start_time;
1796
1797     opkt.duration = av_rescale_q(pkt->duration, ist->st->time_base, ost->st->time_base);
1798     opkt.flags    = pkt->flags;
1799
1800     // FIXME remove the following 2 lines they shall be replaced by the bitstream filters
1801     if (  ost->st->codec->codec_id != CODEC_ID_H264
1802        && ost->st->codec->codec_id != CODEC_ID_MPEG1VIDEO
1803        && ost->st->codec->codec_id != CODEC_ID_MPEG2VIDEO
1804        && ost->st->codec->codec_id != CODEC_ID_VC1
1805        ) {
1806         if (av_parser_change(ist->st->parser, ost->st->codec, &opkt.data, &opkt.size, pkt->data, pkt->size, pkt->flags & AV_PKT_FLAG_KEY))
1807             opkt.destruct = av_destruct_packet;
1808     } else {
1809         opkt.data = pkt->data;
1810         opkt.size = pkt->size;
1811     }
1812
1813     write_frame(of->ctx, &opkt, ost);
1814     ost->st->codec->frame_number++;
1815     av_free_packet(&opkt);
1816 }
1817
1818 static void rate_emu_sleep(InputStream *ist)
1819 {
1820     if (input_files[ist->file_index].rate_emu) {
1821         int64_t pts = av_rescale(ist->last_dts, 1000000, AV_TIME_BASE);
1822         int64_t now = av_gettime() - ist->start;
1823         if (pts > now)
1824             usleep(pts - now);
1825     }
1826 }
1827
1828 static int transcode_audio(InputStream *ist, AVPacket *pkt, int *got_output)
1829 {
1830     AVFrame *decoded_frame;
1831     AVCodecContext *avctx = ist->st->codec;
1832     int bps = av_get_bytes_per_sample(ist->st->codec->sample_fmt);
1833     int i, ret;
1834
1835     if (!ist->decoded_frame && !(ist->decoded_frame = avcodec_alloc_frame()))
1836         return AVERROR(ENOMEM);
1837     else
1838         avcodec_get_frame_defaults(ist->decoded_frame);
1839     decoded_frame = ist->decoded_frame;
1840
1841     ret = avcodec_decode_audio4(avctx, decoded_frame, got_output, pkt);
1842     if (ret < 0) {
1843         return ret;
1844     }
1845
1846     if (!*got_output) {
1847         /* no audio frame */
1848         return ret;
1849     }
1850
1851     /* if the decoder provides a pts, use it instead of the last packet pts.
1852        the decoder could be delaying output by a packet or more. */
1853     if (decoded_frame->pts != AV_NOPTS_VALUE)
1854         ist->next_dts = decoded_frame->pts;
1855
1856     /* increment next_dts to use for the case where the input stream does not
1857        have timestamps or there are multiple frames in the packet */
1858     ist->next_dts += ((int64_t)AV_TIME_BASE * decoded_frame->nb_samples) /
1859                      avctx->sample_rate;
1860
1861     // preprocess audio (volume)
1862     if (audio_volume != 256) {
1863         int decoded_data_size = decoded_frame->nb_samples * avctx->channels * bps;
1864         void *samples = decoded_frame->data[0];
1865         switch (avctx->sample_fmt) {
1866         case AV_SAMPLE_FMT_U8:
1867         {
1868             uint8_t *volp = samples;
1869             for (i = 0; i < (decoded_data_size / sizeof(*volp)); i++) {
1870                 int v = (((*volp - 128) * audio_volume + 128) >> 8) + 128;
1871                 *volp++ = av_clip_uint8(v);
1872             }
1873             break;
1874         }
1875         case AV_SAMPLE_FMT_S16:
1876         {
1877             int16_t *volp = samples;
1878             for (i = 0; i < (decoded_data_size / sizeof(*volp)); i++) {
1879                 int v = ((*volp) * audio_volume + 128) >> 8;
1880                 *volp++ = av_clip_int16(v);
1881             }
1882             break;
1883         }
1884         case AV_SAMPLE_FMT_S32:
1885         {
1886             int32_t *volp = samples;
1887             for (i = 0; i < (decoded_data_size / sizeof(*volp)); i++) {
1888                 int64_t v = (((int64_t)*volp * audio_volume + 128) >> 8);
1889                 *volp++ = av_clipl_int32(v);
1890             }
1891             break;
1892         }
1893         case AV_SAMPLE_FMT_FLT:
1894         {
1895             float *volp = samples;
1896             float scale = audio_volume / 256.f;
1897             for (i = 0; i < (decoded_data_size / sizeof(*volp)); i++) {
1898                 *volp++ *= scale;
1899             }
1900             break;
1901         }
1902         case AV_SAMPLE_FMT_DBL:
1903         {
1904             double *volp = samples;
1905             double scale = audio_volume / 256.;
1906             for (i = 0; i < (decoded_data_size / sizeof(*volp)); i++) {
1907                 *volp++ *= scale;
1908             }
1909             break;
1910         }
1911         default:
1912             av_log(NULL, AV_LOG_FATAL,
1913                    "Audio volume adjustment on sample format %s is not supported.\n",
1914                    av_get_sample_fmt_name(ist->st->codec->sample_fmt));
1915             exit_program(1);
1916         }
1917     }
1918
1919     rate_emu_sleep(ist);
1920
1921     for (i = 0; i < nb_output_streams; i++) {
1922         OutputStream *ost = &output_streams[i];
1923
1924         if (!check_output_constraints(ist, ost) || !ost->encoding_needed)
1925             continue;
1926         do_audio_out(output_files[ost->file_index].ctx, ost, ist, decoded_frame);
1927     }
1928
1929     return ret;
1930 }
1931
1932 static int transcode_video(InputStream *ist, AVPacket *pkt, int *got_output, int64_t *pkt_pts)
1933 {
1934     AVFrame *decoded_frame, *filtered_frame = NULL;
1935     void *buffer_to_free = NULL;
1936     int i, ret = 0;
1937     float quality;
1938 #if CONFIG_AVFILTER
1939     int frame_available = 1;
1940 #endif
1941
1942     if (!ist->decoded_frame && !(ist->decoded_frame = avcodec_alloc_frame()))
1943         return AVERROR(ENOMEM);
1944     else
1945         avcodec_get_frame_defaults(ist->decoded_frame);
1946     decoded_frame = ist->decoded_frame;
1947     pkt->pts  = *pkt_pts;
1948     pkt->dts  = ist->last_dts;
1949     *pkt_pts  = AV_NOPTS_VALUE;
1950
1951     ret = avcodec_decode_video2(ist->st->codec,
1952                                 decoded_frame, got_output, pkt);
1953     if (ret < 0)
1954         return ret;
1955
1956     quality = same_quant ? decoded_frame->quality : 0;
1957     if (!*got_output) {
1958         /* no picture yet */
1959         return ret;
1960     }
1961     decoded_frame->pts = guess_correct_pts(&ist->pts_ctx, decoded_frame->pkt_pts,
1962                                            decoded_frame->pkt_dts);
1963     pkt->size = 0;
1964     pre_process_video_frame(ist, (AVPicture *)decoded_frame, &buffer_to_free);
1965
1966     rate_emu_sleep(ist);
1967
1968     for (i = 0; i < nb_output_streams; i++) {
1969         OutputStream *ost = &output_streams[i];
1970         int frame_size, resample_changed;
1971
1972         if (!check_output_constraints(ist, ost) || !ost->encoding_needed)
1973             continue;
1974
1975 #if CONFIG_AVFILTER
1976         resample_changed = ost->resample_width   != decoded_frame->width  ||
1977                            ost->resample_height  != decoded_frame->height ||
1978                            ost->resample_pix_fmt != decoded_frame->format;
1979         if (resample_changed) {
1980             av_log(NULL, AV_LOG_INFO,
1981                     "Input stream #%d:%d frame changed from size:%dx%d fmt:%s to size:%dx%d fmt:%s\n",
1982                     ist->file_index, ist->st->index,
1983                     ost->resample_width,  ost->resample_height,  av_get_pix_fmt_name(ost->resample_pix_fmt),
1984                     decoded_frame->width, decoded_frame->height, av_get_pix_fmt_name(decoded_frame->format));
1985
1986             avfilter_graph_free(&ost->graph);
1987             if (configure_video_filters(ist, ost)) {
1988                 av_log(NULL, AV_LOG_FATAL, "Error reinitializing filters!\n");
1989                 exit_program(1);
1990             }
1991
1992             ost->resample_width   = decoded_frame->width;
1993             ost->resample_height  = decoded_frame->height;
1994             ost->resample_pix_fmt = decoded_frame->format;
1995         }
1996
1997         if (ist->st->sample_aspect_ratio.num)
1998             decoded_frame->sample_aspect_ratio = ist->st->sample_aspect_ratio;
1999         if (ist->st->codec->codec->capabilities & CODEC_CAP_DR1) {
2000             FrameBuffer      *buf = decoded_frame->opaque;
2001             AVFilterBufferRef *fb = avfilter_get_video_buffer_ref_from_arrays(
2002                                         decoded_frame->data, decoded_frame->linesize,
2003                                         AV_PERM_READ | AV_PERM_PRESERVE,
2004                                         ist->st->codec->width, ist->st->codec->height,
2005                                         ist->st->codec->pix_fmt);
2006
2007             avfilter_copy_frame_props(fb, decoded_frame);
2008             fb->buf->priv           = buf;
2009             fb->buf->free           = filter_release_buffer;
2010
2011             buf->refcount++;
2012             av_buffersrc_buffer(ost->input_video_filter, fb);
2013         } else
2014             av_vsrc_buffer_add_frame(ost->input_video_filter, decoded_frame,
2015                                      decoded_frame->pts, decoded_frame->sample_aspect_ratio);
2016
2017         if (!ist->filtered_frame && !(ist->filtered_frame = avcodec_alloc_frame())) {
2018             av_free(buffer_to_free);
2019             return AVERROR(ENOMEM);
2020         } else
2021             avcodec_get_frame_defaults(ist->filtered_frame);
2022         filtered_frame = ist->filtered_frame;
2023
2024         frame_available = avfilter_poll_frame(ost->output_video_filter->inputs[0]);
2025         while (frame_available) {
2026             AVRational ist_pts_tb;
2027             get_filtered_video_frame(ost->output_video_filter, filtered_frame, &ost->picref, &ist_pts_tb);
2028             if (ost->picref)
2029                 filtered_frame->pts = av_rescale_q(ost->picref->pts, ist_pts_tb, AV_TIME_BASE_Q);
2030             if (ost->picref->video && !ost->frame_aspect_ratio)
2031                 ost->st->codec->sample_aspect_ratio = ost->picref->video->pixel_aspect;
2032 #else
2033             filtered_frame = decoded_frame;
2034 #endif
2035
2036             do_video_out(output_files[ost->file_index].ctx, ost, ist, filtered_frame, &frame_size,
2037                          same_quant ? quality : ost->st->codec->global_quality);
2038             if (vstats_filename && frame_size)
2039                 do_video_stats(output_files[ost->file_index].ctx, ost, frame_size);
2040 #if CONFIG_AVFILTER
2041             frame_available = ost->output_video_filter && avfilter_poll_frame(ost->output_video_filter->inputs[0]);
2042             if (ost->picref)
2043                 avfilter_unref_buffer(ost->picref);
2044         }
2045 #endif
2046     }
2047
2048     av_free(buffer_to_free);
2049     return ret;
2050 }
2051
2052 static int transcode_subtitles(InputStream *ist, AVPacket *pkt, int *got_output)
2053 {
2054     AVSubtitle subtitle;
2055     int i, ret = avcodec_decode_subtitle2(ist->st->codec,
2056                                           &subtitle, got_output, pkt);
2057     if (ret < 0)
2058         return ret;
2059     if (!*got_output)
2060         return ret;
2061
2062     rate_emu_sleep(ist);
2063
2064     for (i = 0; i < nb_output_streams; i++) {
2065         OutputStream *ost = &output_streams[i];
2066
2067         if (!check_output_constraints(ist, ost) || !ost->encoding_needed)
2068             continue;
2069
2070         do_subtitle_out(output_files[ost->file_index].ctx, ost, ist, &subtitle, pkt->pts);
2071     }
2072
2073     avsubtitle_free(&subtitle);
2074     return ret;
2075 }
2076
2077 /* pkt = NULL means EOF (needed to flush decoder buffers) */
2078 static int output_packet(InputStream *ist,
2079                          OutputStream *ost_table, int nb_ostreams,
2080                          const AVPacket *pkt)
2081 {
2082     int i;
2083     int got_output;
2084     int64_t pkt_pts = AV_NOPTS_VALUE;
2085     AVPacket avpkt;
2086
2087     if (ist->next_dts == AV_NOPTS_VALUE)
2088         ist->next_dts = ist->last_dts;
2089
2090     if (pkt == NULL) {
2091         /* EOF handling */
2092         av_init_packet(&avpkt);
2093         avpkt.data = NULL;
2094         avpkt.size = 0;
2095         goto handle_eof;
2096     } else {
2097         avpkt = *pkt;
2098     }
2099
2100     if (pkt->dts != AV_NOPTS_VALUE)
2101         ist->next_dts = ist->last_dts = av_rescale_q(pkt->dts, ist->st->time_base, AV_TIME_BASE_Q);
2102     if (pkt->pts != AV_NOPTS_VALUE)
2103         pkt_pts = av_rescale_q(pkt->pts, ist->st->time_base, AV_TIME_BASE_Q);
2104
2105     // while we have more to decode or while the decoder did output something on EOF
2106     while (ist->decoding_needed && (avpkt.size > 0 || (!pkt && got_output))) {
2107         int ret = 0;
2108     handle_eof:
2109
2110         ist->last_dts = ist->next_dts;
2111
2112         if (avpkt.size && avpkt.size != pkt->size) {
2113             av_log(NULL, ist->showed_multi_packet_warning ? AV_LOG_VERBOSE : AV_LOG_WARNING,
2114                    "Multiple frames in a packet from stream %d\n", pkt->stream_index);
2115             ist->showed_multi_packet_warning = 1;
2116         }
2117
2118         switch (ist->st->codec->codec_type) {
2119         case AVMEDIA_TYPE_AUDIO:
2120             ret = transcode_audio    (ist, &avpkt, &got_output);
2121             break;
2122         case AVMEDIA_TYPE_VIDEO:
2123             ret = transcode_video    (ist, &avpkt, &got_output, &pkt_pts);
2124             if (avpkt.duration)
2125                 ist->next_dts += av_rescale_q(avpkt.duration, ist->st->time_base, AV_TIME_BASE_Q);
2126             else if (ist->st->r_frame_rate.num)
2127                 ist->next_dts += av_rescale_q(1, (AVRational){ist->st->r_frame_rate.den,
2128                                                               ist->st->r_frame_rate.num},
2129                                               AV_TIME_BASE_Q);
2130             else if (ist->st->codec->time_base.num != 0) {
2131                 int ticks      = ist->st->parser ? ist->st->parser->repeat_pict + 1 :
2132                                                    ist->st->codec->ticks_per_frame;
2133                 ist->next_dts += av_rescale_q(ticks, ist->st->codec->time_base, AV_TIME_BASE_Q);
2134             }
2135             break;
2136         case AVMEDIA_TYPE_SUBTITLE:
2137             ret = transcode_subtitles(ist, &avpkt, &got_output);
2138             break;
2139         default:
2140             return -1;
2141         }
2142
2143         if (ret < 0)
2144             return ret;
2145         // touch data and size only if not EOF
2146         if (pkt) {
2147             avpkt.data += ret;
2148             avpkt.size -= ret;
2149         }
2150         if (!got_output) {
2151             continue;
2152         }
2153     }
2154
2155     /* handle stream copy */
2156     if (!ist->decoding_needed) {
2157         rate_emu_sleep(ist);
2158         ist->last_dts = ist->next_dts;
2159         switch (ist->st->codec->codec_type) {
2160         case AVMEDIA_TYPE_AUDIO:
2161             ist->next_dts += ((int64_t)AV_TIME_BASE * ist->st->codec->frame_size) /
2162                              ist->st->codec->sample_rate;
2163             break;
2164         case AVMEDIA_TYPE_VIDEO:
2165             if (ist->st->codec->time_base.num != 0) {
2166                 int ticks = ist->st->parser ? ist->st->parser->repeat_pict + 1 : ist->st->codec->ticks_per_frame;
2167                 ist->next_dts += ((int64_t)AV_TIME_BASE *
2168                                   ist->st->codec->time_base.num * ticks) /
2169                                   ist->st->codec->time_base.den;
2170             }
2171             break;
2172         }
2173     }
2174     for (i = 0; pkt && i < nb_ostreams; i++) {
2175         OutputStream *ost = &ost_table[i];
2176
2177         if (!check_output_constraints(ist, ost) || ost->encoding_needed)
2178             continue;
2179
2180         do_streamcopy(ist, ost, pkt);
2181     }
2182
2183     return 0;
2184 }
2185
2186 static void print_sdp(OutputFile *output_files, int n)
2187 {
2188     char sdp[2048];
2189     int i;
2190     AVFormatContext **avc = av_malloc(sizeof(*avc) * n);
2191
2192     if (!avc)
2193         exit_program(1);
2194     for (i = 0; i < n; i++)
2195         avc[i] = output_files[i].ctx;
2196
2197     av_sdp_create(avc, n, sdp, sizeof(sdp));
2198     printf("SDP:\n%s\n", sdp);
2199     fflush(stdout);
2200     av_freep(&avc);
2201 }
2202
2203 static int init_input_stream(int ist_index, OutputStream *output_streams, int nb_output_streams,
2204                              char *error, int error_len)
2205 {
2206     int i;
2207     InputStream *ist = &input_streams[ist_index];
2208     if (ist->decoding_needed) {
2209         AVCodec *codec = ist->dec;
2210         if (!codec) {
2211             snprintf(error, error_len, "Decoder (codec id %d) not found for input stream #%d:%d",
2212                     ist->st->codec->codec_id, ist->file_index, ist->st->index);
2213             return AVERROR(EINVAL);
2214         }
2215
2216         /* update requested sample format for the decoder based on the
2217            corresponding encoder sample format */
2218         for (i = 0; i < nb_output_streams; i++) {
2219             OutputStream *ost = &output_streams[i];
2220             if (ost->source_index == ist_index) {
2221                 update_sample_fmt(ist->st->codec, codec, ost->st->codec);
2222                 break;
2223             }
2224         }
2225
2226         if (codec->type == AVMEDIA_TYPE_VIDEO && codec->capabilities & CODEC_CAP_DR1) {
2227             ist->st->codec->get_buffer     = codec_get_buffer;
2228             ist->st->codec->release_buffer = codec_release_buffer;
2229             ist->st->codec->opaque         = ist;
2230         }
2231
2232         if (!av_dict_get(ist->opts, "threads", NULL, 0))
2233             av_dict_set(&ist->opts, "threads", "auto", 0);
2234         if (avcodec_open2(ist->st->codec, codec, &ist->opts) < 0) {
2235             snprintf(error, error_len, "Error while opening decoder for input stream #%d:%d",
2236                     ist->file_index, ist->st->index);
2237             return AVERROR(EINVAL);
2238         }
2239         assert_codec_experimental(ist->st->codec, 0);
2240         assert_avoptions(ist->opts);
2241     }
2242
2243     ist->last_dts = ist->st->avg_frame_rate.num ? - ist->st->codec->has_b_frames * AV_TIME_BASE / av_q2d(ist->st->avg_frame_rate) : 0;
2244     ist->next_dts = AV_NOPTS_VALUE;
2245     init_pts_correction(&ist->pts_ctx);
2246     ist->is_start = 1;
2247
2248     return 0;
2249 }
2250
2251 static int transcode_init(OutputFile *output_files,
2252                           int nb_output_files,
2253                           InputFile *input_files,
2254                           int nb_input_files)
2255 {
2256     int ret = 0, i, j, k;
2257     AVFormatContext *oc;
2258     AVCodecContext *codec, *icodec;
2259     OutputStream *ost;
2260     InputStream *ist;
2261     char error[1024];
2262     int want_sdp = 1;
2263
2264     /* init framerate emulation */
2265     for (i = 0; i < nb_input_files; i++) {
2266         InputFile *ifile = &input_files[i];
2267         if (ifile->rate_emu)
2268             for (j = 0; j < ifile->nb_streams; j++)
2269                 input_streams[j + ifile->ist_index].start = av_gettime();
2270     }
2271
2272     /* output stream init */
2273     for (i = 0; i < nb_output_files; i++) {
2274         oc = output_files[i].ctx;
2275         if (!oc->nb_streams && !(oc->oformat->flags & AVFMT_NOSTREAMS)) {
2276             av_dump_format(oc, i, oc->filename, 1);
2277             av_log(NULL, AV_LOG_ERROR, "Output file #%d does not contain any stream\n", i);
2278             return AVERROR(EINVAL);
2279         }
2280     }
2281
2282     /* for each output stream, we compute the right encoding parameters */
2283     for (i = 0; i < nb_output_streams; i++) {
2284         ost = &output_streams[i];
2285         oc  = output_files[ost->file_index].ctx;
2286         ist = &input_streams[ost->source_index];
2287
2288         if (ost->attachment_filename)
2289             continue;
2290
2291         codec  = ost->st->codec;
2292         icodec = ist->st->codec;
2293
2294         ost->st->disposition          = ist->st->disposition;
2295         codec->bits_per_raw_sample    = icodec->bits_per_raw_sample;
2296         codec->chroma_sample_location = icodec->chroma_sample_location;
2297
2298         if (ost->stream_copy) {
2299             uint64_t extra_size = (uint64_t)icodec->extradata_size + FF_INPUT_BUFFER_PADDING_SIZE;
2300
2301             if (extra_size > INT_MAX) {
2302                 return AVERROR(EINVAL);
2303             }
2304
2305             /* if stream_copy is selected, no need to decode or encode */
2306             codec->codec_id   = icodec->codec_id;
2307             codec->codec_type = icodec->codec_type;
2308
2309             if (!codec->codec_tag) {
2310                 if (!oc->oformat->codec_tag ||
2311                      av_codec_get_id (oc->oformat->codec_tag, icodec->codec_tag) == codec->codec_id ||
2312                      av_codec_get_tag(oc->oformat->codec_tag, icodec->codec_id) <= 0)
2313                     codec->codec_tag = icodec->codec_tag;
2314             }
2315
2316             codec->bit_rate       = icodec->bit_rate;
2317             codec->rc_max_rate    = icodec->rc_max_rate;
2318             codec->rc_buffer_size = icodec->rc_buffer_size;
2319             codec->field_order    = icodec->field_order;
2320             codec->extradata      = av_mallocz(extra_size);
2321             if (!codec->extradata) {
2322                 return AVERROR(ENOMEM);
2323             }
2324             memcpy(codec->extradata, icodec->extradata, icodec->extradata_size);
2325             codec->extradata_size = icodec->extradata_size;
2326             if (!copy_tb) {
2327                 codec->time_base      = icodec->time_base;
2328                 codec->time_base.num *= icodec->ticks_per_frame;
2329                 av_reduce(&codec->time_base.num, &codec->time_base.den,
2330                           codec->time_base.num, codec->time_base.den, INT_MAX);
2331             } else
2332                 codec->time_base = ist->st->time_base;
2333
2334             switch (codec->codec_type) {
2335             case AVMEDIA_TYPE_AUDIO:
2336                 if (audio_volume != 256) {
2337                     av_log(NULL, AV_LOG_FATAL, "-acodec copy and -vol are incompatible (frames are not decoded)\n");
2338                     exit_program(1);
2339                 }
2340                 codec->channel_layout     = icodec->channel_layout;
2341                 codec->sample_rate        = icodec->sample_rate;
2342                 codec->channels           = icodec->channels;
2343                 codec->frame_size         = icodec->frame_size;
2344                 codec->audio_service_type = icodec->audio_service_type;
2345                 codec->block_align        = icodec->block_align;
2346                 break;
2347             case AVMEDIA_TYPE_VIDEO:
2348                 codec->pix_fmt            = icodec->pix_fmt;
2349                 codec->width              = icodec->width;
2350                 codec->height             = icodec->height;
2351                 codec->has_b_frames       = icodec->has_b_frames;
2352                 if (!codec->sample_aspect_ratio.num) {
2353                     codec->sample_aspect_ratio   =
2354                     ost->st->sample_aspect_ratio =
2355                         ist->st->sample_aspect_ratio.num ? ist->st->sample_aspect_ratio :
2356                         ist->st->codec->sample_aspect_ratio.num ?
2357                         ist->st->codec->sample_aspect_ratio : (AVRational){0, 1};
2358                 }
2359                 break;
2360             case AVMEDIA_TYPE_SUBTITLE:
2361                 codec->width  = icodec->width;
2362                 codec->height = icodec->height;
2363                 break;
2364             case AVMEDIA_TYPE_DATA:
2365             case AVMEDIA_TYPE_ATTACHMENT:
2366                 break;
2367             default:
2368                 abort();
2369             }
2370         } else {
2371             if (!ost->enc)
2372                 ost->enc = avcodec_find_encoder(ost->st->codec->codec_id);
2373
2374             ist->decoding_needed = 1;
2375             ost->encoding_needed = 1;
2376
2377             switch (codec->codec_type) {
2378             case AVMEDIA_TYPE_AUDIO:
2379                 ost->fifo = av_fifo_alloc(1024);
2380                 if (!ost->fifo) {
2381                     return AVERROR(ENOMEM);
2382                 }
2383                 ost->reformat_pair = MAKE_SFMT_PAIR(AV_SAMPLE_FMT_NONE,AV_SAMPLE_FMT_NONE);
2384
2385                 if (!codec->sample_rate)
2386                     codec->sample_rate = icodec->sample_rate;
2387                 choose_sample_rate(ost->st, ost->enc);
2388                 codec->time_base = (AVRational){ 1, codec->sample_rate };
2389
2390                 if (codec->sample_fmt == AV_SAMPLE_FMT_NONE)
2391                     codec->sample_fmt = icodec->sample_fmt;
2392                 choose_sample_fmt(ost->st, ost->enc);
2393
2394                 if (!codec->channels)
2395                     codec->channels = icodec->channels;
2396                 codec->channel_layout = icodec->channel_layout;
2397                 if (av_get_channel_layout_nb_channels(codec->channel_layout) != codec->channels)
2398                     codec->channel_layout = 0;
2399
2400                 ost->audio_resample       = codec-> sample_rate != icodec->sample_rate || audio_sync_method > 1;
2401                 icodec->request_channels  = codec-> channels;
2402                 ost->resample_sample_fmt  = icodec->sample_fmt;
2403                 ost->resample_sample_rate = icodec->sample_rate;
2404                 ost->resample_channels    = icodec->channels;
2405                 break;
2406             case AVMEDIA_TYPE_VIDEO:
2407                 if (codec->pix_fmt == PIX_FMT_NONE)
2408                     codec->pix_fmt = icodec->pix_fmt;
2409                 choose_pixel_fmt(ost->st, ost->enc);
2410
2411                 if (ost->st->codec->pix_fmt == PIX_FMT_NONE) {
2412                     av_log(NULL, AV_LOG_FATAL, "Video pixel format is unknown, stream cannot be encoded\n");
2413                     exit_program(1);
2414                 }
2415
2416                 if (!codec->width || !codec->height) {
2417                     codec->width  = icodec->width;
2418                     codec->height = icodec->height;
2419                 }
2420
2421                 ost->video_resample = codec->width   != icodec->width  ||
2422                                       codec->height  != icodec->height ||
2423                                       codec->pix_fmt != icodec->pix_fmt;
2424                 if (ost->video_resample) {
2425 #if !CONFIG_AVFILTER
2426                     avcodec_get_frame_defaults(&ost->pict_tmp);
2427                     if (avpicture_alloc((AVPicture*)&ost->pict_tmp, codec->pix_fmt,
2428                                        codec->width, codec->height)) {
2429                         av_log(NULL, AV_LOG_FATAL, "Cannot allocate temp picture, check pix fmt\n");
2430                         exit_program(1);
2431                     }
2432                     ost->img_resample_ctx = sws_getContext(
2433                         icodec->width,
2434                         icodec->height,
2435                         icodec->pix_fmt,
2436                         codec->width,
2437                         codec->height,
2438                         codec->pix_fmt,
2439                         ost->sws_flags, NULL, NULL, NULL);
2440                     if (ost->img_resample_ctx == NULL) {
2441                         av_log(NULL, AV_LOG_FATAL, "Cannot get resampling context\n");
2442                         exit_program(1);
2443                     }
2444 #endif
2445                     codec->bits_per_raw_sample = 0;
2446                 }
2447
2448                 ost->resample_height  = icodec->height;
2449                 ost->resample_width   = icodec->width;
2450                 ost->resample_pix_fmt = icodec->pix_fmt;
2451
2452                 /*
2453                  * We want CFR output if and only if one of those is true:
2454                  * 1) user specified output framerate with -r
2455                  * 2) user specified -vsync cfr
2456                  * 3) output format is CFR and the user didn't force vsync to
2457                  *    something else than CFR
2458                  *
2459                  * in such a case, set ost->frame_rate
2460                  */
2461                 if (!ost->frame_rate.num &&
2462                     (video_sync_method ==  VSYNC_CFR ||
2463                      (video_sync_method ==  VSYNC_AUTO &&
2464                       !(oc->oformat->flags & (AVFMT_NOTIMESTAMPS | AVFMT_VARIABLE_FPS))))) {
2465                     ost->frame_rate = ist->st->r_frame_rate.num ? ist->st->r_frame_rate : (AVRational){25, 1};
2466                     if (ost->enc && ost->enc->supported_framerates && !ost->force_fps) {
2467                         int idx = av_find_nearest_q_idx(ost->frame_rate, ost->enc->supported_framerates);
2468                         ost->frame_rate = ost->enc->supported_framerates[idx];
2469                     }
2470                 }
2471                 if (ost->frame_rate.num) {
2472                     codec->time_base = (AVRational){ost->frame_rate.den, ost->frame_rate.num};
2473                     video_sync_method = VSYNC_CFR;
2474                 } else
2475                     codec->time_base = ist->st->time_base;
2476
2477 #if CONFIG_AVFILTER
2478                 if (configure_video_filters(ist, ost)) {
2479                     av_log(NULL, AV_LOG_FATAL, "Error opening filters!\n");
2480                     exit(1);
2481                 }
2482 #endif
2483                 break;
2484             case AVMEDIA_TYPE_SUBTITLE:
2485                 codec->time_base = (AVRational){1, 1000};
2486                 break;
2487             default:
2488                 abort();
2489                 break;
2490             }
2491             /* two pass mode */
2492             if ((codec->flags & (CODEC_FLAG_PASS1 | CODEC_FLAG_PASS2))) {
2493                 char logfilename[1024];
2494                 FILE *f;
2495
2496                 snprintf(logfilename, sizeof(logfilename), "%s-%d.log",
2497                          pass_logfilename_prefix ? pass_logfilename_prefix : DEFAULT_PASS_LOGFILENAME_PREFIX,
2498                          i);
2499                 if (!strcmp(ost->enc->name, "libx264")) {
2500                     av_dict_set(&ost->opts, "stats", logfilename, AV_DICT_DONT_OVERWRITE);
2501                 } else {
2502                     if (codec->flags & CODEC_FLAG_PASS1) {
2503                         f = fopen(logfilename, "wb");
2504                         if (!f) {
2505                             av_log(NULL, AV_LOG_FATAL, "Cannot write log file '%s' for pass-1 encoding: %s\n",
2506                                    logfilename, strerror(errno));
2507                             exit_program(1);
2508                         }
2509                         ost->logfile = f;
2510                     } else {
2511                         char  *logbuffer;
2512                         size_t logbuffer_size;
2513                         if (cmdutils_read_file(logfilename, &logbuffer, &logbuffer_size) < 0) {
2514                             av_log(NULL, AV_LOG_FATAL, "Error reading log file '%s' for pass-2 encoding\n",
2515                                    logfilename);
2516                             exit_program(1);
2517                         }
2518                         codec->stats_in = logbuffer;
2519                     }
2520                 }
2521             }
2522         }
2523     }
2524
2525     /* open each encoder */
2526     for (i = 0; i < nb_output_streams; i++) {
2527         ost = &output_streams[i];
2528         if (ost->encoding_needed) {
2529             AVCodec      *codec = ost->enc;
2530             AVCodecContext *dec = input_streams[ost->source_index].st->codec;
2531             if (!codec) {
2532                 snprintf(error, sizeof(error), "Encoder (codec id %d) not found for output stream #%d:%d",
2533                          ost->st->codec->codec_id, ost->file_index, ost->index);
2534                 ret = AVERROR(EINVAL);
2535                 goto dump_format;
2536             }
2537             if (dec->subtitle_header) {
2538                 ost->st->codec->subtitle_header = av_malloc(dec->subtitle_header_size);
2539                 if (!ost->st->codec->subtitle_header) {
2540                     ret = AVERROR(ENOMEM);
2541                     goto dump_format;
2542                 }
2543                 memcpy(ost->st->codec->subtitle_header, dec->subtitle_header, dec->subtitle_header_size);
2544                 ost->st->codec->subtitle_header_size = dec->subtitle_header_size;
2545             }
2546             if (!av_dict_get(ost->opts, "threads", NULL, 0))
2547                 av_dict_set(&ost->opts, "threads", "auto", 0);
2548             if (avcodec_open2(ost->st->codec, codec, &ost->opts) < 0) {
2549                 snprintf(error, sizeof(error), "Error while opening encoder for output stream #%d:%d - maybe incorrect parameters such as bit_rate, rate, width or height",
2550                         ost->file_index, ost->index);
2551                 ret = AVERROR(EINVAL);
2552                 goto dump_format;
2553             }
2554             assert_codec_experimental(ost->st->codec, 1);
2555             assert_avoptions(ost->opts);
2556             if (ost->st->codec->bit_rate && ost->st->codec->bit_rate < 1000)
2557                 av_log(NULL, AV_LOG_WARNING, "The bitrate parameter is set too low."
2558                                              "It takes bits/s as argument, not kbits/s\n");
2559             extra_size += ost->st->codec->extradata_size;
2560
2561             if (ost->st->codec->me_threshold)
2562                 input_streams[ost->source_index].st->codec->debug |= FF_DEBUG_MV;
2563         }
2564     }
2565
2566     /* init input streams */
2567     for (i = 0; i < nb_input_streams; i++)
2568         if ((ret = init_input_stream(i, output_streams, nb_output_streams, error, sizeof(error))) < 0)
2569             goto dump_format;
2570
2571     /* discard unused programs */
2572     for (i = 0; i < nb_input_files; i++) {
2573         InputFile *ifile = &input_files[i];
2574         for (j = 0; j < ifile->ctx->nb_programs; j++) {
2575             AVProgram *p = ifile->ctx->programs[j];
2576             int discard  = AVDISCARD_ALL;
2577
2578             for (k = 0; k < p->nb_stream_indexes; k++)
2579                 if (!input_streams[ifile->ist_index + p->stream_index[k]].discard) {
2580                     discard = AVDISCARD_DEFAULT;
2581                     break;
2582                 }
2583             p->discard = discard;
2584         }
2585     }
2586
2587     /* open files and write file headers */
2588     for (i = 0; i < nb_output_files; i++) {
2589         oc = output_files[i].ctx;
2590         oc->interrupt_callback = int_cb;
2591         if (avformat_write_header(oc, &output_files[i].opts) < 0) {
2592             snprintf(error, sizeof(error), "Could not write header for output file #%d (incorrect codec parameters ?)", i);
2593             ret = AVERROR(EINVAL);
2594             goto dump_format;
2595         }
2596         assert_avoptions(output_files[i].opts);
2597         if (strcmp(oc->oformat->name, "rtp")) {
2598             want_sdp = 0;
2599         }
2600     }
2601
2602  dump_format:
2603     /* dump the file output parameters - cannot be done before in case
2604        of stream copy */
2605     for (i = 0; i < nb_output_files; i++) {
2606         av_dump_format(output_files[i].ctx, i, output_files[i].ctx->filename, 1);
2607     }
2608
2609     /* dump the stream mapping */
2610     av_log(NULL, AV_LOG_INFO, "Stream mapping:\n");
2611     for (i = 0; i < nb_output_streams; i++) {
2612         ost = &output_streams[i];
2613
2614         if (ost->attachment_filename) {
2615             /* an attached file */
2616             av_log(NULL, AV_LOG_INFO, "  File %s -> Stream #%d:%d\n",
2617                    ost->attachment_filename, ost->file_index, ost->index);
2618             continue;
2619         }
2620         av_log(NULL, AV_LOG_INFO, "  Stream #%d:%d -> #%d:%d",
2621                input_streams[ost->source_index].file_index,
2622                input_streams[ost->source_index].st->index,
2623                ost->file_index,
2624                ost->index);
2625         if (ost->sync_ist != &input_streams[ost->source_index])
2626             av_log(NULL, AV_LOG_INFO, " [sync #%d:%d]",
2627                    ost->sync_ist->file_index,
2628                    ost->sync_ist->st->index);
2629         if (ost->stream_copy)
2630             av_log(NULL, AV_LOG_INFO, " (copy)");
2631         else
2632             av_log(NULL, AV_LOG_INFO, " (%s -> %s)", input_streams[ost->source_index].dec ?
2633                    input_streams[ost->source_index].dec->name : "?",
2634                    ost->enc ? ost->enc->name : "?");
2635         av_log(NULL, AV_LOG_INFO, "\n");
2636     }
2637
2638     if (ret) {
2639         av_log(NULL, AV_LOG_ERROR, "%s\n", error);
2640         return ret;
2641     }
2642
2643     if (want_sdp) {
2644         print_sdp(output_files, nb_output_files);
2645     }
2646
2647     return 0;
2648 }
2649
2650 /*
2651  * The following code is the main loop of the file converter
2652  */
2653 static int transcode(OutputFile *output_files,
2654                      int nb_output_files,
2655                      InputFile *input_files,
2656                      int nb_input_files)
2657 {
2658     int ret, i;
2659     AVFormatContext *is, *os;
2660     OutputStream *ost;
2661     InputStream *ist;
2662     uint8_t *no_packet;
2663     int no_packet_count = 0;
2664     int64_t timer_start;
2665
2666     if (!(no_packet = av_mallocz(nb_input_files)))
2667         exit_program(1);
2668
2669     ret = transcode_init(output_files, nb_output_files, input_files, nb_input_files);
2670     if (ret < 0)
2671         goto fail;
2672
2673     av_log(NULL, AV_LOG_INFO, "Press ctrl-c to stop encoding\n");
2674     term_init();
2675
2676     timer_start = av_gettime();
2677
2678     for (; received_sigterm == 0;) {
2679         int file_index, ist_index;
2680         AVPacket pkt;
2681         int64_t ipts_min;
2682         double opts_min;
2683
2684         ipts_min = INT64_MAX;
2685         opts_min = 1e100;
2686
2687         /* select the stream that we must read now by looking at the
2688            smallest output pts */
2689         file_index = -1;
2690         for (i = 0; i < nb_output_streams; i++) {
2691             OutputFile *of;
2692             int64_t ipts;
2693             double  opts;
2694             ost = &output_streams[i];
2695             of = &output_files[ost->file_index];
2696             os = output_files[ost->file_index].ctx;
2697             ist = &input_streams[ost->source_index];
2698             if (ost->is_past_recording_time || no_packet[ist->file_index] ||
2699                 (os->pb && avio_tell(os->pb) >= of->limit_filesize))
2700                 continue;
2701             opts = ost->st->pts.val * av_q2d(ost->st->time_base);
2702             ipts = ist->last_dts;
2703             if (!input_files[ist->file_index].eof_reached) {
2704                 if (ipts < ipts_min) {
2705                     ipts_min = ipts;
2706                     if (input_sync)
2707                         file_index = ist->file_index;
2708                 }
2709                 if (opts < opts_min) {
2710                     opts_min = opts;
2711                     if (!input_sync) file_index = ist->file_index;
2712                 }
2713             }
2714             if (ost->frame_number >= ost->max_frames) {
2715                 int j;
2716                 for (j = 0; j < of->ctx->nb_streams; j++)
2717                     output_streams[of->ost_index + j].is_past_recording_time = 1;
2718                 continue;
2719             }
2720         }
2721         /* if none, if is finished */
2722         if (file_index < 0) {
2723             if (no_packet_count) {
2724                 no_packet_count = 0;
2725                 memset(no_packet, 0, nb_input_files);
2726                 usleep(10000);
2727                 continue;
2728             }
2729             break;
2730         }
2731
2732         /* read a frame from it and output it in the fifo */
2733         is  = input_files[file_index].ctx;
2734         ret = av_read_frame(is, &pkt);
2735         if (ret == AVERROR(EAGAIN)) {
2736             no_packet[file_index] = 1;
2737             no_packet_count++;
2738             continue;
2739         }
2740         if (ret < 0) {
2741             input_files[file_index].eof_reached = 1;
2742             if (opt_shortest)
2743                 break;
2744             else
2745                 continue;
2746         }
2747
2748         no_packet_count = 0;
2749         memset(no_packet, 0, nb_input_files);
2750
2751         if (do_pkt_dump) {
2752             av_pkt_dump_log2(NULL, AV_LOG_DEBUG, &pkt, do_hex_dump,
2753                              is->streams[pkt.stream_index]);
2754         }
2755         /* the following test is needed in case new streams appear
2756            dynamically in stream : we ignore them */
2757         if (pkt.stream_index >= input_files[file_index].nb_streams)
2758             goto discard_packet;
2759         ist_index = input_files[file_index].ist_index + pkt.stream_index;
2760         ist = &input_streams[ist_index];
2761         if (ist->discard)
2762             goto discard_packet;
2763
2764         if (pkt.dts != AV_NOPTS_VALUE)
2765             pkt.dts += av_rescale_q(input_files[ist->file_index].ts_offset, AV_TIME_BASE_Q, ist->st->time_base);
2766         if (pkt.pts != AV_NOPTS_VALUE)
2767             pkt.pts += av_rescale_q(input_files[ist->file_index].ts_offset, AV_TIME_BASE_Q, ist->st->time_base);
2768
2769         if (pkt.pts != AV_NOPTS_VALUE)
2770             pkt.pts *= ist->ts_scale;
2771         if (pkt.dts != AV_NOPTS_VALUE)
2772             pkt.dts *= ist->ts_scale;
2773
2774         //fprintf(stderr, "next:%"PRId64" dts:%"PRId64" off:%"PRId64" %d\n",
2775         //        ist->next_dts,
2776         //        pkt.dts, input_files[ist->file_index].ts_offset,
2777         //        ist->st->codec->codec_type);
2778         if (pkt.dts != AV_NOPTS_VALUE && ist->next_dts != AV_NOPTS_VALUE
2779             && (is->iformat->flags & AVFMT_TS_DISCONT)) {
2780             int64_t pkt_dts = av_rescale_q(pkt.dts, ist->st->time_base, AV_TIME_BASE_Q);
2781             int64_t delta   = pkt_dts - ist->next_dts;
2782             if ((FFABS(delta) > 1LL * dts_delta_threshold * AV_TIME_BASE || pkt_dts + 1 < ist->last_dts) && !copy_ts) {
2783                 input_files[ist->file_index].ts_offset -= delta;
2784                 av_log(NULL, AV_LOG_DEBUG,
2785                        "timestamp discontinuity %"PRId64", new offset= %"PRId64"\n",
2786                        delta, input_files[ist->file_index].ts_offset);
2787                 pkt.dts-= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
2788                 if (pkt.pts != AV_NOPTS_VALUE)
2789                     pkt.pts-= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
2790             }
2791         }
2792
2793         // fprintf(stderr,"read #%d.%d size=%d\n", ist->file_index, ist->st->index, pkt.size);
2794         if (output_packet(ist, output_streams, nb_output_streams, &pkt) < 0) {
2795
2796             av_log(NULL, AV_LOG_ERROR, "Error while decoding stream #%d:%d\n",
2797                    ist->file_index, ist->st->index);
2798             if (exit_on_error)
2799                 exit_program(1);
2800             av_free_packet(&pkt);
2801             continue;
2802         }
2803
2804     discard_packet:
2805         av_free_packet(&pkt);
2806
2807         /* dump report by using the output first video and audio streams */
2808         print_report(output_files, output_streams, nb_output_streams, 0, timer_start);
2809     }
2810
2811     /* at the end of stream, we must flush the decoder buffers */
2812     for (i = 0; i < nb_input_streams; i++) {
2813         ist = &input_streams[i];
2814         if (ist->decoding_needed) {
2815             output_packet(ist, output_streams, nb_output_streams, NULL);
2816         }
2817     }
2818     flush_encoders(output_streams, nb_output_streams);
2819
2820     term_exit();
2821
2822     /* write the trailer if needed and close file */
2823     for (i = 0; i < nb_output_files; i++) {
2824         os = output_files[i].ctx;
2825         av_write_trailer(os);
2826     }
2827
2828     /* dump report by using the first video and audio streams */
2829     print_report(output_files, output_streams, nb_output_streams, 1, timer_start);
2830
2831     /* close each encoder */
2832     for (i = 0; i < nb_output_streams; i++) {
2833         ost = &output_streams[i];
2834         if (ost->encoding_needed) {
2835             av_freep(&ost->st->codec->stats_in);
2836             avcodec_close(ost->st->codec);
2837         }
2838 #if CONFIG_AVFILTER
2839         avfilter_graph_free(&ost->graph);
2840 #endif
2841     }
2842
2843     /* close each decoder */
2844     for (i = 0; i < nb_input_streams; i++) {
2845         ist = &input_streams[i];
2846         if (ist->decoding_needed) {
2847             avcodec_close(ist->st->codec);
2848         }
2849     }
2850
2851     /* finished ! */
2852     ret = 0;
2853
2854  fail:
2855     av_freep(&no_packet);
2856
2857     if (output_streams) {
2858         for (i = 0; i < nb_output_streams; i++) {
2859             ost = &output_streams[i];
2860             if (ost) {
2861                 if (ost->stream_copy)
2862                     av_freep(&ost->st->codec->extradata);
2863                 if (ost->logfile) {
2864                     fclose(ost->logfile);
2865                     ost->logfile = NULL;
2866                 }
2867                 av_fifo_free(ost->fifo); /* works even if fifo is not
2868                                              initialized but set to zero */
2869                 av_freep(&ost->st->codec->subtitle_header);
2870                 av_free(ost->pict_tmp.data[0]);
2871                 av_free(ost->forced_kf_pts);
2872                 if (ost->video_resample)
2873                     sws_freeContext(ost->img_resample_ctx);
2874                 if (ost->resample)
2875                     audio_resample_close(ost->resample);
2876                 if (ost->reformat_ctx)
2877                     av_audio_convert_free(ost->reformat_ctx);
2878                 av_dict_free(&ost->opts);
2879             }
2880         }
2881     }
2882     return ret;
2883 }
2884
2885 static double parse_frame_aspect_ratio(const char *arg)
2886 {
2887     int x = 0, y = 0;
2888     double ar = 0;
2889     const char *p;
2890     char *end;
2891
2892     p = strchr(arg, ':');
2893     if (p) {
2894         x = strtol(arg, &end, 10);
2895         if (end == p)
2896             y = strtol(end + 1, &end, 10);
2897         if (x > 0 && y > 0)
2898             ar = (double)x / (double)y;
2899     } else
2900         ar = strtod(arg, NULL);
2901
2902     if (!ar) {
2903         av_log(NULL, AV_LOG_FATAL, "Incorrect aspect ratio specification.\n");
2904         exit_program(1);
2905     }
2906     return ar;
2907 }
2908
2909 static int opt_audio_codec(OptionsContext *o, const char *opt, const char *arg)
2910 {
2911     return parse_option(o, "codec:a", arg, options);
2912 }
2913
2914 static int opt_video_codec(OptionsContext *o, const char *opt, const char *arg)
2915 {
2916     return parse_option(o, "codec:v", arg, options);
2917 }
2918
2919 static int opt_subtitle_codec(OptionsContext *o, const char *opt, const char *arg)
2920 {
2921     return parse_option(o, "codec:s", arg, options);
2922 }
2923
2924 static int opt_data_codec(OptionsContext *o, const char *opt, const char *arg)
2925 {
2926     return parse_option(o, "codec:d", arg, options);
2927 }
2928
2929 static int opt_map(OptionsContext *o, const char *opt, const char *arg)
2930 {
2931     StreamMap *m = NULL;
2932     int i, negative = 0, file_idx;
2933     int sync_file_idx = -1, sync_stream_idx;
2934     char *p, *sync;
2935     char *map;
2936
2937     if (*arg == '-') {
2938         negative = 1;
2939         arg++;
2940     }
2941     map = av_strdup(arg);
2942
2943     /* parse sync stream first, just pick first matching stream */
2944     if (sync = strchr(map, ',')) {
2945         *sync = 0;
2946         sync_file_idx = strtol(sync + 1, &sync, 0);
2947         if (sync_file_idx >= nb_input_files || sync_file_idx < 0) {
2948             av_log(NULL, AV_LOG_FATAL, "Invalid sync file index: %d.\n", sync_file_idx);
2949             exit_program(1);
2950         }
2951         if (*sync)
2952             sync++;
2953         for (i = 0; i < input_files[sync_file_idx].nb_streams; i++)
2954             if (check_stream_specifier(input_files[sync_file_idx].ctx,
2955                                        input_files[sync_file_idx].ctx->streams[i], sync) == 1) {
2956                 sync_stream_idx = i;
2957                 break;
2958             }
2959         if (i == input_files[sync_file_idx].nb_streams) {
2960             av_log(NULL, AV_LOG_FATAL, "Sync stream specification in map %s does not "
2961                                        "match any streams.\n", arg);
2962             exit_program(1);
2963         }
2964     }
2965
2966
2967     file_idx = strtol(map, &p, 0);
2968     if (file_idx >= nb_input_files || file_idx < 0) {
2969         av_log(NULL, AV_LOG_FATAL, "Invalid input file index: %d.\n", file_idx);
2970         exit_program(1);
2971     }
2972     if (negative)
2973         /* disable some already defined maps */
2974         for (i = 0; i < o->nb_stream_maps; i++) {
2975             m = &o->stream_maps[i];
2976             if (file_idx == m->file_index &&
2977                 check_stream_specifier(input_files[m->file_index].ctx,
2978                                        input_files[m->file_index].ctx->streams[m->stream_index],
2979                                        *p == ':' ? p + 1 : p) > 0)
2980                 m->disabled = 1;
2981         }
2982     else
2983         for (i = 0; i < input_files[file_idx].nb_streams; i++) {
2984             if (check_stream_specifier(input_files[file_idx].ctx, input_files[file_idx].ctx->streams[i],
2985                         *p == ':' ? p + 1 : p) <= 0)
2986                 continue;
2987             o->stream_maps = grow_array(o->stream_maps, sizeof(*o->stream_maps),
2988                                         &o->nb_stream_maps, o->nb_stream_maps + 1);
2989             m = &o->stream_maps[o->nb_stream_maps - 1];
2990
2991             m->file_index   = file_idx;
2992             m->stream_index = i;
2993
2994             if (sync_file_idx >= 0) {
2995                 m->sync_file_index   = sync_file_idx;
2996                 m->sync_stream_index = sync_stream_idx;
2997             } else {
2998                 m->sync_file_index   = file_idx;
2999                 m->sync_stream_index = i;
3000             }
3001         }
3002
3003     if (!m) {
3004         av_log(NULL, AV_LOG_FATAL, "Stream map '%s' matches no streams.\n", arg);
3005         exit_program(1);
3006     }
3007
3008     av_freep(&map);
3009     return 0;
3010 }
3011
3012 static int opt_attach(OptionsContext *o, const char *opt, const char *arg)
3013 {
3014     o->attachments = grow_array(o->attachments, sizeof(*o->attachments),
3015                                 &o->nb_attachments, o->nb_attachments + 1);
3016     o->attachments[o->nb_attachments - 1] = arg;
3017     return 0;
3018 }
3019
3020 /**
3021  * Parse a metadata specifier in arg.
3022  * @param type metadata type is written here -- g(lobal)/s(tream)/c(hapter)/p(rogram)
3023  * @param index for type c/p, chapter/program index is written here
3024  * @param stream_spec for type s, the stream specifier is written here
3025  */
3026 static void parse_meta_type(char *arg, char *type, int *index, const char **stream_spec)
3027 {
3028     if (*arg) {
3029         *type = *arg;
3030         switch (*arg) {
3031         case 'g':
3032             break;
3033         case 's':
3034             if (*(++arg) && *arg != ':') {
3035                 av_log(NULL, AV_LOG_FATAL, "Invalid metadata specifier %s.\n", arg);
3036                 exit_program(1);
3037             }
3038             *stream_spec = *arg == ':' ? arg + 1 : "";
3039             break;
3040         case 'c':
3041         case 'p':
3042             if (*(++arg) == ':')
3043                 *index = strtol(++arg, NULL, 0);
3044             break;
3045         default:
3046             av_log(NULL, AV_LOG_FATAL, "Invalid metadata type %c.\n", *arg);
3047             exit_program(1);
3048         }
3049     } else
3050         *type = 'g';
3051 }
3052
3053 static int copy_metadata(char *outspec, char *inspec, AVFormatContext *oc, AVFormatContext *ic, OptionsContext *o)
3054 {
3055     AVDictionary **meta_in = NULL;
3056     AVDictionary **meta_out;
3057     int i, ret = 0;
3058     char type_in, type_out;
3059     const char *istream_spec = NULL, *ostream_spec = NULL;
3060     int idx_in = 0, idx_out = 0;
3061
3062     parse_meta_type(inspec,  &type_in,  &idx_in,  &istream_spec);
3063     parse_meta_type(outspec, &type_out, &idx_out, &ostream_spec);
3064
3065     if (type_in == 'g' || type_out == 'g')
3066         o->metadata_global_manual = 1;
3067     if (type_in == 's' || type_out == 's')
3068         o->metadata_streams_manual = 1;
3069     if (type_in == 'c' || type_out == 'c')
3070         o->metadata_chapters_manual = 1;
3071
3072 #define METADATA_CHECK_INDEX(index, nb_elems, desc)\
3073     if ((index) < 0 || (index) >= (nb_elems)) {\
3074         av_log(NULL, AV_LOG_FATAL, "Invalid %s index %d while processing metadata maps.\n",\
3075                 (desc), (index));\
3076         exit_program(1);\
3077     }
3078
3079 #define SET_DICT(type, meta, context, index)\
3080         switch (type) {\
3081         case 'g':\
3082             meta = &context->metadata;\
3083             break;\
3084         case 'c':\
3085             METADATA_CHECK_INDEX(index, context->nb_chapters, "chapter")\
3086             meta = &context->chapters[index]->metadata;\
3087             break;\
3088         case 'p':\
3089             METADATA_CHECK_INDEX(index, context->nb_programs, "program")\
3090             meta = &context->programs[index]->metadata;\
3091             break;\
3092         }\
3093
3094     SET_DICT(type_in, meta_in, ic, idx_in);
3095     SET_DICT(type_out, meta_out, oc, idx_out);
3096
3097     /* for input streams choose first matching stream */
3098     if (type_in == 's') {
3099         for (i = 0; i < ic->nb_streams; i++) {
3100             if ((ret = check_stream_specifier(ic, ic->streams[i], istream_spec)) > 0) {
3101                 meta_in = &ic->streams[i]->metadata;
3102                 break;
3103             } else if (ret < 0)
3104                 exit_program(1);
3105         }
3106         if (!meta_in) {
3107             av_log(NULL, AV_LOG_FATAL, "Stream specifier %s does not match  any streams.\n", istream_spec);
3108             exit_program(1);
3109         }
3110     }
3111
3112     if (type_out == 's') {
3113         for (i = 0; i < oc->nb_streams; i++) {
3114             if ((ret = check_stream_specifier(oc, oc->streams[i], ostream_spec)) > 0) {
3115                 meta_out = &oc->streams[i]->metadata;
3116                 av_dict_copy(meta_out, *meta_in, AV_DICT_DONT_OVERWRITE);
3117             } else if (ret < 0)
3118                 exit_program(1);
3119         }
3120     } else
3121         av_dict_copy(meta_out, *meta_in, AV_DICT_DONT_OVERWRITE);
3122
3123     return 0;
3124 }
3125
3126 static AVCodec *find_codec_or_die(const char *name, enum AVMediaType type, int encoder)
3127 {
3128     const char *codec_string = encoder ? "encoder" : "decoder";
3129     AVCodec *codec;
3130
3131     codec = encoder ?
3132         avcodec_find_encoder_by_name(name) :
3133         avcodec_find_decoder_by_name(name);
3134     if (!codec) {
3135         av_log(NULL, AV_LOG_FATAL, "Unknown %s '%s'\n", codec_string, name);
3136         exit_program(1);
3137     }
3138     if (codec->type != type) {
3139         av_log(NULL, AV_LOG_FATAL, "Invalid %s type '%s'\n", codec_string, name);
3140         exit_program(1);
3141     }
3142     return codec;
3143 }
3144
3145 static AVCodec *choose_decoder(OptionsContext *o, AVFormatContext *s, AVStream *st)
3146 {
3147     char *codec_name = NULL;
3148
3149     MATCH_PER_STREAM_OPT(codec_names, str, codec_name, s, st);
3150     if (codec_name) {
3151         AVCodec *codec = find_codec_or_die(codec_name, st->codec->codec_type, 0);
3152         st->codec->codec_id = codec->id;
3153         return codec;
3154     } else
3155         return avcodec_find_decoder(st->codec->codec_id);
3156 }
3157
3158 /**
3159  * Add all the streams from the given input file to the global
3160  * list of input streams.
3161  */
3162 static void add_input_streams(OptionsContext *o, AVFormatContext *ic)
3163 {
3164     int i;
3165
3166     for (i = 0; i < ic->nb_streams; i++) {
3167         AVStream *st = ic->streams[i];
3168         AVCodecContext *dec = st->codec;
3169         InputStream *ist;
3170
3171         input_streams = grow_array(input_streams, sizeof(*input_streams), &nb_input_streams, nb_input_streams + 1);
3172         ist = &input_streams[nb_input_streams - 1];
3173         ist->st = st;
3174         ist->file_index = nb_input_files;
3175         ist->discard = 1;
3176         st->discard  = AVDISCARD_ALL;
3177         ist->opts = filter_codec_opts(codec_opts, ist->st->codec->codec_id, ic, st);
3178
3179         ist->ts_scale = 1.0;
3180         MATCH_PER_STREAM_OPT(ts_scale, dbl, ist->ts_scale, ic, st);
3181
3182         ist->dec = choose_decoder(o, ic, st);
3183
3184         switch (dec->codec_type) {
3185         case AVMEDIA_TYPE_VIDEO:
3186             if (dec->lowres) {
3187                 dec->flags |= CODEC_FLAG_EMU_EDGE;
3188                 dec->height >>= dec->lowres;
3189                 dec->width  >>= dec->lowres;
3190             }
3191
3192             break;
3193         case AVMEDIA_TYPE_AUDIO:
3194         case AVMEDIA_TYPE_DATA:
3195         case AVMEDIA_TYPE_SUBTITLE:
3196         case AVMEDIA_TYPE_ATTACHMENT:
3197         case AVMEDIA_TYPE_UNKNOWN:
3198             break;
3199         default:
3200             abort();
3201         }
3202     }
3203 }
3204
3205 static void assert_file_overwrite(const char *filename)
3206 {
3207     if (!file_overwrite &&
3208         (strchr(filename, ':') == NULL || filename[1] == ':' ||
3209          av_strstart(filename, "file:", NULL))) {
3210         if (avio_check(filename, 0) == 0) {
3211             if (!using_stdin) {
3212                 fprintf(stderr,"File '%s' already exists. Overwrite ? [y/N] ", filename);
3213                 fflush(stderr);
3214                 if (!read_yesno()) {
3215                     fprintf(stderr, "Not overwriting - exiting\n");
3216                     exit_program(1);
3217                 }
3218             }
3219             else {
3220                 fprintf(stderr,"File '%s' already exists. Exiting.\n", filename);
3221                 exit_program(1);
3222             }
3223         }
3224     }
3225 }
3226
3227 static void dump_attachment(AVStream *st, const char *filename)
3228 {
3229     int ret;
3230     AVIOContext *out = NULL;
3231     AVDictionaryEntry *e;
3232
3233     if (!st->codec->extradata_size) {
3234         av_log(NULL, AV_LOG_WARNING, "No extradata to dump in stream #%d:%d.\n",
3235                nb_input_files - 1, st->index);
3236         return;
3237     }
3238     if (!*filename && (e = av_dict_get(st->metadata, "filename", NULL, 0)))
3239         filename = e->value;
3240     if (!*filename) {
3241         av_log(NULL, AV_LOG_FATAL, "No filename specified and no 'filename' tag"
3242                "in stream #%d:%d.\n", nb_input_files - 1, st->index);
3243         exit_program(1);
3244     }
3245
3246     assert_file_overwrite(filename);
3247
3248     if ((ret = avio_open2(&out, filename, AVIO_FLAG_WRITE, &int_cb, NULL)) < 0) {
3249         av_log(NULL, AV_LOG_FATAL, "Could not open file %s for writing.\n",
3250                filename);
3251         exit_program(1);
3252     }
3253
3254     avio_write(out, st->codec->extradata, st->codec->extradata_size);
3255     avio_flush(out);
3256     avio_close(out);
3257 }
3258
3259 static int opt_input_file(OptionsContext *o, const char *opt, const char *filename)
3260 {
3261     AVFormatContext *ic;
3262     AVInputFormat *file_iformat = NULL;
3263     int err, i, ret;
3264     int64_t timestamp;
3265     uint8_t buf[128];
3266     AVDictionary **opts;
3267     int orig_nb_streams;                     // number of streams before avformat_find_stream_info
3268
3269     if (o->format) {
3270         if (!(file_iformat = av_find_input_format(o->format))) {
3271             av_log(NULL, AV_LOG_FATAL, "Unknown input format: '%s'\n", o->format);
3272             exit_program(1);
3273         }
3274     }
3275
3276     if (!strcmp(filename, "-"))
3277         filename = "pipe:";
3278
3279     using_stdin |= !strncmp(filename, "pipe:", 5) ||
3280                     !strcmp(filename, "/dev/stdin");
3281
3282     /* get default parameters from command line */
3283     ic = avformat_alloc_context();
3284     if (!ic) {
3285         print_error(filename, AVERROR(ENOMEM));
3286         exit_program(1);
3287     }
3288     if (o->nb_audio_sample_rate) {
3289         snprintf(buf, sizeof(buf), "%d", o->audio_sample_rate[o->nb_audio_sample_rate - 1].u.i);
3290         av_dict_set(&format_opts, "sample_rate", buf, 0);
3291     }
3292     if (o->nb_audio_channels) {
3293         snprintf(buf, sizeof(buf), "%d", o->audio_channels[o->nb_audio_channels - 1].u.i);
3294         av_dict_set(&format_opts, "channels", buf, 0);
3295     }
3296     if (o->nb_frame_rates) {
3297         av_dict_set(&format_opts, "framerate", o->frame_rates[o->nb_frame_rates - 1].u.str, 0);
3298     }
3299     if (o->nb_frame_sizes) {
3300         av_dict_set(&format_opts, "video_size", o->frame_sizes[o->nb_frame_sizes - 1].u.str, 0);
3301     }
3302     if (o->nb_frame_pix_fmts)
3303         av_dict_set(&format_opts, "pixel_format", o->frame_pix_fmts[o->nb_frame_pix_fmts - 1].u.str, 0);
3304
3305     ic->flags |= AVFMT_FLAG_NONBLOCK;
3306     ic->interrupt_callback = int_cb;
3307
3308     /* open the input file with generic libav function */
3309     err = avformat_open_input(&ic, filename, file_iformat, &format_opts);
3310     if (err < 0) {
3311         print_error(filename, err);
3312         exit_program(1);
3313     }
3314     assert_avoptions(format_opts);
3315
3316     /* apply forced codec ids */
3317     for (i = 0; i < ic->nb_streams; i++)
3318         choose_decoder(o, ic, ic->streams[i]);
3319
3320     /* Set AVCodecContext options for avformat_find_stream_info */
3321     opts = setup_find_stream_info_opts(ic, codec_opts);
3322     orig_nb_streams = ic->nb_streams;
3323
3324     /* If not enough info to get the stream parameters, we decode the
3325        first frames to get it. (used in mpeg case for example) */
3326     ret = avformat_find_stream_info(ic, opts);
3327     if (ret < 0) {
3328         av_log(NULL, AV_LOG_FATAL, "%s: could not find codec parameters\n", filename);
3329         avformat_close_input(&ic);
3330         exit_program(1);
3331     }
3332
3333     timestamp = o->start_time;
3334     /* add the stream start time */
3335     if (ic->start_time != AV_NOPTS_VALUE)
3336         timestamp += ic->start_time;
3337
3338     /* if seeking requested, we execute it */
3339     if (o->start_time != 0) {
3340         ret = av_seek_frame(ic, -1, timestamp, AVSEEK_FLAG_BACKWARD);
3341         if (ret < 0) {
3342             av_log(NULL, AV_LOG_WARNING, "%s: could not seek to position %0.3f\n",
3343                    filename, (double)timestamp / AV_TIME_BASE);
3344         }
3345     }
3346
3347     /* update the current parameters so that they match the one of the input stream */
3348     add_input_streams(o, ic);
3349
3350     /* dump the file content */
3351     av_dump_format(ic, nb_input_files, filename, 0);
3352
3353     input_files = grow_array(input_files, sizeof(*input_files), &nb_input_files, nb_input_files + 1);
3354     input_files[nb_input_files - 1].ctx        = ic;
3355     input_files[nb_input_files - 1].ist_index  = nb_input_streams - ic->nb_streams;
3356     input_files[nb_input_files - 1].ts_offset  = o->input_ts_offset - (copy_ts ? 0 : timestamp);
3357     input_files[nb_input_files - 1].nb_streams = ic->nb_streams;
3358     input_files[nb_input_files - 1].rate_emu   = o->rate_emu;
3359
3360     for (i = 0; i < o->nb_dump_attachment; i++) {
3361         int j;
3362
3363         for (j = 0; j < ic->nb_streams; j++) {
3364             AVStream *st = ic->streams[j];
3365
3366             if (check_stream_specifier(ic, st, o->dump_attachment[i].specifier) == 1)
3367                 dump_attachment(st, o->dump_attachment[i].u.str);
3368         }
3369     }
3370
3371     for (i = 0; i < orig_nb_streams; i++)
3372         av_dict_free(&opts[i]);
3373     av_freep(&opts);
3374
3375     reset_options(o);
3376     return 0;
3377 }
3378
3379 static void parse_forced_key_frames(char *kf, OutputStream *ost,
3380                                     AVCodecContext *avctx)
3381 {
3382     char *p;
3383     int n = 1, i;
3384     int64_t t;
3385
3386     for (p = kf; *p; p++)
3387         if (*p == ',')
3388             n++;
3389     ost->forced_kf_count = n;
3390     ost->forced_kf_pts   = av_malloc(sizeof(*ost->forced_kf_pts) * n);
3391     if (!ost->forced_kf_pts) {
3392         av_log(NULL, AV_LOG_FATAL, "Could not allocate forced key frames array.\n");
3393         exit_program(1);
3394     }
3395     for (i = 0; i < n; i++) {
3396         p = i ? strchr(p, ',') + 1 : kf;
3397         t = parse_time_or_die("force_key_frames", p, 1);
3398         ost->forced_kf_pts[i] = av_rescale_q(t, AV_TIME_BASE_Q, avctx->time_base);
3399     }
3400 }
3401
3402 static uint8_t *get_line(AVIOContext *s)
3403 {
3404     AVIOContext *line;
3405     uint8_t *buf;
3406     char c;
3407
3408     if (avio_open_dyn_buf(&line) < 0) {
3409         av_log(NULL, AV_LOG_FATAL, "Could not alloc buffer for reading preset.\n");
3410         exit_program(1);
3411     }
3412
3413     while ((c = avio_r8(s)) && c != '\n')
3414         avio_w8(line, c);
3415     avio_w8(line, 0);
3416     avio_close_dyn_buf(line, &buf);
3417
3418     return buf;
3419 }
3420
3421 static int get_preset_file_2(const char *preset_name, const char *codec_name, AVIOContext **s)
3422 {
3423     int i, ret = 1;
3424     char filename[1000];
3425     const char *base[3] = { getenv("AVCONV_DATADIR"),
3426                             getenv("HOME"),
3427                             AVCONV_DATADIR,
3428                             };
3429
3430     for (i = 0; i < FF_ARRAY_ELEMS(base) && ret; i++) {
3431         if (!base[i])
3432             continue;
3433         if (codec_name) {
3434             snprintf(filename, sizeof(filename), "%s%s/%s-%s.avpreset", base[i],
3435                      i != 1 ? "" : "/.avconv", codec_name, preset_name);
3436             ret = avio_open2(s, filename, AVIO_FLAG_READ, &int_cb, NULL);
3437         }
3438         if (ret) {
3439             snprintf(filename, sizeof(filename), "%s%s/%s.avpreset", base[i],
3440                      i != 1 ? "" : "/.avconv", preset_name);
3441             ret = avio_open2(s, filename, AVIO_FLAG_READ, &int_cb, NULL);
3442         }
3443     }
3444     return ret;
3445 }
3446
3447 static void choose_encoder(OptionsContext *o, AVFormatContext *s, OutputStream *ost)
3448 {
3449     char *codec_name = NULL;
3450
3451     MATCH_PER_STREAM_OPT(codec_names, str, codec_name, s, ost->st);
3452     if (!codec_name) {
3453         ost->st->codec->codec_id = av_guess_codec(s->oformat, NULL, s->filename,
3454                                                   NULL, ost->st->codec->codec_type);
3455         ost->enc = avcodec_find_encoder(ost->st->codec->codec_id);
3456     } else if (!strcmp(codec_name, "copy"))
3457         ost->stream_copy = 1;
3458     else {
3459         ost->enc = find_codec_or_die(codec_name, ost->st->codec->codec_type, 1);
3460         ost->st->codec->codec_id = ost->enc->id;
3461     }
3462 }
3463
3464 static OutputStream *new_output_stream(OptionsContext *o, AVFormatContext *oc, enum AVMediaType type)
3465 {
3466     OutputStream *ost;
3467     AVStream *st = avformat_new_stream(oc, NULL);
3468     int idx      = oc->nb_streams - 1, ret = 0;
3469     char *bsf = NULL, *next, *codec_tag = NULL;
3470     AVBitStreamFilterContext *bsfc, *bsfc_prev = NULL;
3471     double qscale = -1;
3472     char *buf = NULL, *arg = NULL, *preset = NULL;
3473     AVIOContext *s = NULL;
3474
3475     if (!st) {
3476         av_log(NULL, AV_LOG_FATAL, "Could not alloc stream.\n");
3477         exit_program(1);
3478     }
3479
3480     if (oc->nb_streams - 1 < o->nb_streamid_map)
3481         st->id = o->streamid_map[oc->nb_streams - 1];
3482
3483     output_streams = grow_array(output_streams, sizeof(*output_streams), &nb_output_streams,
3484                                 nb_output_streams + 1);
3485     ost = &output_streams[nb_output_streams - 1];
3486     ost->file_index = nb_output_files;
3487     ost->index      = idx;
3488     ost->st         = st;
3489     st->codec->codec_type = type;
3490     choose_encoder(o, oc, ost);
3491     if (ost->enc) {
3492         ost->opts  = filter_codec_opts(codec_opts, ost->enc->id, oc, st);
3493     }
3494
3495     avcodec_get_context_defaults3(st->codec, ost->enc);
3496     st->codec->codec_type = type; // XXX hack, avcodec_get_context_defaults2() sets type to unknown for stream copy
3497
3498     MATCH_PER_STREAM_OPT(presets, str, preset, oc, st);
3499     if (preset && (!(ret = get_preset_file_2(preset, ost->enc->name, &s)))) {
3500         do  {
3501             buf = get_line(s);
3502             if (!buf[0] || buf[0] == '#') {
3503                 av_free(buf);
3504                 continue;
3505             }
3506             if (!(arg = strchr(buf, '='))) {
3507                 av_log(NULL, AV_LOG_FATAL, "Invalid line found in the preset file.\n");
3508                 exit_program(1);
3509             }
3510             *arg++ = 0;
3511             av_dict_set(&ost->opts, buf, arg, AV_DICT_DONT_OVERWRITE);
3512             av_free(buf);
3513         } while (!s->eof_reached);
3514         avio_close(s);
3515     }
3516     if (ret) {
3517         av_log(NULL, AV_LOG_FATAL,
3518                "Preset %s specified for stream %d:%d, but could not be opened.\n",
3519                preset, ost->file_index, ost->index);
3520         exit_program(1);
3521     }
3522
3523     ost->max_frames = INT64_MAX;
3524     MATCH_PER_STREAM_OPT(max_frames, i64, ost->max_frames, oc, st);
3525
3526     MATCH_PER_STREAM_OPT(bitstream_filters, str, bsf, oc, st);
3527     while (bsf) {
3528         if (next = strchr(bsf, ','))
3529             *next++ = 0;
3530         if (!(bsfc = av_bitstream_filter_init(bsf))) {
3531             av_log(NULL, AV_LOG_FATAL, "Unknown bitstream filter %s\n", bsf);
3532             exit_program(1);
3533         }
3534         if (bsfc_prev)
3535             bsfc_prev->next = bsfc;
3536         else
3537             ost->bitstream_filters = bsfc;
3538
3539         bsfc_prev = bsfc;
3540         bsf       = next;
3541     }
3542
3543     MATCH_PER_STREAM_OPT(codec_tags, str, codec_tag, oc, st);
3544     if (codec_tag) {
3545         uint32_t tag = strtol(codec_tag, &next, 0);
3546         if (*next)
3547             tag = AV_RL32(codec_tag);
3548         st->codec->codec_tag = tag;
3549     }
3550
3551     MATCH_PER_STREAM_OPT(qscale, dbl, qscale, oc, st);
3552     if (qscale >= 0 || same_quant) {
3553         st->codec->flags |= CODEC_FLAG_QSCALE;
3554         st->codec->global_quality = FF_QP2LAMBDA * qscale;
3555     }
3556
3557     if (oc->oformat->flags & AVFMT_GLOBALHEADER)
3558         st->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
3559
3560     av_opt_get_int(sws_opts, "sws_flags", 0, &ost->sws_flags);
3561     return ost;
3562 }
3563
3564 static void parse_matrix_coeffs(uint16_t *dest, const char *str)
3565 {
3566     int i;
3567     const char *p = str;
3568     for (i = 0;; i++) {
3569         dest[i] = atoi(p);
3570         if (i == 63)
3571             break;
3572         p = strchr(p, ',');
3573         if (!p) {
3574             av_log(NULL, AV_LOG_FATAL, "Syntax error in matrix \"%s\" at coeff %d\n", str, i);
3575             exit_program(1);
3576         }
3577         p++;
3578     }
3579 }
3580
3581 static OutputStream *new_video_stream(OptionsContext *o, AVFormatContext *oc)
3582 {
3583     AVStream *st;
3584     OutputStream *ost;
3585     AVCodecContext *video_enc;
3586
3587     ost = new_output_stream(o, oc, AVMEDIA_TYPE_VIDEO);
3588     st  = ost->st;
3589     video_enc = st->codec;
3590
3591     if (!ost->stream_copy) {
3592         const char *p = NULL;
3593         char *forced_key_frames = NULL, *frame_rate = NULL, *frame_size = NULL;
3594         char *frame_aspect_ratio = NULL, *frame_pix_fmt = NULL;
3595         char *intra_matrix = NULL, *inter_matrix = NULL, *filters = NULL;
3596         int i;
3597
3598         MATCH_PER_STREAM_OPT(frame_rates, str, frame_rate, oc, st);
3599         if (frame_rate && av_parse_video_rate(&ost->frame_rate, frame_rate) < 0) {
3600             av_log(NULL, AV_LOG_FATAL, "Invalid framerate value: %s\n", frame_rate);
3601             exit_program(1);
3602         }
3603
3604         MATCH_PER_STREAM_OPT(frame_sizes, str, frame_size, oc, st);
3605         if (frame_size && av_parse_video_size(&video_enc->width, &video_enc->height, frame_size) < 0) {
3606             av_log(NULL, AV_LOG_FATAL, "Invalid frame size: %s.\n", frame_size);
3607             exit_program(1);
3608         }
3609
3610         MATCH_PER_STREAM_OPT(frame_aspect_ratios, str, frame_aspect_ratio, oc, st);
3611         if (frame_aspect_ratio)
3612             ost->frame_aspect_ratio = parse_frame_aspect_ratio(frame_aspect_ratio);
3613
3614         MATCH_PER_STREAM_OPT(frame_pix_fmts, str, frame_pix_fmt, oc, st);
3615         if (frame_pix_fmt && (video_enc->pix_fmt = av_get_pix_fmt(frame_pix_fmt)) == PIX_FMT_NONE) {
3616             av_log(NULL, AV_LOG_FATAL, "Unknown pixel format requested: %s.\n", frame_pix_fmt);
3617             exit_program(1);
3618         }
3619         st->sample_aspect_ratio = video_enc->sample_aspect_ratio;
3620
3621         MATCH_PER_STREAM_OPT(intra_matrices, str, intra_matrix, oc, st);
3622         if (intra_matrix) {
3623             if (!(video_enc->intra_matrix = av_mallocz(sizeof(*video_enc->intra_matrix) * 64))) {
3624                 av_log(NULL, AV_LOG_FATAL, "Could not allocate memory for intra matrix.\n");
3625                 exit_program(1);
3626             }
3627             parse_matrix_coeffs(video_enc->intra_matrix, intra_matrix);
3628         }
3629         MATCH_PER_STREAM_OPT(inter_matrices, str, inter_matrix, oc, st);
3630         if (inter_matrix) {
3631             if (!(video_enc->inter_matrix = av_mallocz(sizeof(*video_enc->inter_matrix) * 64))) {
3632                 av_log(NULL, AV_LOG_FATAL, "Could not allocate memory for inter matrix.\n");
3633                 exit_program(1);
3634             }
3635             parse_matrix_coeffs(video_enc->inter_matrix, inter_matrix);
3636         }
3637
3638         MATCH_PER_STREAM_OPT(rc_overrides, str, p, oc, st);
3639         for (i = 0; p; i++) {
3640             int start, end, q;
3641             int e = sscanf(p, "%d,%d,%d", &start, &end, &q);
3642             if (e != 3) {
3643                 av_log(NULL, AV_LOG_FATAL, "error parsing rc_override\n");
3644                 exit_program(1);
3645             }
3646             video_enc->rc_override =
3647                 av_realloc(video_enc->rc_override,
3648                            sizeof(RcOverride) * (i + 1));
3649             video_enc->rc_override[i].start_frame = start;
3650             video_enc->rc_override[i].end_frame   = end;
3651             if (q > 0) {
3652                 video_enc->rc_override[i].qscale         = q;
3653                 video_enc->rc_override[i].quality_factor = 1.0;
3654             }
3655             else {
3656                 video_enc->rc_override[i].qscale         = 0;
3657                 video_enc->rc_override[i].quality_factor = -q/100.0;
3658             }
3659             p = strchr(p, '/');
3660             if (p) p++;
3661         }
3662         video_enc->rc_override_count = i;
3663         if (!video_enc->rc_initial_buffer_occupancy)
3664             video_enc->rc_initial_buffer_occupancy = video_enc->rc_buffer_size * 3 / 4;
3665         video_enc->intra_dc_precision = intra_dc_precision - 8;
3666
3667         /* two pass mode */
3668         if (do_pass) {
3669             if (do_pass == 1) {
3670                 video_enc->flags |= CODEC_FLAG_PASS1;
3671             } else {
3672                 video_enc->flags |= CODEC_FLAG_PASS2;
3673             }
3674         }
3675
3676         MATCH_PER_STREAM_OPT(forced_key_frames, str, forced_key_frames, oc, st);
3677         if (forced_key_frames)
3678             parse_forced_key_frames(forced_key_frames, ost, video_enc);
3679
3680         MATCH_PER_STREAM_OPT(force_fps, i, ost->force_fps, oc, st);
3681
3682         ost->top_field_first = -1;
3683         MATCH_PER_STREAM_OPT(top_field_first, i, ost->top_field_first, oc, st);
3684
3685 #if CONFIG_AVFILTER
3686         MATCH_PER_STREAM_OPT(filters, str, filters, oc, st);
3687         if (filters)
3688             ost->avfilter = av_strdup(filters);
3689 #endif
3690     } else {
3691         MATCH_PER_STREAM_OPT(copy_initial_nonkeyframes, i, ost->copy_initial_nonkeyframes, oc ,st);
3692     }
3693
3694     return ost;
3695 }
3696
3697 static OutputStream *new_audio_stream(OptionsContext *o, AVFormatContext *oc)
3698 {
3699     AVStream *st;
3700     OutputStream *ost;
3701     AVCodecContext *audio_enc;
3702
3703     ost = new_output_stream(o, oc, AVMEDIA_TYPE_AUDIO);
3704     st  = ost->st;
3705
3706     audio_enc = st->codec;
3707     audio_enc->codec_type = AVMEDIA_TYPE_AUDIO;
3708
3709     if (!ost->stream_copy) {
3710         char *sample_fmt = NULL;
3711
3712         MATCH_PER_STREAM_OPT(audio_channels, i, audio_enc->channels, oc, st);
3713
3714         MATCH_PER_STREAM_OPT(sample_fmts, str, sample_fmt, oc, st);
3715         if (sample_fmt &&
3716             (audio_enc->sample_fmt = av_get_sample_fmt(sample_fmt)) == AV_SAMPLE_FMT_NONE) {
3717             av_log(NULL, AV_LOG_FATAL, "Invalid sample format '%s'\n", sample_fmt);
3718             exit_program(1);
3719         }
3720
3721         MATCH_PER_STREAM_OPT(audio_sample_rate, i, audio_enc->sample_rate, oc, st);
3722     }
3723
3724     return ost;
3725 }
3726
3727 static OutputStream *new_data_stream(OptionsContext *o, AVFormatContext *oc)
3728 {
3729     OutputStream *ost;
3730
3731     ost = new_output_stream(o, oc, AVMEDIA_TYPE_DATA);
3732     if (!ost->stream_copy) {
3733         av_log(NULL, AV_LOG_FATAL, "Data stream encoding not supported yet (only streamcopy)\n");
3734         exit_program(1);
3735     }
3736
3737     return ost;
3738 }
3739
3740 static OutputStream *new_attachment_stream(OptionsContext *o, AVFormatContext *oc)
3741 {
3742     OutputStream *ost = new_output_stream(o, oc, AVMEDIA_TYPE_ATTACHMENT);
3743     ost->stream_copy = 1;
3744     return ost;
3745 }
3746
3747 static OutputStream *new_subtitle_stream(OptionsContext *o, AVFormatContext *oc)
3748 {
3749     AVStream *st;
3750     OutputStream *ost;
3751     AVCodecContext *subtitle_enc;
3752
3753     ost = new_output_stream(o, oc, AVMEDIA_TYPE_SUBTITLE);
3754     st  = ost->st;
3755     subtitle_enc = st->codec;
3756
3757     subtitle_enc->codec_type = AVMEDIA_TYPE_SUBTITLE;
3758
3759     return ost;
3760 }
3761
3762 /* arg format is "output-stream-index:streamid-value". */
3763 static int opt_streamid(OptionsContext *o, const char *opt, const char *arg)
3764 {
3765     int idx;
3766     char *p;
3767     char idx_str[16];
3768
3769     av_strlcpy(idx_str, arg, sizeof(idx_str));
3770     p = strchr(idx_str, ':');
3771     if (!p) {
3772         av_log(NULL, AV_LOG_FATAL,
3773                "Invalid value '%s' for option '%s', required syntax is 'index:value'\n",
3774                arg, opt);
3775         exit_program(1);
3776     }
3777     *p++ = '\0';
3778     idx = parse_number_or_die(opt, idx_str, OPT_INT, 0, INT_MAX);
3779     o->streamid_map = grow_array(o->streamid_map, sizeof(*o->streamid_map), &o->nb_streamid_map, idx+1);
3780     o->streamid_map[idx] = parse_number_or_die(opt, p, OPT_INT, 0, INT_MAX);
3781     return 0;
3782 }
3783
3784 static int copy_chapters(InputFile *ifile, OutputFile *ofile, int copy_metadata)
3785 {
3786     AVFormatContext *is = ifile->ctx;
3787     AVFormatContext *os = ofile->ctx;
3788     int i;
3789
3790     for (i = 0; i < is->nb_chapters; i++) {
3791         AVChapter *in_ch = is->chapters[i], *out_ch;
3792         int64_t ts_off   = av_rescale_q(ofile->start_time - ifile->ts_offset,
3793                                        AV_TIME_BASE_Q, in_ch->time_base);
3794         int64_t rt       = (ofile->recording_time == INT64_MAX) ? INT64_MAX :
3795                            av_rescale_q(ofile->recording_time, AV_TIME_BASE_Q, in_ch->time_base);
3796
3797
3798         if (in_ch->end < ts_off)
3799             continue;
3800         if (rt != INT64_MAX && in_ch->start > rt + ts_off)
3801             break;
3802
3803         out_ch = av_mallocz(sizeof(AVChapter));
3804         if (!out_ch)
3805             return AVERROR(ENOMEM);
3806
3807         out_ch->id        = in_ch->id;
3808         out_ch->time_base = in_ch->time_base;
3809         out_ch->start     = FFMAX(0,  in_ch->start - ts_off);
3810         out_ch->end       = FFMIN(rt, in_ch->end   - ts_off);
3811
3812         if (copy_metadata)
3813             av_dict_copy(&out_ch->metadata, in_ch->metadata, 0);
3814
3815         os->nb_chapters++;
3816         os->chapters = av_realloc(os->chapters, sizeof(AVChapter) * os->nb_chapters);
3817         if (!os->chapters)
3818             return AVERROR(ENOMEM);
3819         os->chapters[os->nb_chapters - 1] = out_ch;
3820     }
3821     return 0;
3822 }
3823
3824 static void opt_output_file(void *optctx, const char *filename)
3825 {
3826     OptionsContext *o = optctx;
3827     AVFormatContext *oc;
3828     int i, err;
3829     AVOutputFormat *file_oformat;
3830     OutputStream *ost;
3831     InputStream  *ist;
3832
3833     if (!strcmp(filename, "-"))
3834         filename = "pipe:";
3835
3836     oc = avformat_alloc_context();
3837     if (!oc) {
3838         print_error(filename, AVERROR(ENOMEM));
3839         exit_program(1);
3840     }
3841
3842     if (o->format) {
3843         file_oformat = av_guess_format(o->format, NULL, NULL);
3844         if (!file_oformat) {
3845             av_log(NULL, AV_LOG_FATAL, "Requested output format '%s' is not a suitable output format\n", o->format);
3846             exit_program(1);
3847         }
3848     } else {
3849         file_oformat = av_guess_format(NULL, filename, NULL);
3850         if (!file_oformat) {
3851             av_log(NULL, AV_LOG_FATAL, "Unable to find a suitable output format for '%s'\n",
3852                    filename);
3853             exit_program(1);
3854         }
3855     }
3856
3857     oc->oformat = file_oformat;
3858     oc->interrupt_callback = int_cb;
3859     av_strlcpy(oc->filename, filename, sizeof(oc->filename));
3860
3861     if (!o->nb_stream_maps) {
3862         /* pick the "best" stream of each type */
3863 #define NEW_STREAM(type, index)\
3864         if (index >= 0) {\
3865             ost = new_ ## type ## _stream(o, oc);\
3866             ost->source_index = index;\
3867             ost->sync_ist     = &input_streams[index];\
3868             input_streams[index].discard = 0;\
3869             input_streams[index].st->discard = AVDISCARD_NONE;\
3870         }
3871
3872         /* video: highest resolution */
3873         if (!o->video_disable && oc->oformat->video_codec != CODEC_ID_NONE) {
3874             int area = 0, idx = -1;
3875             for (i = 0; i < nb_input_streams; i++) {
3876                 ist = &input_streams[i];
3877                 if (ist->st->codec->codec_type == AVMEDIA_TYPE_VIDEO &&
3878                     ist->st->codec->width * ist->st->codec->height > area) {
3879                     area = ist->st->codec->width * ist->st->codec->height;
3880                     idx = i;
3881                 }
3882             }
3883             NEW_STREAM(video, idx);
3884         }
3885
3886         /* audio: most channels */
3887         if (!o->audio_disable && oc->oformat->audio_codec != CODEC_ID_NONE) {
3888             int channels = 0, idx = -1;
3889             for (i = 0; i < nb_input_streams; i++) {
3890                 ist = &input_streams[i];
3891                 if (ist->st->codec->codec_type == AVMEDIA_TYPE_AUDIO &&
3892                     ist->st->codec->channels > channels) {
3893                     channels = ist->st->codec->channels;
3894                     idx = i;
3895                 }
3896             }
3897             NEW_STREAM(audio, idx);
3898         }
3899
3900         /* subtitles: pick first */
3901         if (!o->subtitle_disable && oc->oformat->subtitle_codec != CODEC_ID_NONE) {
3902             for (i = 0; i < nb_input_streams; i++)
3903                 if (input_streams[i].st->codec->codec_type == AVMEDIA_TYPE_SUBTITLE) {
3904                     NEW_STREAM(subtitle, i);
3905                     break;
3906                 }
3907         }
3908         /* do something with data? */
3909     } else {
3910         for (i = 0; i < o->nb_stream_maps; i++) {
3911             StreamMap *map = &o->stream_maps[i];
3912
3913             if (map->disabled)
3914                 continue;
3915
3916             ist = &input_streams[input_files[map->file_index].ist_index + map->stream_index];
3917             switch (ist->st->codec->codec_type) {
3918             case AVMEDIA_TYPE_VIDEO:    ost = new_video_stream(o, oc);    break;
3919             case AVMEDIA_TYPE_AUDIO:    ost = new_audio_stream(o, oc);    break;
3920             case AVMEDIA_TYPE_SUBTITLE: ost = new_subtitle_stream(o, oc); break;
3921             case AVMEDIA_TYPE_DATA:     ost = new_data_stream(o, oc);     break;
3922             case AVMEDIA_TYPE_ATTACHMENT: ost = new_attachment_stream(o, oc); break;
3923             default:
3924                 av_log(NULL, AV_LOG_FATAL, "Cannot map stream #%d:%d - unsupported type.\n",
3925                        map->file_index, map->stream_index);
3926                 exit_program(1);
3927             }
3928
3929             ost->source_index = input_files[map->file_index].ist_index + map->stream_index;
3930             ost->sync_ist     = &input_streams[input_files[map->sync_file_index].ist_index +
3931                                            map->sync_stream_index];
3932             ist->discard = 0;
3933             ist->st->discard = AVDISCARD_NONE;
3934         }
3935     }
3936
3937     /* handle attached files */
3938     for (i = 0; i < o->nb_attachments; i++) {
3939         AVIOContext *pb;
3940         uint8_t *attachment;
3941         const char *p;
3942         int64_t len;
3943
3944         if ((err = avio_open2(&pb, o->attachments[i], AVIO_FLAG_READ, &int_cb, NULL)) < 0) {
3945             av_log(NULL, AV_LOG_FATAL, "Could not open attachment file %s.\n",
3946                    o->attachments[i]);
3947             exit_program(1);
3948         }
3949         if ((len = avio_size(pb)) <= 0) {
3950             av_log(NULL, AV_LOG_FATAL, "Could not get size of the attachment %s.\n",
3951                    o->attachments[i]);
3952             exit_program(1);
3953         }
3954         if (!(attachment = av_malloc(len))) {
3955             av_log(NULL, AV_LOG_FATAL, "Attachment %s too large to fit into memory.\n",
3956                    o->attachments[i]);
3957             exit_program(1);
3958         }
3959         avio_read(pb, attachment, len);
3960
3961         ost = new_attachment_stream(o, oc);
3962         ost->stream_copy               = 0;
3963         ost->source_index              = -1;
3964         ost->attachment_filename       = o->attachments[i];
3965         ost->st->codec->extradata      = attachment;
3966         ost->st->codec->extradata_size = len;
3967
3968         p = strrchr(o->attachments[i], '/');
3969         av_dict_set(&ost->st->metadata, "filename", (p && *p) ? p + 1 : o->attachments[i], AV_DICT_DONT_OVERWRITE);
3970         avio_close(pb);
3971     }
3972
3973     output_files = grow_array(output_files, sizeof(*output_files), &nb_output_files, nb_output_files + 1);
3974     output_files[nb_output_files - 1].ctx       = oc;
3975     output_files[nb_output_files - 1].ost_index = nb_output_streams - oc->nb_streams;
3976     output_files[nb_output_files - 1].recording_time = o->recording_time;
3977     if (o->recording_time != INT64_MAX)
3978         oc->duration = o->recording_time;
3979     output_files[nb_output_files - 1].start_time     = o->start_time;
3980     output_files[nb_output_files - 1].limit_filesize = o->limit_filesize;
3981     av_dict_copy(&output_files[nb_output_files - 1].opts, format_opts, 0);
3982
3983     /* check filename in case of an image number is expected */
3984     if (oc->oformat->flags & AVFMT_NEEDNUMBER) {
3985         if (!av_filename_number_test(oc->filename)) {
3986             print_error(oc->filename, AVERROR(EINVAL));
3987             exit_program(1);
3988         }
3989     }
3990
3991     if (!(oc->oformat->flags & AVFMT_NOFILE)) {
3992         /* test if it already exists to avoid losing precious files */
3993         assert_file_overwrite(filename);
3994
3995         /* open the file */
3996         if ((err = avio_open2(&oc->pb, filename, AVIO_FLAG_WRITE,
3997                               &oc->interrupt_callback,
3998                               &output_files[nb_output_files - 1].opts)) < 0) {
3999             print_error(filename, err);
4000             exit_program(1);
4001         }
4002     }
4003
4004     if (o->mux_preload) {
4005         uint8_t buf[64];
4006         snprintf(buf, sizeof(buf), "%d", (int)(o->mux_preload*AV_TIME_BASE));
4007         av_dict_set(&output_files[nb_output_files - 1].opts, "preload", buf, 0);
4008     }
4009     oc->max_delay = (int)(o->mux_max_delay * AV_TIME_BASE);
4010     oc->flags |= AVFMT_FLAG_NONBLOCK;
4011
4012     /* copy metadata */
4013     for (i = 0; i < o->nb_metadata_map; i++) {
4014         char *p;
4015         int in_file_index = strtol(o->metadata_map[i].u.str, &p, 0);
4016
4017         if (in_file_index < 0)
4018             continue;
4019         if (in_file_index >= nb_input_files) {
4020             av_log(NULL, AV_LOG_FATAL, "Invalid input file index %d while processing metadata maps\n", in_file_index);
4021             exit_program(1);
4022         }
4023         copy_metadata(o->metadata_map[i].specifier, *p ? p + 1 : p, oc, input_files[in_file_index].ctx, o);
4024     }
4025
4026     /* copy chapters */
4027     if (o->chapters_input_file >= nb_input_files) {
4028         if (o->chapters_input_file == INT_MAX) {
4029             /* copy chapters from the first input file that has them*/
4030             o->chapters_input_file = -1;
4031             for (i = 0; i < nb_input_files; i++)
4032                 if (input_files[i].ctx->nb_chapters) {
4033                     o->chapters_input_file = i;
4034                     break;
4035                 }
4036         } else {
4037             av_log(NULL, AV_LOG_FATAL, "Invalid input file index %d in chapter mapping.\n",
4038                    o->chapters_input_file);
4039             exit_program(1);
4040         }
4041     }
4042     if (o->chapters_input_file >= 0)
4043         copy_chapters(&input_files[o->chapters_input_file], &output_files[nb_output_files - 1],
4044                       !o->metadata_chapters_manual);
4045
4046     /* copy global metadata by default */
4047     if (!o->metadata_global_manual && nb_input_files)
4048         av_dict_copy(&oc->metadata, input_files[0].ctx->metadata,
4049                      AV_DICT_DONT_OVERWRITE);
4050     if (!o->metadata_streams_manual)
4051         for (i = output_files[nb_output_files - 1].ost_index; i < nb_output_streams; i++) {
4052             InputStream *ist;
4053             if (output_streams[i].source_index < 0)         /* this is true e.g. for attached files */
4054                 continue;
4055             ist = &input_streams[output_streams[i].source_index];
4056             av_dict_copy(&output_streams[i].st->metadata, ist->st->metadata, AV_DICT_DONT_OVERWRITE);
4057         }
4058
4059     /* process manually set metadata */
4060     for (i = 0; i < o->nb_metadata; i++) {
4061         AVDictionary **m;
4062         char type, *val;
4063         const char *stream_spec;
4064         int index = 0, j, ret;
4065
4066         val = strchr(o->metadata[i].u.str, '=');
4067         if (!val) {
4068             av_log(NULL, AV_LOG_FATAL, "No '=' character in metadata string %s.\n",
4069                    o->metadata[i].u.str);
4070             exit_program(1);
4071         }
4072         *val++ = 0;
4073
4074         parse_meta_type(o->metadata[i].specifier, &type, &index, &stream_spec);
4075         if (type == 's') {
4076             for (j = 0; j < oc->nb_streams; j++) {
4077                 if ((ret = check_stream_specifier(oc, oc->streams[j], stream_spec)) > 0) {
4078                     av_dict_set(&oc->streams[j]->metadata, o->metadata[i].u.str, *val ? val : NULL, 0);
4079                 } else if (ret < 0)
4080                     exit_program(1);
4081             }
4082             printf("ret %d, stream_spec %s\n", ret, stream_spec);
4083         }
4084         else {
4085             switch (type) {
4086             case 'g':
4087                 m = &oc->metadata;
4088                 break;
4089             case 'c':
4090                 if (index < 0 || index >= oc->nb_chapters) {
4091                     av_log(NULL, AV_LOG_FATAL, "Invalid chapter index %d in metadata specifier.\n", index);
4092                     exit_program(1);
4093                 }
4094                 m = &oc->chapters[index]->metadata;
4095                 break;
4096             default:
4097                 av_log(NULL, AV_LOG_FATAL, "Invalid metadata specifier %s.\n", o->metadata[i].specifier);
4098                 exit_program(1);
4099             }
4100             av_dict_set(m, o->metadata[i].u.str, *val ? val : NULL, 0);
4101         }
4102     }
4103
4104     reset_options(o);
4105 }
4106
4107 /* same option as mencoder */
4108 static int opt_pass(const char *opt, const char *arg)
4109 {
4110     do_pass = parse_number_or_die(opt, arg, OPT_INT, 1, 2);
4111     return 0;
4112 }
4113
4114 static int64_t getutime(void)
4115 {
4116 #if HAVE_GETRUSAGE
4117     struct rusage rusage;
4118
4119     getrusage(RUSAGE_SELF, &rusage);
4120     return (rusage.ru_utime.tv_sec * 1000000LL) + rusage.ru_utime.tv_usec;
4121 #elif HAVE_GETPROCESSTIMES
4122     HANDLE proc;
4123     FILETIME c, e, k, u;
4124     proc = GetCurrentProcess();
4125     GetProcessTimes(proc, &c, &e, &k, &u);
4126     return ((int64_t) u.dwHighDateTime << 32 | u.dwLowDateTime) / 10;
4127 #else
4128     return av_gettime();
4129 #endif
4130 }
4131
4132 static int64_t getmaxrss(void)
4133 {
4134 #if HAVE_GETRUSAGE && HAVE_STRUCT_RUSAGE_RU_MAXRSS
4135     struct rusage rusage;
4136     getrusage(RUSAGE_SELF, &rusage);
4137     return (int64_t)rusage.ru_maxrss * 1024;
4138 #elif HAVE_GETPROCESSMEMORYINFO
4139     HANDLE proc;
4140     PROCESS_MEMORY_COUNTERS memcounters;
4141     proc = GetCurrentProcess();
4142     memcounters.cb = sizeof(memcounters);
4143     GetProcessMemoryInfo(proc, &memcounters, sizeof(memcounters));
4144     return memcounters.PeakPagefileUsage;
4145 #else
4146     return 0;
4147 #endif
4148 }
4149
4150 static int opt_audio_qscale(OptionsContext *o, const char *opt, const char *arg)
4151 {
4152     return parse_option(o, "q:a", arg, options);
4153 }
4154
4155 static void show_usage(void)
4156 {
4157     printf("Hyper fast Audio and Video encoder\n");
4158     printf("usage: %s [options] [[infile options] -i infile]... {[outfile options] outfile}...\n", program_name);
4159     printf("\n");
4160 }
4161
4162 static void show_help(void)
4163 {
4164     int flags = AV_OPT_FLAG_DECODING_PARAM | AV_OPT_FLAG_ENCODING_PARAM;
4165     av_log_set_callback(log_callback_help);
4166     show_usage();
4167     show_help_options(options, "Main options:\n",
4168                       OPT_EXPERT | OPT_AUDIO | OPT_VIDEO | OPT_SUBTITLE | OPT_GRAB, 0);
4169     show_help_options(options, "\nAdvanced options:\n",
4170                       OPT_EXPERT | OPT_AUDIO | OPT_VIDEO | OPT_SUBTITLE | OPT_GRAB,
4171                       OPT_EXPERT);
4172     show_help_options(options, "\nVideo options:\n",
4173                       OPT_EXPERT | OPT_AUDIO | OPT_VIDEO | OPT_GRAB,
4174                       OPT_VIDEO);
4175     show_help_options(options, "\nAdvanced Video options:\n",
4176                       OPT_EXPERT | OPT_AUDIO | OPT_VIDEO | OPT_GRAB,
4177                       OPT_VIDEO | OPT_EXPERT);
4178     show_help_options(options, "\nAudio options:\n",
4179                       OPT_EXPERT | OPT_AUDIO | OPT_VIDEO | OPT_GRAB,
4180                       OPT_AUDIO);
4181     show_help_options(options, "\nAdvanced Audio options:\n",
4182                       OPT_EXPERT | OPT_AUDIO | OPT_VIDEO | OPT_GRAB,
4183                       OPT_AUDIO | OPT_EXPERT);
4184     show_help_options(options, "\nSubtitle options:\n",
4185                       OPT_SUBTITLE | OPT_GRAB,
4186                       OPT_SUBTITLE);
4187     show_help_options(options, "\nAudio/Video grab options:\n",
4188                       OPT_GRAB,
4189                       OPT_GRAB);
4190     printf("\n");
4191     show_help_children(avcodec_get_class(), flags);
4192     show_help_children(avformat_get_class(), flags);
4193     show_help_children(sws_get_class(), flags);
4194 }
4195
4196 static int opt_target(OptionsContext *o, const char *opt, const char *arg)
4197 {
4198     enum { PAL, NTSC, FILM, UNKNOWN } norm = UNKNOWN;
4199     static const char *const frame_rates[] = { "25", "30000/1001", "24000/1001" };
4200
4201     if (!strncmp(arg, "pal-", 4)) {
4202         norm = PAL;
4203         arg += 4;
4204     } else if (!strncmp(arg, "ntsc-", 5)) {
4205         norm = NTSC;
4206         arg += 5;
4207     } else if (!strncmp(arg, "film-", 5)) {
4208         norm = FILM;
4209         arg += 5;
4210     } else {
4211         /* Try to determine PAL/NTSC by peeking in the input files */
4212         if (nb_input_files) {
4213             int i, j, fr;
4214             for (j = 0; j < nb_input_files; j++) {
4215                 for (i = 0; i < input_files[j].nb_streams; i++) {
4216                     AVCodecContext *c = input_files[j].ctx->streams[i]->codec;
4217                     if (c->codec_type != AVMEDIA_TYPE_VIDEO)
4218                         continue;
4219                     fr = c->time_base.den * 1000 / c->time_base.num;
4220                     if (fr == 25000) {
4221                         norm = PAL;
4222                         break;
4223                     } else if ((fr == 29970) || (fr == 23976)) {
4224                         norm = NTSC;
4225                         break;
4226                     }
4227                 }
4228                 if (norm != UNKNOWN)
4229                     break;
4230             }
4231         }
4232         if (norm != UNKNOWN)
4233             av_log(NULL, AV_LOG_INFO, "Assuming %s for target.\n", norm == PAL ? "PAL" : "NTSC");
4234     }
4235
4236     if (norm == UNKNOWN) {
4237         av_log(NULL, AV_LOG_FATAL, "Could not determine norm (PAL/NTSC/NTSC-Film) for target.\n");
4238         av_log(NULL, AV_LOG_FATAL, "Please prefix target with \"pal-\", \"ntsc-\" or \"film-\",\n");
4239         av_log(NULL, AV_LOG_FATAL, "or set a framerate with \"-r xxx\".\n");
4240         exit_program(1);
4241     }
4242
4243     if (!strcmp(arg, "vcd")) {
4244         opt_video_codec(o, "c:v", "mpeg1video");
4245         opt_audio_codec(o, "c:a", "mp2");
4246         parse_option(o, "f", "vcd", options);
4247
4248         parse_option(o, "s", norm == PAL ? "352x288" : "352x240", options);
4249         parse_option(o, "r", frame_rates[norm], options);
4250         opt_default("g", norm == PAL ? "15" : "18");
4251
4252         opt_default("b", "1150000");
4253         opt_default("maxrate", "1150000");
4254         opt_default("minrate", "1150000");
4255         opt_default("bufsize", "327680"); // 40*1024*8;
4256
4257         opt_default("b:a", "224000");
4258         parse_option(o, "ar", "44100", options);
4259         parse_option(o, "ac", "2", options);
4260
4261         opt_default("packetsize", "2324");
4262         opt_default("muxrate", "1411200"); // 2352 * 75 * 8;
4263
4264         /* We have to offset the PTS, so that it is consistent with the SCR.
4265            SCR starts at 36000, but the first two packs contain only padding
4266            and the first pack from the other stream, respectively, may also have
4267            been written before.
4268            So the real data starts at SCR 36000+3*1200. */
4269         o->mux_preload = (36000 + 3 * 1200) / 90000.0; // 0.44
4270     } else if (!strcmp(arg, "svcd")) {
4271
4272         opt_video_codec(o, "c:v", "mpeg2video");
4273         opt_audio_codec(o, "c:a", "mp2");
4274         parse_option(o, "f", "svcd", options);
4275
4276         parse_option(o, "s", norm == PAL ? "480x576" : "480x480", options);
4277         parse_option(o, "r", frame_rates[norm], options);
4278         opt_default("g", norm == PAL ? "15" : "18");
4279
4280         opt_default("b", "2040000");
4281         opt_default("maxrate", "2516000");
4282         opt_default("minrate", "0"); // 1145000;
4283         opt_default("bufsize", "1835008"); // 224*1024*8;
4284         opt_default("flags", "+scan_offset");
4285
4286
4287         opt_default("b:a", "224000");
4288         parse_option(o, "ar", "44100", options);
4289
4290         opt_default("packetsize", "2324");
4291
4292     } else if (!strcmp(arg, "dvd")) {
4293
4294         opt_video_codec(o, "c:v", "mpeg2video");
4295         opt_audio_codec(o, "c:a", "ac3");
4296         parse_option(o, "f", "dvd", options);
4297
4298         parse_option(o, "s", norm == PAL ? "720x576" : "720x480", options);
4299         parse_option(o, "r", frame_rates[norm], options);
4300         opt_default("g", norm == PAL ? "15" : "18");
4301
4302         opt_default("b", "6000000");
4303         opt_default("maxrate", "9000000");
4304         opt_default("minrate", "0"); // 1500000;
4305         opt_default("bufsize", "1835008"); // 224*1024*8;
4306
4307         opt_default("packetsize", "2048");  // from www.mpucoder.com: DVD sectors contain 2048 bytes of data, this is also the size of one pack.
4308         opt_default("muxrate", "10080000"); // from mplex project: data_rate = 1260000. mux_rate = data_rate * 8
4309
4310         opt_default("b:a", "448000");
4311         parse_option(o, "ar", "48000", options);
4312
4313     } else if (!strncmp(arg, "dv", 2)) {
4314
4315         parse_option(o, "f", "dv", options);
4316
4317         parse_option(o, "s", norm == PAL ? "720x576" : "720x480", options);
4318         parse_option(o, "pix_fmt", !strncmp(arg, "dv50", 4) ? "yuv422p" :
4319                           norm == PAL ? "yuv420p" : "yuv411p", options);
4320         parse_option(o, "r", frame_rates[norm], options);
4321
4322         parse_option(o, "ar", "48000", options);
4323         parse_option(o, "ac", "2", options);
4324
4325     } else {
4326         av_log(NULL, AV_LOG_ERROR, "Unknown target: %s\n", arg);
4327         return AVERROR(EINVAL);
4328     }
4329     return 0;
4330 }
4331
4332 static int opt_vstats_file(const char *opt, const char *arg)
4333 {
4334     av_free (vstats_filename);
4335     vstats_filename = av_strdup (arg);
4336     return 0;
4337 }
4338
4339 static int opt_vstats(const char *opt, const char *arg)
4340 {
4341     char filename[40];
4342     time_t today2 = time(NULL);
4343     struct tm *today = localtime(&today2);
4344
4345     snprintf(filename, sizeof(filename), "vstats_%02d%02d%02d.log", today->tm_hour, today->tm_min,
4346              today->tm_sec);
4347     return opt_vstats_file(opt, filename);
4348 }
4349
4350 static int opt_video_frames(OptionsContext *o, const char *opt, const char *arg)
4351 {
4352     return parse_option(o, "frames:v", arg, options);
4353 }
4354
4355 static int opt_audio_frames(OptionsContext *o, const char *opt, const char *arg)
4356 {
4357     return parse_option(o, "frames:a", arg, options);
4358 }
4359
4360 static int opt_data_frames(OptionsContext *o, const char *opt, const char *arg)
4361 {
4362     return parse_option(o, "frames:d", arg, options);
4363 }
4364
4365 static int opt_video_tag(OptionsContext *o, const char *opt, const char *arg)
4366 {
4367     return parse_option(o, "tag:v", arg, options);
4368 }
4369
4370 static int opt_audio_tag(OptionsContext *o, const char *opt, const char *arg)
4371 {
4372     return parse_option(o, "tag:a", arg, options);
4373 }
4374
4375 static int opt_subtitle_tag(OptionsContext *o, const char *opt, const char *arg)
4376 {
4377     return parse_option(o, "tag:s", arg, options);
4378 }
4379
4380 static int opt_video_filters(OptionsContext *o, const char *opt, const char *arg)
4381 {
4382     return parse_option(o, "filter:v", arg, options);
4383 }
4384
4385 static int opt_vsync(const char *opt, const char *arg)
4386 {
4387     if      (!av_strcasecmp(arg, "cfr"))         video_sync_method = VSYNC_CFR;
4388     else if (!av_strcasecmp(arg, "vfr"))         video_sync_method = VSYNC_VFR;
4389     else if (!av_strcasecmp(arg, "passthrough")) video_sync_method = VSYNC_PASSTHROUGH;
4390
4391     if (video_sync_method == VSYNC_AUTO)
4392         video_sync_method = parse_number_or_die("vsync", arg, OPT_INT, VSYNC_AUTO, VSYNC_VFR);
4393     return 0;
4394 }
4395
4396 static int opt_deinterlace(const char *opt, const char *arg)
4397 {
4398     av_log(NULL, AV_LOG_WARNING, "-%s is deprecated, use -filter:v yadif instead\n", opt);
4399     do_deinterlace = 1;
4400     return 0;
4401 }
4402
4403 static int opt_cpuflags(const char *opt, const char *arg)
4404 {
4405 #define CPUFLAG_MMX2     (AV_CPU_FLAG_MMX      | AV_CPU_FLAG_MMX2)
4406 #define CPUFLAG_3DNOW    (AV_CPU_FLAG_3DNOW    | AV_CPU_FLAG_MMX)
4407 #define CPUFLAG_3DNOWEXT (AV_CPU_FLAG_3DNOWEXT | CPUFLAG_3DNOW)
4408 #define CPUFLAG_SSE      (AV_CPU_FLAG_SSE      | CPUFLAG_MMX2)
4409 #define CPUFLAG_SSE2     (AV_CPU_FLAG_SSE2     | CPUFLAG_SSE)
4410 #define CPUFLAG_SSE2SLOW (AV_CPU_FLAG_SSE2SLOW | CPUFLAG_SSE2)
4411 #define CPUFLAG_SSE3     (AV_CPU_FLAG_SSE3     | CPUFLAG_SSE2)
4412 #define CPUFLAG_SSE3SLOW (AV_CPU_FLAG_SSE3SLOW | CPUFLAG_SSE3)
4413 #define CPUFLAG_SSSE3    (AV_CPU_FLAG_SSSE3    | CPUFLAG_SSE3)
4414 #define CPUFLAG_SSE4     (AV_CPU_FLAG_SSE4     | CPUFLAG_SSSE3)
4415 #define CPUFLAG_SSE42    (AV_CPU_FLAG_SSE42    | CPUFLAG_SSE4)
4416 #define CPUFLAG_AVX      (AV_CPU_FLAG_AVX      | CPUFLAG_SSE42)
4417 #define CPUFLAG_XOP      (AV_CPU_FLAG_XOP      | CPUFLAG_AVX)
4418 #define CPUFLAG_FMA4     (AV_CPU_FLAG_FMA4     | CPUFLAG_AVX)
4419     static const AVOption cpuflags_opts[] = {
4420         { "flags"   , NULL, 0, AV_OPT_TYPE_FLAGS, { 0 }, INT64_MIN, INT64_MAX, .unit = "flags" },
4421         { "altivec" , NULL, 0, AV_OPT_TYPE_CONST, { AV_CPU_FLAG_ALTIVEC  },    .unit = "flags" },
4422         { "mmx"     , NULL, 0, AV_OPT_TYPE_CONST, { AV_CPU_FLAG_MMX      },    .unit = "flags" },
4423         { "mmx2"    , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_MMX2         },    .unit = "flags" },
4424         { "sse"     , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSE          },    .unit = "flags" },
4425         { "sse2"    , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSE2         },    .unit = "flags" },
4426         { "sse2slow", NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSE2SLOW     },    .unit = "flags" },
4427         { "sse3"    , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSE3         },    .unit = "flags" },
4428         { "sse3slow", NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSE3SLOW     },    .unit = "flags" },
4429         { "ssse3"   , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSSE3        },    .unit = "flags" },
4430         { "atom"    , NULL, 0, AV_OPT_TYPE_CONST, { AV_CPU_FLAG_ATOM     },    .unit = "flags" },
4431         { "sse4.1"  , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSE4         },    .unit = "flags" },
4432         { "sse4.2"  , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_SSE42        },    .unit = "flags" },
4433         { "avx"     , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_AVX          },    .unit = "flags" },
4434         { "xop"     , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_XOP          },    .unit = "flags" },
4435         { "fma4"    , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_FMA4         },    .unit = "flags" },
4436         { "3dnow"   , NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_3DNOW        },    .unit = "flags" },
4437         { "3dnowext", NULL, 0, AV_OPT_TYPE_CONST, { CPUFLAG_3DNOWEXT     },    .unit = "flags" },
4438         { NULL },
4439     };
4440     static const AVClass class = {
4441         .class_name = "cpuflags",
4442         .item_name  = av_default_item_name,
4443         .option     = cpuflags_opts,
4444         .version    = LIBAVUTIL_VERSION_INT,
4445     };
4446
4447     int flags = 0, ret;
4448     const AVClass *pclass = &class;
4449
4450     if ((ret = av_opt_eval_flags(&pclass, &cpuflags_opts[0], arg, &flags)) < 0)
4451         return ret;
4452
4453     av_set_cpu_flags_mask(flags);
4454     return 0;
4455 }
4456
4457 static void parse_cpuflags(int argc, char **argv, const OptionDef *options)
4458 {
4459     int idx = locate_option(argc, argv, options, "cpuflags");
4460     if (idx && argv[idx + 1])
4461         opt_cpuflags("cpuflags", argv[idx + 1]);
4462 }
4463
4464 #define OFFSET(x) offsetof(OptionsContext, x)
4465 static const OptionDef options[] = {
4466     /* main options */
4467 #include "cmdutils_common_opts.h"
4468     { "f", HAS_ARG | OPT_STRING | OPT_OFFSET, {.off = OFFSET(format)}, "force format", "fmt" },
4469     { "i", HAS_ARG | OPT_FUNC2, {(void*)opt_input_file}, "input file name", "filename" },
4470     { "y", OPT_BOOL, {(void*)&file_overwrite}, "overwrite output files" },
4471     { "c", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(codec_names)}, "codec name", "codec" },
4472     { "codec", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(codec_names)}, "codec name", "codec" },
4473     { "pre", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(presets)}, "preset name", "preset" },
4474     { "map", HAS_ARG | OPT_EXPERT | OPT_FUNC2, {(void*)opt_map}, "set input stream mapping", "[-]input_file_id[:stream_specifier][,sync_file_id[:stream_specifier]]" },
4475     { "map_metadata", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(metadata_map)}, "set metadata information of outfile from infile",
4476       "outfile[,metadata]:infile[,metadata]" },
4477     { "map_chapters",  OPT_INT | HAS_ARG | OPT_EXPERT | OPT_OFFSET, {.off = OFFSET(chapters_input_file)},  "set chapters mapping", "input_file_index" },
4478     { "t", HAS_ARG | OPT_TIME | OPT_OFFSET, {.off = OFFSET(recording_time)}, "record or transcode \"duration\" seconds of audio/video", "duration" },
4479     { "fs", HAS_ARG | OPT_INT64 | OPT_OFFSET, {.off = OFFSET(limit_filesize)}, "set the limit file size in bytes", "limit_size" }, //
4480     { "ss", HAS_ARG | OPT_TIME | OPT_OFFSET, {.off = OFFSET(start_time)}, "set the start time offset", "time_off" },
4481     { "itsoffset", HAS_ARG | OPT_TIME | OPT_OFFSET, {.off = OFFSET(input_ts_offset)}, "set the input ts offset", "time_off" },
4482     { "itsscale", HAS_ARG | OPT_DOUBLE | OPT_SPEC, {.off = OFFSET(ts_scale)}, "set the input ts scale", "scale" },
4483     { "metadata", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(metadata)}, "add metadata", "string=string" },
4484     { "dframes", HAS_ARG | OPT_FUNC2, {(void*)opt_data_frames}, "set the number of data frames to record", "number" },
4485     { "benchmark", OPT_BOOL | OPT_EXPERT, {(void*)&do_benchmark},
4486       "add timings for benchmarking" },
4487     { "timelimit", HAS_ARG, {(void*)opt_timelimit}, "set max runtime in seconds", "limit" },
4488     { "dump", OPT_BOOL | OPT_EXPERT, {(void*)&do_pkt_dump},
4489       "dump each input packet" },
4490     { "hex", OPT_BOOL | OPT_EXPERT, {(void*)&do_hex_dump},
4491       "when dumping packets, also dump the payload" },
4492     { "re", OPT_BOOL | OPT_EXPERT | OPT_OFFSET, {.off = OFFSET(rate_emu)}, "read input at native frame rate", "" },
4493     { "target", HAS_ARG | OPT_FUNC2, {(void*)opt_target}, "specify target file type (\"vcd\", \"svcd\", \"dvd\", \"dv\", \"dv50\", \"pal-vcd\", \"ntsc-svcd\", ...)", "type" },
4494     { "vsync", HAS_ARG | OPT_EXPERT, {(void*)opt_vsync}, "video sync method", "" },
4495     { "async", HAS_ARG | OPT_INT | OPT_EXPERT, {(void*)&audio_sync_method}, "audio sync method", "" },
4496     { "adrift_threshold", HAS_ARG | OPT_FLOAT | OPT_EXPERT, {(void*)&audio_drift_threshold}, "audio drift threshold", "threshold" },
4497     { "copyts", OPT_BOOL | OPT_EXPERT, {(void*)&copy_ts}, "copy timestamps" },
4498     { "copytb", OPT_BOOL | OPT_EXPERT, {(void*)&copy_tb}, "copy input stream time base when stream copying" },
4499     { "shortest", OPT_BOOL | OPT_EXPERT, {(void*)&opt_shortest}, "finish encoding within shortest input" }, //
4500     { "dts_delta_threshold", HAS_ARG | OPT_FLOAT | OPT_EXPERT, {(void*)&dts_delta_threshold}, "timestamp discontinuity delta threshold", "threshold" },
4501     { "xerror", OPT_BOOL, {(void*)&exit_on_error}, "exit on error", "error" },
4502     { "copyinkf", OPT_BOOL | OPT_EXPERT | OPT_SPEC, {.off = OFFSET(copy_initial_nonkeyframes)}, "copy initial non-keyframes" },
4503     { "frames", OPT_INT64 | HAS_ARG | OPT_SPEC, {.off = OFFSET(max_frames)}, "set the number of frames to record", "number" },
4504     { "tag",   OPT_STRING | HAS_ARG | OPT_SPEC, {.off = OFFSET(codec_tags)}, "force codec tag/fourcc", "fourcc/tag" },
4505     { "q", HAS_ARG | OPT_EXPERT | OPT_DOUBLE | OPT_SPEC, {.off = OFFSET(qscale)}, "use fixed quality scale (VBR)", "q" },
4506     { "qscale", HAS_ARG | OPT_EXPERT | OPT_DOUBLE | OPT_SPEC, {.off = OFFSET(qscale)}, "use fixed quality scale (VBR)", "q" },
4507 #if CONFIG_AVFILTER
4508     { "filter", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(filters)}, "set stream filterchain", "filter_list" },
4509 #endif
4510     { "stats", OPT_BOOL, {&print_stats}, "print progress report during encoding", },
4511     { "attach", HAS_ARG | OPT_FUNC2, {(void*)opt_attach}, "add an attachment to the output file", "filename" },
4512     { "dump_attachment", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(dump_attachment)}, "extract an attachment into a file", "filename" },
4513     { "cpuflags", HAS_ARG | OPT_EXPERT, {(void*)opt_cpuflags}, "set CPU flags mask", "mask" },
4514
4515     /* video options */
4516     { "vframes", HAS_ARG | OPT_VIDEO | OPT_FUNC2, {(void*)opt_video_frames}, "set the number of video frames to record", "number" },
4517     { "r", HAS_ARG | OPT_VIDEO | OPT_STRING | OPT_SPEC, {.off = OFFSET(frame_rates)}, "set frame rate (Hz value, fraction or abbreviation)", "rate" },
4518     { "s", HAS_ARG | OPT_VIDEO | OPT_STRING | OPT_SPEC, {.off = OFFSET(frame_sizes)}, "set frame size (WxH or abbreviation)", "size" },
4519     { "aspect", HAS_ARG | OPT_VIDEO | OPT_STRING | OPT_SPEC, {.off = OFFSET(frame_aspect_ratios)}, "set aspect ratio (4:3, 16:9 or 1.3333, 1.7777)", "aspect" },
4520     { "pix_fmt", HAS_ARG | OPT_EXPERT | OPT_VIDEO | OPT_STRING | OPT_SPEC, {.off = OFFSET(frame_pix_fmts)}, "set pixel format", "format" },
4521     { "vn", OPT_BOOL | OPT_VIDEO | OPT_OFFSET, {.off = OFFSET(video_disable)}, "disable video" },
4522     { "vdt", OPT_INT | HAS_ARG | OPT_EXPERT | OPT_VIDEO, {(void*)&video_discard}, "discard threshold", "n" },
4523     { "rc_override", HAS_ARG | OPT_EXPERT | OPT_VIDEO | OPT_STRING | OPT_SPEC, {.off = OFFSET(rc_overrides)}, "rate control override for specific intervals", "override" },
4524     { "vcodec", HAS_ARG | OPT_VIDEO | OPT_FUNC2, {(void*)opt_video_codec}, "force video codec ('copy' to copy stream)", "codec" },
4525     { "same_quant", OPT_BOOL | OPT_VIDEO, {(void*)&same_quant},
4526       "use same quantizer as source (implies VBR)" },
4527     { "pass", HAS_ARG | OPT_VIDEO, {(void*)opt_pass}, "select the pass number (1 or 2)", "n" },
4528     { "passlogfile", HAS_ARG | OPT_STRING | OPT_VIDEO, {(void*)&pass_logfilename_prefix}, "select two pass log file name prefix", "prefix" },
4529     { "deinterlace", OPT_EXPERT | OPT_VIDEO, {(void*)opt_deinterlace},
4530       "this option is deprecated, use the yadif filter instead" },
4531     { "vstats", OPT_EXPERT | OPT_VIDEO, {(void*)&opt_vstats}, "dump video coding statistics to file" },
4532     { "vstats_file", HAS_ARG | OPT_EXPERT | OPT_VIDEO, {(void*)opt_vstats_file}, "dump video coding statistics to file", "file" },
4533 #if CONFIG_AVFILTER
4534     { "vf", HAS_ARG | OPT_VIDEO | OPT_FUNC2, {(void*)opt_video_filters}, "video filters", "filter list" },
4535 #endif
4536     { "intra_matrix", HAS_ARG | OPT_EXPERT | OPT_VIDEO | OPT_STRING | OPT_SPEC, {.off = OFFSET(intra_matrices)}, "specify intra matrix coeffs", "matrix" },
4537     { "inter_matrix", HAS_ARG | OPT_EXPERT | OPT_VIDEO | OPT_STRING | OPT_SPEC, {.off = OFFSET(inter_matrices)}, "specify inter matrix coeffs", "matrix" },
4538     { "top", HAS_ARG | OPT_EXPERT | OPT_VIDEO | OPT_INT| OPT_SPEC, {.off = OFFSET(top_field_first)}, "top=1/bottom=0/auto=-1 field first", "" },
4539     { "dc", OPT_INT | HAS_ARG | OPT_EXPERT | OPT_VIDEO, {(void*)&intra_dc_precision}, "intra_dc_precision", "precision" },
4540     { "vtag", HAS_ARG | OPT_EXPERT | OPT_VIDEO | OPT_FUNC2, {(void*)opt_video_tag}, "force video tag/fourcc", "fourcc/tag" },
4541     { "qphist", OPT_BOOL | OPT_EXPERT | OPT_VIDEO, { (void *)&qp_hist }, "show QP histogram" },
4542     { "force_fps", OPT_BOOL | OPT_EXPERT | OPT_VIDEO | OPT_SPEC, {.off = OFFSET(force_fps)}, "force the selected framerate, disable the best supported framerate selection" },
4543     { "streamid", HAS_ARG | OPT_EXPERT | OPT_FUNC2, {(void*)opt_streamid}, "set the value of an outfile streamid", "streamIndex:value" },
4544     { "force_key_frames", OPT_STRING | HAS_ARG | OPT_EXPERT | OPT_VIDEO | OPT_SPEC, {.off = OFFSET(forced_key_frames)}, "force key frames at specified timestamps", "timestamps" },
4545
4546     /* audio options */
4547     { "aframes", HAS_ARG | OPT_AUDIO | OPT_FUNC2, {(void*)opt_audio_frames}, "set the number of audio frames to record", "number" },
4548     { "aq", HAS_ARG | OPT_AUDIO | OPT_FUNC2, {(void*)opt_audio_qscale}, "set audio quality (codec-specific)", "quality", },
4549     { "ar", HAS_ARG | OPT_AUDIO | OPT_INT | OPT_SPEC, {.off = OFFSET(audio_sample_rate)}, "set audio sampling rate (in Hz)", "rate" },
4550     { "ac", HAS_ARG | OPT_AUDIO | OPT_INT | OPT_SPEC, {.off = OFFSET(audio_channels)}, "set number of audio channels", "channels" },
4551     { "an", OPT_BOOL | OPT_AUDIO | OPT_OFFSET, {.off = OFFSET(audio_disable)}, "disable audio" },
4552     { "acodec", HAS_ARG | OPT_AUDIO | OPT_FUNC2, {(void*)opt_audio_codec}, "force audio codec ('copy' to copy stream)", "codec" },
4553     { "atag", HAS_ARG | OPT_EXPERT | OPT_AUDIO | OPT_FUNC2, {(void*)opt_audio_tag}, "force audio tag/fourcc", "fourcc/tag" },
4554     { "vol", OPT_INT | HAS_ARG | OPT_AUDIO, {(void*)&audio_volume}, "change audio volume (256=normal)" , "volume" }, //
4555     { "sample_fmt", HAS_ARG | OPT_EXPERT | OPT_AUDIO | OPT_SPEC | OPT_STRING, {.off = OFFSET(sample_fmts)}, "set sample format", "format" },
4556
4557     /* subtitle options */
4558     { "sn", OPT_BOOL | OPT_SUBTITLE | OPT_OFFSET, {.off = OFFSET(subtitle_disable)}, "disable subtitle" },
4559     { "scodec", HAS_ARG | OPT_SUBTITLE | OPT_FUNC2, {(void*)opt_subtitle_codec}, "force subtitle codec ('copy' to copy stream)", "codec" },
4560     { "stag", HAS_ARG | OPT_EXPERT | OPT_SUBTITLE | OPT_FUNC2, {(void*)opt_subtitle_tag}, "force subtitle tag/fourcc", "fourcc/tag" },
4561
4562     /* grab options */
4563     { "isync", OPT_BOOL | OPT_EXPERT | OPT_GRAB, {(void*)&input_sync}, "sync read on input", "" },
4564
4565     /* muxer options */
4566     { "muxdelay", OPT_FLOAT | HAS_ARG | OPT_EXPERT   | OPT_OFFSET, {.off = OFFSET(mux_max_delay)}, "set the maximum demux-decode delay", "seconds" },
4567     { "muxpreload", OPT_FLOAT | HAS_ARG | OPT_EXPERT | OPT_OFFSET, {.off = OFFSET(mux_preload)},   "set the initial demux-decode delay", "seconds" },
4568
4569     { "bsf", HAS_ARG | OPT_STRING | OPT_SPEC, {.off = OFFSET(bitstream_filters)}, "A comma-separated list of bitstream filters", "bitstream_filters" },
4570
4571     /* data codec support */
4572     { "dcodec", HAS_ARG | OPT_DATA | OPT_FUNC2, {(void*)opt_data_codec}, "force data codec ('copy' to copy stream)", "codec" },
4573
4574     { "default", HAS_ARG | OPT_AUDIO | OPT_VIDEO | OPT_EXPERT, {(void*)opt_default}, "generic catch all option", "" },
4575     { NULL, },
4576 };
4577
4578 int main(int argc, char **argv)
4579 {
4580     OptionsContext o = { 0 };
4581     int64_t ti;
4582
4583     reset_options(&o);
4584
4585     av_log_set_flags(AV_LOG_SKIP_REPEATED);
4586     parse_loglevel(argc, argv, options);
4587
4588     avcodec_register_all();
4589 #if CONFIG_AVDEVICE
4590     avdevice_register_all();
4591 #endif
4592 #if CONFIG_AVFILTER
4593     avfilter_register_all();
4594 #endif
4595     av_register_all();
4596     avformat_network_init();
4597
4598     show_banner();
4599
4600     parse_cpuflags(argc, argv, options);
4601
4602     /* parse options */
4603     parse_options(&o, argc, argv, options, opt_output_file);
4604
4605     if (nb_output_files <= 0 && nb_input_files == 0) {
4606         show_usage();
4607         av_log(NULL, AV_LOG_WARNING, "Use -h to get full help or, even better, run 'man %s'\n", program_name);
4608         exit_program(1);
4609     }
4610
4611     /* file converter / grab */
4612     if (nb_output_files <= 0) {
4613         fprintf(stderr, "At least one output file must be specified\n");
4614         exit_program(1);
4615     }
4616
4617     if (nb_input_files == 0) {
4618         av_log(NULL, AV_LOG_FATAL, "At least one input file must be specified\n");
4619         exit_program(1);
4620     }
4621
4622     ti = getutime();
4623     if (transcode(output_files, nb_output_files, input_files, nb_input_files) < 0)
4624         exit_program(1);
4625     ti = getutime() - ti;
4626     if (do_benchmark) {
4627         int maxrss = getmaxrss() / 1024;
4628         printf("bench: utime=%0.3fs maxrss=%ikB\n", ti / 1000000.0, maxrss);
4629     }
4630
4631     exit_program(0);
4632     return 0;
4633 }