]> git.sesse.net Git - ffmpeg/blob - avconv.c
lavc: add avcodec_free_context().
[ffmpeg] / avconv.c
1 /*
2  * avconv main
3  * Copyright (c) 2000-2011 The libav developers.
4  *
5  * This file is part of Libav.
6  *
7  * Libav is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * Libav is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with Libav; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 #include "config.h"
23 #include <ctype.h>
24 #include <string.h>
25 #include <math.h>
26 #include <stdlib.h>
27 #include <errno.h>
28 #include <signal.h>
29 #include <limits.h>
30 #include <stdint.h>
31
32 #include "libavformat/avformat.h"
33 #include "libavdevice/avdevice.h"
34 #include "libswscale/swscale.h"
35 #include "libavresample/avresample.h"
36 #include "libavutil/opt.h"
37 #include "libavutil/channel_layout.h"
38 #include "libavutil/parseutils.h"
39 #include "libavutil/samplefmt.h"
40 #include "libavutil/fifo.h"
41 #include "libavutil/intreadwrite.h"
42 #include "libavutil/dict.h"
43 #include "libavutil/mathematics.h"
44 #include "libavutil/pixdesc.h"
45 #include "libavutil/avstring.h"
46 #include "libavutil/libm.h"
47 #include "libavutil/imgutils.h"
48 #include "libavutil/time.h"
49 #include "libavformat/os_support.h"
50
51 # include "libavfilter/avfilter.h"
52 # include "libavfilter/buffersrc.h"
53 # include "libavfilter/buffersink.h"
54
55 #if HAVE_SYS_RESOURCE_H
56 #include <sys/time.h>
57 #include <sys/types.h>
58 #include <sys/resource.h>
59 #elif HAVE_GETPROCESSTIMES
60 #include <windows.h>
61 #endif
62 #if HAVE_GETPROCESSMEMORYINFO
63 #include <windows.h>
64 #include <psapi.h>
65 #endif
66
67 #if HAVE_SYS_SELECT_H
68 #include <sys/select.h>
69 #endif
70
71 #if HAVE_PTHREADS
72 #include <pthread.h>
73 #endif
74
75 #include <time.h>
76
77 #include "avconv.h"
78 #include "cmdutils.h"
79
80 #include "libavutil/avassert.h"
81
82 const char program_name[] = "avconv";
83 const int program_birth_year = 2000;
84
85 static FILE *vstats_file;
86
87 static int nb_frames_drop = 0;
88
89
90
91 #if HAVE_PTHREADS
92 /* signal to input threads that they should exit; set by the main thread */
93 static int transcoding_finished;
94 #endif
95
96 #define DEFAULT_PASS_LOGFILENAME_PREFIX "av2pass"
97
98 InputStream **input_streams = NULL;
99 int        nb_input_streams = 0;
100 InputFile   **input_files   = NULL;
101 int        nb_input_files   = 0;
102
103 OutputStream **output_streams = NULL;
104 int         nb_output_streams = 0;
105 OutputFile   **output_files   = NULL;
106 int         nb_output_files   = 0;
107
108 FilterGraph **filtergraphs;
109 int        nb_filtergraphs;
110
111 static void term_exit(void)
112 {
113     av_log(NULL, AV_LOG_QUIET, "");
114 }
115
116 static volatile int received_sigterm = 0;
117 static volatile int received_nb_signals = 0;
118
119 static void
120 sigterm_handler(int sig)
121 {
122     received_sigterm = sig;
123     received_nb_signals++;
124     term_exit();
125 }
126
127 static void term_init(void)
128 {
129     signal(SIGINT , sigterm_handler); /* Interrupt (ANSI).    */
130     signal(SIGTERM, sigterm_handler); /* Termination (ANSI).  */
131 #ifdef SIGXCPU
132     signal(SIGXCPU, sigterm_handler);
133 #endif
134 }
135
136 static int decode_interrupt_cb(void *ctx)
137 {
138     return received_nb_signals > 1;
139 }
140
141 const AVIOInterruptCB int_cb = { decode_interrupt_cb, NULL };
142
143 static void avconv_cleanup(int ret)
144 {
145     int i, j;
146
147     for (i = 0; i < nb_filtergraphs; i++) {
148         FilterGraph *fg = filtergraphs[i];
149         avfilter_graph_free(&fg->graph);
150         for (j = 0; j < fg->nb_inputs; j++) {
151             av_freep(&fg->inputs[j]->name);
152             av_freep(&fg->inputs[j]);
153         }
154         av_freep(&fg->inputs);
155         for (j = 0; j < fg->nb_outputs; j++) {
156             av_freep(&fg->outputs[j]->name);
157             av_freep(&fg->outputs[j]);
158         }
159         av_freep(&fg->outputs);
160         av_freep(&fg->graph_desc);
161
162         av_freep(&filtergraphs[i]);
163     }
164     av_freep(&filtergraphs);
165
166     /* close files */
167     for (i = 0; i < nb_output_files; i++) {
168         OutputFile *of = output_files[i];
169         AVFormatContext *s = of->ctx;
170         if (s && s->oformat && !(s->oformat->flags & AVFMT_NOFILE) && s->pb)
171             avio_close(s->pb);
172         avformat_free_context(s);
173         av_dict_free(&of->opts);
174
175         av_freep(&output_files[i]);
176     }
177     for (i = 0; i < nb_output_streams; i++) {
178         OutputStream *ost = output_streams[i];
179         AVBitStreamFilterContext *bsfc = ost->bitstream_filters;
180         while (bsfc) {
181             AVBitStreamFilterContext *next = bsfc->next;
182             av_bitstream_filter_close(bsfc);
183             bsfc = next;
184         }
185         ost->bitstream_filters = NULL;
186         av_frame_free(&ost->filtered_frame);
187
188         av_parser_close(ost->parser);
189
190         av_freep(&ost->forced_keyframes);
191         av_freep(&ost->avfilter);
192         av_freep(&ost->logfile_prefix);
193
194         av_freep(&output_streams[i]);
195     }
196     for (i = 0; i < nb_input_files; i++) {
197         avformat_close_input(&input_files[i]->ctx);
198         av_freep(&input_files[i]);
199     }
200     for (i = 0; i < nb_input_streams; i++) {
201         InputStream *ist = input_streams[i];
202
203         av_frame_free(&ist->decoded_frame);
204         av_frame_free(&ist->filter_frame);
205         av_dict_free(&ist->decoder_opts);
206         av_freep(&ist->filters);
207         av_freep(&ist->hwaccel_device);
208
209         av_freep(&input_streams[i]);
210     }
211
212     if (vstats_file)
213         fclose(vstats_file);
214     av_free(vstats_filename);
215
216     av_freep(&input_streams);
217     av_freep(&input_files);
218     av_freep(&output_streams);
219     av_freep(&output_files);
220
221     uninit_opts();
222
223     avformat_network_deinit();
224
225     if (received_sigterm) {
226         av_log(NULL, AV_LOG_INFO, "Received signal %d: terminating.\n",
227                (int) received_sigterm);
228         exit (255);
229     }
230 }
231
232 void assert_avoptions(AVDictionary *m)
233 {
234     AVDictionaryEntry *t;
235     if ((t = av_dict_get(m, "", NULL, AV_DICT_IGNORE_SUFFIX))) {
236         av_log(NULL, AV_LOG_FATAL, "Option %s not found.\n", t->key);
237         exit_program(1);
238     }
239 }
240
241 static void abort_codec_experimental(AVCodec *c, int encoder)
242 {
243     const char *codec_string = encoder ? "encoder" : "decoder";
244     AVCodec *codec;
245     av_log(NULL, AV_LOG_FATAL, "%s '%s' is experimental and might produce bad "
246             "results.\nAdd '-strict experimental' if you want to use it.\n",
247             codec_string, c->name);
248     codec = encoder ? avcodec_find_encoder(c->id) : avcodec_find_decoder(c->id);
249     if (!(codec->capabilities & CODEC_CAP_EXPERIMENTAL))
250         av_log(NULL, AV_LOG_FATAL, "Or use the non experimental %s '%s'.\n",
251                codec_string, codec->name);
252     exit_program(1);
253 }
254
255 /*
256  * Update the requested input sample format based on the output sample format.
257  * This is currently only used to request float output from decoders which
258  * support multiple sample formats, one of which is AV_SAMPLE_FMT_FLT.
259  * Ideally this will be removed in the future when decoders do not do format
260  * conversion and only output in their native format.
261  */
262 static void update_sample_fmt(AVCodecContext *dec, AVCodec *dec_codec,
263                               AVCodecContext *enc)
264 {
265     /* if sample formats match or a decoder sample format has already been
266        requested, just return */
267     if (enc->sample_fmt == dec->sample_fmt ||
268         dec->request_sample_fmt > AV_SAMPLE_FMT_NONE)
269         return;
270
271     /* if decoder supports more than one output format */
272     if (dec_codec && dec_codec->sample_fmts &&
273         dec_codec->sample_fmts[0] != AV_SAMPLE_FMT_NONE &&
274         dec_codec->sample_fmts[1] != AV_SAMPLE_FMT_NONE) {
275         const enum AVSampleFormat *p;
276         int min_dec = INT_MAX, min_inc = INT_MAX;
277         enum AVSampleFormat dec_fmt = AV_SAMPLE_FMT_NONE;
278         enum AVSampleFormat inc_fmt = AV_SAMPLE_FMT_NONE;
279
280         /* find a matching sample format in the encoder */
281         for (p = dec_codec->sample_fmts; *p != AV_SAMPLE_FMT_NONE; p++) {
282             if (*p == enc->sample_fmt) {
283                 dec->request_sample_fmt = *p;
284                 return;
285             } else {
286                 enum AVSampleFormat dfmt = av_get_packed_sample_fmt(*p);
287                 enum AVSampleFormat efmt = av_get_packed_sample_fmt(enc->sample_fmt);
288                 int fmt_diff = 32 * abs(dfmt - efmt);
289                 if (av_sample_fmt_is_planar(*p) !=
290                     av_sample_fmt_is_planar(enc->sample_fmt))
291                     fmt_diff++;
292                 if (dfmt == efmt) {
293                     min_inc = fmt_diff;
294                     inc_fmt = *p;
295                 } else if (dfmt > efmt) {
296                     if (fmt_diff < min_inc) {
297                         min_inc = fmt_diff;
298                         inc_fmt = *p;
299                     }
300                 } else {
301                     if (fmt_diff < min_dec) {
302                         min_dec = fmt_diff;
303                         dec_fmt = *p;
304                     }
305                 }
306             }
307         }
308
309         /* if none match, provide the one that matches quality closest */
310         dec->request_sample_fmt = min_inc != INT_MAX ? inc_fmt : dec_fmt;
311     }
312 }
313
314 static void write_frame(AVFormatContext *s, AVPacket *pkt, OutputStream *ost)
315 {
316     AVBitStreamFilterContext *bsfc = ost->bitstream_filters;
317     AVCodecContext          *avctx = ost->st->codec;
318     int ret;
319
320     /*
321      * Audio encoders may split the packets --  #frames in != #packets out.
322      * But there is no reordering, so we can limit the number of output packets
323      * by simply dropping them here.
324      * Counting encoded video frames needs to be done separately because of
325      * reordering, see do_video_out()
326      */
327     if (!(avctx->codec_type == AVMEDIA_TYPE_VIDEO && avctx->codec)) {
328         if (ost->frame_number >= ost->max_frames) {
329             av_free_packet(pkt);
330             return;
331         }
332         ost->frame_number++;
333     }
334
335     while (bsfc) {
336         AVPacket new_pkt = *pkt;
337         int a = av_bitstream_filter_filter(bsfc, avctx, NULL,
338                                            &new_pkt.data, &new_pkt.size,
339                                            pkt->data, pkt->size,
340                                            pkt->flags & AV_PKT_FLAG_KEY);
341         if (a > 0) {
342             av_free_packet(pkt);
343             new_pkt.buf = av_buffer_create(new_pkt.data, new_pkt.size,
344                                            av_buffer_default_free, NULL, 0);
345             if (!new_pkt.buf)
346                 exit_program(1);
347         } else if (a < 0) {
348             av_log(NULL, AV_LOG_ERROR, "%s failed for stream %d, codec %s",
349                    bsfc->filter->name, pkt->stream_index,
350                    avctx->codec ? avctx->codec->name : "copy");
351             print_error("", a);
352             if (exit_on_error)
353                 exit_program(1);
354         }
355         *pkt = new_pkt;
356
357         bsfc = bsfc->next;
358     }
359
360     if (!(s->oformat->flags & AVFMT_NOTIMESTAMPS) &&
361         ost->last_mux_dts != AV_NOPTS_VALUE &&
362         pkt->dts < ost->last_mux_dts + !(s->oformat->flags & AVFMT_TS_NONSTRICT)) {
363         av_log(NULL, AV_LOG_WARNING, "Non-monotonous DTS in output stream "
364                "%d:%d; previous: %"PRId64", current: %"PRId64"; ",
365                ost->file_index, ost->st->index, ost->last_mux_dts, pkt->dts);
366         if (exit_on_error) {
367             av_log(NULL, AV_LOG_FATAL, "aborting.\n");
368             exit_program(1);
369         }
370         av_log(NULL, AV_LOG_WARNING, "changing to %"PRId64". This may result "
371                "in incorrect timestamps in the output file.\n",
372                ost->last_mux_dts + 1);
373         pkt->dts = ost->last_mux_dts + 1;
374         if (pkt->pts != AV_NOPTS_VALUE)
375             pkt->pts = FFMAX(pkt->pts, pkt->dts);
376     }
377     ost->last_mux_dts = pkt->dts;
378
379     ost->data_size += pkt->size;
380     ost->packets_written++;
381
382     pkt->stream_index = ost->index;
383     ret = av_interleaved_write_frame(s, pkt);
384     if (ret < 0) {
385         print_error("av_interleaved_write_frame()", ret);
386         exit_program(1);
387     }
388 }
389
390 static int check_recording_time(OutputStream *ost)
391 {
392     OutputFile *of = output_files[ost->file_index];
393
394     if (of->recording_time != INT64_MAX &&
395         av_compare_ts(ost->sync_opts - ost->first_pts, ost->st->codec->time_base, of->recording_time,
396                       AV_TIME_BASE_Q) >= 0) {
397         ost->finished = 1;
398         return 0;
399     }
400     return 1;
401 }
402
403 static void do_audio_out(AVFormatContext *s, OutputStream *ost,
404                          AVFrame *frame)
405 {
406     AVCodecContext *enc = ost->st->codec;
407     AVPacket pkt;
408     int got_packet = 0;
409
410     av_init_packet(&pkt);
411     pkt.data = NULL;
412     pkt.size = 0;
413
414     if (frame->pts == AV_NOPTS_VALUE || audio_sync_method < 0)
415         frame->pts = ost->sync_opts;
416     ost->sync_opts = frame->pts + frame->nb_samples;
417
418     ost->samples_encoded += frame->nb_samples;
419     ost->frames_encoded++;
420
421     if (avcodec_encode_audio2(enc, &pkt, frame, &got_packet) < 0) {
422         av_log(NULL, AV_LOG_FATAL, "Audio encoding failed\n");
423         exit_program(1);
424     }
425
426     if (got_packet) {
427         if (pkt.pts != AV_NOPTS_VALUE)
428             pkt.pts      = av_rescale_q(pkt.pts,      enc->time_base, ost->st->time_base);
429         if (pkt.dts != AV_NOPTS_VALUE)
430             pkt.dts      = av_rescale_q(pkt.dts,      enc->time_base, ost->st->time_base);
431         if (pkt.duration > 0)
432             pkt.duration = av_rescale_q(pkt.duration, enc->time_base, ost->st->time_base);
433
434         write_frame(s, &pkt, ost);
435     }
436 }
437
438 static void do_subtitle_out(AVFormatContext *s,
439                             OutputStream *ost,
440                             InputStream *ist,
441                             AVSubtitle *sub,
442                             int64_t pts)
443 {
444     static uint8_t *subtitle_out = NULL;
445     int subtitle_out_max_size = 1024 * 1024;
446     int subtitle_out_size, nb, i;
447     AVCodecContext *enc;
448     AVPacket pkt;
449
450     if (pts == AV_NOPTS_VALUE) {
451         av_log(NULL, AV_LOG_ERROR, "Subtitle packets must have a pts\n");
452         if (exit_on_error)
453             exit_program(1);
454         return;
455     }
456
457     enc = ost->st->codec;
458
459     if (!subtitle_out) {
460         subtitle_out = av_malloc(subtitle_out_max_size);
461     }
462
463     /* Note: DVB subtitle need one packet to draw them and one other
464        packet to clear them */
465     /* XXX: signal it in the codec context ? */
466     if (enc->codec_id == AV_CODEC_ID_DVB_SUBTITLE)
467         nb = 2;
468     else
469         nb = 1;
470
471     for (i = 0; i < nb; i++) {
472         ost->sync_opts = av_rescale_q(pts, ist->st->time_base, enc->time_base);
473         if (!check_recording_time(ost))
474             return;
475
476         sub->pts = av_rescale_q(pts, ist->st->time_base, AV_TIME_BASE_Q);
477         // start_display_time is required to be 0
478         sub->pts               += av_rescale_q(sub->start_display_time, (AVRational){ 1, 1000 }, AV_TIME_BASE_Q);
479         sub->end_display_time  -= sub->start_display_time;
480         sub->start_display_time = 0;
481
482         ost->frames_encoded++;
483
484         subtitle_out_size = avcodec_encode_subtitle(enc, subtitle_out,
485                                                     subtitle_out_max_size, sub);
486         if (subtitle_out_size < 0) {
487             av_log(NULL, AV_LOG_FATAL, "Subtitle encoding failed\n");
488             exit_program(1);
489         }
490
491         av_init_packet(&pkt);
492         pkt.data = subtitle_out;
493         pkt.size = subtitle_out_size;
494         pkt.pts  = av_rescale_q(sub->pts, AV_TIME_BASE_Q, ost->st->time_base);
495         if (enc->codec_id == AV_CODEC_ID_DVB_SUBTITLE) {
496             /* XXX: the pts correction is handled here. Maybe handling
497                it in the codec would be better */
498             if (i == 0)
499                 pkt.pts += 90 * sub->start_display_time;
500             else
501                 pkt.pts += 90 * sub->end_display_time;
502         }
503         write_frame(s, &pkt, ost);
504     }
505 }
506
507 static void do_video_out(AVFormatContext *s,
508                          OutputStream *ost,
509                          AVFrame *in_picture,
510                          int *frame_size)
511 {
512     int ret, format_video_sync;
513     AVPacket pkt;
514     AVCodecContext *enc = ost->st->codec;
515
516     *frame_size = 0;
517
518     format_video_sync = video_sync_method;
519     if (format_video_sync == VSYNC_AUTO)
520         format_video_sync = (s->oformat->flags & AVFMT_NOTIMESTAMPS) ? VSYNC_PASSTHROUGH :
521                             (s->oformat->flags & AVFMT_VARIABLE_FPS) ? VSYNC_VFR : VSYNC_CFR;
522     if (format_video_sync != VSYNC_PASSTHROUGH &&
523         ost->frame_number &&
524         in_picture->pts != AV_NOPTS_VALUE &&
525         in_picture->pts < ost->sync_opts) {
526         nb_frames_drop++;
527         av_log(NULL, AV_LOG_WARNING,
528                "*** dropping frame %d from stream %d at ts %"PRId64"\n",
529                ost->frame_number, ost->st->index, in_picture->pts);
530         return;
531     }
532
533     if (in_picture->pts == AV_NOPTS_VALUE)
534         in_picture->pts = ost->sync_opts;
535     ost->sync_opts = in_picture->pts;
536
537
538     if (!ost->frame_number)
539         ost->first_pts = in_picture->pts;
540
541     av_init_packet(&pkt);
542     pkt.data = NULL;
543     pkt.size = 0;
544
545     if (ost->frame_number >= ost->max_frames)
546         return;
547
548     if (s->oformat->flags & AVFMT_RAWPICTURE &&
549         enc->codec->id == AV_CODEC_ID_RAWVIDEO) {
550         /* raw pictures are written as AVPicture structure to
551            avoid any copies. We support temporarily the older
552            method. */
553         enc->coded_frame->interlaced_frame = in_picture->interlaced_frame;
554         enc->coded_frame->top_field_first  = in_picture->top_field_first;
555         pkt.data   = (uint8_t *)in_picture;
556         pkt.size   =  sizeof(AVPicture);
557         pkt.pts    = av_rescale_q(in_picture->pts, enc->time_base, ost->st->time_base);
558         pkt.flags |= AV_PKT_FLAG_KEY;
559
560         write_frame(s, &pkt, ost);
561     } else {
562         int got_packet;
563
564         if (ost->st->codec->flags & (CODEC_FLAG_INTERLACED_DCT|CODEC_FLAG_INTERLACED_ME) &&
565             ost->top_field_first >= 0)
566             in_picture->top_field_first = !!ost->top_field_first;
567
568         in_picture->quality = ost->st->codec->global_quality;
569         if (!enc->me_threshold)
570             in_picture->pict_type = 0;
571         if (ost->forced_kf_index < ost->forced_kf_count &&
572             in_picture->pts >= ost->forced_kf_pts[ost->forced_kf_index]) {
573             in_picture->pict_type = AV_PICTURE_TYPE_I;
574             ost->forced_kf_index++;
575         }
576
577         ost->frames_encoded++;
578
579         ret = avcodec_encode_video2(enc, &pkt, in_picture, &got_packet);
580         if (ret < 0) {
581             av_log(NULL, AV_LOG_FATAL, "Video encoding failed\n");
582             exit_program(1);
583         }
584
585         if (got_packet) {
586             if (pkt.pts != AV_NOPTS_VALUE)
587                 pkt.pts = av_rescale_q(pkt.pts, enc->time_base, ost->st->time_base);
588             if (pkt.dts != AV_NOPTS_VALUE)
589                 pkt.dts = av_rescale_q(pkt.dts, enc->time_base, ost->st->time_base);
590
591             write_frame(s, &pkt, ost);
592             *frame_size = pkt.size;
593
594             /* if two pass, output log */
595             if (ost->logfile && enc->stats_out) {
596                 fprintf(ost->logfile, "%s", enc->stats_out);
597             }
598         }
599     }
600     ost->sync_opts++;
601     /*
602      * For video, number of frames in == number of packets out.
603      * But there may be reordering, so we can't throw away frames on encoder
604      * flush, we need to limit them here, before they go into encoder.
605      */
606     ost->frame_number++;
607 }
608
609 static double psnr(double d)
610 {
611     return -10.0 * log(d) / log(10.0);
612 }
613
614 static void do_video_stats(OutputStream *ost, int frame_size)
615 {
616     AVCodecContext *enc;
617     int frame_number;
618     double ti1, bitrate, avg_bitrate;
619
620     /* this is executed just the first time do_video_stats is called */
621     if (!vstats_file) {
622         vstats_file = fopen(vstats_filename, "w");
623         if (!vstats_file) {
624             perror("fopen");
625             exit_program(1);
626         }
627     }
628
629     enc = ost->st->codec;
630     if (enc->codec_type == AVMEDIA_TYPE_VIDEO) {
631         frame_number = ost->frame_number;
632         fprintf(vstats_file, "frame= %5d q= %2.1f ", frame_number, enc->coded_frame->quality / (float)FF_QP2LAMBDA);
633         if (enc->flags&CODEC_FLAG_PSNR)
634             fprintf(vstats_file, "PSNR= %6.2f ", psnr(enc->coded_frame->error[0] / (enc->width * enc->height * 255.0 * 255.0)));
635
636         fprintf(vstats_file,"f_size= %6d ", frame_size);
637         /* compute pts value */
638         ti1 = ost->sync_opts * av_q2d(enc->time_base);
639         if (ti1 < 0.01)
640             ti1 = 0.01;
641
642         bitrate     = (frame_size * 8) / av_q2d(enc->time_base) / 1000.0;
643         avg_bitrate = (double)(ost->data_size * 8) / ti1 / 1000.0;
644         fprintf(vstats_file, "s_size= %8.0fkB time= %0.3f br= %7.1fkbits/s avg_br= %7.1fkbits/s ",
645                (double)ost->data_size / 1024, ti1, bitrate, avg_bitrate);
646         fprintf(vstats_file, "type= %c\n", av_get_picture_type_char(enc->coded_frame->pict_type));
647     }
648 }
649
650 /*
651  * Read one frame for lavfi output for ost and encode it.
652  */
653 static int poll_filter(OutputStream *ost)
654 {
655     OutputFile    *of = output_files[ost->file_index];
656     AVFrame *filtered_frame = NULL;
657     int frame_size, ret;
658
659     if (!ost->filtered_frame && !(ost->filtered_frame = av_frame_alloc())) {
660         return AVERROR(ENOMEM);
661     }
662     filtered_frame = ost->filtered_frame;
663
664     if (ost->enc->type == AVMEDIA_TYPE_AUDIO &&
665         !(ost->enc->capabilities & CODEC_CAP_VARIABLE_FRAME_SIZE))
666         ret = av_buffersink_get_samples(ost->filter->filter, filtered_frame,
667                                          ost->st->codec->frame_size);
668     else
669         ret = av_buffersink_get_frame(ost->filter->filter, filtered_frame);
670
671     if (ret < 0)
672         return ret;
673
674     if (filtered_frame->pts != AV_NOPTS_VALUE) {
675         int64_t start_time = (of->start_time == AV_NOPTS_VALUE) ? 0 : of->start_time;
676         filtered_frame->pts = av_rescale_q(filtered_frame->pts,
677                                            ost->filter->filter->inputs[0]->time_base,
678                                            ost->st->codec->time_base) -
679                               av_rescale_q(start_time,
680                                            AV_TIME_BASE_Q,
681                                            ost->st->codec->time_base);
682     }
683
684     switch (ost->filter->filter->inputs[0]->type) {
685     case AVMEDIA_TYPE_VIDEO:
686         if (!ost->frame_aspect_ratio)
687             ost->st->codec->sample_aspect_ratio = filtered_frame->sample_aspect_ratio;
688
689         do_video_out(of->ctx, ost, filtered_frame, &frame_size);
690         if (vstats_filename && frame_size)
691             do_video_stats(ost, frame_size);
692         break;
693     case AVMEDIA_TYPE_AUDIO:
694         do_audio_out(of->ctx, ost, filtered_frame);
695         break;
696     default:
697         // TODO support subtitle filters
698         av_assert0(0);
699     }
700
701     av_frame_unref(filtered_frame);
702
703     return 0;
704 }
705
706 /*
707  * Read as many frames from possible from lavfi and encode them.
708  *
709  * Always read from the active stream with the lowest timestamp. If no frames
710  * are available for it then return EAGAIN and wait for more input. This way we
711  * can use lavfi sources that generate unlimited amount of frames without memory
712  * usage exploding.
713  */
714 static int poll_filters(void)
715 {
716     int i, j, ret = 0;
717
718     while (ret >= 0 && !received_sigterm) {
719         OutputStream *ost = NULL;
720         int64_t min_pts = INT64_MAX;
721
722         /* choose output stream with the lowest timestamp */
723         for (i = 0; i < nb_output_streams; i++) {
724             int64_t pts = output_streams[i]->sync_opts;
725
726             if (!output_streams[i]->filter || output_streams[i]->finished)
727                 continue;
728
729             pts = av_rescale_q(pts, output_streams[i]->st->codec->time_base,
730                                AV_TIME_BASE_Q);
731             if (pts < min_pts) {
732                 min_pts = pts;
733                 ost = output_streams[i];
734             }
735         }
736
737         if (!ost)
738             break;
739
740         ret = poll_filter(ost);
741
742         if (ret == AVERROR_EOF) {
743             OutputFile *of = output_files[ost->file_index];
744
745             ost->finished = 1;
746
747             if (of->shortest) {
748                 for (j = 0; j < of->ctx->nb_streams; j++)
749                     output_streams[of->ost_index + j]->finished = 1;
750             }
751
752             ret = 0;
753         } else if (ret == AVERROR(EAGAIN))
754             return 0;
755     }
756
757     return ret;
758 }
759
760 static void print_final_stats(int64_t total_size)
761 {
762     uint64_t video_size = 0, audio_size = 0, extra_size = 0, other_size = 0;
763     uint64_t data_size = 0;
764     float percent = -1.0;
765     int i, j;
766
767     for (i = 0; i < nb_output_streams; i++) {
768         OutputStream *ost = output_streams[i];
769         switch (ost->st->codec->codec_type) {
770             case AVMEDIA_TYPE_VIDEO: video_size += ost->data_size; break;
771             case AVMEDIA_TYPE_AUDIO: audio_size += ost->data_size; break;
772             default:                 other_size += ost->data_size; break;
773         }
774         extra_size += ost->st->codec->extradata_size;
775         data_size  += ost->data_size;
776     }
777
778     if (data_size && total_size >= data_size)
779         percent = 100.0 * (total_size - data_size) / data_size;
780
781     av_log(NULL, AV_LOG_INFO, "\n");
782     av_log(NULL, AV_LOG_INFO, "video:%1.0fkB audio:%1.0fkB other streams:%1.0fkB global headers:%1.0fkB muxing overhead: ",
783            video_size / 1024.0,
784            audio_size / 1024.0,
785            other_size / 1024.0,
786            extra_size / 1024.0);
787     if (percent >= 0.0)
788         av_log(NULL, AV_LOG_INFO, "%f%%", percent);
789     else
790         av_log(NULL, AV_LOG_INFO, "unknown");
791     av_log(NULL, AV_LOG_INFO, "\n");
792
793     /* print verbose per-stream stats */
794     for (i = 0; i < nb_input_files; i++) {
795         InputFile *f = input_files[i];
796         uint64_t total_packets = 0, total_size = 0;
797
798         av_log(NULL, AV_LOG_VERBOSE, "Input file #%d (%s):\n",
799                i, f->ctx->filename);
800
801         for (j = 0; j < f->nb_streams; j++) {
802             InputStream *ist = input_streams[f->ist_index + j];
803             enum AVMediaType type = ist->st->codec->codec_type;
804
805             total_size    += ist->data_size;
806             total_packets += ist->nb_packets;
807
808             av_log(NULL, AV_LOG_VERBOSE, "  Input stream #%d:%d (%s): ",
809                    i, j, media_type_string(type));
810             av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" packets read (%"PRIu64" bytes); ",
811                    ist->nb_packets, ist->data_size);
812
813             if (ist->decoding_needed) {
814                 av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" frames decoded",
815                        ist->frames_decoded);
816                 if (type == AVMEDIA_TYPE_AUDIO)
817                     av_log(NULL, AV_LOG_VERBOSE, " (%"PRIu64" samples)", ist->samples_decoded);
818                 av_log(NULL, AV_LOG_VERBOSE, "; ");
819             }
820
821             av_log(NULL, AV_LOG_VERBOSE, "\n");
822         }
823
824         av_log(NULL, AV_LOG_VERBOSE, "  Total: %"PRIu64" packets (%"PRIu64" bytes) demuxed\n",
825                total_packets, total_size);
826     }
827
828     for (i = 0; i < nb_output_files; i++) {
829         OutputFile *of = output_files[i];
830         uint64_t total_packets = 0, total_size = 0;
831
832         av_log(NULL, AV_LOG_VERBOSE, "Output file #%d (%s):\n",
833                i, of->ctx->filename);
834
835         for (j = 0; j < of->ctx->nb_streams; j++) {
836             OutputStream *ost = output_streams[of->ost_index + j];
837             enum AVMediaType type = ost->st->codec->codec_type;
838
839             total_size    += ost->data_size;
840             total_packets += ost->packets_written;
841
842             av_log(NULL, AV_LOG_VERBOSE, "  Output stream #%d:%d (%s): ",
843                    i, j, media_type_string(type));
844             if (ost->encoding_needed) {
845                 av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" frames encoded",
846                        ost->frames_encoded);
847                 if (type == AVMEDIA_TYPE_AUDIO)
848                     av_log(NULL, AV_LOG_VERBOSE, " (%"PRIu64" samples)", ost->samples_encoded);
849                 av_log(NULL, AV_LOG_VERBOSE, "; ");
850             }
851
852             av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" packets muxed (%"PRIu64" bytes); ",
853                    ost->packets_written, ost->data_size);
854
855             av_log(NULL, AV_LOG_VERBOSE, "\n");
856         }
857
858         av_log(NULL, AV_LOG_VERBOSE, "  Total: %"PRIu64" packets (%"PRIu64" bytes) muxed\n",
859                total_packets, total_size);
860     }
861 }
862
863 static void print_report(int is_last_report, int64_t timer_start)
864 {
865     char buf[1024];
866     OutputStream *ost;
867     AVFormatContext *oc;
868     int64_t total_size;
869     AVCodecContext *enc;
870     int frame_number, vid, i;
871     double bitrate, ti1, pts;
872     static int64_t last_time = -1;
873     static int qp_histogram[52];
874
875     if (!print_stats && !is_last_report)
876         return;
877
878     if (!is_last_report) {
879         int64_t cur_time;
880         /* display the report every 0.5 seconds */
881         cur_time = av_gettime();
882         if (last_time == -1) {
883             last_time = cur_time;
884             return;
885         }
886         if ((cur_time - last_time) < 500000)
887             return;
888         last_time = cur_time;
889     }
890
891
892     oc = output_files[0]->ctx;
893
894     total_size = avio_size(oc->pb);
895     if (total_size <= 0) // FIXME improve avio_size() so it works with non seekable output too
896         total_size = avio_tell(oc->pb);
897     if (total_size < 0) {
898         char errbuf[128];
899         av_strerror(total_size, errbuf, sizeof(errbuf));
900         av_log(NULL, AV_LOG_VERBOSE, "Bitrate not available, "
901                "avio_tell() failed: %s\n", errbuf);
902         total_size = 0;
903     }
904
905     buf[0] = '\0';
906     ti1 = 1e10;
907     vid = 0;
908     for (i = 0; i < nb_output_streams; i++) {
909         float q = -1;
910         ost = output_streams[i];
911         enc = ost->st->codec;
912         if (!ost->stream_copy && enc->coded_frame)
913             q = enc->coded_frame->quality / (float)FF_QP2LAMBDA;
914         if (vid && enc->codec_type == AVMEDIA_TYPE_VIDEO) {
915             snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "q=%2.1f ", q);
916         }
917         if (!vid && enc->codec_type == AVMEDIA_TYPE_VIDEO) {
918             float t = (av_gettime() - timer_start) / 1000000.0;
919
920             frame_number = ost->frame_number;
921             snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "frame=%5d fps=%3d q=%3.1f ",
922                      frame_number, (t > 1) ? (int)(frame_number / t + 0.5) : 0, q);
923             if (is_last_report)
924                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "L");
925             if (qp_hist) {
926                 int j;
927                 int qp = lrintf(q);
928                 if (qp >= 0 && qp < FF_ARRAY_ELEMS(qp_histogram))
929                     qp_histogram[qp]++;
930                 for (j = 0; j < 32; j++)
931                     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "%X", (int)lrintf(log2(qp_histogram[j] + 1)));
932             }
933             if (enc->flags&CODEC_FLAG_PSNR) {
934                 int j;
935                 double error, error_sum = 0;
936                 double scale, scale_sum = 0;
937                 char type[3] = { 'Y','U','V' };
938                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "PSNR=");
939                 for (j = 0; j < 3; j++) {
940                     if (is_last_report) {
941                         error = enc->error[j];
942                         scale = enc->width * enc->height * 255.0 * 255.0 * frame_number;
943                     } else {
944                         error = enc->coded_frame->error[j];
945                         scale = enc->width * enc->height * 255.0 * 255.0;
946                     }
947                     if (j)
948                         scale /= 4;
949                     error_sum += error;
950                     scale_sum += scale;
951                     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "%c:%2.2f ", type[j], psnr(error / scale));
952                 }
953                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "*:%2.2f ", psnr(error_sum / scale_sum));
954             }
955             vid = 1;
956         }
957         /* compute min output value */
958         pts = (double)ost->st->pts.val * av_q2d(ost->st->time_base);
959         if ((pts < ti1) && (pts > 0))
960             ti1 = pts;
961     }
962     if (ti1 < 0.01)
963         ti1 = 0.01;
964
965     bitrate = (double)(total_size * 8) / ti1 / 1000.0;
966
967     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf),
968             "size=%8.0fkB time=%0.2f bitrate=%6.1fkbits/s",
969             (double)total_size / 1024, ti1, bitrate);
970
971     if (nb_frames_drop)
972         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), " drop=%d",
973                  nb_frames_drop);
974
975     av_log(NULL, AV_LOG_INFO, "%s    \r", buf);
976
977     fflush(stderr);
978
979     if (is_last_report)
980         print_final_stats(total_size);
981
982 }
983
984 static void flush_encoders(void)
985 {
986     int i, ret;
987
988     for (i = 0; i < nb_output_streams; i++) {
989         OutputStream   *ost = output_streams[i];
990         AVCodecContext *enc = ost->st->codec;
991         AVFormatContext *os = output_files[ost->file_index]->ctx;
992         int stop_encoding = 0;
993
994         if (!ost->encoding_needed)
995             continue;
996
997         if (ost->st->codec->codec_type == AVMEDIA_TYPE_AUDIO && enc->frame_size <= 1)
998             continue;
999         if (ost->st->codec->codec_type == AVMEDIA_TYPE_VIDEO && (os->oformat->flags & AVFMT_RAWPICTURE) && enc->codec->id == AV_CODEC_ID_RAWVIDEO)
1000             continue;
1001
1002         for (;;) {
1003             int (*encode)(AVCodecContext*, AVPacket*, const AVFrame*, int*) = NULL;
1004             const char *desc;
1005
1006             switch (ost->st->codec->codec_type) {
1007             case AVMEDIA_TYPE_AUDIO:
1008                 encode = avcodec_encode_audio2;
1009                 desc   = "Audio";
1010                 break;
1011             case AVMEDIA_TYPE_VIDEO:
1012                 encode = avcodec_encode_video2;
1013                 desc   = "Video";
1014                 break;
1015             default:
1016                 stop_encoding = 1;
1017             }
1018
1019             if (encode) {
1020                 AVPacket pkt;
1021                 int got_packet;
1022                 av_init_packet(&pkt);
1023                 pkt.data = NULL;
1024                 pkt.size = 0;
1025
1026                 ret = encode(enc, &pkt, NULL, &got_packet);
1027                 if (ret < 0) {
1028                     av_log(NULL, AV_LOG_FATAL, "%s encoding failed\n", desc);
1029                     exit_program(1);
1030                 }
1031                 if (ost->logfile && enc->stats_out) {
1032                     fprintf(ost->logfile, "%s", enc->stats_out);
1033                 }
1034                 if (!got_packet) {
1035                     stop_encoding = 1;
1036                     break;
1037                 }
1038                 if (pkt.pts != AV_NOPTS_VALUE)
1039                     pkt.pts = av_rescale_q(pkt.pts, enc->time_base, ost->st->time_base);
1040                 if (pkt.dts != AV_NOPTS_VALUE)
1041                     pkt.dts = av_rescale_q(pkt.dts, enc->time_base, ost->st->time_base);
1042                 if (pkt.duration > 0)
1043                     pkt.duration = av_rescale_q(pkt.duration, enc->time_base, ost->st->time_base);
1044                 write_frame(os, &pkt, ost);
1045             }
1046
1047             if (stop_encoding)
1048                 break;
1049         }
1050     }
1051 }
1052
1053 /*
1054  * Check whether a packet from ist should be written into ost at this time
1055  */
1056 static int check_output_constraints(InputStream *ist, OutputStream *ost)
1057 {
1058     OutputFile *of = output_files[ost->file_index];
1059     int ist_index  = input_files[ist->file_index]->ist_index + ist->st->index;
1060
1061     if (ost->source_index != ist_index)
1062         return 0;
1063
1064     if (of->start_time != AV_NOPTS_VALUE && ist->last_dts < of->start_time)
1065         return 0;
1066
1067     return 1;
1068 }
1069
1070 static void do_streamcopy(InputStream *ist, OutputStream *ost, const AVPacket *pkt)
1071 {
1072     OutputFile *of = output_files[ost->file_index];
1073     InputFile   *f = input_files [ist->file_index];
1074     int64_t start_time = (of->start_time == AV_NOPTS_VALUE) ? 0 : of->start_time;
1075     int64_t ost_tb_start_time = av_rescale_q(start_time, AV_TIME_BASE_Q, ost->st->time_base);
1076     AVPacket opkt;
1077
1078     av_init_packet(&opkt);
1079
1080     if ((!ost->frame_number && !(pkt->flags & AV_PKT_FLAG_KEY)) &&
1081         !ost->copy_initial_nonkeyframes)
1082         return;
1083
1084     if (of->recording_time != INT64_MAX &&
1085         ist->last_dts >= of->recording_time + start_time) {
1086         ost->finished = 1;
1087         return;
1088     }
1089
1090     if (f->recording_time != INT64_MAX) {
1091         start_time = f->ctx->start_time;
1092         if (f->start_time != AV_NOPTS_VALUE)
1093             start_time += f->start_time;
1094         if (ist->last_dts >= f->recording_time + start_time) {
1095             ost->finished = 1;
1096             return;
1097         }
1098     }
1099
1100     /* force the input stream PTS */
1101     if (ost->st->codec->codec_type == AVMEDIA_TYPE_VIDEO)
1102         ost->sync_opts++;
1103
1104     if (pkt->pts != AV_NOPTS_VALUE)
1105         opkt.pts = av_rescale_q(pkt->pts, ist->st->time_base, ost->st->time_base) - ost_tb_start_time;
1106     else
1107         opkt.pts = AV_NOPTS_VALUE;
1108
1109     if (pkt->dts == AV_NOPTS_VALUE)
1110         opkt.dts = av_rescale_q(ist->last_dts, AV_TIME_BASE_Q, ost->st->time_base);
1111     else
1112         opkt.dts = av_rescale_q(pkt->dts, ist->st->time_base, ost->st->time_base);
1113     opkt.dts -= ost_tb_start_time;
1114
1115     opkt.duration = av_rescale_q(pkt->duration, ist->st->time_base, ost->st->time_base);
1116     opkt.flags    = pkt->flags;
1117
1118     // FIXME remove the following 2 lines they shall be replaced by the bitstream filters
1119     if (  ost->st->codec->codec_id != AV_CODEC_ID_H264
1120        && ost->st->codec->codec_id != AV_CODEC_ID_MPEG1VIDEO
1121        && ost->st->codec->codec_id != AV_CODEC_ID_MPEG2VIDEO
1122        && ost->st->codec->codec_id != AV_CODEC_ID_VC1
1123        ) {
1124         if (av_parser_change(ost->parser, ost->st->codec,
1125                              &opkt.data, &opkt.size,
1126                              pkt->data, pkt->size,
1127                              pkt->flags & AV_PKT_FLAG_KEY)) {
1128             opkt.buf = av_buffer_create(opkt.data, opkt.size, av_buffer_default_free, NULL, 0);
1129             if (!opkt.buf)
1130                 exit_program(1);
1131         }
1132     } else {
1133         opkt.data = pkt->data;
1134         opkt.size = pkt->size;
1135     }
1136
1137     write_frame(of->ctx, &opkt, ost);
1138 }
1139
1140 int guess_input_channel_layout(InputStream *ist)
1141 {
1142     AVCodecContext *dec = ist->st->codec;
1143
1144     if (!dec->channel_layout) {
1145         char layout_name[256];
1146
1147         dec->channel_layout = av_get_default_channel_layout(dec->channels);
1148         if (!dec->channel_layout)
1149             return 0;
1150         av_get_channel_layout_string(layout_name, sizeof(layout_name),
1151                                      dec->channels, dec->channel_layout);
1152         av_log(NULL, AV_LOG_WARNING, "Guessed Channel Layout for  Input Stream "
1153                "#%d.%d : %s\n", ist->file_index, ist->st->index, layout_name);
1154     }
1155     return 1;
1156 }
1157
1158 static int decode_audio(InputStream *ist, AVPacket *pkt, int *got_output)
1159 {
1160     AVFrame *decoded_frame, *f;
1161     AVCodecContext *avctx = ist->st->codec;
1162     int i, ret, err = 0, resample_changed;
1163
1164     if (!ist->decoded_frame && !(ist->decoded_frame = av_frame_alloc()))
1165         return AVERROR(ENOMEM);
1166     if (!ist->filter_frame && !(ist->filter_frame = av_frame_alloc()))
1167         return AVERROR(ENOMEM);
1168     decoded_frame = ist->decoded_frame;
1169
1170     ret = avcodec_decode_audio4(avctx, decoded_frame, got_output, pkt);
1171     if (!*got_output || ret < 0) {
1172         if (!pkt->size) {
1173             for (i = 0; i < ist->nb_filters; i++)
1174                 av_buffersrc_add_frame(ist->filters[i]->filter, NULL);
1175         }
1176         return ret;
1177     }
1178
1179     ist->samples_decoded += decoded_frame->nb_samples;
1180     ist->frames_decoded++;
1181
1182     /* if the decoder provides a pts, use it instead of the last packet pts.
1183        the decoder could be delaying output by a packet or more. */
1184     if (decoded_frame->pts != AV_NOPTS_VALUE)
1185         ist->next_dts = decoded_frame->pts;
1186     else if (pkt->pts != AV_NOPTS_VALUE)
1187         decoded_frame->pts = pkt->pts;
1188     pkt->pts           = AV_NOPTS_VALUE;
1189
1190     resample_changed = ist->resample_sample_fmt     != decoded_frame->format         ||
1191                        ist->resample_channels       != avctx->channels               ||
1192                        ist->resample_channel_layout != decoded_frame->channel_layout ||
1193                        ist->resample_sample_rate    != decoded_frame->sample_rate;
1194     if (resample_changed) {
1195         char layout1[64], layout2[64];
1196
1197         if (!guess_input_channel_layout(ist)) {
1198             av_log(NULL, AV_LOG_FATAL, "Unable to find default channel "
1199                    "layout for Input Stream #%d.%d\n", ist->file_index,
1200                    ist->st->index);
1201             exit_program(1);
1202         }
1203         decoded_frame->channel_layout = avctx->channel_layout;
1204
1205         av_get_channel_layout_string(layout1, sizeof(layout1), ist->resample_channels,
1206                                      ist->resample_channel_layout);
1207         av_get_channel_layout_string(layout2, sizeof(layout2), avctx->channels,
1208                                      decoded_frame->channel_layout);
1209
1210         av_log(NULL, AV_LOG_INFO,
1211                "Input stream #%d:%d frame changed from rate:%d fmt:%s ch:%d chl:%s to rate:%d fmt:%s ch:%d chl:%s\n",
1212                ist->file_index, ist->st->index,
1213                ist->resample_sample_rate,  av_get_sample_fmt_name(ist->resample_sample_fmt),
1214                ist->resample_channels, layout1,
1215                decoded_frame->sample_rate, av_get_sample_fmt_name(decoded_frame->format),
1216                avctx->channels, layout2);
1217
1218         ist->resample_sample_fmt     = decoded_frame->format;
1219         ist->resample_sample_rate    = decoded_frame->sample_rate;
1220         ist->resample_channel_layout = decoded_frame->channel_layout;
1221         ist->resample_channels       = avctx->channels;
1222
1223         for (i = 0; i < nb_filtergraphs; i++)
1224             if (ist_in_filtergraph(filtergraphs[i], ist) &&
1225                 configure_filtergraph(filtergraphs[i]) < 0) {
1226                 av_log(NULL, AV_LOG_FATAL, "Error reinitializing filters!\n");
1227                 exit_program(1);
1228             }
1229     }
1230
1231     if (decoded_frame->pts != AV_NOPTS_VALUE)
1232         decoded_frame->pts = av_rescale_q(decoded_frame->pts,
1233                                           ist->st->time_base,
1234                                           (AVRational){1, ist->st->codec->sample_rate});
1235     for (i = 0; i < ist->nb_filters; i++) {
1236         if (i < ist->nb_filters - 1) {
1237             f = ist->filter_frame;
1238             err = av_frame_ref(f, decoded_frame);
1239             if (err < 0)
1240                 break;
1241         } else
1242             f = decoded_frame;
1243
1244         err = av_buffersrc_add_frame(ist->filters[i]->filter, f);
1245         if (err < 0)
1246             break;
1247     }
1248
1249     av_frame_unref(ist->filter_frame);
1250     av_frame_unref(decoded_frame);
1251     return err < 0 ? err : ret;
1252 }
1253
1254 static int decode_video(InputStream *ist, AVPacket *pkt, int *got_output)
1255 {
1256     AVFrame *decoded_frame, *f;
1257     int i, ret = 0, err = 0, resample_changed;
1258
1259     if (!ist->decoded_frame && !(ist->decoded_frame = av_frame_alloc()))
1260         return AVERROR(ENOMEM);
1261     if (!ist->filter_frame && !(ist->filter_frame = av_frame_alloc()))
1262         return AVERROR(ENOMEM);
1263     decoded_frame = ist->decoded_frame;
1264
1265     ret = avcodec_decode_video2(ist->st->codec,
1266                                 decoded_frame, got_output, pkt);
1267     if (!*got_output || ret < 0) {
1268         if (!pkt->size) {
1269             for (i = 0; i < ist->nb_filters; i++)
1270                 av_buffersrc_add_frame(ist->filters[i]->filter, NULL);
1271         }
1272         return ret;
1273     }
1274
1275     ist->frames_decoded++;
1276
1277     if (ist->hwaccel_retrieve_data && decoded_frame->format == ist->hwaccel_pix_fmt) {
1278         err = ist->hwaccel_retrieve_data(ist->st->codec, decoded_frame);
1279         if (err < 0)
1280             goto fail;
1281     }
1282     ist->hwaccel_retrieved_pix_fmt = decoded_frame->format;
1283
1284     decoded_frame->pts = guess_correct_pts(&ist->pts_ctx, decoded_frame->pkt_pts,
1285                                            decoded_frame->pkt_dts);
1286     pkt->size = 0;
1287
1288     if (ist->st->sample_aspect_ratio.num)
1289         decoded_frame->sample_aspect_ratio = ist->st->sample_aspect_ratio;
1290
1291     resample_changed = ist->resample_width   != decoded_frame->width  ||
1292                        ist->resample_height  != decoded_frame->height ||
1293                        ist->resample_pix_fmt != decoded_frame->format;
1294     if (resample_changed) {
1295         av_log(NULL, AV_LOG_INFO,
1296                "Input stream #%d:%d frame changed from size:%dx%d fmt:%s to size:%dx%d fmt:%s\n",
1297                ist->file_index, ist->st->index,
1298                ist->resample_width,  ist->resample_height,  av_get_pix_fmt_name(ist->resample_pix_fmt),
1299                decoded_frame->width, decoded_frame->height, av_get_pix_fmt_name(decoded_frame->format));
1300
1301         ret = poll_filters();
1302         if (ret < 0 && (ret != AVERROR_EOF && ret != AVERROR(EAGAIN)))
1303             av_log(NULL, AV_LOG_ERROR, "Error while filtering.\n");
1304
1305         ist->resample_width   = decoded_frame->width;
1306         ist->resample_height  = decoded_frame->height;
1307         ist->resample_pix_fmt = decoded_frame->format;
1308
1309         for (i = 0; i < nb_filtergraphs; i++)
1310             if (ist_in_filtergraph(filtergraphs[i], ist) &&
1311                 configure_filtergraph(filtergraphs[i]) < 0) {
1312                 av_log(NULL, AV_LOG_FATAL, "Error reinitializing filters!\n");
1313                 exit_program(1);
1314             }
1315     }
1316
1317     for (i = 0; i < ist->nb_filters; i++) {
1318         if (i < ist->nb_filters - 1) {
1319             f = ist->filter_frame;
1320             err = av_frame_ref(f, decoded_frame);
1321             if (err < 0)
1322                 break;
1323         } else
1324             f = decoded_frame;
1325
1326         err = av_buffersrc_add_frame(ist->filters[i]->filter, f);
1327         if (err < 0)
1328             break;
1329     }
1330
1331 fail:
1332     av_frame_unref(ist->filter_frame);
1333     av_frame_unref(decoded_frame);
1334     return err < 0 ? err : ret;
1335 }
1336
1337 static int transcode_subtitles(InputStream *ist, AVPacket *pkt, int *got_output)
1338 {
1339     AVSubtitle subtitle;
1340     int i, ret = avcodec_decode_subtitle2(ist->st->codec,
1341                                           &subtitle, got_output, pkt);
1342     if (ret < 0)
1343         return ret;
1344     if (!*got_output)
1345         return ret;
1346
1347     ist->frames_decoded++;
1348
1349     for (i = 0; i < nb_output_streams; i++) {
1350         OutputStream *ost = output_streams[i];
1351
1352         if (!check_output_constraints(ist, ost) || !ost->encoding_needed)
1353             continue;
1354
1355         do_subtitle_out(output_files[ost->file_index]->ctx, ost, ist, &subtitle, pkt->pts);
1356     }
1357
1358     avsubtitle_free(&subtitle);
1359     return ret;
1360 }
1361
1362 /* pkt = NULL means EOF (needed to flush decoder buffers) */
1363 static int output_packet(InputStream *ist, const AVPacket *pkt)
1364 {
1365     int i;
1366     int got_output;
1367     AVPacket avpkt;
1368
1369     if (ist->next_dts == AV_NOPTS_VALUE)
1370         ist->next_dts = ist->last_dts;
1371
1372     if (pkt == NULL) {
1373         /* EOF handling */
1374         av_init_packet(&avpkt);
1375         avpkt.data = NULL;
1376         avpkt.size = 0;
1377         goto handle_eof;
1378     } else {
1379         avpkt = *pkt;
1380     }
1381
1382     if (pkt->dts != AV_NOPTS_VALUE)
1383         ist->next_dts = ist->last_dts = av_rescale_q(pkt->dts, ist->st->time_base, AV_TIME_BASE_Q);
1384
1385     // while we have more to decode or while the decoder did output something on EOF
1386     while (ist->decoding_needed && (avpkt.size > 0 || (!pkt && got_output))) {
1387         int ret = 0;
1388     handle_eof:
1389
1390         ist->last_dts = ist->next_dts;
1391
1392         if (avpkt.size && avpkt.size != pkt->size &&
1393             !(ist->dec->capabilities & CODEC_CAP_SUBFRAMES)) {
1394             av_log(NULL, ist->showed_multi_packet_warning ? AV_LOG_VERBOSE : AV_LOG_WARNING,
1395                    "Multiple frames in a packet from stream %d\n", pkt->stream_index);
1396             ist->showed_multi_packet_warning = 1;
1397         }
1398
1399         switch (ist->st->codec->codec_type) {
1400         case AVMEDIA_TYPE_AUDIO:
1401             ret = decode_audio    (ist, &avpkt, &got_output);
1402             break;
1403         case AVMEDIA_TYPE_VIDEO:
1404             ret = decode_video    (ist, &avpkt, &got_output);
1405             if (avpkt.duration)
1406                 ist->next_dts += av_rescale_q(avpkt.duration, ist->st->time_base, AV_TIME_BASE_Q);
1407             else if (ist->st->avg_frame_rate.num)
1408                 ist->next_dts += av_rescale_q(1, av_inv_q(ist->st->avg_frame_rate),
1409                                               AV_TIME_BASE_Q);
1410             else if (ist->st->codec->time_base.num != 0) {
1411                 int ticks      = ist->st->parser ? ist->st->parser->repeat_pict + 1 :
1412                                                    ist->st->codec->ticks_per_frame;
1413                 ist->next_dts += av_rescale_q(ticks, ist->st->codec->time_base, AV_TIME_BASE_Q);
1414             }
1415             break;
1416         case AVMEDIA_TYPE_SUBTITLE:
1417             ret = transcode_subtitles(ist, &avpkt, &got_output);
1418             break;
1419         default:
1420             return -1;
1421         }
1422
1423         if (ret < 0)
1424             return ret;
1425         // touch data and size only if not EOF
1426         if (pkt) {
1427             avpkt.data += ret;
1428             avpkt.size -= ret;
1429         }
1430         if (!got_output) {
1431             continue;
1432         }
1433     }
1434
1435     /* handle stream copy */
1436     if (!ist->decoding_needed) {
1437         ist->last_dts = ist->next_dts;
1438         switch (ist->st->codec->codec_type) {
1439         case AVMEDIA_TYPE_AUDIO:
1440             ist->next_dts += ((int64_t)AV_TIME_BASE * ist->st->codec->frame_size) /
1441                              ist->st->codec->sample_rate;
1442             break;
1443         case AVMEDIA_TYPE_VIDEO:
1444             if (ist->st->codec->time_base.num != 0) {
1445                 int ticks = ist->st->parser ? ist->st->parser->repeat_pict + 1 : ist->st->codec->ticks_per_frame;
1446                 ist->next_dts += ((int64_t)AV_TIME_BASE *
1447                                   ist->st->codec->time_base.num * ticks) /
1448                                   ist->st->codec->time_base.den;
1449             }
1450             break;
1451         }
1452     }
1453     for (i = 0; pkt && i < nb_output_streams; i++) {
1454         OutputStream *ost = output_streams[i];
1455
1456         if (!check_output_constraints(ist, ost) || ost->encoding_needed)
1457             continue;
1458
1459         do_streamcopy(ist, ost, pkt);
1460     }
1461
1462     return 0;
1463 }
1464
1465 static void print_sdp(void)
1466 {
1467     char sdp[16384];
1468     int i;
1469     AVFormatContext **avc = av_malloc(sizeof(*avc) * nb_output_files);
1470
1471     if (!avc)
1472         exit_program(1);
1473     for (i = 0; i < nb_output_files; i++)
1474         avc[i] = output_files[i]->ctx;
1475
1476     av_sdp_create(avc, nb_output_files, sdp, sizeof(sdp));
1477     printf("SDP:\n%s\n", sdp);
1478     fflush(stdout);
1479     av_freep(&avc);
1480 }
1481
1482 static const HWAccel *get_hwaccel(enum AVPixelFormat pix_fmt)
1483 {
1484     int i;
1485     for (i = 0; hwaccels[i].name; i++)
1486         if (hwaccels[i].pix_fmt == pix_fmt)
1487             return &hwaccels[i];
1488     return NULL;
1489 }
1490
1491 static enum AVPixelFormat get_format(AVCodecContext *s, const enum AVPixelFormat *pix_fmts)
1492 {
1493     InputStream *ist = s->opaque;
1494     const enum AVPixelFormat *p;
1495     int ret;
1496
1497     for (p = pix_fmts; *p != -1; p++) {
1498         const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(*p);
1499         const HWAccel *hwaccel;
1500
1501         if (!(desc->flags & AV_PIX_FMT_FLAG_HWACCEL))
1502             break;
1503
1504         hwaccel = get_hwaccel(*p);
1505         if (!hwaccel ||
1506             (ist->active_hwaccel_id && ist->active_hwaccel_id != hwaccel->id) ||
1507             (ist->hwaccel_id != HWACCEL_AUTO && ist->hwaccel_id != hwaccel->id))
1508             continue;
1509
1510         ret = hwaccel->init(s);
1511         if (ret < 0) {
1512             if (ist->hwaccel_id == hwaccel->id) {
1513                 av_log(NULL, AV_LOG_FATAL,
1514                        "%s hwaccel requested for input stream #%d:%d, "
1515                        "but cannot be initialized.\n", hwaccel->name,
1516                        ist->file_index, ist->st->index);
1517                 exit_program(1);
1518             }
1519             continue;
1520         }
1521         ist->active_hwaccel_id = hwaccel->id;
1522         ist->hwaccel_pix_fmt   = *p;
1523         break;
1524     }
1525
1526     return *p;
1527 }
1528
1529 static int get_buffer(AVCodecContext *s, AVFrame *frame, int flags)
1530 {
1531     InputStream *ist = s->opaque;
1532
1533     if (ist->hwaccel_get_buffer && frame->format == ist->hwaccel_pix_fmt)
1534         return ist->hwaccel_get_buffer(s, frame, flags);
1535
1536     return avcodec_default_get_buffer2(s, frame, flags);
1537 }
1538
1539 static int init_input_stream(int ist_index, char *error, int error_len)
1540 {
1541     int i, ret;
1542     InputStream *ist = input_streams[ist_index];
1543     if (ist->decoding_needed) {
1544         AVCodec *codec = ist->dec;
1545         if (!codec) {
1546             snprintf(error, error_len, "Decoder (codec id %d) not found for input stream #%d:%d",
1547                     ist->st->codec->codec_id, ist->file_index, ist->st->index);
1548             return AVERROR(EINVAL);
1549         }
1550
1551         /* update requested sample format for the decoder based on the
1552            corresponding encoder sample format */
1553         for (i = 0; i < nb_output_streams; i++) {
1554             OutputStream *ost = output_streams[i];
1555             if (ost->source_index == ist_index) {
1556                 update_sample_fmt(ist->st->codec, codec, ost->st->codec);
1557                 break;
1558             }
1559         }
1560
1561         ist->st->codec->opaque      = ist;
1562         ist->st->codec->get_format  = get_format;
1563         ist->st->codec->get_buffer2 = get_buffer;
1564         ist->st->codec->thread_safe_callbacks = 1;
1565
1566         av_opt_set_int(ist->st->codec, "refcounted_frames", 1, 0);
1567
1568         if (!av_dict_get(ist->decoder_opts, "threads", NULL, 0))
1569             av_dict_set(&ist->decoder_opts, "threads", "auto", 0);
1570         if ((ret = avcodec_open2(ist->st->codec, codec, &ist->decoder_opts)) < 0) {
1571             char errbuf[128];
1572             if (ret == AVERROR_EXPERIMENTAL)
1573                 abort_codec_experimental(codec, 0);
1574
1575             av_strerror(ret, errbuf, sizeof(errbuf));
1576
1577             snprintf(error, error_len,
1578                      "Error while opening decoder for input stream "
1579                      "#%d:%d : %s",
1580                      ist->file_index, ist->st->index, errbuf);
1581             return ret;
1582         }
1583         assert_avoptions(ist->decoder_opts);
1584     }
1585
1586     ist->last_dts = ist->st->avg_frame_rate.num ? - ist->st->codec->has_b_frames * AV_TIME_BASE / av_q2d(ist->st->avg_frame_rate) : 0;
1587     ist->next_dts = AV_NOPTS_VALUE;
1588     init_pts_correction(&ist->pts_ctx);
1589
1590     return 0;
1591 }
1592
1593 static InputStream *get_input_stream(OutputStream *ost)
1594 {
1595     if (ost->source_index >= 0)
1596         return input_streams[ost->source_index];
1597
1598     if (ost->filter) {
1599         FilterGraph *fg = ost->filter->graph;
1600         int i;
1601
1602         for (i = 0; i < fg->nb_inputs; i++)
1603             if (fg->inputs[i]->ist->st->codec->codec_type == ost->st->codec->codec_type)
1604                 return fg->inputs[i]->ist;
1605     }
1606
1607     return NULL;
1608 }
1609
1610 static void parse_forced_key_frames(char *kf, OutputStream *ost,
1611                                     AVCodecContext *avctx)
1612 {
1613     char *p;
1614     int n = 1, i;
1615     int64_t t;
1616
1617     for (p = kf; *p; p++)
1618         if (*p == ',')
1619             n++;
1620     ost->forced_kf_count = n;
1621     ost->forced_kf_pts   = av_malloc(sizeof(*ost->forced_kf_pts) * n);
1622     if (!ost->forced_kf_pts) {
1623         av_log(NULL, AV_LOG_FATAL, "Could not allocate forced key frames array.\n");
1624         exit_program(1);
1625     }
1626
1627     p = kf;
1628     for (i = 0; i < n; i++) {
1629         char *next = strchr(p, ',');
1630
1631         if (next)
1632             *next++ = 0;
1633
1634         t = parse_time_or_die("force_key_frames", p, 1);
1635         ost->forced_kf_pts[i] = av_rescale_q(t, AV_TIME_BASE_Q, avctx->time_base);
1636
1637         p = next;
1638     }
1639 }
1640
1641 static int transcode_init(void)
1642 {
1643     int ret = 0, i, j, k;
1644     AVFormatContext *oc;
1645     OutputStream *ost;
1646     InputStream *ist;
1647     char error[1024];
1648     int want_sdp = 1;
1649
1650     /* init framerate emulation */
1651     for (i = 0; i < nb_input_files; i++) {
1652         InputFile *ifile = input_files[i];
1653         if (ifile->rate_emu)
1654             for (j = 0; j < ifile->nb_streams; j++)
1655                 input_streams[j + ifile->ist_index]->start = av_gettime();
1656     }
1657
1658     /* output stream init */
1659     for (i = 0; i < nb_output_files; i++) {
1660         oc = output_files[i]->ctx;
1661         if (!oc->nb_streams && !(oc->oformat->flags & AVFMT_NOSTREAMS)) {
1662             av_dump_format(oc, i, oc->filename, 1);
1663             av_log(NULL, AV_LOG_ERROR, "Output file #%d does not contain any stream\n", i);
1664             return AVERROR(EINVAL);
1665         }
1666     }
1667
1668     /* init complex filtergraphs */
1669     for (i = 0; i < nb_filtergraphs; i++)
1670         if ((ret = avfilter_graph_config(filtergraphs[i]->graph, NULL)) < 0)
1671             return ret;
1672
1673     /* for each output stream, we compute the right encoding parameters */
1674     for (i = 0; i < nb_output_streams; i++) {
1675         AVCodecContext *enc_ctx;
1676         AVCodecContext *dec_ctx = NULL;
1677         ost = output_streams[i];
1678         oc  = output_files[ost->file_index]->ctx;
1679         ist = get_input_stream(ost);
1680
1681         if (ost->attachment_filename)
1682             continue;
1683
1684         enc_ctx = ost->st->codec;
1685
1686         if (ist) {
1687             dec_ctx = ist->st->codec;
1688
1689             ost->st->disposition          = ist->st->disposition;
1690             enc_ctx->bits_per_raw_sample    = dec_ctx->bits_per_raw_sample;
1691             enc_ctx->chroma_sample_location = dec_ctx->chroma_sample_location;
1692         }
1693
1694         if (ost->stream_copy) {
1695             AVRational sar;
1696             uint64_t extra_size;
1697
1698             av_assert0(ist && !ost->filter);
1699
1700             extra_size = (uint64_t)dec_ctx->extradata_size + FF_INPUT_BUFFER_PADDING_SIZE;
1701
1702             if (extra_size > INT_MAX) {
1703                 return AVERROR(EINVAL);
1704             }
1705
1706             /* if stream_copy is selected, no need to decode or encode */
1707             enc_ctx->codec_id   = dec_ctx->codec_id;
1708             enc_ctx->codec_type = dec_ctx->codec_type;
1709
1710             if (!enc_ctx->codec_tag) {
1711                 if (!oc->oformat->codec_tag ||
1712                      av_codec_get_id (oc->oformat->codec_tag, dec_ctx->codec_tag) == enc_ctx->codec_id ||
1713                      av_codec_get_tag(oc->oformat->codec_tag, dec_ctx->codec_id) <= 0)
1714                     enc_ctx->codec_tag = dec_ctx->codec_tag;
1715             }
1716
1717             enc_ctx->bit_rate       = dec_ctx->bit_rate;
1718             enc_ctx->rc_max_rate    = dec_ctx->rc_max_rate;
1719             enc_ctx->rc_buffer_size = dec_ctx->rc_buffer_size;
1720             enc_ctx->field_order    = dec_ctx->field_order;
1721             enc_ctx->extradata      = av_mallocz(extra_size);
1722             if (!enc_ctx->extradata) {
1723                 return AVERROR(ENOMEM);
1724             }
1725             memcpy(enc_ctx->extradata, dec_ctx->extradata, dec_ctx->extradata_size);
1726             enc_ctx->extradata_size = dec_ctx->extradata_size;
1727             if (!copy_tb) {
1728                 enc_ctx->time_base      = dec_ctx->time_base;
1729                 enc_ctx->time_base.num *= dec_ctx->ticks_per_frame;
1730                 av_reduce(&enc_ctx->time_base.num, &enc_ctx->time_base.den,
1731                           enc_ctx->time_base.num, enc_ctx->time_base.den, INT_MAX);
1732             } else
1733                 enc_ctx->time_base = ist->st->time_base;
1734
1735             ost->parser = av_parser_init(enc_ctx->codec_id);
1736
1737             switch (enc_ctx->codec_type) {
1738             case AVMEDIA_TYPE_AUDIO:
1739                 if (audio_volume != 256) {
1740                     av_log(NULL, AV_LOG_FATAL, "-acodec copy and -vol are incompatible (frames are not decoded)\n");
1741                     exit_program(1);
1742                 }
1743                 enc_ctx->channel_layout     = dec_ctx->channel_layout;
1744                 enc_ctx->sample_rate        = dec_ctx->sample_rate;
1745                 enc_ctx->channels           = dec_ctx->channels;
1746                 enc_ctx->frame_size         = dec_ctx->frame_size;
1747                 enc_ctx->audio_service_type = dec_ctx->audio_service_type;
1748                 enc_ctx->block_align        = dec_ctx->block_align;
1749                 break;
1750             case AVMEDIA_TYPE_VIDEO:
1751                 enc_ctx->pix_fmt            = dec_ctx->pix_fmt;
1752                 enc_ctx->width              = dec_ctx->width;
1753                 enc_ctx->height             = dec_ctx->height;
1754                 enc_ctx->has_b_frames       = dec_ctx->has_b_frames;
1755                 if (ost->frame_aspect_ratio)
1756                     sar = av_d2q(ost->frame_aspect_ratio * enc_ctx->height / enc_ctx->width, 255);
1757                 else if (ist->st->sample_aspect_ratio.num)
1758                     sar = ist->st->sample_aspect_ratio;
1759                 else
1760                     sar = dec_ctx->sample_aspect_ratio;
1761                 ost->st->sample_aspect_ratio = enc_ctx->sample_aspect_ratio = sar;
1762                 break;
1763             case AVMEDIA_TYPE_SUBTITLE:
1764                 enc_ctx->width  = dec_ctx->width;
1765                 enc_ctx->height = dec_ctx->height;
1766                 break;
1767             case AVMEDIA_TYPE_DATA:
1768             case AVMEDIA_TYPE_ATTACHMENT:
1769                 break;
1770             default:
1771                 abort();
1772             }
1773         } else {
1774             if (!ost->enc) {
1775                 /* should only happen when a default codec is not present. */
1776                 snprintf(error, sizeof(error), "Automatic encoder selection "
1777                          "failed for output stream #%d:%d. Default encoder for "
1778                          "format %s is probably disabled. Please choose an "
1779                          "encoder manually.\n", ost->file_index, ost->index,
1780                          oc->oformat->name);
1781                 ret = AVERROR(EINVAL);
1782                 goto dump_format;
1783             }
1784
1785             if (ist)
1786                 ist->decoding_needed = 1;
1787             ost->encoding_needed = 1;
1788
1789             /*
1790              * We want CFR output if and only if one of those is true:
1791              * 1) user specified output framerate with -r
1792              * 2) user specified -vsync cfr
1793              * 3) output format is CFR and the user didn't force vsync to
1794              *    something else than CFR
1795              *
1796              * in such a case, set ost->frame_rate
1797              */
1798             if (enc_ctx->codec_type == AVMEDIA_TYPE_VIDEO &&
1799                 !ost->frame_rate.num && ist &&
1800                 (video_sync_method ==  VSYNC_CFR ||
1801                  (video_sync_method ==  VSYNC_AUTO &&
1802                   !(oc->oformat->flags & (AVFMT_NOTIMESTAMPS | AVFMT_VARIABLE_FPS))))) {
1803                 if (ist->framerate.num)
1804                     ost->frame_rate = ist->framerate;
1805                 else if (ist->st->avg_frame_rate.num)
1806                     ost->frame_rate = ist->st->avg_frame_rate;
1807                 else {
1808                     av_log(NULL, AV_LOG_WARNING, "Constant framerate requested "
1809                            "for the output stream #%d:%d, but no information "
1810                            "about the input framerate is available. Falling "
1811                            "back to a default value of 25fps. Use the -r option "
1812                            "if you want a different framerate.\n",
1813                            ost->file_index, ost->index);
1814                     ost->frame_rate = (AVRational){ 25, 1 };
1815                 }
1816
1817                 if (ost->enc && ost->enc->supported_framerates && !ost->force_fps) {
1818                     int idx = av_find_nearest_q_idx(ost->frame_rate, ost->enc->supported_framerates);
1819                     ost->frame_rate = ost->enc->supported_framerates[idx];
1820                 }
1821             }
1822
1823             if (!ost->filter &&
1824                 (enc_ctx->codec_type == AVMEDIA_TYPE_VIDEO ||
1825                  enc_ctx->codec_type == AVMEDIA_TYPE_AUDIO)) {
1826                     FilterGraph *fg;
1827                     fg = init_simple_filtergraph(ist, ost);
1828                     if (configure_filtergraph(fg)) {
1829                         av_log(NULL, AV_LOG_FATAL, "Error opening filters!\n");
1830                         exit_program(1);
1831                     }
1832             }
1833
1834             switch (enc_ctx->codec_type) {
1835             case AVMEDIA_TYPE_AUDIO:
1836                 enc_ctx->sample_fmt     = ost->filter->filter->inputs[0]->format;
1837                 enc_ctx->sample_rate    = ost->filter->filter->inputs[0]->sample_rate;
1838                 enc_ctx->channel_layout = ost->filter->filter->inputs[0]->channel_layout;
1839                 enc_ctx->channels       = av_get_channel_layout_nb_channels(enc_ctx->channel_layout);
1840                 enc_ctx->time_base      = (AVRational){ 1, enc_ctx->sample_rate };
1841                 break;
1842             case AVMEDIA_TYPE_VIDEO:
1843                 enc_ctx->time_base = ost->filter->filter->inputs[0]->time_base;
1844
1845                 enc_ctx->width  = ost->filter->filter->inputs[0]->w;
1846                 enc_ctx->height = ost->filter->filter->inputs[0]->h;
1847                 enc_ctx->sample_aspect_ratio = ost->st->sample_aspect_ratio =
1848                     ost->frame_aspect_ratio ? // overridden by the -aspect cli option
1849                     av_d2q(ost->frame_aspect_ratio * enc_ctx->height/enc_ctx->width, 255) :
1850                     ost->filter->filter->inputs[0]->sample_aspect_ratio;
1851                 enc_ctx->pix_fmt = ost->filter->filter->inputs[0]->format;
1852
1853                 if (dec_ctx &&
1854                     (enc_ctx->width   != dec_ctx->width  ||
1855                      enc_ctx->height  != dec_ctx->height ||
1856                      enc_ctx->pix_fmt != dec_ctx->pix_fmt)) {
1857                     enc_ctx->bits_per_raw_sample = 0;
1858                 }
1859
1860                 if (ost->forced_keyframes)
1861                     parse_forced_key_frames(ost->forced_keyframes, ost,
1862                                             ost->st->codec);
1863                 break;
1864             case AVMEDIA_TYPE_SUBTITLE:
1865                 enc_ctx->time_base = (AVRational){1, 1000};
1866                 break;
1867             default:
1868                 abort();
1869                 break;
1870             }
1871             /* two pass mode */
1872             if ((enc_ctx->flags & (CODEC_FLAG_PASS1 | CODEC_FLAG_PASS2))) {
1873                 char logfilename[1024];
1874                 FILE *f;
1875
1876                 snprintf(logfilename, sizeof(logfilename), "%s-%d.log",
1877                          ost->logfile_prefix ? ost->logfile_prefix :
1878                                                DEFAULT_PASS_LOGFILENAME_PREFIX,
1879                          i);
1880                 if (!strcmp(ost->enc->name, "libx264")) {
1881                     av_dict_set(&ost->encoder_opts, "stats", logfilename, AV_DICT_DONT_OVERWRITE);
1882                 } else {
1883                     if (enc_ctx->flags & CODEC_FLAG_PASS1) {
1884                         f = fopen(logfilename, "wb");
1885                         if (!f) {
1886                             av_log(NULL, AV_LOG_FATAL, "Cannot write log file '%s' for pass-1 encoding: %s\n",
1887                                    logfilename, strerror(errno));
1888                             exit_program(1);
1889                         }
1890                         ost->logfile = f;
1891                     } else {
1892                         char  *logbuffer;
1893                         size_t logbuffer_size;
1894                         if (cmdutils_read_file(logfilename, &logbuffer, &logbuffer_size) < 0) {
1895                             av_log(NULL, AV_LOG_FATAL, "Error reading log file '%s' for pass-2 encoding\n",
1896                                    logfilename);
1897                             exit_program(1);
1898                         }
1899                         enc_ctx->stats_in = logbuffer;
1900                     }
1901                 }
1902             }
1903         }
1904     }
1905
1906     /* open each encoder */
1907     for (i = 0; i < nb_output_streams; i++) {
1908         ost = output_streams[i];
1909         if (ost->encoding_needed) {
1910             AVCodec      *codec = ost->enc;
1911             AVCodecContext *dec = NULL;
1912
1913             if ((ist = get_input_stream(ost)))
1914                 dec = ist->st->codec;
1915             if (dec && dec->subtitle_header) {
1916                 ost->st->codec->subtitle_header = av_malloc(dec->subtitle_header_size);
1917                 if (!ost->st->codec->subtitle_header) {
1918                     ret = AVERROR(ENOMEM);
1919                     goto dump_format;
1920                 }
1921                 memcpy(ost->st->codec->subtitle_header, dec->subtitle_header, dec->subtitle_header_size);
1922                 ost->st->codec->subtitle_header_size = dec->subtitle_header_size;
1923             }
1924             if (!av_dict_get(ost->encoder_opts, "threads", NULL, 0))
1925                 av_dict_set(&ost->encoder_opts, "threads", "auto", 0);
1926             if ((ret = avcodec_open2(ost->st->codec, codec, &ost->encoder_opts)) < 0) {
1927                 if (ret == AVERROR_EXPERIMENTAL)
1928                     abort_codec_experimental(codec, 1);
1929                 snprintf(error, sizeof(error), "Error while opening encoder for output stream #%d:%d - maybe incorrect parameters such as bit_rate, rate, width or height",
1930                         ost->file_index, ost->index);
1931                 goto dump_format;
1932             }
1933             assert_avoptions(ost->encoder_opts);
1934             if (ost->st->codec->bit_rate && ost->st->codec->bit_rate < 1000)
1935                 av_log(NULL, AV_LOG_WARNING, "The bitrate parameter is set too low."
1936                                              "It takes bits/s as argument, not kbits/s\n");
1937         } else {
1938             av_opt_set_dict(ost->st->codec, &ost->encoder_opts);
1939         }
1940     }
1941
1942     /* init input streams */
1943     for (i = 0; i < nb_input_streams; i++)
1944         if ((ret = init_input_stream(i, error, sizeof(error))) < 0)
1945             goto dump_format;
1946
1947     /* discard unused programs */
1948     for (i = 0; i < nb_input_files; i++) {
1949         InputFile *ifile = input_files[i];
1950         for (j = 0; j < ifile->ctx->nb_programs; j++) {
1951             AVProgram *p = ifile->ctx->programs[j];
1952             int discard  = AVDISCARD_ALL;
1953
1954             for (k = 0; k < p->nb_stream_indexes; k++)
1955                 if (!input_streams[ifile->ist_index + p->stream_index[k]]->discard) {
1956                     discard = AVDISCARD_DEFAULT;
1957                     break;
1958                 }
1959             p->discard = discard;
1960         }
1961     }
1962
1963     /* open files and write file headers */
1964     for (i = 0; i < nb_output_files; i++) {
1965         oc = output_files[i]->ctx;
1966         oc->interrupt_callback = int_cb;
1967         if ((ret = avformat_write_header(oc, &output_files[i]->opts)) < 0) {
1968             char errbuf[128];
1969             av_strerror(ret, errbuf, sizeof(errbuf));
1970             snprintf(error, sizeof(error),
1971                      "Could not write header for output file #%d "
1972                      "(incorrect codec parameters ?): %s",
1973                      i, errbuf);
1974             ret = AVERROR(EINVAL);
1975             goto dump_format;
1976         }
1977         assert_avoptions(output_files[i]->opts);
1978         if (strcmp(oc->oformat->name, "rtp")) {
1979             want_sdp = 0;
1980         }
1981     }
1982
1983  dump_format:
1984     /* dump the file output parameters - cannot be done before in case
1985        of stream copy */
1986     for (i = 0; i < nb_output_files; i++) {
1987         av_dump_format(output_files[i]->ctx, i, output_files[i]->ctx->filename, 1);
1988     }
1989
1990     /* dump the stream mapping */
1991     av_log(NULL, AV_LOG_INFO, "Stream mapping:\n");
1992     for (i = 0; i < nb_input_streams; i++) {
1993         ist = input_streams[i];
1994
1995         for (j = 0; j < ist->nb_filters; j++) {
1996             if (ist->filters[j]->graph->graph_desc) {
1997                 av_log(NULL, AV_LOG_INFO, "  Stream #%d:%d (%s) -> %s",
1998                        ist->file_index, ist->st->index, ist->dec ? ist->dec->name : "?",
1999                        ist->filters[j]->name);
2000                 if (nb_filtergraphs > 1)
2001                     av_log(NULL, AV_LOG_INFO, " (graph %d)", ist->filters[j]->graph->index);
2002                 av_log(NULL, AV_LOG_INFO, "\n");
2003             }
2004         }
2005     }
2006
2007     for (i = 0; i < nb_output_streams; i++) {
2008         ost = output_streams[i];
2009
2010         if (ost->attachment_filename) {
2011             /* an attached file */
2012             av_log(NULL, AV_LOG_INFO, "  File %s -> Stream #%d:%d\n",
2013                    ost->attachment_filename, ost->file_index, ost->index);
2014             continue;
2015         }
2016
2017         if (ost->filter && ost->filter->graph->graph_desc) {
2018             /* output from a complex graph */
2019             av_log(NULL, AV_LOG_INFO, "  %s", ost->filter->name);
2020             if (nb_filtergraphs > 1)
2021                 av_log(NULL, AV_LOG_INFO, " (graph %d)", ost->filter->graph->index);
2022
2023             av_log(NULL, AV_LOG_INFO, " -> Stream #%d:%d (%s)\n", ost->file_index,
2024                    ost->index, ost->enc ? ost->enc->name : "?");
2025             continue;
2026         }
2027
2028         av_log(NULL, AV_LOG_INFO, "  Stream #%d:%d -> #%d:%d",
2029                input_streams[ost->source_index]->file_index,
2030                input_streams[ost->source_index]->st->index,
2031                ost->file_index,
2032                ost->index);
2033         if (ost->sync_ist != input_streams[ost->source_index])
2034             av_log(NULL, AV_LOG_INFO, " [sync #%d:%d]",
2035                    ost->sync_ist->file_index,
2036                    ost->sync_ist->st->index);
2037         if (ost->stream_copy)
2038             av_log(NULL, AV_LOG_INFO, " (copy)");
2039         else
2040             av_log(NULL, AV_LOG_INFO, " (%s -> %s)", input_streams[ost->source_index]->dec ?
2041                    input_streams[ost->source_index]->dec->name : "?",
2042                    ost->enc ? ost->enc->name : "?");
2043         av_log(NULL, AV_LOG_INFO, "\n");
2044     }
2045
2046     if (ret) {
2047         av_log(NULL, AV_LOG_ERROR, "%s\n", error);
2048         return ret;
2049     }
2050
2051     if (want_sdp) {
2052         print_sdp();
2053     }
2054
2055     return 0;
2056 }
2057
2058 /* Return 1 if there remain streams where more output is wanted, 0 otherwise. */
2059 static int need_output(void)
2060 {
2061     int i;
2062
2063     for (i = 0; i < nb_output_streams; i++) {
2064         OutputStream *ost    = output_streams[i];
2065         OutputFile *of       = output_files[ost->file_index];
2066         AVFormatContext *os  = output_files[ost->file_index]->ctx;
2067
2068         if (ost->finished ||
2069             (os->pb && avio_tell(os->pb) >= of->limit_filesize))
2070             continue;
2071         if (ost->frame_number >= ost->max_frames) {
2072             int j;
2073             for (j = 0; j < of->ctx->nb_streams; j++)
2074                 output_streams[of->ost_index + j]->finished = 1;
2075             continue;
2076         }
2077
2078         return 1;
2079     }
2080
2081     return 0;
2082 }
2083
2084 static InputFile *select_input_file(void)
2085 {
2086     InputFile *ifile = NULL;
2087     int64_t ipts_min = INT64_MAX;
2088     int i;
2089
2090     for (i = 0; i < nb_input_streams; i++) {
2091         InputStream *ist = input_streams[i];
2092         int64_t ipts     = ist->last_dts;
2093
2094         if (ist->discard || input_files[ist->file_index]->eagain)
2095             continue;
2096         if (!input_files[ist->file_index]->eof_reached) {
2097             if (ipts < ipts_min) {
2098                 ipts_min = ipts;
2099                 ifile    = input_files[ist->file_index];
2100             }
2101         }
2102     }
2103
2104     return ifile;
2105 }
2106
2107 #if HAVE_PTHREADS
2108 static void *input_thread(void *arg)
2109 {
2110     InputFile *f = arg;
2111     int ret = 0;
2112
2113     while (!transcoding_finished && ret >= 0) {
2114         AVPacket pkt;
2115         ret = av_read_frame(f->ctx, &pkt);
2116
2117         if (ret == AVERROR(EAGAIN)) {
2118             av_usleep(10000);
2119             ret = 0;
2120             continue;
2121         } else if (ret < 0)
2122             break;
2123
2124         pthread_mutex_lock(&f->fifo_lock);
2125         while (!av_fifo_space(f->fifo))
2126             pthread_cond_wait(&f->fifo_cond, &f->fifo_lock);
2127
2128         av_dup_packet(&pkt);
2129         av_fifo_generic_write(f->fifo, &pkt, sizeof(pkt), NULL);
2130
2131         pthread_mutex_unlock(&f->fifo_lock);
2132     }
2133
2134     f->finished = 1;
2135     return NULL;
2136 }
2137
2138 static void free_input_threads(void)
2139 {
2140     int i;
2141
2142     if (nb_input_files == 1)
2143         return;
2144
2145     transcoding_finished = 1;
2146
2147     for (i = 0; i < nb_input_files; i++) {
2148         InputFile *f = input_files[i];
2149         AVPacket pkt;
2150
2151         if (!f->fifo || f->joined)
2152             continue;
2153
2154         pthread_mutex_lock(&f->fifo_lock);
2155         while (av_fifo_size(f->fifo)) {
2156             av_fifo_generic_read(f->fifo, &pkt, sizeof(pkt), NULL);
2157             av_free_packet(&pkt);
2158         }
2159         pthread_cond_signal(&f->fifo_cond);
2160         pthread_mutex_unlock(&f->fifo_lock);
2161
2162         pthread_join(f->thread, NULL);
2163         f->joined = 1;
2164
2165         while (av_fifo_size(f->fifo)) {
2166             av_fifo_generic_read(f->fifo, &pkt, sizeof(pkt), NULL);
2167             av_free_packet(&pkt);
2168         }
2169         av_fifo_free(f->fifo);
2170     }
2171 }
2172
2173 static int init_input_threads(void)
2174 {
2175     int i, ret;
2176
2177     if (nb_input_files == 1)
2178         return 0;
2179
2180     for (i = 0; i < nb_input_files; i++) {
2181         InputFile *f = input_files[i];
2182
2183         if (!(f->fifo = av_fifo_alloc(8*sizeof(AVPacket))))
2184             return AVERROR(ENOMEM);
2185
2186         pthread_mutex_init(&f->fifo_lock, NULL);
2187         pthread_cond_init (&f->fifo_cond, NULL);
2188
2189         if ((ret = pthread_create(&f->thread, NULL, input_thread, f)))
2190             return AVERROR(ret);
2191     }
2192     return 0;
2193 }
2194
2195 static int get_input_packet_mt(InputFile *f, AVPacket *pkt)
2196 {
2197     int ret = 0;
2198
2199     pthread_mutex_lock(&f->fifo_lock);
2200
2201     if (av_fifo_size(f->fifo)) {
2202         av_fifo_generic_read(f->fifo, pkt, sizeof(*pkt), NULL);
2203         pthread_cond_signal(&f->fifo_cond);
2204     } else {
2205         if (f->finished)
2206             ret = AVERROR_EOF;
2207         else
2208             ret = AVERROR(EAGAIN);
2209     }
2210
2211     pthread_mutex_unlock(&f->fifo_lock);
2212
2213     return ret;
2214 }
2215 #endif
2216
2217 static int get_input_packet(InputFile *f, AVPacket *pkt)
2218 {
2219     if (f->rate_emu) {
2220         int i;
2221         for (i = 0; i < f->nb_streams; i++) {
2222             InputStream *ist = input_streams[f->ist_index + i];
2223             int64_t pts = av_rescale(ist->last_dts, 1000000, AV_TIME_BASE);
2224             int64_t now = av_gettime() - ist->start;
2225             if (pts > now)
2226                 return AVERROR(EAGAIN);
2227         }
2228     }
2229
2230 #if HAVE_PTHREADS
2231     if (nb_input_files > 1)
2232         return get_input_packet_mt(f, pkt);
2233 #endif
2234     return av_read_frame(f->ctx, pkt);
2235 }
2236
2237 static int got_eagain(void)
2238 {
2239     int i;
2240     for (i = 0; i < nb_input_files; i++)
2241         if (input_files[i]->eagain)
2242             return 1;
2243     return 0;
2244 }
2245
2246 static void reset_eagain(void)
2247 {
2248     int i;
2249     for (i = 0; i < nb_input_files; i++)
2250         input_files[i]->eagain = 0;
2251 }
2252
2253 /*
2254  * Read one packet from an input file and send it for
2255  * - decoding -> lavfi (audio/video)
2256  * - decoding -> encoding -> muxing (subtitles)
2257  * - muxing (streamcopy)
2258  *
2259  * Return
2260  * - 0 -- one packet was read and processed
2261  * - AVERROR(EAGAIN) -- no packets were available for selected file,
2262  *   this function should be called again
2263  * - AVERROR_EOF -- this function should not be called again
2264  */
2265 static int process_input(void)
2266 {
2267     InputFile *ifile;
2268     AVFormatContext *is;
2269     InputStream *ist;
2270     AVPacket pkt;
2271     int ret, i, j;
2272
2273     /* select the stream that we must read now */
2274     ifile = select_input_file();
2275     /* if none, if is finished */
2276     if (!ifile) {
2277         if (got_eagain()) {
2278             reset_eagain();
2279             av_usleep(10000);
2280             return AVERROR(EAGAIN);
2281         }
2282         av_log(NULL, AV_LOG_VERBOSE, "No more inputs to read from.\n");
2283         return AVERROR_EOF;
2284     }
2285
2286     is  = ifile->ctx;
2287     ret = get_input_packet(ifile, &pkt);
2288
2289     if (ret == AVERROR(EAGAIN)) {
2290         ifile->eagain = 1;
2291         return ret;
2292     }
2293     if (ret < 0) {
2294         if (ret != AVERROR_EOF) {
2295             print_error(is->filename, ret);
2296             if (exit_on_error)
2297                 exit_program(1);
2298         }
2299         ifile->eof_reached = 1;
2300
2301         for (i = 0; i < ifile->nb_streams; i++) {
2302             ist = input_streams[ifile->ist_index + i];
2303             if (ist->decoding_needed)
2304                 output_packet(ist, NULL);
2305
2306             /* mark all outputs that don't go through lavfi as finished */
2307             for (j = 0; j < nb_output_streams; j++) {
2308                 OutputStream *ost = output_streams[j];
2309
2310                 if (ost->source_index == ifile->ist_index + i &&
2311                     (ost->stream_copy || ost->enc->type == AVMEDIA_TYPE_SUBTITLE))
2312                     ost->finished= 1;
2313             }
2314         }
2315
2316         return AVERROR(EAGAIN);
2317     }
2318
2319     reset_eagain();
2320
2321     if (do_pkt_dump) {
2322         av_pkt_dump_log2(NULL, AV_LOG_DEBUG, &pkt, do_hex_dump,
2323                          is->streams[pkt.stream_index]);
2324     }
2325     /* the following test is needed in case new streams appear
2326        dynamically in stream : we ignore them */
2327     if (pkt.stream_index >= ifile->nb_streams)
2328         goto discard_packet;
2329
2330     ist = input_streams[ifile->ist_index + pkt.stream_index];
2331
2332     ist->data_size += pkt.size;
2333     ist->nb_packets++;
2334
2335     if (ist->discard)
2336         goto discard_packet;
2337
2338     /* add the stream-global side data to the first packet */
2339     if (ist->nb_packets == 1)
2340         for (i = 0; i < ist->st->nb_side_data; i++) {
2341             AVPacketSideData *src_sd = &ist->st->side_data[i];
2342             uint8_t *dst_data;
2343
2344             if (av_packet_get_side_data(&pkt, src_sd->type, NULL))
2345                 continue;
2346
2347             dst_data = av_packet_new_side_data(&pkt, src_sd->type, src_sd->size);
2348             if (!dst_data)
2349                 exit_program(1);
2350
2351             memcpy(dst_data, src_sd->data, src_sd->size);
2352         }
2353
2354     if (pkt.dts != AV_NOPTS_VALUE)
2355         pkt.dts += av_rescale_q(ifile->ts_offset, AV_TIME_BASE_Q, ist->st->time_base);
2356     if (pkt.pts != AV_NOPTS_VALUE)
2357         pkt.pts += av_rescale_q(ifile->ts_offset, AV_TIME_BASE_Q, ist->st->time_base);
2358
2359     if (pkt.pts != AV_NOPTS_VALUE)
2360         pkt.pts *= ist->ts_scale;
2361     if (pkt.dts != AV_NOPTS_VALUE)
2362         pkt.dts *= ist->ts_scale;
2363
2364     if (pkt.dts != AV_NOPTS_VALUE && ist->next_dts != AV_NOPTS_VALUE &&
2365         (is->iformat->flags & AVFMT_TS_DISCONT)) {
2366         int64_t pkt_dts = av_rescale_q(pkt.dts, ist->st->time_base, AV_TIME_BASE_Q);
2367         int64_t delta   = pkt_dts - ist->next_dts;
2368
2369         if ((FFABS(delta) > 1LL * dts_delta_threshold * AV_TIME_BASE || pkt_dts + 1 < ist->last_dts) && !copy_ts) {
2370             ifile->ts_offset -= delta;
2371             av_log(NULL, AV_LOG_DEBUG,
2372                    "timestamp discontinuity %"PRId64", new offset= %"PRId64"\n",
2373                    delta, ifile->ts_offset);
2374             pkt.dts -= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
2375             if (pkt.pts != AV_NOPTS_VALUE)
2376                 pkt.pts -= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
2377         }
2378     }
2379
2380     ret = output_packet(ist, &pkt);
2381     if (ret < 0) {
2382         av_log(NULL, AV_LOG_ERROR, "Error while decoding stream #%d:%d\n",
2383                ist->file_index, ist->st->index);
2384         if (exit_on_error)
2385             exit_program(1);
2386     }
2387
2388 discard_packet:
2389     av_free_packet(&pkt);
2390
2391     return 0;
2392 }
2393
2394 /*
2395  * The following code is the main loop of the file converter
2396  */
2397 static int transcode(void)
2398 {
2399     int ret, i, need_input = 1;
2400     AVFormatContext *os;
2401     OutputStream *ost;
2402     InputStream *ist;
2403     int64_t timer_start;
2404
2405     ret = transcode_init();
2406     if (ret < 0)
2407         goto fail;
2408
2409     av_log(NULL, AV_LOG_INFO, "Press ctrl-c to stop encoding\n");
2410     term_init();
2411
2412     timer_start = av_gettime();
2413
2414 #if HAVE_PTHREADS
2415     if ((ret = init_input_threads()) < 0)
2416         goto fail;
2417 #endif
2418
2419     while (!received_sigterm) {
2420         /* check if there's any stream where output is still needed */
2421         if (!need_output()) {
2422             av_log(NULL, AV_LOG_VERBOSE, "No more output streams to write to, finishing.\n");
2423             break;
2424         }
2425
2426         /* read and process one input packet if needed */
2427         if (need_input) {
2428             ret = process_input();
2429             if (ret == AVERROR_EOF)
2430                 need_input = 0;
2431         }
2432
2433         ret = poll_filters();
2434         if (ret < 0) {
2435             if (ret == AVERROR_EOF || ret == AVERROR(EAGAIN))
2436                 continue;
2437
2438             av_log(NULL, AV_LOG_ERROR, "Error while filtering.\n");
2439             break;
2440         }
2441
2442         /* dump report by using the output first video and audio streams */
2443         print_report(0, timer_start);
2444     }
2445 #if HAVE_PTHREADS
2446     free_input_threads();
2447 #endif
2448
2449     /* at the end of stream, we must flush the decoder buffers */
2450     for (i = 0; i < nb_input_streams; i++) {
2451         ist = input_streams[i];
2452         if (!input_files[ist->file_index]->eof_reached && ist->decoding_needed) {
2453             output_packet(ist, NULL);
2454         }
2455     }
2456     poll_filters();
2457     flush_encoders();
2458
2459     term_exit();
2460
2461     /* write the trailer if needed and close file */
2462     for (i = 0; i < nb_output_files; i++) {
2463         os = output_files[i]->ctx;
2464         av_write_trailer(os);
2465     }
2466
2467     /* dump report by using the first video and audio streams */
2468     print_report(1, timer_start);
2469
2470     /* close each encoder */
2471     for (i = 0; i < nb_output_streams; i++) {
2472         ost = output_streams[i];
2473         if (ost->encoding_needed) {
2474             av_freep(&ost->st->codec->stats_in);
2475             avcodec_close(ost->st->codec);
2476         }
2477     }
2478
2479     /* close each decoder */
2480     for (i = 0; i < nb_input_streams; i++) {
2481         ist = input_streams[i];
2482         if (ist->decoding_needed) {
2483             avcodec_close(ist->st->codec);
2484             if (ist->hwaccel_uninit)
2485                 ist->hwaccel_uninit(ist->st->codec);
2486         }
2487     }
2488
2489     /* finished ! */
2490     ret = 0;
2491
2492  fail:
2493 #if HAVE_PTHREADS
2494     free_input_threads();
2495 #endif
2496
2497     if (output_streams) {
2498         for (i = 0; i < nb_output_streams; i++) {
2499             ost = output_streams[i];
2500             if (ost) {
2501                 if (ost->stream_copy)
2502                     av_freep(&ost->st->codec->extradata);
2503                 if (ost->logfile) {
2504                     fclose(ost->logfile);
2505                     ost->logfile = NULL;
2506                 }
2507                 av_freep(&ost->st->codec->subtitle_header);
2508                 av_free(ost->forced_kf_pts);
2509                 av_dict_free(&ost->encoder_opts);
2510                 av_dict_free(&ost->resample_opts);
2511             }
2512         }
2513     }
2514     return ret;
2515 }
2516
2517 static int64_t getutime(void)
2518 {
2519 #if HAVE_GETRUSAGE
2520     struct rusage rusage;
2521
2522     getrusage(RUSAGE_SELF, &rusage);
2523     return (rusage.ru_utime.tv_sec * 1000000LL) + rusage.ru_utime.tv_usec;
2524 #elif HAVE_GETPROCESSTIMES
2525     HANDLE proc;
2526     FILETIME c, e, k, u;
2527     proc = GetCurrentProcess();
2528     GetProcessTimes(proc, &c, &e, &k, &u);
2529     return ((int64_t) u.dwHighDateTime << 32 | u.dwLowDateTime) / 10;
2530 #else
2531     return av_gettime();
2532 #endif
2533 }
2534
2535 static int64_t getmaxrss(void)
2536 {
2537 #if HAVE_GETRUSAGE && HAVE_STRUCT_RUSAGE_RU_MAXRSS
2538     struct rusage rusage;
2539     getrusage(RUSAGE_SELF, &rusage);
2540     return (int64_t)rusage.ru_maxrss * 1024;
2541 #elif HAVE_GETPROCESSMEMORYINFO
2542     HANDLE proc;
2543     PROCESS_MEMORY_COUNTERS memcounters;
2544     proc = GetCurrentProcess();
2545     memcounters.cb = sizeof(memcounters);
2546     GetProcessMemoryInfo(proc, &memcounters, sizeof(memcounters));
2547     return memcounters.PeakPagefileUsage;
2548 #else
2549     return 0;
2550 #endif
2551 }
2552
2553 int main(int argc, char **argv)
2554 {
2555     int ret;
2556     int64_t ti;
2557
2558     register_exit(avconv_cleanup);
2559
2560     av_log_set_flags(AV_LOG_SKIP_REPEATED);
2561     parse_loglevel(argc, argv, options);
2562
2563     avcodec_register_all();
2564 #if CONFIG_AVDEVICE
2565     avdevice_register_all();
2566 #endif
2567     avfilter_register_all();
2568     av_register_all();
2569     avformat_network_init();
2570
2571     show_banner();
2572
2573     /* parse options and open all input/output files */
2574     ret = avconv_parse_options(argc, argv);
2575     if (ret < 0)
2576         exit_program(1);
2577
2578     if (nb_output_files <= 0 && nb_input_files == 0) {
2579         show_usage();
2580         av_log(NULL, AV_LOG_WARNING, "Use -h to get full help or, even better, run 'man %s'\n", program_name);
2581         exit_program(1);
2582     }
2583
2584     /* file converter / grab */
2585     if (nb_output_files <= 0) {
2586         fprintf(stderr, "At least one output file must be specified\n");
2587         exit_program(1);
2588     }
2589
2590     ti = getutime();
2591     if (transcode() < 0)
2592         exit_program(1);
2593     ti = getutime() - ti;
2594     if (do_benchmark) {
2595         int maxrss = getmaxrss() / 1024;
2596         printf("bench: utime=%0.3fs maxrss=%ikB\n", ti / 1000000.0, maxrss);
2597     }
2598
2599     exit_program(0);
2600     return 0;
2601 }