]> git.sesse.net Git - ffmpeg/blob - ffmpeg.c
pthread_frame: don't return stale error codes after flush
[ffmpeg] / ffmpeg.c
1 /*
2  * Copyright (c) 2000-2003 Fabrice Bellard
3  *
4  * This file is part of FFmpeg.
5  *
6  * FFmpeg is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * FFmpeg is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with FFmpeg; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 /**
22  * @file
23  * multimedia converter based on the FFmpeg libraries
24  */
25
26 #include "config.h"
27 #include <ctype.h>
28 #include <string.h>
29 #include <math.h>
30 #include <stdlib.h>
31 #include <errno.h>
32 #include <limits.h>
33 #include <stdatomic.h>
34 #include <stdint.h>
35
36 #if HAVE_IO_H
37 #include <io.h>
38 #endif
39 #if HAVE_UNISTD_H
40 #include <unistd.h>
41 #endif
42
43 #include "libavformat/avformat.h"
44 #include "libavdevice/avdevice.h"
45 #include "libswresample/swresample.h"
46 #include "libavutil/opt.h"
47 #include "libavutil/channel_layout.h"
48 #include "libavutil/parseutils.h"
49 #include "libavutil/samplefmt.h"
50 #include "libavutil/fifo.h"
51 #include "libavutil/hwcontext.h"
52 #include "libavutil/internal.h"
53 #include "libavutil/intreadwrite.h"
54 #include "libavutil/dict.h"
55 #include "libavutil/display.h"
56 #include "libavutil/mathematics.h"
57 #include "libavutil/pixdesc.h"
58 #include "libavutil/avstring.h"
59 #include "libavutil/libm.h"
60 #include "libavutil/imgutils.h"
61 #include "libavutil/timestamp.h"
62 #include "libavutil/bprint.h"
63 #include "libavutil/time.h"
64 #include "libavutil/threadmessage.h"
65 #include "libavcodec/mathops.h"
66 #include "libavformat/os_support.h"
67
68 # include "libavfilter/avfilter.h"
69 # include "libavfilter/buffersrc.h"
70 # include "libavfilter/buffersink.h"
71
72 #if HAVE_SYS_RESOURCE_H
73 #include <sys/time.h>
74 #include <sys/types.h>
75 #include <sys/resource.h>
76 #elif HAVE_GETPROCESSTIMES
77 #include <windows.h>
78 #endif
79 #if HAVE_GETPROCESSMEMORYINFO
80 #include <windows.h>
81 #include <psapi.h>
82 #endif
83 #if HAVE_SETCONSOLECTRLHANDLER
84 #include <windows.h>
85 #endif
86
87
88 #if HAVE_SYS_SELECT_H
89 #include <sys/select.h>
90 #endif
91
92 #if HAVE_TERMIOS_H
93 #include <fcntl.h>
94 #include <sys/ioctl.h>
95 #include <sys/time.h>
96 #include <termios.h>
97 #elif HAVE_KBHIT
98 #include <conio.h>
99 #endif
100
101 #if HAVE_PTHREADS
102 #include <pthread.h>
103 #endif
104
105 #include <time.h>
106
107 #include "ffmpeg.h"
108 #include "cmdutils.h"
109
110 #include "libavutil/avassert.h"
111
112 const char program_name[] = "ffmpeg";
113 const int program_birth_year = 2000;
114
115 static FILE *vstats_file;
116
117 const char *const forced_keyframes_const_names[] = {
118     "n",
119     "n_forced",
120     "prev_forced_n",
121     "prev_forced_t",
122     "t",
123     NULL
124 };
125
126 static void do_video_stats(OutputStream *ost, int frame_size);
127 static int64_t getutime(void);
128 static int64_t getmaxrss(void);
129 static int ifilter_has_all_input_formats(FilterGraph *fg);
130
131 static int run_as_daemon  = 0;
132 static int nb_frames_dup = 0;
133 static unsigned dup_warning = 1000;
134 static int nb_frames_drop = 0;
135 static int64_t decode_error_stat[2];
136
137 static int want_sdp = 1;
138
139 static int current_time;
140 AVIOContext *progress_avio = NULL;
141
142 static uint8_t *subtitle_out;
143
144 InputStream **input_streams = NULL;
145 int        nb_input_streams = 0;
146 InputFile   **input_files   = NULL;
147 int        nb_input_files   = 0;
148
149 OutputStream **output_streams = NULL;
150 int         nb_output_streams = 0;
151 OutputFile   **output_files   = NULL;
152 int         nb_output_files   = 0;
153
154 FilterGraph **filtergraphs;
155 int        nb_filtergraphs;
156
157 #if HAVE_TERMIOS_H
158
159 /* init terminal so that we can grab keys */
160 static struct termios oldtty;
161 static int restore_tty;
162 #endif
163
164 #if HAVE_PTHREADS
165 static void free_input_threads(void);
166 #endif
167
168 /* sub2video hack:
169    Convert subtitles to video with alpha to insert them in filter graphs.
170    This is a temporary solution until libavfilter gets real subtitles support.
171  */
172
173 static int sub2video_get_blank_frame(InputStream *ist)
174 {
175     int ret;
176     AVFrame *frame = ist->sub2video.frame;
177
178     av_frame_unref(frame);
179     ist->sub2video.frame->width  = ist->dec_ctx->width  ? ist->dec_ctx->width  : ist->sub2video.w;
180     ist->sub2video.frame->height = ist->dec_ctx->height ? ist->dec_ctx->height : ist->sub2video.h;
181     ist->sub2video.frame->format = AV_PIX_FMT_RGB32;
182     if ((ret = av_frame_get_buffer(frame, 32)) < 0)
183         return ret;
184     memset(frame->data[0], 0, frame->height * frame->linesize[0]);
185     return 0;
186 }
187
188 static void sub2video_copy_rect(uint8_t *dst, int dst_linesize, int w, int h,
189                                 AVSubtitleRect *r)
190 {
191     uint32_t *pal, *dst2;
192     uint8_t *src, *src2;
193     int x, y;
194
195     if (r->type != SUBTITLE_BITMAP) {
196         av_log(NULL, AV_LOG_WARNING, "sub2video: non-bitmap subtitle\n");
197         return;
198     }
199     if (r->x < 0 || r->x + r->w > w || r->y < 0 || r->y + r->h > h) {
200         av_log(NULL, AV_LOG_WARNING, "sub2video: rectangle (%d %d %d %d) overflowing %d %d\n",
201             r->x, r->y, r->w, r->h, w, h
202         );
203         return;
204     }
205
206     dst += r->y * dst_linesize + r->x * 4;
207     src = r->data[0];
208     pal = (uint32_t *)r->data[1];
209     for (y = 0; y < r->h; y++) {
210         dst2 = (uint32_t *)dst;
211         src2 = src;
212         for (x = 0; x < r->w; x++)
213             *(dst2++) = pal[*(src2++)];
214         dst += dst_linesize;
215         src += r->linesize[0];
216     }
217 }
218
219 static void sub2video_push_ref(InputStream *ist, int64_t pts)
220 {
221     AVFrame *frame = ist->sub2video.frame;
222     int i;
223
224     av_assert1(frame->data[0]);
225     ist->sub2video.last_pts = frame->pts = pts;
226     for (i = 0; i < ist->nb_filters; i++)
227         av_buffersrc_add_frame_flags(ist->filters[i]->filter, frame,
228                                      AV_BUFFERSRC_FLAG_KEEP_REF |
229                                      AV_BUFFERSRC_FLAG_PUSH);
230 }
231
232 void sub2video_update(InputStream *ist, AVSubtitle *sub)
233 {
234     AVFrame *frame = ist->sub2video.frame;
235     int8_t *dst;
236     int     dst_linesize;
237     int num_rects, i;
238     int64_t pts, end_pts;
239
240     if (!frame)
241         return;
242     if (sub) {
243         pts       = av_rescale_q(sub->pts + sub->start_display_time * 1000LL,
244                                  AV_TIME_BASE_Q, ist->st->time_base);
245         end_pts   = av_rescale_q(sub->pts + sub->end_display_time   * 1000LL,
246                                  AV_TIME_BASE_Q, ist->st->time_base);
247         num_rects = sub->num_rects;
248     } else {
249         pts       = ist->sub2video.end_pts;
250         end_pts   = INT64_MAX;
251         num_rects = 0;
252     }
253     if (sub2video_get_blank_frame(ist) < 0) {
254         av_log(ist->dec_ctx, AV_LOG_ERROR,
255                "Impossible to get a blank canvas.\n");
256         return;
257     }
258     dst          = frame->data    [0];
259     dst_linesize = frame->linesize[0];
260     for (i = 0; i < num_rects; i++)
261         sub2video_copy_rect(dst, dst_linesize, frame->width, frame->height, sub->rects[i]);
262     sub2video_push_ref(ist, pts);
263     ist->sub2video.end_pts = end_pts;
264 }
265
266 static void sub2video_heartbeat(InputStream *ist, int64_t pts)
267 {
268     InputFile *infile = input_files[ist->file_index];
269     int i, j, nb_reqs;
270     int64_t pts2;
271
272     /* When a frame is read from a file, examine all sub2video streams in
273        the same file and send the sub2video frame again. Otherwise, decoded
274        video frames could be accumulating in the filter graph while a filter
275        (possibly overlay) is desperately waiting for a subtitle frame. */
276     for (i = 0; i < infile->nb_streams; i++) {
277         InputStream *ist2 = input_streams[infile->ist_index + i];
278         if (!ist2->sub2video.frame)
279             continue;
280         /* subtitles seem to be usually muxed ahead of other streams;
281            if not, subtracting a larger time here is necessary */
282         pts2 = av_rescale_q(pts, ist->st->time_base, ist2->st->time_base) - 1;
283         /* do not send the heartbeat frame if the subtitle is already ahead */
284         if (pts2 <= ist2->sub2video.last_pts)
285             continue;
286         if (pts2 >= ist2->sub2video.end_pts || !ist2->sub2video.frame->data[0])
287             sub2video_update(ist2, NULL);
288         for (j = 0, nb_reqs = 0; j < ist2->nb_filters; j++)
289             nb_reqs += av_buffersrc_get_nb_failed_requests(ist2->filters[j]->filter);
290         if (nb_reqs)
291             sub2video_push_ref(ist2, pts2);
292     }
293 }
294
295 static void sub2video_flush(InputStream *ist)
296 {
297     int i;
298
299     if (ist->sub2video.end_pts < INT64_MAX)
300         sub2video_update(ist, NULL);
301     for (i = 0; i < ist->nb_filters; i++)
302         av_buffersrc_add_frame(ist->filters[i]->filter, NULL);
303 }
304
305 /* end of sub2video hack */
306
307 static void term_exit_sigsafe(void)
308 {
309 #if HAVE_TERMIOS_H
310     if(restore_tty)
311         tcsetattr (0, TCSANOW, &oldtty);
312 #endif
313 }
314
315 void term_exit(void)
316 {
317     av_log(NULL, AV_LOG_QUIET, "%s", "");
318     term_exit_sigsafe();
319 }
320
321 static volatile int received_sigterm = 0;
322 static volatile int received_nb_signals = 0;
323 static atomic_int transcode_init_done = ATOMIC_VAR_INIT(0);
324 static volatile int ffmpeg_exited = 0;
325 static int main_return_code = 0;
326
327 static void
328 sigterm_handler(int sig)
329 {
330     received_sigterm = sig;
331     received_nb_signals++;
332     term_exit_sigsafe();
333     if(received_nb_signals > 3) {
334         write(2/*STDERR_FILENO*/, "Received > 3 system signals, hard exiting\n",
335                            strlen("Received > 3 system signals, hard exiting\n"));
336
337         exit(123);
338     }
339 }
340
341 #if HAVE_SETCONSOLECTRLHANDLER
342 static BOOL WINAPI CtrlHandler(DWORD fdwCtrlType)
343 {
344     av_log(NULL, AV_LOG_DEBUG, "\nReceived windows signal %ld\n", fdwCtrlType);
345
346     switch (fdwCtrlType)
347     {
348     case CTRL_C_EVENT:
349     case CTRL_BREAK_EVENT:
350         sigterm_handler(SIGINT);
351         return TRUE;
352
353     case CTRL_CLOSE_EVENT:
354     case CTRL_LOGOFF_EVENT:
355     case CTRL_SHUTDOWN_EVENT:
356         sigterm_handler(SIGTERM);
357         /* Basically, with these 3 events, when we return from this method the
358            process is hard terminated, so stall as long as we need to
359            to try and let the main thread(s) clean up and gracefully terminate
360            (we have at most 5 seconds, but should be done far before that). */
361         while (!ffmpeg_exited) {
362             Sleep(0);
363         }
364         return TRUE;
365
366     default:
367         av_log(NULL, AV_LOG_ERROR, "Received unknown windows signal %ld\n", fdwCtrlType);
368         return FALSE;
369     }
370 }
371 #endif
372
373 void term_init(void)
374 {
375 #if HAVE_TERMIOS_H
376     if (!run_as_daemon && stdin_interaction) {
377         struct termios tty;
378         if (tcgetattr (0, &tty) == 0) {
379             oldtty = tty;
380             restore_tty = 1;
381
382             tty.c_iflag &= ~(IGNBRK|BRKINT|PARMRK|ISTRIP
383                              |INLCR|IGNCR|ICRNL|IXON);
384             tty.c_oflag |= OPOST;
385             tty.c_lflag &= ~(ECHO|ECHONL|ICANON|IEXTEN);
386             tty.c_cflag &= ~(CSIZE|PARENB);
387             tty.c_cflag |= CS8;
388             tty.c_cc[VMIN] = 1;
389             tty.c_cc[VTIME] = 0;
390
391             tcsetattr (0, TCSANOW, &tty);
392         }
393         signal(SIGQUIT, sigterm_handler); /* Quit (POSIX).  */
394     }
395 #endif
396
397     signal(SIGINT , sigterm_handler); /* Interrupt (ANSI).    */
398     signal(SIGTERM, sigterm_handler); /* Termination (ANSI).  */
399 #ifdef SIGXCPU
400     signal(SIGXCPU, sigterm_handler);
401 #endif
402 #if HAVE_SETCONSOLECTRLHANDLER
403     SetConsoleCtrlHandler((PHANDLER_ROUTINE) CtrlHandler, TRUE);
404 #endif
405 }
406
407 /* read a key without blocking */
408 static int read_key(void)
409 {
410     unsigned char ch;
411 #if HAVE_TERMIOS_H
412     int n = 1;
413     struct timeval tv;
414     fd_set rfds;
415
416     FD_ZERO(&rfds);
417     FD_SET(0, &rfds);
418     tv.tv_sec = 0;
419     tv.tv_usec = 0;
420     n = select(1, &rfds, NULL, NULL, &tv);
421     if (n > 0) {
422         n = read(0, &ch, 1);
423         if (n == 1)
424             return ch;
425
426         return n;
427     }
428 #elif HAVE_KBHIT
429 #    if HAVE_PEEKNAMEDPIPE
430     static int is_pipe;
431     static HANDLE input_handle;
432     DWORD dw, nchars;
433     if(!input_handle){
434         input_handle = GetStdHandle(STD_INPUT_HANDLE);
435         is_pipe = !GetConsoleMode(input_handle, &dw);
436     }
437
438     if (is_pipe) {
439         /* When running under a GUI, you will end here. */
440         if (!PeekNamedPipe(input_handle, NULL, 0, NULL, &nchars, NULL)) {
441             // input pipe may have been closed by the program that ran ffmpeg
442             return -1;
443         }
444         //Read it
445         if(nchars != 0) {
446             read(0, &ch, 1);
447             return ch;
448         }else{
449             return -1;
450         }
451     }
452 #    endif
453     if(kbhit())
454         return(getch());
455 #endif
456     return -1;
457 }
458
459 static int decode_interrupt_cb(void *ctx)
460 {
461     return received_nb_signals > atomic_load(&transcode_init_done);
462 }
463
464 const AVIOInterruptCB int_cb = { decode_interrupt_cb, NULL };
465
466 static void ffmpeg_cleanup(int ret)
467 {
468     int i, j;
469
470     if (do_benchmark) {
471         int maxrss = getmaxrss() / 1024;
472         av_log(NULL, AV_LOG_INFO, "bench: maxrss=%ikB\n", maxrss);
473     }
474
475     for (i = 0; i < nb_filtergraphs; i++) {
476         FilterGraph *fg = filtergraphs[i];
477         avfilter_graph_free(&fg->graph);
478         for (j = 0; j < fg->nb_inputs; j++) {
479             while (av_fifo_size(fg->inputs[j]->frame_queue)) {
480                 AVFrame *frame;
481                 av_fifo_generic_read(fg->inputs[j]->frame_queue, &frame,
482                                      sizeof(frame), NULL);
483                 av_frame_free(&frame);
484             }
485             av_fifo_free(fg->inputs[j]->frame_queue);
486             if (fg->inputs[j]->ist->sub2video.sub_queue) {
487                 while (av_fifo_size(fg->inputs[j]->ist->sub2video.sub_queue)) {
488                     AVSubtitle sub;
489                     av_fifo_generic_read(fg->inputs[j]->ist->sub2video.sub_queue,
490                                          &sub, sizeof(sub), NULL);
491                     avsubtitle_free(&sub);
492                 }
493                 av_fifo_free(fg->inputs[j]->ist->sub2video.sub_queue);
494             }
495             av_buffer_unref(&fg->inputs[j]->hw_frames_ctx);
496             av_freep(&fg->inputs[j]->name);
497             av_freep(&fg->inputs[j]);
498         }
499         av_freep(&fg->inputs);
500         for (j = 0; j < fg->nb_outputs; j++) {
501             av_freep(&fg->outputs[j]->name);
502             av_freep(&fg->outputs[j]->formats);
503             av_freep(&fg->outputs[j]->channel_layouts);
504             av_freep(&fg->outputs[j]->sample_rates);
505             av_freep(&fg->outputs[j]);
506         }
507         av_freep(&fg->outputs);
508         av_freep(&fg->graph_desc);
509
510         av_freep(&filtergraphs[i]);
511     }
512     av_freep(&filtergraphs);
513
514     av_freep(&subtitle_out);
515
516     /* close files */
517     for (i = 0; i < nb_output_files; i++) {
518         OutputFile *of = output_files[i];
519         AVFormatContext *s;
520         if (!of)
521             continue;
522         s = of->ctx;
523         if (s && s->oformat && !(s->oformat->flags & AVFMT_NOFILE))
524             avio_closep(&s->pb);
525         avformat_free_context(s);
526         av_dict_free(&of->opts);
527
528         av_freep(&output_files[i]);
529     }
530     for (i = 0; i < nb_output_streams; i++) {
531         OutputStream *ost = output_streams[i];
532
533         if (!ost)
534             continue;
535
536         for (j = 0; j < ost->nb_bitstream_filters; j++)
537             av_bsf_free(&ost->bsf_ctx[j]);
538         av_freep(&ost->bsf_ctx);
539         av_freep(&ost->bsf_extradata_updated);
540
541         av_frame_free(&ost->filtered_frame);
542         av_frame_free(&ost->last_frame);
543         av_dict_free(&ost->encoder_opts);
544
545         av_parser_close(ost->parser);
546         avcodec_free_context(&ost->parser_avctx);
547
548         av_freep(&ost->forced_keyframes);
549         av_expr_free(ost->forced_keyframes_pexpr);
550         av_freep(&ost->avfilter);
551         av_freep(&ost->logfile_prefix);
552
553         av_freep(&ost->audio_channels_map);
554         ost->audio_channels_mapped = 0;
555
556         av_dict_free(&ost->sws_dict);
557
558         avcodec_free_context(&ost->enc_ctx);
559         avcodec_parameters_free(&ost->ref_par);
560
561         if (ost->muxing_queue) {
562             while (av_fifo_size(ost->muxing_queue)) {
563                 AVPacket pkt;
564                 av_fifo_generic_read(ost->muxing_queue, &pkt, sizeof(pkt), NULL);
565                 av_packet_unref(&pkt);
566             }
567             av_fifo_freep(&ost->muxing_queue);
568         }
569
570         av_freep(&output_streams[i]);
571     }
572 #if HAVE_PTHREADS
573     free_input_threads();
574 #endif
575     for (i = 0; i < nb_input_files; i++) {
576         avformat_close_input(&input_files[i]->ctx);
577         av_freep(&input_files[i]);
578     }
579     for (i = 0; i < nb_input_streams; i++) {
580         InputStream *ist = input_streams[i];
581
582         av_frame_free(&ist->decoded_frame);
583         av_frame_free(&ist->filter_frame);
584         av_dict_free(&ist->decoder_opts);
585         avsubtitle_free(&ist->prev_sub.subtitle);
586         av_frame_free(&ist->sub2video.frame);
587         av_freep(&ist->filters);
588         av_freep(&ist->hwaccel_device);
589         av_freep(&ist->dts_buffer);
590
591         avcodec_free_context(&ist->dec_ctx);
592
593         av_freep(&input_streams[i]);
594     }
595
596     if (vstats_file) {
597         if (fclose(vstats_file))
598             av_log(NULL, AV_LOG_ERROR,
599                    "Error closing vstats file, loss of information possible: %s\n",
600                    av_err2str(AVERROR(errno)));
601     }
602     av_freep(&vstats_filename);
603
604     av_freep(&input_streams);
605     av_freep(&input_files);
606     av_freep(&output_streams);
607     av_freep(&output_files);
608
609     uninit_opts();
610
611     avformat_network_deinit();
612
613     if (received_sigterm) {
614         av_log(NULL, AV_LOG_INFO, "Exiting normally, received signal %d.\n",
615                (int) received_sigterm);
616     } else if (ret && atomic_load(&transcode_init_done)) {
617         av_log(NULL, AV_LOG_INFO, "Conversion failed!\n");
618     }
619     term_exit();
620     ffmpeg_exited = 1;
621 }
622
623 void remove_avoptions(AVDictionary **a, AVDictionary *b)
624 {
625     AVDictionaryEntry *t = NULL;
626
627     while ((t = av_dict_get(b, "", t, AV_DICT_IGNORE_SUFFIX))) {
628         av_dict_set(a, t->key, NULL, AV_DICT_MATCH_CASE);
629     }
630 }
631
632 void assert_avoptions(AVDictionary *m)
633 {
634     AVDictionaryEntry *t;
635     if ((t = av_dict_get(m, "", NULL, AV_DICT_IGNORE_SUFFIX))) {
636         av_log(NULL, AV_LOG_FATAL, "Option %s not found.\n", t->key);
637         exit_program(1);
638     }
639 }
640
641 static void abort_codec_experimental(AVCodec *c, int encoder)
642 {
643     exit_program(1);
644 }
645
646 static void update_benchmark(const char *fmt, ...)
647 {
648     if (do_benchmark_all) {
649         int64_t t = getutime();
650         va_list va;
651         char buf[1024];
652
653         if (fmt) {
654             va_start(va, fmt);
655             vsnprintf(buf, sizeof(buf), fmt, va);
656             va_end(va);
657             av_log(NULL, AV_LOG_INFO, "bench: %8"PRIu64" %s \n", t - current_time, buf);
658         }
659         current_time = t;
660     }
661 }
662
663 static void close_all_output_streams(OutputStream *ost, OSTFinished this_stream, OSTFinished others)
664 {
665     int i;
666     for (i = 0; i < nb_output_streams; i++) {
667         OutputStream *ost2 = output_streams[i];
668         ost2->finished |= ost == ost2 ? this_stream : others;
669     }
670 }
671
672 static void write_packet(OutputFile *of, AVPacket *pkt, OutputStream *ost)
673 {
674     AVFormatContext *s = of->ctx;
675     AVStream *st = ost->st;
676     int ret;
677
678     if (!of->header_written) {
679         AVPacket tmp_pkt = {0};
680         /* the muxer is not initialized yet, buffer the packet */
681         if (!av_fifo_space(ost->muxing_queue)) {
682             int new_size = FFMIN(2 * av_fifo_size(ost->muxing_queue),
683                                  ost->max_muxing_queue_size);
684             if (new_size <= av_fifo_size(ost->muxing_queue)) {
685                 av_log(NULL, AV_LOG_ERROR,
686                        "Too many packets buffered for output stream %d:%d.\n",
687                        ost->file_index, ost->st->index);
688                 exit_program(1);
689             }
690             ret = av_fifo_realloc2(ost->muxing_queue, new_size);
691             if (ret < 0)
692                 exit_program(1);
693         }
694         ret = av_packet_ref(&tmp_pkt, pkt);
695         if (ret < 0)
696             exit_program(1);
697         av_fifo_generic_write(ost->muxing_queue, &tmp_pkt, sizeof(tmp_pkt), NULL);
698         av_packet_unref(pkt);
699         return;
700     }
701
702     if ((st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO && video_sync_method == VSYNC_DROP) ||
703         (st->codecpar->codec_type == AVMEDIA_TYPE_AUDIO && audio_sync_method < 0))
704         pkt->pts = pkt->dts = AV_NOPTS_VALUE;
705
706     /*
707      * Audio encoders may split the packets --  #frames in != #packets out.
708      * But there is no reordering, so we can limit the number of output packets
709      * by simply dropping them here.
710      * Counting encoded video frames needs to be done separately because of
711      * reordering, see do_video_out()
712      */
713     if (!(st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO && ost->encoding_needed)) {
714         if (ost->frame_number >= ost->max_frames) {
715             av_packet_unref(pkt);
716             return;
717         }
718         ost->frame_number++;
719     }
720     if (st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO) {
721         int i;
722         uint8_t *sd = av_packet_get_side_data(pkt, AV_PKT_DATA_QUALITY_STATS,
723                                               NULL);
724         ost->quality = sd ? AV_RL32(sd) : -1;
725         ost->pict_type = sd ? sd[4] : AV_PICTURE_TYPE_NONE;
726
727         for (i = 0; i<FF_ARRAY_ELEMS(ost->error); i++) {
728             if (sd && i < sd[5])
729                 ost->error[i] = AV_RL64(sd + 8 + 8*i);
730             else
731                 ost->error[i] = -1;
732         }
733
734         if (ost->frame_rate.num && ost->is_cfr) {
735             if (pkt->duration > 0)
736                 av_log(NULL, AV_LOG_WARNING, "Overriding packet duration by frame rate, this should not happen\n");
737             pkt->duration = av_rescale_q(1, av_inv_q(ost->frame_rate),
738                                          ost->mux_timebase);
739         }
740     }
741
742     av_packet_rescale_ts(pkt, ost->mux_timebase, ost->st->time_base);
743
744     if (!(s->oformat->flags & AVFMT_NOTIMESTAMPS)) {
745         if (pkt->dts != AV_NOPTS_VALUE &&
746             pkt->pts != AV_NOPTS_VALUE &&
747             pkt->dts > pkt->pts) {
748             av_log(s, AV_LOG_WARNING, "Invalid DTS: %"PRId64" PTS: %"PRId64" in output stream %d:%d, replacing by guess\n",
749                    pkt->dts, pkt->pts,
750                    ost->file_index, ost->st->index);
751             pkt->pts =
752             pkt->dts = pkt->pts + pkt->dts + ost->last_mux_dts + 1
753                      - FFMIN3(pkt->pts, pkt->dts, ost->last_mux_dts + 1)
754                      - FFMAX3(pkt->pts, pkt->dts, ost->last_mux_dts + 1);
755         }
756         if ((st->codecpar->codec_type == AVMEDIA_TYPE_AUDIO || st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO) &&
757             pkt->dts != AV_NOPTS_VALUE &&
758             !(st->codecpar->codec_id == AV_CODEC_ID_VP9 && ost->stream_copy) &&
759             ost->last_mux_dts != AV_NOPTS_VALUE) {
760             int64_t max = ost->last_mux_dts + !(s->oformat->flags & AVFMT_TS_NONSTRICT);
761             if (pkt->dts < max) {
762                 int loglevel = max - pkt->dts > 2 || st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO ? AV_LOG_WARNING : AV_LOG_DEBUG;
763                 av_log(s, loglevel, "Non-monotonous DTS in output stream "
764                        "%d:%d; previous: %"PRId64", current: %"PRId64"; ",
765                        ost->file_index, ost->st->index, ost->last_mux_dts, pkt->dts);
766                 if (exit_on_error) {
767                     av_log(NULL, AV_LOG_FATAL, "aborting.\n");
768                     exit_program(1);
769                 }
770                 av_log(s, loglevel, "changing to %"PRId64". This may result "
771                        "in incorrect timestamps in the output file.\n",
772                        max);
773                 if (pkt->pts >= pkt->dts)
774                     pkt->pts = FFMAX(pkt->pts, max);
775                 pkt->dts = max;
776             }
777         }
778     }
779     ost->last_mux_dts = pkt->dts;
780
781     ost->data_size += pkt->size;
782     ost->packets_written++;
783
784     pkt->stream_index = ost->index;
785
786     if (debug_ts) {
787         av_log(NULL, AV_LOG_INFO, "muxer <- type:%s "
788                 "pkt_pts:%s pkt_pts_time:%s pkt_dts:%s pkt_dts_time:%s size:%d\n",
789                 av_get_media_type_string(ost->enc_ctx->codec_type),
790                 av_ts2str(pkt->pts), av_ts2timestr(pkt->pts, &ost->st->time_base),
791                 av_ts2str(pkt->dts), av_ts2timestr(pkt->dts, &ost->st->time_base),
792                 pkt->size
793               );
794     }
795
796     ret = av_interleaved_write_frame(s, pkt);
797     if (ret < 0) {
798         print_error("av_interleaved_write_frame()", ret);
799         main_return_code = 1;
800         close_all_output_streams(ost, MUXER_FINISHED | ENCODER_FINISHED, ENCODER_FINISHED);
801     }
802     av_packet_unref(pkt);
803 }
804
805 static void close_output_stream(OutputStream *ost)
806 {
807     OutputFile *of = output_files[ost->file_index];
808
809     ost->finished |= ENCODER_FINISHED;
810     if (of->shortest) {
811         int64_t end = av_rescale_q(ost->sync_opts - ost->first_pts, ost->enc_ctx->time_base, AV_TIME_BASE_Q);
812         of->recording_time = FFMIN(of->recording_time, end);
813     }
814 }
815
816 static void output_packet(OutputFile *of, AVPacket *pkt, OutputStream *ost)
817 {
818     int ret = 0;
819
820     /* apply the output bitstream filters, if any */
821     if (ost->nb_bitstream_filters) {
822         int idx;
823
824         ret = av_bsf_send_packet(ost->bsf_ctx[0], pkt);
825         if (ret < 0)
826             goto finish;
827
828         idx = 1;
829         while (idx) {
830             /* get a packet from the previous filter up the chain */
831             ret = av_bsf_receive_packet(ost->bsf_ctx[idx - 1], pkt);
832             if (ret == AVERROR(EAGAIN)) {
833                 ret = 0;
834                 idx--;
835                 continue;
836             } else if (ret < 0)
837                 goto finish;
838             /* HACK! - aac_adtstoasc updates extradata after filtering the first frame when
839              * the api states this shouldn't happen after init(). Propagate it here to the
840              * muxer and to the next filters in the chain to workaround this.
841              * TODO/FIXME - Make aac_adtstoasc use new packet side data instead of changing
842              * par_out->extradata and adapt muxers accordingly to get rid of this. */
843             if (!(ost->bsf_extradata_updated[idx - 1] & 1)) {
844                 ret = avcodec_parameters_copy(ost->st->codecpar, ost->bsf_ctx[idx - 1]->par_out);
845                 if (ret < 0)
846                     goto finish;
847                 ost->bsf_extradata_updated[idx - 1] |= 1;
848             }
849
850             /* send it to the next filter down the chain or to the muxer */
851             if (idx < ost->nb_bitstream_filters) {
852                 /* HACK/FIXME! - See above */
853                 if (!(ost->bsf_extradata_updated[idx] & 2)) {
854                     ret = avcodec_parameters_copy(ost->bsf_ctx[idx]->par_out, ost->bsf_ctx[idx - 1]->par_out);
855                     if (ret < 0)
856                         goto finish;
857                     ost->bsf_extradata_updated[idx] |= 2;
858                 }
859                 ret = av_bsf_send_packet(ost->bsf_ctx[idx], pkt);
860                 if (ret < 0)
861                     goto finish;
862                 idx++;
863             } else
864                 write_packet(of, pkt, ost);
865         }
866     } else
867         write_packet(of, pkt, ost);
868
869 finish:
870     if (ret < 0 && ret != AVERROR_EOF) {
871         av_log(NULL, AV_LOG_ERROR, "Error applying bitstream filters to an output "
872                "packet for stream #%d:%d.\n", ost->file_index, ost->index);
873         if(exit_on_error)
874             exit_program(1);
875     }
876 }
877
878 static int check_recording_time(OutputStream *ost)
879 {
880     OutputFile *of = output_files[ost->file_index];
881
882     if (of->recording_time != INT64_MAX &&
883         av_compare_ts(ost->sync_opts - ost->first_pts, ost->enc_ctx->time_base, of->recording_time,
884                       AV_TIME_BASE_Q) >= 0) {
885         close_output_stream(ost);
886         return 0;
887     }
888     return 1;
889 }
890
891 static void do_audio_out(OutputFile *of, OutputStream *ost,
892                          AVFrame *frame)
893 {
894     AVCodecContext *enc = ost->enc_ctx;
895     AVPacket pkt;
896     int ret;
897
898     av_init_packet(&pkt);
899     pkt.data = NULL;
900     pkt.size = 0;
901
902     if (!check_recording_time(ost))
903         return;
904
905     if (frame->pts == AV_NOPTS_VALUE || audio_sync_method < 0)
906         frame->pts = ost->sync_opts;
907     ost->sync_opts = frame->pts + frame->nb_samples;
908     ost->samples_encoded += frame->nb_samples;
909     ost->frames_encoded++;
910
911     av_assert0(pkt.size || !pkt.data);
912     update_benchmark(NULL);
913     if (debug_ts) {
914         av_log(NULL, AV_LOG_INFO, "encoder <- type:audio "
915                "frame_pts:%s frame_pts_time:%s time_base:%d/%d\n",
916                av_ts2str(frame->pts), av_ts2timestr(frame->pts, &enc->time_base),
917                enc->time_base.num, enc->time_base.den);
918     }
919
920     ret = avcodec_send_frame(enc, frame);
921     if (ret < 0)
922         goto error;
923
924     while (1) {
925         ret = avcodec_receive_packet(enc, &pkt);
926         if (ret == AVERROR(EAGAIN))
927             break;
928         if (ret < 0)
929             goto error;
930
931         update_benchmark("encode_audio %d.%d", ost->file_index, ost->index);
932
933         av_packet_rescale_ts(&pkt, enc->time_base, ost->mux_timebase);
934
935         if (debug_ts) {
936             av_log(NULL, AV_LOG_INFO, "encoder -> type:audio "
937                    "pkt_pts:%s pkt_pts_time:%s pkt_dts:%s pkt_dts_time:%s\n",
938                    av_ts2str(pkt.pts), av_ts2timestr(pkt.pts, &enc->time_base),
939                    av_ts2str(pkt.dts), av_ts2timestr(pkt.dts, &enc->time_base));
940         }
941
942         output_packet(of, &pkt, ost);
943     }
944
945     return;
946 error:
947     av_log(NULL, AV_LOG_FATAL, "Audio encoding failed\n");
948     exit_program(1);
949 }
950
951 static void do_subtitle_out(OutputFile *of,
952                             OutputStream *ost,
953                             AVSubtitle *sub)
954 {
955     int subtitle_out_max_size = 1024 * 1024;
956     int subtitle_out_size, nb, i;
957     AVCodecContext *enc;
958     AVPacket pkt;
959     int64_t pts;
960
961     if (sub->pts == AV_NOPTS_VALUE) {
962         av_log(NULL, AV_LOG_ERROR, "Subtitle packets must have a pts\n");
963         if (exit_on_error)
964             exit_program(1);
965         return;
966     }
967
968     enc = ost->enc_ctx;
969
970     if (!subtitle_out) {
971         subtitle_out = av_malloc(subtitle_out_max_size);
972         if (!subtitle_out) {
973             av_log(NULL, AV_LOG_FATAL, "Failed to allocate subtitle_out\n");
974             exit_program(1);
975         }
976     }
977
978     /* Note: DVB subtitle need one packet to draw them and one other
979        packet to clear them */
980     /* XXX: signal it in the codec context ? */
981     if (enc->codec_id == AV_CODEC_ID_DVB_SUBTITLE)
982         nb = 2;
983     else
984         nb = 1;
985
986     /* shift timestamp to honor -ss and make check_recording_time() work with -t */
987     pts = sub->pts;
988     if (output_files[ost->file_index]->start_time != AV_NOPTS_VALUE)
989         pts -= output_files[ost->file_index]->start_time;
990     for (i = 0; i < nb; i++) {
991         unsigned save_num_rects = sub->num_rects;
992
993         ost->sync_opts = av_rescale_q(pts, AV_TIME_BASE_Q, enc->time_base);
994         if (!check_recording_time(ost))
995             return;
996
997         sub->pts = pts;
998         // start_display_time is required to be 0
999         sub->pts               += av_rescale_q(sub->start_display_time, (AVRational){ 1, 1000 }, AV_TIME_BASE_Q);
1000         sub->end_display_time  -= sub->start_display_time;
1001         sub->start_display_time = 0;
1002         if (i == 1)
1003             sub->num_rects = 0;
1004
1005         ost->frames_encoded++;
1006
1007         subtitle_out_size = avcodec_encode_subtitle(enc, subtitle_out,
1008                                                     subtitle_out_max_size, sub);
1009         if (i == 1)
1010             sub->num_rects = save_num_rects;
1011         if (subtitle_out_size < 0) {
1012             av_log(NULL, AV_LOG_FATAL, "Subtitle encoding failed\n");
1013             exit_program(1);
1014         }
1015
1016         av_init_packet(&pkt);
1017         pkt.data = subtitle_out;
1018         pkt.size = subtitle_out_size;
1019         pkt.pts  = av_rescale_q(sub->pts, AV_TIME_BASE_Q, ost->mux_timebase);
1020         pkt.duration = av_rescale_q(sub->end_display_time, (AVRational){ 1, 1000 }, ost->mux_timebase);
1021         if (enc->codec_id == AV_CODEC_ID_DVB_SUBTITLE) {
1022             /* XXX: the pts correction is handled here. Maybe handling
1023                it in the codec would be better */
1024             if (i == 0)
1025                 pkt.pts += av_rescale_q(sub->start_display_time, (AVRational){ 1, 1000 }, ost->mux_timebase);
1026             else
1027                 pkt.pts += av_rescale_q(sub->end_display_time, (AVRational){ 1, 1000 }, ost->mux_timebase);
1028         }
1029         pkt.dts = pkt.pts;
1030         output_packet(of, &pkt, ost);
1031     }
1032 }
1033
1034 static void do_video_out(OutputFile *of,
1035                          OutputStream *ost,
1036                          AVFrame *next_picture,
1037                          double sync_ipts)
1038 {
1039     int ret, format_video_sync;
1040     AVPacket pkt;
1041     AVCodecContext *enc = ost->enc_ctx;
1042     AVCodecParameters *mux_par = ost->st->codecpar;
1043     AVRational frame_rate;
1044     int nb_frames, nb0_frames, i;
1045     double delta, delta0;
1046     double duration = 0;
1047     int frame_size = 0;
1048     InputStream *ist = NULL;
1049     AVFilterContext *filter = ost->filter->filter;
1050
1051     if (ost->source_index >= 0)
1052         ist = input_streams[ost->source_index];
1053
1054     frame_rate = av_buffersink_get_frame_rate(filter);
1055     if (frame_rate.num > 0 && frame_rate.den > 0)
1056         duration = 1/(av_q2d(frame_rate) * av_q2d(enc->time_base));
1057
1058     if(ist && ist->st->start_time != AV_NOPTS_VALUE && ist->st->first_dts != AV_NOPTS_VALUE && ost->frame_rate.num)
1059         duration = FFMIN(duration, 1/(av_q2d(ost->frame_rate) * av_q2d(enc->time_base)));
1060
1061     if (!ost->filters_script &&
1062         !ost->filters &&
1063         next_picture &&
1064         ist &&
1065         lrintf(av_frame_get_pkt_duration(next_picture) * av_q2d(ist->st->time_base) / av_q2d(enc->time_base)) > 0) {
1066         duration = lrintf(av_frame_get_pkt_duration(next_picture) * av_q2d(ist->st->time_base) / av_q2d(enc->time_base));
1067     }
1068
1069     if (!next_picture) {
1070         //end, flushing
1071         nb0_frames = nb_frames = mid_pred(ost->last_nb0_frames[0],
1072                                           ost->last_nb0_frames[1],
1073                                           ost->last_nb0_frames[2]);
1074     } else {
1075         delta0 = sync_ipts - ost->sync_opts; // delta0 is the "drift" between the input frame (next_picture) and where it would fall in the output.
1076         delta  = delta0 + duration;
1077
1078         /* by default, we output a single frame */
1079         nb0_frames = 0; // tracks the number of times the PREVIOUS frame should be duplicated, mostly for variable framerate (VFR)
1080         nb_frames = 1;
1081
1082         format_video_sync = video_sync_method;
1083         if (format_video_sync == VSYNC_AUTO) {
1084             if(!strcmp(of->ctx->oformat->name, "avi")) {
1085                 format_video_sync = VSYNC_VFR;
1086             } else
1087                 format_video_sync = (of->ctx->oformat->flags & AVFMT_VARIABLE_FPS) ? ((of->ctx->oformat->flags & AVFMT_NOTIMESTAMPS) ? VSYNC_PASSTHROUGH : VSYNC_VFR) : VSYNC_CFR;
1088             if (   ist
1089                 && format_video_sync == VSYNC_CFR
1090                 && input_files[ist->file_index]->ctx->nb_streams == 1
1091                 && input_files[ist->file_index]->input_ts_offset == 0) {
1092                 format_video_sync = VSYNC_VSCFR;
1093             }
1094             if (format_video_sync == VSYNC_CFR && copy_ts) {
1095                 format_video_sync = VSYNC_VSCFR;
1096             }
1097         }
1098         ost->is_cfr = (format_video_sync == VSYNC_CFR || format_video_sync == VSYNC_VSCFR);
1099
1100         if (delta0 < 0 &&
1101             delta > 0 &&
1102             format_video_sync != VSYNC_PASSTHROUGH &&
1103             format_video_sync != VSYNC_DROP) {
1104             if (delta0 < -0.6) {
1105                 av_log(NULL, AV_LOG_WARNING, "Past duration %f too large\n", -delta0);
1106             } else
1107                 av_log(NULL, AV_LOG_DEBUG, "Clipping frame in rate conversion by %f\n", -delta0);
1108             sync_ipts = ost->sync_opts;
1109             duration += delta0;
1110             delta0 = 0;
1111         }
1112
1113         switch (format_video_sync) {
1114         case VSYNC_VSCFR:
1115             if (ost->frame_number == 0 && delta0 >= 0.5) {
1116                 av_log(NULL, AV_LOG_DEBUG, "Not duplicating %d initial frames\n", (int)lrintf(delta0));
1117                 delta = duration;
1118                 delta0 = 0;
1119                 ost->sync_opts = lrint(sync_ipts);
1120             }
1121         case VSYNC_CFR:
1122             // FIXME set to 0.5 after we fix some dts/pts bugs like in avidec.c
1123             if (frame_drop_threshold && delta < frame_drop_threshold && ost->frame_number) {
1124                 nb_frames = 0;
1125             } else if (delta < -1.1)
1126                 nb_frames = 0;
1127             else if (delta > 1.1) {
1128                 nb_frames = lrintf(delta);
1129                 if (delta0 > 1.1)
1130                     nb0_frames = lrintf(delta0 - 0.6);
1131             }
1132             break;
1133         case VSYNC_VFR:
1134             if (delta <= -0.6)
1135                 nb_frames = 0;
1136             else if (delta > 0.6)
1137                 ost->sync_opts = lrint(sync_ipts);
1138             break;
1139         case VSYNC_DROP:
1140         case VSYNC_PASSTHROUGH:
1141             ost->sync_opts = lrint(sync_ipts);
1142             break;
1143         default:
1144             av_assert0(0);
1145         }
1146     }
1147
1148     nb_frames = FFMIN(nb_frames, ost->max_frames - ost->frame_number);
1149     nb0_frames = FFMIN(nb0_frames, nb_frames);
1150
1151     memmove(ost->last_nb0_frames + 1,
1152             ost->last_nb0_frames,
1153             sizeof(ost->last_nb0_frames[0]) * (FF_ARRAY_ELEMS(ost->last_nb0_frames) - 1));
1154     ost->last_nb0_frames[0] = nb0_frames;
1155
1156     if (nb0_frames == 0 && ost->last_dropped) {
1157         nb_frames_drop++;
1158         av_log(NULL, AV_LOG_VERBOSE,
1159                "*** dropping frame %d from stream %d at ts %"PRId64"\n",
1160                ost->frame_number, ost->st->index, ost->last_frame->pts);
1161     }
1162     if (nb_frames > (nb0_frames && ost->last_dropped) + (nb_frames > nb0_frames)) {
1163         if (nb_frames > dts_error_threshold * 30) {
1164             av_log(NULL, AV_LOG_ERROR, "%d frame duplication too large, skipping\n", nb_frames - 1);
1165             nb_frames_drop++;
1166             return;
1167         }
1168         nb_frames_dup += nb_frames - (nb0_frames && ost->last_dropped) - (nb_frames > nb0_frames);
1169         av_log(NULL, AV_LOG_VERBOSE, "*** %d dup!\n", nb_frames - 1);
1170         if (nb_frames_dup > dup_warning) {
1171             av_log(NULL, AV_LOG_WARNING, "More than %d frames duplicated\n", dup_warning);
1172             dup_warning *= 10;
1173         }
1174     }
1175     ost->last_dropped = nb_frames == nb0_frames && next_picture;
1176
1177   /* duplicates frame if needed */
1178   for (i = 0; i < nb_frames; i++) {
1179     AVFrame *in_picture;
1180     av_init_packet(&pkt);
1181     pkt.data = NULL;
1182     pkt.size = 0;
1183
1184     if (i < nb0_frames && ost->last_frame) {
1185         in_picture = ost->last_frame;
1186     } else
1187         in_picture = next_picture;
1188
1189     if (!in_picture)
1190         return;
1191
1192     in_picture->pts = ost->sync_opts;
1193
1194 #if 1
1195     if (!check_recording_time(ost))
1196 #else
1197     if (ost->frame_number >= ost->max_frames)
1198 #endif
1199         return;
1200
1201 #if FF_API_LAVF_FMT_RAWPICTURE
1202     if (of->ctx->oformat->flags & AVFMT_RAWPICTURE &&
1203         enc->codec->id == AV_CODEC_ID_RAWVIDEO) {
1204         /* raw pictures are written as AVPicture structure to
1205            avoid any copies. We support temporarily the older
1206            method. */
1207         if (in_picture->interlaced_frame)
1208             mux_par->field_order = in_picture->top_field_first ? AV_FIELD_TB:AV_FIELD_BT;
1209         else
1210             mux_par->field_order = AV_FIELD_PROGRESSIVE;
1211         pkt.data   = (uint8_t *)in_picture;
1212         pkt.size   =  sizeof(AVPicture);
1213         pkt.pts    = av_rescale_q(in_picture->pts, enc->time_base, ost->mux_timebase);
1214         pkt.flags |= AV_PKT_FLAG_KEY;
1215
1216         output_packet(of, &pkt, ost);
1217     } else
1218 #endif
1219     {
1220         int forced_keyframe = 0;
1221         double pts_time;
1222
1223         if (enc->flags & (AV_CODEC_FLAG_INTERLACED_DCT | AV_CODEC_FLAG_INTERLACED_ME) &&
1224             ost->top_field_first >= 0)
1225             in_picture->top_field_first = !!ost->top_field_first;
1226
1227         if (in_picture->interlaced_frame) {
1228             if (enc->codec->id == AV_CODEC_ID_MJPEG)
1229                 mux_par->field_order = in_picture->top_field_first ? AV_FIELD_TT:AV_FIELD_BB;
1230             else
1231                 mux_par->field_order = in_picture->top_field_first ? AV_FIELD_TB:AV_FIELD_BT;
1232         } else
1233             mux_par->field_order = AV_FIELD_PROGRESSIVE;
1234
1235         in_picture->quality = enc->global_quality;
1236         in_picture->pict_type = 0;
1237
1238         pts_time = in_picture->pts != AV_NOPTS_VALUE ?
1239             in_picture->pts * av_q2d(enc->time_base) : NAN;
1240         if (ost->forced_kf_index < ost->forced_kf_count &&
1241             in_picture->pts >= ost->forced_kf_pts[ost->forced_kf_index]) {
1242             ost->forced_kf_index++;
1243             forced_keyframe = 1;
1244         } else if (ost->forced_keyframes_pexpr) {
1245             double res;
1246             ost->forced_keyframes_expr_const_values[FKF_T] = pts_time;
1247             res = av_expr_eval(ost->forced_keyframes_pexpr,
1248                                ost->forced_keyframes_expr_const_values, NULL);
1249             ff_dlog(NULL, "force_key_frame: n:%f n_forced:%f prev_forced_n:%f t:%f prev_forced_t:%f -> res:%f\n",
1250                     ost->forced_keyframes_expr_const_values[FKF_N],
1251                     ost->forced_keyframes_expr_const_values[FKF_N_FORCED],
1252                     ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_N],
1253                     ost->forced_keyframes_expr_const_values[FKF_T],
1254                     ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_T],
1255                     res);
1256             if (res) {
1257                 forced_keyframe = 1;
1258                 ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_N] =
1259                     ost->forced_keyframes_expr_const_values[FKF_N];
1260                 ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_T] =
1261                     ost->forced_keyframes_expr_const_values[FKF_T];
1262                 ost->forced_keyframes_expr_const_values[FKF_N_FORCED] += 1;
1263             }
1264
1265             ost->forced_keyframes_expr_const_values[FKF_N] += 1;
1266         } else if (   ost->forced_keyframes
1267                    && !strncmp(ost->forced_keyframes, "source", 6)
1268                    && in_picture->key_frame==1) {
1269             forced_keyframe = 1;
1270         }
1271
1272         if (forced_keyframe) {
1273             in_picture->pict_type = AV_PICTURE_TYPE_I;
1274             av_log(NULL, AV_LOG_DEBUG, "Forced keyframe at time %f\n", pts_time);
1275         }
1276
1277         update_benchmark(NULL);
1278         if (debug_ts) {
1279             av_log(NULL, AV_LOG_INFO, "encoder <- type:video "
1280                    "frame_pts:%s frame_pts_time:%s time_base:%d/%d\n",
1281                    av_ts2str(in_picture->pts), av_ts2timestr(in_picture->pts, &enc->time_base),
1282                    enc->time_base.num, enc->time_base.den);
1283         }
1284
1285         ost->frames_encoded++;
1286
1287         ret = avcodec_send_frame(enc, in_picture);
1288         if (ret < 0)
1289             goto error;
1290
1291         while (1) {
1292             ret = avcodec_receive_packet(enc, &pkt);
1293             update_benchmark("encode_video %d.%d", ost->file_index, ost->index);
1294             if (ret == AVERROR(EAGAIN))
1295                 break;
1296             if (ret < 0)
1297                 goto error;
1298
1299             if (debug_ts) {
1300                 av_log(NULL, AV_LOG_INFO, "encoder -> type:video "
1301                        "pkt_pts:%s pkt_pts_time:%s pkt_dts:%s pkt_dts_time:%s\n",
1302                        av_ts2str(pkt.pts), av_ts2timestr(pkt.pts, &enc->time_base),
1303                        av_ts2str(pkt.dts), av_ts2timestr(pkt.dts, &enc->time_base));
1304             }
1305
1306             if (pkt.pts == AV_NOPTS_VALUE && !(enc->codec->capabilities & AV_CODEC_CAP_DELAY))
1307                 pkt.pts = ost->sync_opts;
1308
1309             av_packet_rescale_ts(&pkt, enc->time_base, ost->mux_timebase);
1310
1311             if (debug_ts) {
1312                 av_log(NULL, AV_LOG_INFO, "encoder -> type:video "
1313                     "pkt_pts:%s pkt_pts_time:%s pkt_dts:%s pkt_dts_time:%s\n",
1314                     av_ts2str(pkt.pts), av_ts2timestr(pkt.pts, &ost->mux_timebase),
1315                     av_ts2str(pkt.dts), av_ts2timestr(pkt.dts, &ost->mux_timebase));
1316             }
1317
1318             frame_size = pkt.size;
1319             output_packet(of, &pkt, ost);
1320
1321             /* if two pass, output log */
1322             if (ost->logfile && enc->stats_out) {
1323                 fprintf(ost->logfile, "%s", enc->stats_out);
1324             }
1325         }
1326     }
1327     ost->sync_opts++;
1328     /*
1329      * For video, number of frames in == number of packets out.
1330      * But there may be reordering, so we can't throw away frames on encoder
1331      * flush, we need to limit them here, before they go into encoder.
1332      */
1333     ost->frame_number++;
1334
1335     if (vstats_filename && frame_size)
1336         do_video_stats(ost, frame_size);
1337   }
1338
1339     if (!ost->last_frame)
1340         ost->last_frame = av_frame_alloc();
1341     av_frame_unref(ost->last_frame);
1342     if (next_picture && ost->last_frame)
1343         av_frame_ref(ost->last_frame, next_picture);
1344     else
1345         av_frame_free(&ost->last_frame);
1346
1347     return;
1348 error:
1349     av_log(NULL, AV_LOG_FATAL, "Video encoding failed\n");
1350     exit_program(1);
1351 }
1352
1353 static double psnr(double d)
1354 {
1355     return -10.0 * log10(d);
1356 }
1357
1358 static void do_video_stats(OutputStream *ost, int frame_size)
1359 {
1360     AVCodecContext *enc;
1361     int frame_number;
1362     double ti1, bitrate, avg_bitrate;
1363
1364     /* this is executed just the first time do_video_stats is called */
1365     if (!vstats_file) {
1366         vstats_file = fopen(vstats_filename, "w");
1367         if (!vstats_file) {
1368             perror("fopen");
1369             exit_program(1);
1370         }
1371     }
1372
1373     enc = ost->enc_ctx;
1374     if (enc->codec_type == AVMEDIA_TYPE_VIDEO) {
1375         frame_number = ost->st->nb_frames;
1376         if (vstats_version <= 1) {
1377             fprintf(vstats_file, "frame= %5d q= %2.1f ", frame_number,
1378                     ost->quality / (float)FF_QP2LAMBDA);
1379         } else  {
1380             fprintf(vstats_file, "out= %2d st= %2d frame= %5d q= %2.1f ", ost->file_index, ost->index, frame_number,
1381                     ost->quality / (float)FF_QP2LAMBDA);
1382         }
1383
1384         if (ost->error[0]>=0 && (enc->flags & AV_CODEC_FLAG_PSNR))
1385             fprintf(vstats_file, "PSNR= %6.2f ", psnr(ost->error[0] / (enc->width * enc->height * 255.0 * 255.0)));
1386
1387         fprintf(vstats_file,"f_size= %6d ", frame_size);
1388         /* compute pts value */
1389         ti1 = av_stream_get_end_pts(ost->st) * av_q2d(ost->st->time_base);
1390         if (ti1 < 0.01)
1391             ti1 = 0.01;
1392
1393         bitrate     = (frame_size * 8) / av_q2d(enc->time_base) / 1000.0;
1394         avg_bitrate = (double)(ost->data_size * 8) / ti1 / 1000.0;
1395         fprintf(vstats_file, "s_size= %8.0fkB time= %0.3f br= %7.1fkbits/s avg_br= %7.1fkbits/s ",
1396                (double)ost->data_size / 1024, ti1, bitrate, avg_bitrate);
1397         fprintf(vstats_file, "type= %c\n", av_get_picture_type_char(ost->pict_type));
1398     }
1399 }
1400
1401 static int init_output_stream(OutputStream *ost, char *error, int error_len);
1402
1403 static void finish_output_stream(OutputStream *ost)
1404 {
1405     OutputFile *of = output_files[ost->file_index];
1406     int i;
1407
1408     ost->finished = ENCODER_FINISHED | MUXER_FINISHED;
1409
1410     if (of->shortest) {
1411         for (i = 0; i < of->ctx->nb_streams; i++)
1412             output_streams[of->ost_index + i]->finished = ENCODER_FINISHED | MUXER_FINISHED;
1413     }
1414 }
1415
1416 /**
1417  * Get and encode new output from any of the filtergraphs, without causing
1418  * activity.
1419  *
1420  * @return  0 for success, <0 for severe errors
1421  */
1422 static int reap_filters(int flush)
1423 {
1424     AVFrame *filtered_frame = NULL;
1425     int i;
1426
1427     /* Reap all buffers present in the buffer sinks */
1428     for (i = 0; i < nb_output_streams; i++) {
1429         OutputStream *ost = output_streams[i];
1430         OutputFile    *of = output_files[ost->file_index];
1431         AVFilterContext *filter;
1432         AVCodecContext *enc = ost->enc_ctx;
1433         int ret = 0;
1434
1435         if (!ost->filter || !ost->filter->graph->graph)
1436             continue;
1437         filter = ost->filter->filter;
1438
1439         if (!ost->initialized) {
1440             char error[1024] = "";
1441             ret = init_output_stream(ost, error, sizeof(error));
1442             if (ret < 0) {
1443                 av_log(NULL, AV_LOG_ERROR, "Error initializing output stream %d:%d -- %s\n",
1444                        ost->file_index, ost->index, error);
1445                 exit_program(1);
1446             }
1447         }
1448
1449         if (!ost->filtered_frame && !(ost->filtered_frame = av_frame_alloc())) {
1450             return AVERROR(ENOMEM);
1451         }
1452         filtered_frame = ost->filtered_frame;
1453
1454         while (1) {
1455             double float_pts = AV_NOPTS_VALUE; // this is identical to filtered_frame.pts but with higher precision
1456             ret = av_buffersink_get_frame_flags(filter, filtered_frame,
1457                                                AV_BUFFERSINK_FLAG_NO_REQUEST);
1458             if (ret < 0) {
1459                 if (ret != AVERROR(EAGAIN) && ret != AVERROR_EOF) {
1460                     av_log(NULL, AV_LOG_WARNING,
1461                            "Error in av_buffersink_get_frame_flags(): %s\n", av_err2str(ret));
1462                 } else if (flush && ret == AVERROR_EOF) {
1463                     if (av_buffersink_get_type(filter) == AVMEDIA_TYPE_VIDEO)
1464                         do_video_out(of, ost, NULL, AV_NOPTS_VALUE);
1465                 }
1466                 break;
1467             }
1468             if (ost->finished) {
1469                 av_frame_unref(filtered_frame);
1470                 continue;
1471             }
1472             if (filtered_frame->pts != AV_NOPTS_VALUE) {
1473                 int64_t start_time = (of->start_time == AV_NOPTS_VALUE) ? 0 : of->start_time;
1474                 AVRational filter_tb = av_buffersink_get_time_base(filter);
1475                 AVRational tb = enc->time_base;
1476                 int extra_bits = av_clip(29 - av_log2(tb.den), 0, 16);
1477
1478                 tb.den <<= extra_bits;
1479                 float_pts =
1480                     av_rescale_q(filtered_frame->pts, filter_tb, tb) -
1481                     av_rescale_q(start_time, AV_TIME_BASE_Q, tb);
1482                 float_pts /= 1 << extra_bits;
1483                 // avoid exact midoints to reduce the chance of rounding differences, this can be removed in case the fps code is changed to work with integers
1484                 float_pts += FFSIGN(float_pts) * 1.0 / (1<<17);
1485
1486                 filtered_frame->pts =
1487                     av_rescale_q(filtered_frame->pts, filter_tb, enc->time_base) -
1488                     av_rescale_q(start_time, AV_TIME_BASE_Q, enc->time_base);
1489             }
1490             //if (ost->source_index >= 0)
1491             //    *filtered_frame= *input_streams[ost->source_index]->decoded_frame; //for me_threshold
1492
1493             switch (av_buffersink_get_type(filter)) {
1494             case AVMEDIA_TYPE_VIDEO:
1495                 if (!ost->frame_aspect_ratio.num)
1496                     enc->sample_aspect_ratio = filtered_frame->sample_aspect_ratio;
1497
1498                 if (debug_ts) {
1499                     av_log(NULL, AV_LOG_INFO, "filter -> pts:%s pts_time:%s exact:%f time_base:%d/%d\n",
1500                             av_ts2str(filtered_frame->pts), av_ts2timestr(filtered_frame->pts, &enc->time_base),
1501                             float_pts,
1502                             enc->time_base.num, enc->time_base.den);
1503                 }
1504
1505                 do_video_out(of, ost, filtered_frame, float_pts);
1506                 break;
1507             case AVMEDIA_TYPE_AUDIO:
1508                 if (!(enc->codec->capabilities & AV_CODEC_CAP_PARAM_CHANGE) &&
1509                     enc->channels != av_frame_get_channels(filtered_frame)) {
1510                     av_log(NULL, AV_LOG_ERROR,
1511                            "Audio filter graph output is not normalized and encoder does not support parameter changes\n");
1512                     break;
1513                 }
1514                 do_audio_out(of, ost, filtered_frame);
1515                 break;
1516             default:
1517                 // TODO support subtitle filters
1518                 av_assert0(0);
1519             }
1520
1521             av_frame_unref(filtered_frame);
1522         }
1523     }
1524
1525     return 0;
1526 }
1527
1528 static void print_final_stats(int64_t total_size)
1529 {
1530     uint64_t video_size = 0, audio_size = 0, extra_size = 0, other_size = 0;
1531     uint64_t subtitle_size = 0;
1532     uint64_t data_size = 0;
1533     float percent = -1.0;
1534     int i, j;
1535     int pass1_used = 1;
1536
1537     for (i = 0; i < nb_output_streams; i++) {
1538         OutputStream *ost = output_streams[i];
1539         switch (ost->enc_ctx->codec_type) {
1540             case AVMEDIA_TYPE_VIDEO: video_size += ost->data_size; break;
1541             case AVMEDIA_TYPE_AUDIO: audio_size += ost->data_size; break;
1542             case AVMEDIA_TYPE_SUBTITLE: subtitle_size += ost->data_size; break;
1543             default:                 other_size += ost->data_size; break;
1544         }
1545         extra_size += ost->enc_ctx->extradata_size;
1546         data_size  += ost->data_size;
1547         if (   (ost->enc_ctx->flags & (AV_CODEC_FLAG_PASS1 | AV_CODEC_FLAG_PASS2))
1548             != AV_CODEC_FLAG_PASS1)
1549             pass1_used = 0;
1550     }
1551
1552     if (data_size && total_size>0 && total_size >= data_size)
1553         percent = 100.0 * (total_size - data_size) / data_size;
1554
1555     av_log(NULL, AV_LOG_INFO, "video:%1.0fkB audio:%1.0fkB subtitle:%1.0fkB other streams:%1.0fkB global headers:%1.0fkB muxing overhead: ",
1556            video_size / 1024.0,
1557            audio_size / 1024.0,
1558            subtitle_size / 1024.0,
1559            other_size / 1024.0,
1560            extra_size / 1024.0);
1561     if (percent >= 0.0)
1562         av_log(NULL, AV_LOG_INFO, "%f%%", percent);
1563     else
1564         av_log(NULL, AV_LOG_INFO, "unknown");
1565     av_log(NULL, AV_LOG_INFO, "\n");
1566
1567     /* print verbose per-stream stats */
1568     for (i = 0; i < nb_input_files; i++) {
1569         InputFile *f = input_files[i];
1570         uint64_t total_packets = 0, total_size = 0;
1571
1572         av_log(NULL, AV_LOG_VERBOSE, "Input file #%d (%s):\n",
1573                i, f->ctx->filename);
1574
1575         for (j = 0; j < f->nb_streams; j++) {
1576             InputStream *ist = input_streams[f->ist_index + j];
1577             enum AVMediaType type = ist->dec_ctx->codec_type;
1578
1579             total_size    += ist->data_size;
1580             total_packets += ist->nb_packets;
1581
1582             av_log(NULL, AV_LOG_VERBOSE, "  Input stream #%d:%d (%s): ",
1583                    i, j, media_type_string(type));
1584             av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" packets read (%"PRIu64" bytes); ",
1585                    ist->nb_packets, ist->data_size);
1586
1587             if (ist->decoding_needed) {
1588                 av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" frames decoded",
1589                        ist->frames_decoded);
1590                 if (type == AVMEDIA_TYPE_AUDIO)
1591                     av_log(NULL, AV_LOG_VERBOSE, " (%"PRIu64" samples)", ist->samples_decoded);
1592                 av_log(NULL, AV_LOG_VERBOSE, "; ");
1593             }
1594
1595             av_log(NULL, AV_LOG_VERBOSE, "\n");
1596         }
1597
1598         av_log(NULL, AV_LOG_VERBOSE, "  Total: %"PRIu64" packets (%"PRIu64" bytes) demuxed\n",
1599                total_packets, total_size);
1600     }
1601
1602     for (i = 0; i < nb_output_files; i++) {
1603         OutputFile *of = output_files[i];
1604         uint64_t total_packets = 0, total_size = 0;
1605
1606         av_log(NULL, AV_LOG_VERBOSE, "Output file #%d (%s):\n",
1607                i, of->ctx->filename);
1608
1609         for (j = 0; j < of->ctx->nb_streams; j++) {
1610             OutputStream *ost = output_streams[of->ost_index + j];
1611             enum AVMediaType type = ost->enc_ctx->codec_type;
1612
1613             total_size    += ost->data_size;
1614             total_packets += ost->packets_written;
1615
1616             av_log(NULL, AV_LOG_VERBOSE, "  Output stream #%d:%d (%s): ",
1617                    i, j, media_type_string(type));
1618             if (ost->encoding_needed) {
1619                 av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" frames encoded",
1620                        ost->frames_encoded);
1621                 if (type == AVMEDIA_TYPE_AUDIO)
1622                     av_log(NULL, AV_LOG_VERBOSE, " (%"PRIu64" samples)", ost->samples_encoded);
1623                 av_log(NULL, AV_LOG_VERBOSE, "; ");
1624             }
1625
1626             av_log(NULL, AV_LOG_VERBOSE, "%"PRIu64" packets muxed (%"PRIu64" bytes); ",
1627                    ost->packets_written, ost->data_size);
1628
1629             av_log(NULL, AV_LOG_VERBOSE, "\n");
1630         }
1631
1632         av_log(NULL, AV_LOG_VERBOSE, "  Total: %"PRIu64" packets (%"PRIu64" bytes) muxed\n",
1633                total_packets, total_size);
1634     }
1635     if(video_size + data_size + audio_size + subtitle_size + extra_size == 0){
1636         av_log(NULL, AV_LOG_WARNING, "Output file is empty, nothing was encoded ");
1637         if (pass1_used) {
1638             av_log(NULL, AV_LOG_WARNING, "\n");
1639         } else {
1640             av_log(NULL, AV_LOG_WARNING, "(check -ss / -t / -frames parameters if used)\n");
1641         }
1642     }
1643 }
1644
1645 static void print_report(int is_last_report, int64_t timer_start, int64_t cur_time)
1646 {
1647     char buf[1024];
1648     AVBPrint buf_script;
1649     OutputStream *ost;
1650     AVFormatContext *oc;
1651     int64_t total_size;
1652     AVCodecContext *enc;
1653     int frame_number, vid, i;
1654     double bitrate;
1655     double speed;
1656     int64_t pts = INT64_MIN + 1;
1657     static int64_t last_time = -1;
1658     static int qp_histogram[52];
1659     int hours, mins, secs, us;
1660     int ret;
1661     float t;
1662
1663     if (!print_stats && !is_last_report && !progress_avio)
1664         return;
1665
1666     if (!is_last_report) {
1667         if (last_time == -1) {
1668             last_time = cur_time;
1669             return;
1670         }
1671         if ((cur_time - last_time) < 500000)
1672             return;
1673         last_time = cur_time;
1674     }
1675
1676     t = (cur_time-timer_start) / 1000000.0;
1677
1678
1679     oc = output_files[0]->ctx;
1680
1681     total_size = avio_size(oc->pb);
1682     if (total_size <= 0) // FIXME improve avio_size() so it works with non seekable output too
1683         total_size = avio_tell(oc->pb);
1684
1685     buf[0] = '\0';
1686     vid = 0;
1687     av_bprint_init(&buf_script, 0, 1);
1688     for (i = 0; i < nb_output_streams; i++) {
1689         float q = -1;
1690         ost = output_streams[i];
1691         enc = ost->enc_ctx;
1692         if (!ost->stream_copy)
1693             q = ost->quality / (float) FF_QP2LAMBDA;
1694
1695         if (vid && enc->codec_type == AVMEDIA_TYPE_VIDEO) {
1696             snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "q=%2.1f ", q);
1697             av_bprintf(&buf_script, "stream_%d_%d_q=%.1f\n",
1698                        ost->file_index, ost->index, q);
1699         }
1700         if (!vid && enc->codec_type == AVMEDIA_TYPE_VIDEO) {
1701             float fps;
1702
1703             frame_number = ost->frame_number;
1704             fps = t > 1 ? frame_number / t : 0;
1705             snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "frame=%5d fps=%3.*f q=%3.1f ",
1706                      frame_number, fps < 9.95, fps, q);
1707             av_bprintf(&buf_script, "frame=%d\n", frame_number);
1708             av_bprintf(&buf_script, "fps=%.1f\n", fps);
1709             av_bprintf(&buf_script, "stream_%d_%d_q=%.1f\n",
1710                        ost->file_index, ost->index, q);
1711             if (is_last_report)
1712                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "L");
1713             if (qp_hist) {
1714                 int j;
1715                 int qp = lrintf(q);
1716                 if (qp >= 0 && qp < FF_ARRAY_ELEMS(qp_histogram))
1717                     qp_histogram[qp]++;
1718                 for (j = 0; j < 32; j++)
1719                     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "%X", av_log2(qp_histogram[j] + 1));
1720             }
1721
1722             if ((enc->flags & AV_CODEC_FLAG_PSNR) && (ost->pict_type != AV_PICTURE_TYPE_NONE || is_last_report)) {
1723                 int j;
1724                 double error, error_sum = 0;
1725                 double scale, scale_sum = 0;
1726                 double p;
1727                 char type[3] = { 'Y','U','V' };
1728                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "PSNR=");
1729                 for (j = 0; j < 3; j++) {
1730                     if (is_last_report) {
1731                         error = enc->error[j];
1732                         scale = enc->width * enc->height * 255.0 * 255.0 * frame_number;
1733                     } else {
1734                         error = ost->error[j];
1735                         scale = enc->width * enc->height * 255.0 * 255.0;
1736                     }
1737                     if (j)
1738                         scale /= 4;
1739                     error_sum += error;
1740                     scale_sum += scale;
1741                     p = psnr(error / scale);
1742                     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "%c:%2.2f ", type[j], p);
1743                     av_bprintf(&buf_script, "stream_%d_%d_psnr_%c=%2.2f\n",
1744                                ost->file_index, ost->index, type[j] | 32, p);
1745                 }
1746                 p = psnr(error_sum / scale_sum);
1747                 snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "*:%2.2f ", psnr(error_sum / scale_sum));
1748                 av_bprintf(&buf_script, "stream_%d_%d_psnr_all=%2.2f\n",
1749                            ost->file_index, ost->index, p);
1750             }
1751             vid = 1;
1752         }
1753         /* compute min output value */
1754         if (av_stream_get_end_pts(ost->st) != AV_NOPTS_VALUE)
1755             pts = FFMAX(pts, av_rescale_q(av_stream_get_end_pts(ost->st),
1756                                           ost->st->time_base, AV_TIME_BASE_Q));
1757         if (is_last_report)
1758             nb_frames_drop += ost->last_dropped;
1759     }
1760
1761     secs = FFABS(pts) / AV_TIME_BASE;
1762     us = FFABS(pts) % AV_TIME_BASE;
1763     mins = secs / 60;
1764     secs %= 60;
1765     hours = mins / 60;
1766     mins %= 60;
1767
1768     bitrate = pts && total_size >= 0 ? total_size * 8 / (pts / 1000.0) : -1;
1769     speed = t != 0.0 ? (double)pts / AV_TIME_BASE / t : -1;
1770
1771     if (total_size < 0) snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf),
1772                                  "size=N/A time=");
1773     else                snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf),
1774                                  "size=%8.0fkB time=", total_size / 1024.0);
1775     if (pts < 0)
1776         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), "-");
1777     snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf),
1778              "%02d:%02d:%02d.%02d ", hours, mins, secs,
1779              (100 * us) / AV_TIME_BASE);
1780
1781     if (bitrate < 0) {
1782         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf),"bitrate=N/A");
1783         av_bprintf(&buf_script, "bitrate=N/A\n");
1784     }else{
1785         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf),"bitrate=%6.1fkbits/s", bitrate);
1786         av_bprintf(&buf_script, "bitrate=%6.1fkbits/s\n", bitrate);
1787     }
1788
1789     if (total_size < 0) av_bprintf(&buf_script, "total_size=N/A\n");
1790     else                av_bprintf(&buf_script, "total_size=%"PRId64"\n", total_size);
1791     av_bprintf(&buf_script, "out_time_ms=%"PRId64"\n", pts);
1792     av_bprintf(&buf_script, "out_time=%02d:%02d:%02d.%06d\n",
1793                hours, mins, secs, us);
1794
1795     if (nb_frames_dup || nb_frames_drop)
1796         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf), " dup=%d drop=%d",
1797                 nb_frames_dup, nb_frames_drop);
1798     av_bprintf(&buf_script, "dup_frames=%d\n", nb_frames_dup);
1799     av_bprintf(&buf_script, "drop_frames=%d\n", nb_frames_drop);
1800
1801     if (speed < 0) {
1802         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf)," speed=N/A");
1803         av_bprintf(&buf_script, "speed=N/A\n");
1804     } else {
1805         snprintf(buf + strlen(buf), sizeof(buf) - strlen(buf)," speed=%4.3gx", speed);
1806         av_bprintf(&buf_script, "speed=%4.3gx\n", speed);
1807     }
1808
1809     if (print_stats || is_last_report) {
1810         const char end = is_last_report ? '\n' : '\r';
1811         if (print_stats==1 && AV_LOG_INFO > av_log_get_level()) {
1812             fprintf(stderr, "%s    %c", buf, end);
1813         } else
1814             av_log(NULL, AV_LOG_INFO, "%s    %c", buf, end);
1815
1816     fflush(stderr);
1817     }
1818
1819     if (progress_avio) {
1820         av_bprintf(&buf_script, "progress=%s\n",
1821                    is_last_report ? "end" : "continue");
1822         avio_write(progress_avio, buf_script.str,
1823                    FFMIN(buf_script.len, buf_script.size - 1));
1824         avio_flush(progress_avio);
1825         av_bprint_finalize(&buf_script, NULL);
1826         if (is_last_report) {
1827             if ((ret = avio_closep(&progress_avio)) < 0)
1828                 av_log(NULL, AV_LOG_ERROR,
1829                        "Error closing progress log, loss of information possible: %s\n", av_err2str(ret));
1830         }
1831     }
1832
1833     if (is_last_report)
1834         print_final_stats(total_size);
1835 }
1836
1837 static void flush_encoders(void)
1838 {
1839     int i, ret;
1840
1841     for (i = 0; i < nb_output_streams; i++) {
1842         OutputStream   *ost = output_streams[i];
1843         AVCodecContext *enc = ost->enc_ctx;
1844         OutputFile      *of = output_files[ost->file_index];
1845
1846         if (!ost->encoding_needed)
1847             continue;
1848
1849         // Try to enable encoding with no input frames.
1850         // Maybe we should just let encoding fail instead.
1851         if (!ost->initialized) {
1852             FilterGraph *fg = ost->filter->graph;
1853             char error[1024] = "";
1854
1855             av_log(NULL, AV_LOG_WARNING,
1856                    "Finishing stream %d:%d without any data written to it.\n",
1857                    ost->file_index, ost->st->index);
1858
1859             if (ost->filter && !fg->graph) {
1860                 int x;
1861                 for (x = 0; x < fg->nb_inputs; x++) {
1862                     InputFilter *ifilter = fg->inputs[x];
1863                     if (ifilter->format < 0) {
1864                         AVCodecParameters *par = ifilter->ist->st->codecpar;
1865                         // We never got any input. Set a fake format, which will
1866                         // come from libavformat.
1867                         ifilter->format                 = par->format;
1868                         ifilter->sample_rate            = par->sample_rate;
1869                         ifilter->channels               = par->channels;
1870                         ifilter->channel_layout         = par->channel_layout;
1871                         ifilter->width                  = par->width;
1872                         ifilter->height                 = par->height;
1873                         ifilter->sample_aspect_ratio    = par->sample_aspect_ratio;
1874                     }
1875                 }
1876
1877                 if (!ifilter_has_all_input_formats(fg))
1878                     continue;
1879
1880                 ret = configure_filtergraph(fg);
1881                 if (ret < 0) {
1882                     av_log(NULL, AV_LOG_ERROR, "Error configuring filter graph\n");
1883                     exit_program(1);
1884                 }
1885
1886                 finish_output_stream(ost);
1887             }
1888
1889             ret = init_output_stream(ost, error, sizeof(error));
1890             if (ret < 0) {
1891                 av_log(NULL, AV_LOG_ERROR, "Error initializing output stream %d:%d -- %s\n",
1892                        ost->file_index, ost->index, error);
1893                 exit_program(1);
1894             }
1895         }
1896
1897         if (enc->codec_type == AVMEDIA_TYPE_AUDIO && enc->frame_size <= 1)
1898             continue;
1899 #if FF_API_LAVF_FMT_RAWPICTURE
1900         if (enc->codec_type == AVMEDIA_TYPE_VIDEO && (of->ctx->oformat->flags & AVFMT_RAWPICTURE) && enc->codec->id == AV_CODEC_ID_RAWVIDEO)
1901             continue;
1902 #endif
1903
1904         if (enc->codec_type != AVMEDIA_TYPE_VIDEO && enc->codec_type != AVMEDIA_TYPE_AUDIO)
1905             continue;
1906
1907         avcodec_send_frame(enc, NULL);
1908
1909         for (;;) {
1910             const char *desc = NULL;
1911             AVPacket pkt;
1912             int pkt_size;
1913
1914             switch (enc->codec_type) {
1915             case AVMEDIA_TYPE_AUDIO:
1916                 desc   = "audio";
1917                 break;
1918             case AVMEDIA_TYPE_VIDEO:
1919                 desc   = "video";
1920                 break;
1921             default:
1922                 av_assert0(0);
1923             }
1924
1925                 av_init_packet(&pkt);
1926                 pkt.data = NULL;
1927                 pkt.size = 0;
1928
1929                 update_benchmark(NULL);
1930                 ret = avcodec_receive_packet(enc, &pkt);
1931                 update_benchmark("flush_%s %d.%d", desc, ost->file_index, ost->index);
1932                 if (ret < 0 && ret != AVERROR_EOF) {
1933                     av_log(NULL, AV_LOG_FATAL, "%s encoding failed: %s\n",
1934                            desc,
1935                            av_err2str(ret));
1936                     exit_program(1);
1937                 }
1938                 if (ost->logfile && enc->stats_out) {
1939                     fprintf(ost->logfile, "%s", enc->stats_out);
1940                 }
1941                 if (ret == AVERROR_EOF) {
1942                     break;
1943                 }
1944                 if (ost->finished & MUXER_FINISHED) {
1945                     av_packet_unref(&pkt);
1946                     continue;
1947                 }
1948                 av_packet_rescale_ts(&pkt, enc->time_base, ost->mux_timebase);
1949                 pkt_size = pkt.size;
1950                 output_packet(of, &pkt, ost);
1951                 if (ost->enc_ctx->codec_type == AVMEDIA_TYPE_VIDEO && vstats_filename) {
1952                     do_video_stats(ost, pkt_size);
1953                 }
1954         }
1955     }
1956 }
1957
1958 /*
1959  * Check whether a packet from ist should be written into ost at this time
1960  */
1961 static int check_output_constraints(InputStream *ist, OutputStream *ost)
1962 {
1963     OutputFile *of = output_files[ost->file_index];
1964     int ist_index  = input_files[ist->file_index]->ist_index + ist->st->index;
1965
1966     if (ost->source_index != ist_index)
1967         return 0;
1968
1969     if (ost->finished)
1970         return 0;
1971
1972     if (of->start_time != AV_NOPTS_VALUE && ist->pts < of->start_time)
1973         return 0;
1974
1975     return 1;
1976 }
1977
1978 static void do_streamcopy(InputStream *ist, OutputStream *ost, const AVPacket *pkt)
1979 {
1980     OutputFile *of = output_files[ost->file_index];
1981     InputFile   *f = input_files [ist->file_index];
1982     int64_t start_time = (of->start_time == AV_NOPTS_VALUE) ? 0 : of->start_time;
1983     int64_t ost_tb_start_time = av_rescale_q(start_time, AV_TIME_BASE_Q, ost->mux_timebase);
1984     AVPicture pict;
1985     AVPacket opkt;
1986
1987     av_init_packet(&opkt);
1988
1989     if ((!ost->frame_number && !(pkt->flags & AV_PKT_FLAG_KEY)) &&
1990         !ost->copy_initial_nonkeyframes)
1991         return;
1992
1993     if (!ost->frame_number && !ost->copy_prior_start) {
1994         int64_t comp_start = start_time;
1995         if (copy_ts && f->start_time != AV_NOPTS_VALUE)
1996             comp_start = FFMAX(start_time, f->start_time + f->ts_offset);
1997         if (pkt->pts == AV_NOPTS_VALUE ?
1998             ist->pts < comp_start :
1999             pkt->pts < av_rescale_q(comp_start, AV_TIME_BASE_Q, ist->st->time_base))
2000             return;
2001     }
2002
2003     if (of->recording_time != INT64_MAX &&
2004         ist->pts >= of->recording_time + start_time) {
2005         close_output_stream(ost);
2006         return;
2007     }
2008
2009     if (f->recording_time != INT64_MAX) {
2010         start_time = f->ctx->start_time;
2011         if (f->start_time != AV_NOPTS_VALUE && copy_ts)
2012             start_time += f->start_time;
2013         if (ist->pts >= f->recording_time + start_time) {
2014             close_output_stream(ost);
2015             return;
2016         }
2017     }
2018
2019     /* force the input stream PTS */
2020     if (ost->enc_ctx->codec_type == AVMEDIA_TYPE_VIDEO)
2021         ost->sync_opts++;
2022
2023     if (pkt->pts != AV_NOPTS_VALUE)
2024         opkt.pts = av_rescale_q(pkt->pts, ist->st->time_base, ost->mux_timebase) - ost_tb_start_time;
2025     else
2026         opkt.pts = AV_NOPTS_VALUE;
2027
2028     if (pkt->dts == AV_NOPTS_VALUE)
2029         opkt.dts = av_rescale_q(ist->dts, AV_TIME_BASE_Q, ost->mux_timebase);
2030     else
2031         opkt.dts = av_rescale_q(pkt->dts, ist->st->time_base, ost->mux_timebase);
2032     opkt.dts -= ost_tb_start_time;
2033
2034     if (ost->st->codecpar->codec_type == AVMEDIA_TYPE_AUDIO && pkt->dts != AV_NOPTS_VALUE) {
2035         int duration = av_get_audio_frame_duration(ist->dec_ctx, pkt->size);
2036         if(!duration)
2037             duration = ist->dec_ctx->frame_size;
2038         opkt.dts = opkt.pts = av_rescale_delta(ist->st->time_base, pkt->dts,
2039                                                (AVRational){1, ist->dec_ctx->sample_rate}, duration, &ist->filter_in_rescale_delta_last,
2040                                                ost->mux_timebase) - ost_tb_start_time;
2041     }
2042
2043     opkt.duration = av_rescale_q(pkt->duration, ist->st->time_base, ost->mux_timebase);
2044
2045     opkt.flags    = pkt->flags;
2046     // FIXME remove the following 2 lines they shall be replaced by the bitstream filters
2047     if (  ost->st->codecpar->codec_id != AV_CODEC_ID_H264
2048        && ost->st->codecpar->codec_id != AV_CODEC_ID_MPEG1VIDEO
2049        && ost->st->codecpar->codec_id != AV_CODEC_ID_MPEG2VIDEO
2050        && ost->st->codecpar->codec_id != AV_CODEC_ID_VC1
2051        ) {
2052         int ret = av_parser_change(ost->parser, ost->parser_avctx,
2053                              &opkt.data, &opkt.size,
2054                              pkt->data, pkt->size,
2055                              pkt->flags & AV_PKT_FLAG_KEY);
2056         if (ret < 0) {
2057             av_log(NULL, AV_LOG_FATAL, "av_parser_change failed: %s\n",
2058                    av_err2str(ret));
2059             exit_program(1);
2060         }
2061         if (ret) {
2062             opkt.buf = av_buffer_create(opkt.data, opkt.size, av_buffer_default_free, NULL, 0);
2063             if (!opkt.buf)
2064                 exit_program(1);
2065         }
2066     } else {
2067         opkt.data = pkt->data;
2068         opkt.size = pkt->size;
2069     }
2070     av_copy_packet_side_data(&opkt, pkt);
2071
2072 #if FF_API_LAVF_FMT_RAWPICTURE
2073     if (ost->st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO &&
2074         ost->st->codecpar->codec_id == AV_CODEC_ID_RAWVIDEO &&
2075         (of->ctx->oformat->flags & AVFMT_RAWPICTURE)) {
2076         /* store AVPicture in AVPacket, as expected by the output format */
2077         int ret = avpicture_fill(&pict, opkt.data, ost->st->codecpar->format, ost->st->codecpar->width, ost->st->codecpar->height);
2078         if (ret < 0) {
2079             av_log(NULL, AV_LOG_FATAL, "avpicture_fill failed: %s\n",
2080                    av_err2str(ret));
2081             exit_program(1);
2082         }
2083         opkt.data = (uint8_t *)&pict;
2084         opkt.size = sizeof(AVPicture);
2085         opkt.flags |= AV_PKT_FLAG_KEY;
2086     }
2087 #endif
2088
2089     output_packet(of, &opkt, ost);
2090 }
2091
2092 int guess_input_channel_layout(InputStream *ist)
2093 {
2094     AVCodecContext *dec = ist->dec_ctx;
2095
2096     if (!dec->channel_layout) {
2097         char layout_name[256];
2098
2099         if (dec->channels > ist->guess_layout_max)
2100             return 0;
2101         dec->channel_layout = av_get_default_channel_layout(dec->channels);
2102         if (!dec->channel_layout)
2103             return 0;
2104         av_get_channel_layout_string(layout_name, sizeof(layout_name),
2105                                      dec->channels, dec->channel_layout);
2106         av_log(NULL, AV_LOG_WARNING, "Guessed Channel Layout for Input Stream "
2107                "#%d.%d : %s\n", ist->file_index, ist->st->index, layout_name);
2108     }
2109     return 1;
2110 }
2111
2112 static void check_decode_result(InputStream *ist, int *got_output, int ret)
2113 {
2114     if (*got_output || ret<0)
2115         decode_error_stat[ret<0] ++;
2116
2117     if (ret < 0 && exit_on_error)
2118         exit_program(1);
2119
2120     if (exit_on_error && *got_output && ist) {
2121         if (av_frame_get_decode_error_flags(ist->decoded_frame) || (ist->decoded_frame->flags & AV_FRAME_FLAG_CORRUPT)) {
2122             av_log(NULL, AV_LOG_FATAL, "%s: corrupt decoded frame in stream %d\n", input_files[ist->file_index]->ctx->filename, ist->st->index);
2123             exit_program(1);
2124         }
2125     }
2126 }
2127
2128 // Filters can be configured only if the formats of all inputs are known.
2129 static int ifilter_has_all_input_formats(FilterGraph *fg)
2130 {
2131     int i;
2132     for (i = 0; i < fg->nb_inputs; i++) {
2133         if (fg->inputs[i]->format < 0 && (fg->inputs[i]->type == AVMEDIA_TYPE_AUDIO ||
2134                                           fg->inputs[i]->type == AVMEDIA_TYPE_VIDEO))
2135             return 0;
2136     }
2137     return 1;
2138 }
2139
2140 static int ifilter_send_frame(InputFilter *ifilter, AVFrame *frame)
2141 {
2142     FilterGraph *fg = ifilter->graph;
2143     int need_reinit, ret, i;
2144
2145     /* determine if the parameters for this input changed */
2146     need_reinit = ifilter->format != frame->format;
2147     if (!!ifilter->hw_frames_ctx != !!frame->hw_frames_ctx ||
2148         (ifilter->hw_frames_ctx && ifilter->hw_frames_ctx->data != frame->hw_frames_ctx->data))
2149         need_reinit = 1;
2150
2151     switch (ifilter->ist->st->codecpar->codec_type) {
2152     case AVMEDIA_TYPE_AUDIO:
2153         need_reinit |= ifilter->sample_rate    != frame->sample_rate ||
2154                        ifilter->channels       != frame->channels ||
2155                        ifilter->channel_layout != frame->channel_layout;
2156         break;
2157     case AVMEDIA_TYPE_VIDEO:
2158         need_reinit |= ifilter->width  != frame->width ||
2159                        ifilter->height != frame->height;
2160         break;
2161     }
2162
2163     if (need_reinit) {
2164         ret = ifilter_parameters_from_frame(ifilter, frame);
2165         if (ret < 0)
2166             return ret;
2167     }
2168
2169     /* (re)init the graph if possible, otherwise buffer the frame and return */
2170     if (need_reinit || !fg->graph) {
2171         for (i = 0; i < fg->nb_inputs; i++) {
2172             if (!ifilter_has_all_input_formats(fg)) {
2173                 AVFrame *tmp = av_frame_clone(frame);
2174                 if (!tmp)
2175                     return AVERROR(ENOMEM);
2176                 av_frame_unref(frame);
2177
2178                 if (!av_fifo_space(ifilter->frame_queue)) {
2179                     ret = av_fifo_realloc2(ifilter->frame_queue, 2 * av_fifo_size(ifilter->frame_queue));
2180                     if (ret < 0) {
2181                         av_frame_free(&tmp);
2182                         return ret;
2183                     }
2184                 }
2185                 av_fifo_generic_write(ifilter->frame_queue, &tmp, sizeof(tmp), NULL);
2186                 return 0;
2187             }
2188         }
2189
2190         ret = reap_filters(1);
2191         if (ret < 0 && ret != AVERROR_EOF) {
2192             char errbuf[128];
2193             av_strerror(ret, errbuf, sizeof(errbuf));
2194
2195             av_log(NULL, AV_LOG_ERROR, "Error while filtering: %s\n", errbuf);
2196             return ret;
2197         }
2198
2199         ret = configure_filtergraph(fg);
2200         if (ret < 0) {
2201             av_log(NULL, AV_LOG_ERROR, "Error reinitializing filters!\n");
2202             return ret;
2203         }
2204     }
2205
2206     ret = av_buffersrc_add_frame_flags(ifilter->filter, frame, AV_BUFFERSRC_FLAG_PUSH);
2207     if (ret < 0) {
2208         av_log(NULL, AV_LOG_ERROR, "Error while filtering\n");
2209         return ret;
2210     }
2211
2212     return 0;
2213 }
2214
2215 static int ifilter_send_eof(InputFilter *ifilter)
2216 {
2217     int i, j, ret;
2218
2219     ifilter->eof = 1;
2220
2221     if (ifilter->filter) {
2222         ret = av_buffersrc_add_frame_flags(ifilter->filter, NULL, AV_BUFFERSRC_FLAG_PUSH);
2223         if (ret < 0)
2224             return ret;
2225     } else {
2226         // the filtergraph was never configured
2227         FilterGraph *fg = ifilter->graph;
2228         for (i = 0; i < fg->nb_inputs; i++)
2229             if (!fg->inputs[i]->eof)
2230                 break;
2231         if (i == fg->nb_inputs) {
2232             // All the input streams have finished without the filtergraph
2233             // ever being configured.
2234             // Mark the output streams as finished.
2235             for (j = 0; j < fg->nb_outputs; j++)
2236                 finish_output_stream(fg->outputs[j]->ost);
2237         }
2238     }
2239
2240     return 0;
2241 }
2242
2243 // This does not quite work like avcodec_decode_audio4/avcodec_decode_video2.
2244 // There is the following difference: if you got a frame, you must call
2245 // it again with pkt=NULL. pkt==NULL is treated differently from pkt.size==0
2246 // (pkt==NULL means get more output, pkt.size==0 is a flush/drain packet)
2247 static int decode(AVCodecContext *avctx, AVFrame *frame, int *got_frame, AVPacket *pkt)
2248 {
2249     int ret;
2250
2251     *got_frame = 0;
2252
2253     if (pkt) {
2254         ret = avcodec_send_packet(avctx, pkt);
2255         // In particular, we don't expect AVERROR(EAGAIN), because we read all
2256         // decoded frames with avcodec_receive_frame() until done.
2257         if (ret < 0 && ret != AVERROR_EOF)
2258             return ret;
2259     }
2260
2261     ret = avcodec_receive_frame(avctx, frame);
2262     if (ret < 0 && ret != AVERROR(EAGAIN))
2263         return ret;
2264     if (ret >= 0)
2265         *got_frame = 1;
2266
2267     return 0;
2268 }
2269
2270 static int send_frame_to_filters(InputStream *ist, AVFrame *decoded_frame)
2271 {
2272     int i, ret;
2273     AVFrame *f;
2274
2275     av_assert1(ist->nb_filters > 0); /* ensure ret is initialized */
2276     for (i = 0; i < ist->nb_filters; i++) {
2277         if (i < ist->nb_filters - 1) {
2278             f = ist->filter_frame;
2279             ret = av_frame_ref(f, decoded_frame);
2280             if (ret < 0)
2281                 break;
2282         } else
2283             f = decoded_frame;
2284         ret = ifilter_send_frame(ist->filters[i], f);
2285         if (ret == AVERROR_EOF)
2286             ret = 0; /* ignore */
2287         if (ret < 0) {
2288             av_log(NULL, AV_LOG_ERROR,
2289                    "Failed to inject frame into filter network: %s\n", av_err2str(ret));
2290             break;
2291         }
2292     }
2293     return ret;
2294 }
2295
2296 static int decode_audio(InputStream *ist, AVPacket *pkt, int *got_output,
2297                         int *decode_failed)
2298 {
2299     AVFrame *decoded_frame;
2300     AVCodecContext *avctx = ist->dec_ctx;
2301     int ret, err = 0;
2302     AVRational decoded_frame_tb;
2303
2304     if (!ist->decoded_frame && !(ist->decoded_frame = av_frame_alloc()))
2305         return AVERROR(ENOMEM);
2306     if (!ist->filter_frame && !(ist->filter_frame = av_frame_alloc()))
2307         return AVERROR(ENOMEM);
2308     decoded_frame = ist->decoded_frame;
2309
2310     update_benchmark(NULL);
2311     ret = decode(avctx, decoded_frame, got_output, pkt);
2312     update_benchmark("decode_audio %d.%d", ist->file_index, ist->st->index);
2313     if (ret < 0)
2314         *decode_failed = 1;
2315
2316     if (ret >= 0 && avctx->sample_rate <= 0) {
2317         av_log(avctx, AV_LOG_ERROR, "Sample rate %d invalid\n", avctx->sample_rate);
2318         ret = AVERROR_INVALIDDATA;
2319     }
2320
2321     if (ret != AVERROR_EOF)
2322         check_decode_result(ist, got_output, ret);
2323
2324     if (!*got_output || ret < 0)
2325         return ret;
2326
2327     ist->samples_decoded += decoded_frame->nb_samples;
2328     ist->frames_decoded++;
2329
2330 #if 1
2331     /* increment next_dts to use for the case where the input stream does not
2332        have timestamps or there are multiple frames in the packet */
2333     ist->next_pts += ((int64_t)AV_TIME_BASE * decoded_frame->nb_samples) /
2334                      avctx->sample_rate;
2335     ist->next_dts += ((int64_t)AV_TIME_BASE * decoded_frame->nb_samples) /
2336                      avctx->sample_rate;
2337 #endif
2338
2339     if (decoded_frame->pts != AV_NOPTS_VALUE) {
2340         decoded_frame_tb   = ist->st->time_base;
2341     } else if (pkt && pkt->pts != AV_NOPTS_VALUE) {
2342         decoded_frame->pts = pkt->pts;
2343         decoded_frame_tb   = ist->st->time_base;
2344     }else {
2345         decoded_frame->pts = ist->dts;
2346         decoded_frame_tb   = AV_TIME_BASE_Q;
2347     }
2348     if (decoded_frame->pts != AV_NOPTS_VALUE)
2349         decoded_frame->pts = av_rescale_delta(decoded_frame_tb, decoded_frame->pts,
2350                                               (AVRational){1, avctx->sample_rate}, decoded_frame->nb_samples, &ist->filter_in_rescale_delta_last,
2351                                               (AVRational){1, avctx->sample_rate});
2352     ist->nb_samples = decoded_frame->nb_samples;
2353     err = send_frame_to_filters(ist, decoded_frame);
2354
2355     av_frame_unref(ist->filter_frame);
2356     av_frame_unref(decoded_frame);
2357     return err < 0 ? err : ret;
2358 }
2359
2360 static int decode_video(InputStream *ist, AVPacket *pkt, int *got_output, int eof,
2361                         int *decode_failed)
2362 {
2363     AVFrame *decoded_frame;
2364     int i, ret = 0, err = 0;
2365     int64_t best_effort_timestamp;
2366     int64_t dts = AV_NOPTS_VALUE;
2367     AVPacket avpkt;
2368
2369     // With fate-indeo3-2, we're getting 0-sized packets before EOF for some
2370     // reason. This seems like a semi-critical bug. Don't trigger EOF, and
2371     // skip the packet.
2372     if (!eof && pkt && pkt->size == 0)
2373         return 0;
2374
2375     if (!ist->decoded_frame && !(ist->decoded_frame = av_frame_alloc()))
2376         return AVERROR(ENOMEM);
2377     if (!ist->filter_frame && !(ist->filter_frame = av_frame_alloc()))
2378         return AVERROR(ENOMEM);
2379     decoded_frame = ist->decoded_frame;
2380     if (ist->dts != AV_NOPTS_VALUE)
2381         dts = av_rescale_q(ist->dts, AV_TIME_BASE_Q, ist->st->time_base);
2382     if (pkt) {
2383         avpkt = *pkt;
2384         avpkt.dts = dts; // ffmpeg.c probably shouldn't do this
2385     }
2386
2387     // The old code used to set dts on the drain packet, which does not work
2388     // with the new API anymore.
2389     if (eof) {
2390         void *new = av_realloc_array(ist->dts_buffer, ist->nb_dts_buffer + 1, sizeof(ist->dts_buffer[0]));
2391         if (!new)
2392             return AVERROR(ENOMEM);
2393         ist->dts_buffer = new;
2394         ist->dts_buffer[ist->nb_dts_buffer++] = dts;
2395     }
2396
2397     update_benchmark(NULL);
2398     ret = decode(ist->dec_ctx, decoded_frame, got_output, pkt ? &avpkt : NULL);
2399     update_benchmark("decode_video %d.%d", ist->file_index, ist->st->index);
2400     if (ret < 0)
2401         *decode_failed = 1;
2402
2403     // The following line may be required in some cases where there is no parser
2404     // or the parser does not has_b_frames correctly
2405     if (ist->st->codecpar->video_delay < ist->dec_ctx->has_b_frames) {
2406         if (ist->dec_ctx->codec_id == AV_CODEC_ID_H264) {
2407             ist->st->codecpar->video_delay = ist->dec_ctx->has_b_frames;
2408         } else
2409             av_log(ist->dec_ctx, AV_LOG_WARNING,
2410                    "video_delay is larger in decoder than demuxer %d > %d.\n"
2411                    "If you want to help, upload a sample "
2412                    "of this file to ftp://upload.ffmpeg.org/incoming/ "
2413                    "and contact the ffmpeg-devel mailing list. (ffmpeg-devel@ffmpeg.org)\n",
2414                    ist->dec_ctx->has_b_frames,
2415                    ist->st->codecpar->video_delay);
2416     }
2417
2418     if (ret != AVERROR_EOF)
2419         check_decode_result(ist, got_output, ret);
2420
2421     if (*got_output && ret >= 0) {
2422         if (ist->dec_ctx->width  != decoded_frame->width ||
2423             ist->dec_ctx->height != decoded_frame->height ||
2424             ist->dec_ctx->pix_fmt != decoded_frame->format) {
2425             av_log(NULL, AV_LOG_DEBUG, "Frame parameters mismatch context %d,%d,%d != %d,%d,%d\n",
2426                 decoded_frame->width,
2427                 decoded_frame->height,
2428                 decoded_frame->format,
2429                 ist->dec_ctx->width,
2430                 ist->dec_ctx->height,
2431                 ist->dec_ctx->pix_fmt);
2432         }
2433     }
2434
2435     if (!*got_output || ret < 0)
2436         return ret;
2437
2438     if(ist->top_field_first>=0)
2439         decoded_frame->top_field_first = ist->top_field_first;
2440
2441     ist->frames_decoded++;
2442
2443     if (ist->hwaccel_retrieve_data && decoded_frame->format == ist->hwaccel_pix_fmt) {
2444         err = ist->hwaccel_retrieve_data(ist->dec_ctx, decoded_frame);
2445         if (err < 0)
2446             goto fail;
2447     }
2448     ist->hwaccel_retrieved_pix_fmt = decoded_frame->format;
2449
2450     best_effort_timestamp= av_frame_get_best_effort_timestamp(decoded_frame);
2451
2452     if (ist->framerate.num)
2453         best_effort_timestamp = ist->cfr_next_pts++;
2454
2455     if (eof && best_effort_timestamp == AV_NOPTS_VALUE && ist->nb_dts_buffer > 0) {
2456         best_effort_timestamp = ist->dts_buffer[0];
2457
2458         for (i = 0; i < ist->nb_dts_buffer - 1; i++)
2459             ist->dts_buffer[i] = ist->dts_buffer[i + 1];
2460         ist->nb_dts_buffer--;
2461     }
2462
2463     if(best_effort_timestamp != AV_NOPTS_VALUE) {
2464         int64_t ts = av_rescale_q(decoded_frame->pts = best_effort_timestamp, ist->st->time_base, AV_TIME_BASE_Q);
2465
2466         if (ts != AV_NOPTS_VALUE)
2467             ist->next_pts = ist->pts = ts;
2468     }
2469
2470     if (debug_ts) {
2471         av_log(NULL, AV_LOG_INFO, "decoder -> ist_index:%d type:video "
2472                "frame_pts:%s frame_pts_time:%s best_effort_ts:%"PRId64" best_effort_ts_time:%s keyframe:%d frame_type:%d time_base:%d/%d\n",
2473                ist->st->index, av_ts2str(decoded_frame->pts),
2474                av_ts2timestr(decoded_frame->pts, &ist->st->time_base),
2475                best_effort_timestamp,
2476                av_ts2timestr(best_effort_timestamp, &ist->st->time_base),
2477                decoded_frame->key_frame, decoded_frame->pict_type,
2478                ist->st->time_base.num, ist->st->time_base.den);
2479     }
2480
2481     if (ist->st->sample_aspect_ratio.num)
2482         decoded_frame->sample_aspect_ratio = ist->st->sample_aspect_ratio;
2483
2484     err = send_frame_to_filters(ist, decoded_frame);
2485
2486 fail:
2487     av_frame_unref(ist->filter_frame);
2488     av_frame_unref(decoded_frame);
2489     return err < 0 ? err : ret;
2490 }
2491
2492 static int transcode_subtitles(InputStream *ist, AVPacket *pkt, int *got_output,
2493                                int *decode_failed)
2494 {
2495     AVSubtitle subtitle;
2496     int free_sub = 1;
2497     int i, ret = avcodec_decode_subtitle2(ist->dec_ctx,
2498                                           &subtitle, got_output, pkt);
2499
2500     check_decode_result(NULL, got_output, ret);
2501
2502     if (ret < 0 || !*got_output) {
2503         *decode_failed = 1;
2504         if (!pkt->size)
2505             sub2video_flush(ist);
2506         return ret;
2507     }
2508
2509     if (ist->fix_sub_duration) {
2510         int end = 1;
2511         if (ist->prev_sub.got_output) {
2512             end = av_rescale(subtitle.pts - ist->prev_sub.subtitle.pts,
2513                              1000, AV_TIME_BASE);
2514             if (end < ist->prev_sub.subtitle.end_display_time) {
2515                 av_log(ist->dec_ctx, AV_LOG_DEBUG,
2516                        "Subtitle duration reduced from %"PRId32" to %d%s\n",
2517                        ist->prev_sub.subtitle.end_display_time, end,
2518                        end <= 0 ? ", dropping it" : "");
2519                 ist->prev_sub.subtitle.end_display_time = end;
2520             }
2521         }
2522         FFSWAP(int,        *got_output, ist->prev_sub.got_output);
2523         FFSWAP(int,        ret,         ist->prev_sub.ret);
2524         FFSWAP(AVSubtitle, subtitle,    ist->prev_sub.subtitle);
2525         if (end <= 0)
2526             goto out;
2527     }
2528
2529     if (!*got_output)
2530         return ret;
2531
2532     if (ist->sub2video.frame) {
2533         sub2video_update(ist, &subtitle);
2534     } else if (ist->nb_filters) {
2535         if (!ist->sub2video.sub_queue)
2536             ist->sub2video.sub_queue = av_fifo_alloc(8 * sizeof(AVSubtitle));
2537         if (!ist->sub2video.sub_queue)
2538             exit_program(1);
2539         if (!av_fifo_space(ist->sub2video.sub_queue)) {
2540             ret = av_fifo_realloc2(ist->sub2video.sub_queue, 2 * av_fifo_size(ist->sub2video.sub_queue));
2541             if (ret < 0)
2542                 exit_program(1);
2543         }
2544         av_fifo_generic_write(ist->sub2video.sub_queue, &subtitle, sizeof(subtitle), NULL);
2545         free_sub = 0;
2546     }
2547
2548     if (!subtitle.num_rects)
2549         goto out;
2550
2551     ist->frames_decoded++;
2552
2553     for (i = 0; i < nb_output_streams; i++) {
2554         OutputStream *ost = output_streams[i];
2555
2556         if (!check_output_constraints(ist, ost) || !ost->encoding_needed
2557             || ost->enc->type != AVMEDIA_TYPE_SUBTITLE)
2558             continue;
2559
2560         do_subtitle_out(output_files[ost->file_index], ost, &subtitle);
2561     }
2562
2563 out:
2564     if (free_sub)
2565         avsubtitle_free(&subtitle);
2566     return ret;
2567 }
2568
2569 static int send_filter_eof(InputStream *ist)
2570 {
2571     int i, ret;
2572     for (i = 0; i < ist->nb_filters; i++) {
2573         ret = ifilter_send_eof(ist->filters[i]);
2574         if (ret < 0)
2575             return ret;
2576     }
2577     return 0;
2578 }
2579
2580 /* pkt = NULL means EOF (needed to flush decoder buffers) */
2581 static int process_input_packet(InputStream *ist, const AVPacket *pkt, int no_eof)
2582 {
2583     int ret = 0, i;
2584     int repeating = 0;
2585     int eof_reached = 0;
2586
2587     AVPacket avpkt;
2588     if (!ist->saw_first_ts) {
2589         ist->dts = ist->st->avg_frame_rate.num ? - ist->dec_ctx->has_b_frames * AV_TIME_BASE / av_q2d(ist->st->avg_frame_rate) : 0;
2590         ist->pts = 0;
2591         if (pkt && pkt->pts != AV_NOPTS_VALUE && !ist->decoding_needed) {
2592             ist->dts += av_rescale_q(pkt->pts, ist->st->time_base, AV_TIME_BASE_Q);
2593             ist->pts = ist->dts; //unused but better to set it to a value thats not totally wrong
2594         }
2595         ist->saw_first_ts = 1;
2596     }
2597
2598     if (ist->next_dts == AV_NOPTS_VALUE)
2599         ist->next_dts = ist->dts;
2600     if (ist->next_pts == AV_NOPTS_VALUE)
2601         ist->next_pts = ist->pts;
2602
2603     if (!pkt) {
2604         /* EOF handling */
2605         av_init_packet(&avpkt);
2606         avpkt.data = NULL;
2607         avpkt.size = 0;
2608     } else {
2609         avpkt = *pkt;
2610     }
2611
2612     if (pkt && pkt->dts != AV_NOPTS_VALUE) {
2613         ist->next_dts = ist->dts = av_rescale_q(pkt->dts, ist->st->time_base, AV_TIME_BASE_Q);
2614         if (ist->dec_ctx->codec_type != AVMEDIA_TYPE_VIDEO || !ist->decoding_needed)
2615             ist->next_pts = ist->pts = ist->dts;
2616     }
2617
2618     // while we have more to decode or while the decoder did output something on EOF
2619     while (ist->decoding_needed) {
2620         int duration = 0;
2621         int got_output = 0;
2622         int decode_failed = 0;
2623
2624         ist->pts = ist->next_pts;
2625         ist->dts = ist->next_dts;
2626
2627         switch (ist->dec_ctx->codec_type) {
2628         case AVMEDIA_TYPE_AUDIO:
2629             ret = decode_audio    (ist, repeating ? NULL : &avpkt, &got_output,
2630                                    &decode_failed);
2631             break;
2632         case AVMEDIA_TYPE_VIDEO:
2633             ret = decode_video    (ist, repeating ? NULL : &avpkt, &got_output, !pkt,
2634                                    &decode_failed);
2635             if (!repeating || !pkt || got_output) {
2636                 if (pkt && pkt->duration) {
2637                     duration = av_rescale_q(pkt->duration, ist->st->time_base, AV_TIME_BASE_Q);
2638                 } else if(ist->dec_ctx->framerate.num != 0 && ist->dec_ctx->framerate.den != 0) {
2639                     int ticks= av_stream_get_parser(ist->st) ? av_stream_get_parser(ist->st)->repeat_pict+1 : ist->dec_ctx->ticks_per_frame;
2640                     duration = ((int64_t)AV_TIME_BASE *
2641                                     ist->dec_ctx->framerate.den * ticks) /
2642                                     ist->dec_ctx->framerate.num / ist->dec_ctx->ticks_per_frame;
2643                 }
2644
2645                 if(ist->dts != AV_NOPTS_VALUE && duration) {
2646                     ist->next_dts += duration;
2647                 }else
2648                     ist->next_dts = AV_NOPTS_VALUE;
2649             }
2650
2651             if (got_output)
2652                 ist->next_pts += duration; //FIXME the duration is not correct in some cases
2653             break;
2654         case AVMEDIA_TYPE_SUBTITLE:
2655             if (repeating)
2656                 break;
2657             ret = transcode_subtitles(ist, &avpkt, &got_output, &decode_failed);
2658             if (!pkt && ret >= 0)
2659                 ret = AVERROR_EOF;
2660             break;
2661         default:
2662             return -1;
2663         }
2664
2665         if (ret == AVERROR_EOF) {
2666             eof_reached = 1;
2667             break;
2668         }
2669
2670         if (ret < 0) {
2671             if (decode_failed) {
2672                 av_log(NULL, AV_LOG_ERROR, "Error while decoding stream #%d:%d: %s\n",
2673                        ist->file_index, ist->st->index, av_err2str(ret));
2674             } else {
2675                 av_log(NULL, AV_LOG_FATAL, "Error while processing the decoded "
2676                        "data for stream #%d:%d\n", ist->file_index, ist->st->index);
2677             }
2678             if (!decode_failed || exit_on_error)
2679                 exit_program(1);
2680             break;
2681         }
2682
2683         if (got_output)
2684             ist->got_output = 1;
2685
2686         if (!got_output)
2687             break;
2688
2689         // During draining, we might get multiple output frames in this loop.
2690         // ffmpeg.c does not drain the filter chain on configuration changes,
2691         // which means if we send multiple frames at once to the filters, and
2692         // one of those frames changes configuration, the buffered frames will
2693         // be lost. This can upset certain FATE tests.
2694         // Decode only 1 frame per call on EOF to appease these FATE tests.
2695         // The ideal solution would be to rewrite decoding to use the new
2696         // decoding API in a better way.
2697         if (!pkt)
2698             break;
2699
2700         repeating = 1;
2701     }
2702
2703     /* after flushing, send an EOF on all the filter inputs attached to the stream */
2704     /* except when looping we need to flush but not to send an EOF */
2705     if (!pkt && ist->decoding_needed && eof_reached && !no_eof) {
2706         int ret = send_filter_eof(ist);
2707         if (ret < 0) {
2708             av_log(NULL, AV_LOG_FATAL, "Error marking filters as finished\n");
2709             exit_program(1);
2710         }
2711     }
2712
2713     /* handle stream copy */
2714     if (!ist->decoding_needed) {
2715         ist->dts = ist->next_dts;
2716         switch (ist->dec_ctx->codec_type) {
2717         case AVMEDIA_TYPE_AUDIO:
2718             ist->next_dts += ((int64_t)AV_TIME_BASE * ist->dec_ctx->frame_size) /
2719                              ist->dec_ctx->sample_rate;
2720             break;
2721         case AVMEDIA_TYPE_VIDEO:
2722             if (ist->framerate.num) {
2723                 // TODO: Remove work-around for c99-to-c89 issue 7
2724                 AVRational time_base_q = AV_TIME_BASE_Q;
2725                 int64_t next_dts = av_rescale_q(ist->next_dts, time_base_q, av_inv_q(ist->framerate));
2726                 ist->next_dts = av_rescale_q(next_dts + 1, av_inv_q(ist->framerate), time_base_q);
2727             } else if (pkt->duration) {
2728                 ist->next_dts += av_rescale_q(pkt->duration, ist->st->time_base, AV_TIME_BASE_Q);
2729             } else if(ist->dec_ctx->framerate.num != 0) {
2730                 int ticks= av_stream_get_parser(ist->st) ? av_stream_get_parser(ist->st)->repeat_pict + 1 : ist->dec_ctx->ticks_per_frame;
2731                 ist->next_dts += ((int64_t)AV_TIME_BASE *
2732                                   ist->dec_ctx->framerate.den * ticks) /
2733                                   ist->dec_ctx->framerate.num / ist->dec_ctx->ticks_per_frame;
2734             }
2735             break;
2736         }
2737         ist->pts = ist->dts;
2738         ist->next_pts = ist->next_dts;
2739     }
2740     for (i = 0; pkt && i < nb_output_streams; i++) {
2741         OutputStream *ost = output_streams[i];
2742
2743         if (!check_output_constraints(ist, ost) || ost->encoding_needed)
2744             continue;
2745
2746         do_streamcopy(ist, ost, pkt);
2747     }
2748
2749     return !eof_reached;
2750 }
2751
2752 static void print_sdp(void)
2753 {
2754     char sdp[16384];
2755     int i;
2756     int j;
2757     AVIOContext *sdp_pb;
2758     AVFormatContext **avc;
2759
2760     for (i = 0; i < nb_output_files; i++) {
2761         if (!output_files[i]->header_written)
2762             return;
2763     }
2764
2765     avc = av_malloc_array(nb_output_files, sizeof(*avc));
2766     if (!avc)
2767         exit_program(1);
2768     for (i = 0, j = 0; i < nb_output_files; i++) {
2769         if (!strcmp(output_files[i]->ctx->oformat->name, "rtp")) {
2770             avc[j] = output_files[i]->ctx;
2771             j++;
2772         }
2773     }
2774
2775     if (!j)
2776         goto fail;
2777
2778     av_sdp_create(avc, j, sdp, sizeof(sdp));
2779
2780     if (!sdp_filename) {
2781         printf("SDP:\n%s\n", sdp);
2782         fflush(stdout);
2783     } else {
2784         if (avio_open2(&sdp_pb, sdp_filename, AVIO_FLAG_WRITE, &int_cb, NULL) < 0) {
2785             av_log(NULL, AV_LOG_ERROR, "Failed to open sdp file '%s'\n", sdp_filename);
2786         } else {
2787             avio_printf(sdp_pb, "SDP:\n%s", sdp);
2788             avio_closep(&sdp_pb);
2789             av_freep(&sdp_filename);
2790         }
2791     }
2792
2793 fail:
2794     av_freep(&avc);
2795 }
2796
2797 static const HWAccel *get_hwaccel(enum AVPixelFormat pix_fmt)
2798 {
2799     int i;
2800     for (i = 0; hwaccels[i].name; i++)
2801         if (hwaccels[i].pix_fmt == pix_fmt)
2802             return &hwaccels[i];
2803     return NULL;
2804 }
2805
2806 static enum AVPixelFormat get_format(AVCodecContext *s, const enum AVPixelFormat *pix_fmts)
2807 {
2808     InputStream *ist = s->opaque;
2809     const enum AVPixelFormat *p;
2810     int ret;
2811
2812     for (p = pix_fmts; *p != -1; p++) {
2813         const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(*p);
2814         const HWAccel *hwaccel;
2815
2816         if (!(desc->flags & AV_PIX_FMT_FLAG_HWACCEL))
2817             break;
2818
2819         hwaccel = get_hwaccel(*p);
2820         if (!hwaccel ||
2821             (ist->active_hwaccel_id && ist->active_hwaccel_id != hwaccel->id) ||
2822             (ist->hwaccel_id != HWACCEL_AUTO && ist->hwaccel_id != hwaccel->id))
2823             continue;
2824
2825         ret = hwaccel->init(s);
2826         if (ret < 0) {
2827             if (ist->hwaccel_id == hwaccel->id) {
2828                 av_log(NULL, AV_LOG_FATAL,
2829                        "%s hwaccel requested for input stream #%d:%d, "
2830                        "but cannot be initialized.\n", hwaccel->name,
2831                        ist->file_index, ist->st->index);
2832                 return AV_PIX_FMT_NONE;
2833             }
2834             continue;
2835         }
2836
2837         if (ist->hw_frames_ctx) {
2838             s->hw_frames_ctx = av_buffer_ref(ist->hw_frames_ctx);
2839             if (!s->hw_frames_ctx)
2840                 return AV_PIX_FMT_NONE;
2841         }
2842
2843         ist->active_hwaccel_id = hwaccel->id;
2844         ist->hwaccel_pix_fmt   = *p;
2845         break;
2846     }
2847
2848     return *p;
2849 }
2850
2851 static int get_buffer(AVCodecContext *s, AVFrame *frame, int flags)
2852 {
2853     InputStream *ist = s->opaque;
2854
2855     if (ist->hwaccel_get_buffer && frame->format == ist->hwaccel_pix_fmt)
2856         return ist->hwaccel_get_buffer(s, frame, flags);
2857
2858     return avcodec_default_get_buffer2(s, frame, flags);
2859 }
2860
2861 static int init_input_stream(int ist_index, char *error, int error_len)
2862 {
2863     int ret;
2864     InputStream *ist = input_streams[ist_index];
2865
2866     if (ist->decoding_needed) {
2867         AVCodec *codec = ist->dec;
2868         if (!codec) {
2869             snprintf(error, error_len, "Decoder (codec %s) not found for input stream #%d:%d",
2870                     avcodec_get_name(ist->dec_ctx->codec_id), ist->file_index, ist->st->index);
2871             return AVERROR(EINVAL);
2872         }
2873
2874         ist->dec_ctx->opaque                = ist;
2875         ist->dec_ctx->get_format            = get_format;
2876         ist->dec_ctx->get_buffer2           = get_buffer;
2877         ist->dec_ctx->thread_safe_callbacks = 1;
2878
2879         av_opt_set_int(ist->dec_ctx, "refcounted_frames", 1, 0);
2880         if (ist->dec_ctx->codec_id == AV_CODEC_ID_DVB_SUBTITLE &&
2881            (ist->decoding_needed & DECODING_FOR_OST)) {
2882             av_dict_set(&ist->decoder_opts, "compute_edt", "1", AV_DICT_DONT_OVERWRITE);
2883             if (ist->decoding_needed & DECODING_FOR_FILTER)
2884                 av_log(NULL, AV_LOG_WARNING, "Warning using DVB subtitles for filtering and output at the same time is not fully supported, also see -compute_edt [0|1]\n");
2885         }
2886
2887         av_dict_set(&ist->decoder_opts, "sub_text_format", "ass", AV_DICT_DONT_OVERWRITE);
2888
2889         /* Useful for subtitles retiming by lavf (FIXME), skipping samples in
2890          * audio, and video decoders such as cuvid or mediacodec */
2891         av_codec_set_pkt_timebase(ist->dec_ctx, ist->st->time_base);
2892
2893         if (!av_dict_get(ist->decoder_opts, "threads", NULL, 0))
2894             av_dict_set(&ist->decoder_opts, "threads", "auto", 0);
2895         if ((ret = avcodec_open2(ist->dec_ctx, codec, &ist->decoder_opts)) < 0) {
2896             if (ret == AVERROR_EXPERIMENTAL)
2897                 abort_codec_experimental(codec, 0);
2898
2899             snprintf(error, error_len,
2900                      "Error while opening decoder for input stream "
2901                      "#%d:%d : %s",
2902                      ist->file_index, ist->st->index, av_err2str(ret));
2903             return ret;
2904         }
2905         assert_avoptions(ist->decoder_opts);
2906     }
2907
2908     ist->next_pts = AV_NOPTS_VALUE;
2909     ist->next_dts = AV_NOPTS_VALUE;
2910
2911     return 0;
2912 }
2913
2914 static InputStream *get_input_stream(OutputStream *ost)
2915 {
2916     if (ost->source_index >= 0)
2917         return input_streams[ost->source_index];
2918     return NULL;
2919 }
2920
2921 static int compare_int64(const void *a, const void *b)
2922 {
2923     return FFDIFFSIGN(*(const int64_t *)a, *(const int64_t *)b);
2924 }
2925
2926 /* open the muxer when all the streams are initialized */
2927 static int check_init_output_file(OutputFile *of, int file_index)
2928 {
2929     int ret, i;
2930
2931     for (i = 0; i < of->ctx->nb_streams; i++) {
2932         OutputStream *ost = output_streams[of->ost_index + i];
2933         if (!ost->initialized)
2934             return 0;
2935     }
2936
2937     of->ctx->interrupt_callback = int_cb;
2938
2939     ret = avformat_write_header(of->ctx, &of->opts);
2940     if (ret < 0) {
2941         av_log(NULL, AV_LOG_ERROR,
2942                "Could not write header for output file #%d "
2943                "(incorrect codec parameters ?): %s\n",
2944                file_index, av_err2str(ret));
2945         return ret;
2946     }
2947     //assert_avoptions(of->opts);
2948     of->header_written = 1;
2949
2950     av_dump_format(of->ctx, file_index, of->ctx->filename, 1);
2951
2952     if (sdp_filename || want_sdp)
2953         print_sdp();
2954
2955     /* flush the muxing queues */
2956     for (i = 0; i < of->ctx->nb_streams; i++) {
2957         OutputStream *ost = output_streams[of->ost_index + i];
2958
2959         /* try to improve muxing time_base (only possible if nothing has been written yet) */
2960         if (!av_fifo_size(ost->muxing_queue))
2961             ost->mux_timebase = ost->st->time_base;
2962
2963         while (av_fifo_size(ost->muxing_queue)) {
2964             AVPacket pkt;
2965             av_fifo_generic_read(ost->muxing_queue, &pkt, sizeof(pkt), NULL);
2966             write_packet(of, &pkt, ost);
2967         }
2968     }
2969
2970     return 0;
2971 }
2972
2973 static int init_output_bsfs(OutputStream *ost)
2974 {
2975     AVBSFContext *ctx;
2976     int i, ret;
2977
2978     if (!ost->nb_bitstream_filters)
2979         return 0;
2980
2981     for (i = 0; i < ost->nb_bitstream_filters; i++) {
2982         ctx = ost->bsf_ctx[i];
2983
2984         ret = avcodec_parameters_copy(ctx->par_in,
2985                                       i ? ost->bsf_ctx[i - 1]->par_out : ost->st->codecpar);
2986         if (ret < 0)
2987             return ret;
2988
2989         ctx->time_base_in = i ? ost->bsf_ctx[i - 1]->time_base_out : ost->st->time_base;
2990
2991         ret = av_bsf_init(ctx);
2992         if (ret < 0) {
2993             av_log(NULL, AV_LOG_ERROR, "Error initializing bitstream filter: %s\n",
2994                    ost->bsf_ctx[i]->filter->name);
2995             return ret;
2996         }
2997     }
2998
2999     ctx = ost->bsf_ctx[ost->nb_bitstream_filters - 1];
3000     ret = avcodec_parameters_copy(ost->st->codecpar, ctx->par_out);
3001     if (ret < 0)
3002         return ret;
3003
3004     ost->st->time_base = ctx->time_base_out;
3005
3006     return 0;
3007 }
3008
3009 static int init_output_stream_streamcopy(OutputStream *ost)
3010 {
3011     OutputFile *of = output_files[ost->file_index];
3012     InputStream *ist = get_input_stream(ost);
3013     AVCodecParameters *par_dst = ost->st->codecpar;
3014     AVCodecParameters *par_src = ost->ref_par;
3015     AVRational sar;
3016     int i, ret;
3017     uint32_t codec_tag = par_dst->codec_tag;
3018
3019     av_assert0(ist && !ost->filter);
3020
3021     ret = avcodec_parameters_to_context(ost->enc_ctx, ist->st->codecpar);
3022     if (ret >= 0)
3023         ret = av_opt_set_dict(ost->enc_ctx, &ost->encoder_opts);
3024     if (ret < 0) {
3025         av_log(NULL, AV_LOG_FATAL,
3026                "Error setting up codec context options.\n");
3027         return ret;
3028     }
3029     avcodec_parameters_from_context(par_src, ost->enc_ctx);
3030
3031     if (!codec_tag) {
3032         unsigned int codec_tag_tmp;
3033         if (!of->ctx->oformat->codec_tag ||
3034             av_codec_get_id (of->ctx->oformat->codec_tag, par_src->codec_tag) == par_src->codec_id ||
3035             !av_codec_get_tag2(of->ctx->oformat->codec_tag, par_src->codec_id, &codec_tag_tmp))
3036             codec_tag = par_src->codec_tag;
3037     }
3038
3039     ret = avcodec_parameters_copy(par_dst, par_src);
3040     if (ret < 0)
3041         return ret;
3042
3043     par_dst->codec_tag = codec_tag;
3044
3045     if (!ost->frame_rate.num)
3046         ost->frame_rate = ist->framerate;
3047     ost->st->avg_frame_rate = ost->frame_rate;
3048
3049     ret = avformat_transfer_internal_stream_timing_info(of->ctx->oformat, ost->st, ist->st, copy_tb);
3050     if (ret < 0)
3051         return ret;
3052
3053     // copy timebase while removing common factors
3054     if (ost->st->time_base.num <= 0 || ost->st->time_base.den <= 0)
3055         ost->st->time_base = av_add_q(av_stream_get_codec_timebase(ost->st), (AVRational){0, 1});
3056
3057     // copy estimated duration as a hint to the muxer
3058     if (ost->st->duration <= 0 && ist->st->duration > 0)
3059         ost->st->duration = av_rescale_q(ist->st->duration, ist->st->time_base, ost->st->time_base);
3060
3061     // copy disposition
3062     ost->st->disposition = ist->st->disposition;
3063
3064     if (ist->st->nb_side_data) {
3065         ost->st->side_data = av_realloc_array(NULL, ist->st->nb_side_data,
3066                                               sizeof(*ist->st->side_data));
3067         if (!ost->st->side_data)
3068             return AVERROR(ENOMEM);
3069
3070         ost->st->nb_side_data = 0;
3071         for (i = 0; i < ist->st->nb_side_data; i++) {
3072             const AVPacketSideData *sd_src = &ist->st->side_data[i];
3073             AVPacketSideData *sd_dst = &ost->st->side_data[ost->st->nb_side_data];
3074
3075             sd_dst->data = av_malloc(sd_src->size);
3076             if (!sd_dst->data)
3077                 return AVERROR(ENOMEM);
3078             memcpy(sd_dst->data, sd_src->data, sd_src->size);
3079             sd_dst->size = sd_src->size;
3080             sd_dst->type = sd_src->type;
3081             ost->st->nb_side_data++;
3082         }
3083     }
3084
3085     if (ost->rotate_overridden) {
3086         uint8_t *sd = av_stream_new_side_data(ost->st, AV_PKT_DATA_DISPLAYMATRIX,
3087                                               sizeof(int32_t) * 9);
3088         if (sd)
3089             av_display_rotation_set((int32_t *)sd, -ost->rotate_override_value);
3090     }
3091
3092     ost->parser = av_parser_init(par_dst->codec_id);
3093     ost->parser_avctx = avcodec_alloc_context3(NULL);
3094     if (!ost->parser_avctx)
3095         return AVERROR(ENOMEM);
3096
3097     switch (par_dst->codec_type) {
3098     case AVMEDIA_TYPE_AUDIO:
3099         if (audio_volume != 256) {
3100             av_log(NULL, AV_LOG_FATAL, "-acodec copy and -vol are incompatible (frames are not decoded)\n");
3101             exit_program(1);
3102         }
3103         if((par_dst->block_align == 1 || par_dst->block_align == 1152 || par_dst->block_align == 576) && par_dst->codec_id == AV_CODEC_ID_MP3)
3104             par_dst->block_align= 0;
3105         if(par_dst->codec_id == AV_CODEC_ID_AC3)
3106             par_dst->block_align= 0;
3107         break;
3108     case AVMEDIA_TYPE_VIDEO:
3109         if (ost->frame_aspect_ratio.num) { // overridden by the -aspect cli option
3110             sar =
3111                 av_mul_q(ost->frame_aspect_ratio,
3112                          (AVRational){ par_dst->height, par_dst->width });
3113             av_log(NULL, AV_LOG_WARNING, "Overriding aspect ratio "
3114                    "with stream copy may produce invalid files\n");
3115             }
3116         else if (ist->st->sample_aspect_ratio.num)
3117             sar = ist->st->sample_aspect_ratio;
3118         else
3119             sar = par_src->sample_aspect_ratio;
3120         ost->st->sample_aspect_ratio = par_dst->sample_aspect_ratio = sar;
3121         ost->st->avg_frame_rate = ist->st->avg_frame_rate;
3122         ost->st->r_frame_rate = ist->st->r_frame_rate;
3123         break;
3124     }
3125
3126     ost->mux_timebase = ist->st->time_base;
3127
3128     return 0;
3129 }
3130
3131 static void set_encoder_id(OutputFile *of, OutputStream *ost)
3132 {
3133     AVDictionaryEntry *e;
3134
3135     uint8_t *encoder_string;
3136     int encoder_string_len;
3137     int format_flags = 0;
3138     int codec_flags = 0;
3139
3140     if (av_dict_get(ost->st->metadata, "encoder",  NULL, 0))
3141         return;
3142
3143     e = av_dict_get(of->opts, "fflags", NULL, 0);
3144     if (e) {
3145         const AVOption *o = av_opt_find(of->ctx, "fflags", NULL, 0, 0);
3146         if (!o)
3147             return;
3148         av_opt_eval_flags(of->ctx, o, e->value, &format_flags);
3149     }
3150     e = av_dict_get(ost->encoder_opts, "flags", NULL, 0);
3151     if (e) {
3152         const AVOption *o = av_opt_find(ost->enc_ctx, "flags", NULL, 0, 0);
3153         if (!o)
3154             return;
3155         av_opt_eval_flags(ost->enc_ctx, o, e->value, &codec_flags);
3156     }
3157
3158     encoder_string_len = sizeof(LIBAVCODEC_IDENT) + strlen(ost->enc->name) + 2;
3159     encoder_string     = av_mallocz(encoder_string_len);
3160     if (!encoder_string)
3161         exit_program(1);
3162
3163     if (!(format_flags & AVFMT_FLAG_BITEXACT) && !(codec_flags & AV_CODEC_FLAG_BITEXACT))
3164         av_strlcpy(encoder_string, LIBAVCODEC_IDENT " ", encoder_string_len);
3165     else
3166         av_strlcpy(encoder_string, "Lavc ", encoder_string_len);
3167     av_strlcat(encoder_string, ost->enc->name, encoder_string_len);
3168     av_dict_set(&ost->st->metadata, "encoder",  encoder_string,
3169                 AV_DICT_DONT_STRDUP_VAL | AV_DICT_DONT_OVERWRITE);
3170 }
3171
3172 static void parse_forced_key_frames(char *kf, OutputStream *ost,
3173                                     AVCodecContext *avctx)
3174 {
3175     char *p;
3176     int n = 1, i, size, index = 0;
3177     int64_t t, *pts;
3178
3179     for (p = kf; *p; p++)
3180         if (*p == ',')
3181             n++;
3182     size = n;
3183     pts = av_malloc_array(size, sizeof(*pts));
3184     if (!pts) {
3185         av_log(NULL, AV_LOG_FATAL, "Could not allocate forced key frames array.\n");
3186         exit_program(1);
3187     }
3188
3189     p = kf;
3190     for (i = 0; i < n; i++) {
3191         char *next = strchr(p, ',');
3192
3193         if (next)
3194             *next++ = 0;
3195
3196         if (!memcmp(p, "chapters", 8)) {
3197
3198             AVFormatContext *avf = output_files[ost->file_index]->ctx;
3199             int j;
3200
3201             if (avf->nb_chapters > INT_MAX - size ||
3202                 !(pts = av_realloc_f(pts, size += avf->nb_chapters - 1,
3203                                      sizeof(*pts)))) {
3204                 av_log(NULL, AV_LOG_FATAL,
3205                        "Could not allocate forced key frames array.\n");
3206                 exit_program(1);
3207             }
3208             t = p[8] ? parse_time_or_die("force_key_frames", p + 8, 1) : 0;
3209             t = av_rescale_q(t, AV_TIME_BASE_Q, avctx->time_base);
3210
3211             for (j = 0; j < avf->nb_chapters; j++) {
3212                 AVChapter *c = avf->chapters[j];
3213                 av_assert1(index < size);
3214                 pts[index++] = av_rescale_q(c->start, c->time_base,
3215                                             avctx->time_base) + t;
3216             }
3217
3218         } else {
3219
3220             t = parse_time_or_die("force_key_frames", p, 1);
3221             av_assert1(index < size);
3222             pts[index++] = av_rescale_q(t, AV_TIME_BASE_Q, avctx->time_base);
3223
3224         }
3225
3226         p = next;
3227     }
3228
3229     av_assert0(index == size);
3230     qsort(pts, size, sizeof(*pts), compare_int64);
3231     ost->forced_kf_count = size;
3232     ost->forced_kf_pts   = pts;
3233 }
3234
3235 static int init_output_stream_encode(OutputStream *ost)
3236 {
3237     InputStream *ist = get_input_stream(ost);
3238     AVCodecContext *enc_ctx = ost->enc_ctx;
3239     AVCodecContext *dec_ctx = NULL;
3240     AVFormatContext *oc = output_files[ost->file_index]->ctx;
3241     int j, ret;
3242
3243     set_encoder_id(output_files[ost->file_index], ost);
3244
3245     // Muxers use AV_PKT_DATA_DISPLAYMATRIX to signal rotation. On the other
3246     // hand, the legacy API makes demuxers set "rotate" metadata entries,
3247     // which have to be filtered out to prevent leaking them to output files.
3248     av_dict_set(&ost->st->metadata, "rotate", NULL, 0);
3249
3250     if (ist) {
3251         ost->st->disposition          = ist->st->disposition;
3252
3253         dec_ctx = ist->dec_ctx;
3254
3255         enc_ctx->chroma_sample_location = dec_ctx->chroma_sample_location;
3256     } else {
3257         for (j = 0; j < oc->nb_streams; j++) {
3258             AVStream *st = oc->streams[j];
3259             if (st != ost->st && st->codecpar->codec_type == ost->st->codecpar->codec_type)
3260                 break;
3261         }
3262         if (j == oc->nb_streams)
3263             if (ost->st->codecpar->codec_type == AVMEDIA_TYPE_AUDIO ||
3264                 ost->st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)
3265                 ost->st->disposition = AV_DISPOSITION_DEFAULT;
3266     }
3267
3268     if (enc_ctx->codec_type == AVMEDIA_TYPE_VIDEO) {
3269         if (!ost->frame_rate.num)
3270             ost->frame_rate = av_buffersink_get_frame_rate(ost->filter->filter);
3271         if (ist && !ost->frame_rate.num)
3272             ost->frame_rate = ist->framerate;
3273         if (ist && !ost->frame_rate.num)
3274             ost->frame_rate = ist->st->r_frame_rate;
3275         if (ist && !ost->frame_rate.num) {
3276             ost->frame_rate = (AVRational){25, 1};
3277             av_log(NULL, AV_LOG_WARNING,
3278                    "No information "
3279                    "about the input framerate is available. Falling "
3280                    "back to a default value of 25fps for output stream #%d:%d. Use the -r option "
3281                    "if you want a different framerate.\n",
3282                    ost->file_index, ost->index);
3283         }
3284 //      ost->frame_rate = ist->st->avg_frame_rate.num ? ist->st->avg_frame_rate : (AVRational){25, 1};
3285         if (ost->enc->supported_framerates && !ost->force_fps) {
3286             int idx = av_find_nearest_q_idx(ost->frame_rate, ost->enc->supported_framerates);
3287             ost->frame_rate = ost->enc->supported_framerates[idx];
3288         }
3289         // reduce frame rate for mpeg4 to be within the spec limits
3290         if (enc_ctx->codec_id == AV_CODEC_ID_MPEG4) {
3291             av_reduce(&ost->frame_rate.num, &ost->frame_rate.den,
3292                       ost->frame_rate.num, ost->frame_rate.den, 65535);
3293         }
3294     }
3295
3296     switch (enc_ctx->codec_type) {
3297     case AVMEDIA_TYPE_AUDIO:
3298         enc_ctx->sample_fmt     = av_buffersink_get_format(ost->filter->filter);
3299         if (dec_ctx)
3300             enc_ctx->bits_per_raw_sample = FFMIN(dec_ctx->bits_per_raw_sample,
3301                                                  av_get_bytes_per_sample(enc_ctx->sample_fmt) << 3);
3302         enc_ctx->sample_rate    = av_buffersink_get_sample_rate(ost->filter->filter);
3303         enc_ctx->channel_layout = av_buffersink_get_channel_layout(ost->filter->filter);
3304         enc_ctx->channels       = av_buffersink_get_channels(ost->filter->filter);
3305         enc_ctx->time_base      = (AVRational){ 1, enc_ctx->sample_rate };
3306         break;
3307     case AVMEDIA_TYPE_VIDEO:
3308         enc_ctx->time_base = av_inv_q(ost->frame_rate);
3309         if (!(enc_ctx->time_base.num && enc_ctx->time_base.den))
3310             enc_ctx->time_base = av_buffersink_get_time_base(ost->filter->filter);
3311         if (   av_q2d(enc_ctx->time_base) < 0.001 && video_sync_method != VSYNC_PASSTHROUGH
3312            && (video_sync_method == VSYNC_CFR || video_sync_method == VSYNC_VSCFR || (video_sync_method == VSYNC_AUTO && !(oc->oformat->flags & AVFMT_VARIABLE_FPS)))){
3313             av_log(oc, AV_LOG_WARNING, "Frame rate very high for a muxer not efficiently supporting it.\n"
3314                                        "Please consider specifying a lower framerate, a different muxer or -vsync 2\n");
3315         }
3316         for (j = 0; j < ost->forced_kf_count; j++)
3317             ost->forced_kf_pts[j] = av_rescale_q(ost->forced_kf_pts[j],
3318                                                  AV_TIME_BASE_Q,
3319                                                  enc_ctx->time_base);
3320
3321         enc_ctx->width  = av_buffersink_get_w(ost->filter->filter);
3322         enc_ctx->height = av_buffersink_get_h(ost->filter->filter);
3323         enc_ctx->sample_aspect_ratio = ost->st->sample_aspect_ratio =
3324             ost->frame_aspect_ratio.num ? // overridden by the -aspect cli option
3325             av_mul_q(ost->frame_aspect_ratio, (AVRational){ enc_ctx->height, enc_ctx->width }) :
3326             av_buffersink_get_sample_aspect_ratio(ost->filter->filter);
3327         if (!strncmp(ost->enc->name, "libx264", 7) &&
3328             enc_ctx->pix_fmt == AV_PIX_FMT_NONE &&
3329             av_buffersink_get_format(ost->filter->filter) != AV_PIX_FMT_YUV420P)
3330             av_log(NULL, AV_LOG_WARNING,
3331                    "No pixel format specified, %s for H.264 encoding chosen.\n"
3332                    "Use -pix_fmt yuv420p for compatibility with outdated media players.\n",
3333                    av_get_pix_fmt_name(av_buffersink_get_format(ost->filter->filter)));
3334         if (!strncmp(ost->enc->name, "mpeg2video", 10) &&
3335             enc_ctx->pix_fmt == AV_PIX_FMT_NONE &&
3336             av_buffersink_get_format(ost->filter->filter) != AV_PIX_FMT_YUV420P)
3337             av_log(NULL, AV_LOG_WARNING,
3338                    "No pixel format specified, %s for MPEG-2 encoding chosen.\n"
3339                    "Use -pix_fmt yuv420p for compatibility with outdated media players.\n",
3340                    av_get_pix_fmt_name(av_buffersink_get_format(ost->filter->filter)));
3341         enc_ctx->pix_fmt = av_buffersink_get_format(ost->filter->filter);
3342         if (dec_ctx)
3343             enc_ctx->bits_per_raw_sample = FFMIN(dec_ctx->bits_per_raw_sample,
3344                                                  av_pix_fmt_desc_get(enc_ctx->pix_fmt)->comp[0].depth);
3345
3346         enc_ctx->framerate = ost->frame_rate;
3347
3348         ost->st->avg_frame_rate = ost->frame_rate;
3349
3350         if (!dec_ctx ||
3351             enc_ctx->width   != dec_ctx->width  ||
3352             enc_ctx->height  != dec_ctx->height ||
3353             enc_ctx->pix_fmt != dec_ctx->pix_fmt) {
3354             enc_ctx->bits_per_raw_sample = frame_bits_per_raw_sample;
3355         }
3356
3357         if (ost->forced_keyframes) {
3358             if (!strncmp(ost->forced_keyframes, "expr:", 5)) {
3359                 ret = av_expr_parse(&ost->forced_keyframes_pexpr, ost->forced_keyframes+5,
3360                                     forced_keyframes_const_names, NULL, NULL, NULL, NULL, 0, NULL);
3361                 if (ret < 0) {
3362                     av_log(NULL, AV_LOG_ERROR,
3363                            "Invalid force_key_frames expression '%s'\n", ost->forced_keyframes+5);
3364                     return ret;
3365                 }
3366                 ost->forced_keyframes_expr_const_values[FKF_N] = 0;
3367                 ost->forced_keyframes_expr_const_values[FKF_N_FORCED] = 0;
3368                 ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_N] = NAN;
3369                 ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_T] = NAN;
3370
3371             // Don't parse the 'forced_keyframes' in case of 'keep-source-keyframes',
3372             // parse it only for static kf timings
3373             } else if(strncmp(ost->forced_keyframes, "source", 6)) {
3374                 parse_forced_key_frames(ost->forced_keyframes, ost, ost->enc_ctx);
3375             }
3376         }
3377         break;
3378     case AVMEDIA_TYPE_SUBTITLE:
3379         enc_ctx->time_base = AV_TIME_BASE_Q;
3380         if (!enc_ctx->width) {
3381             enc_ctx->width     = input_streams[ost->source_index]->st->codecpar->width;
3382             enc_ctx->height    = input_streams[ost->source_index]->st->codecpar->height;
3383         }
3384         break;
3385     case AVMEDIA_TYPE_DATA:
3386         break;
3387     default:
3388         abort();
3389         break;
3390     }
3391
3392     ost->mux_timebase = enc_ctx->time_base;
3393
3394     return 0;
3395 }
3396
3397 static int init_output_stream(OutputStream *ost, char *error, int error_len)
3398 {
3399     int ret = 0;
3400
3401     if (ost->encoding_needed) {
3402         AVCodec      *codec = ost->enc;
3403         AVCodecContext *dec = NULL;
3404         InputStream *ist;
3405
3406         ret = init_output_stream_encode(ost);
3407         if (ret < 0)
3408             return ret;
3409
3410         if ((ist = get_input_stream(ost)))
3411             dec = ist->dec_ctx;
3412         if (dec && dec->subtitle_header) {
3413             /* ASS code assumes this buffer is null terminated so add extra byte. */
3414             ost->enc_ctx->subtitle_header = av_mallocz(dec->subtitle_header_size + 1);
3415             if (!ost->enc_ctx->subtitle_header)
3416                 return AVERROR(ENOMEM);
3417             memcpy(ost->enc_ctx->subtitle_header, dec->subtitle_header, dec->subtitle_header_size);
3418             ost->enc_ctx->subtitle_header_size = dec->subtitle_header_size;
3419         }
3420         if (!av_dict_get(ost->encoder_opts, "threads", NULL, 0))
3421             av_dict_set(&ost->encoder_opts, "threads", "auto", 0);
3422         if (ost->enc->type == AVMEDIA_TYPE_AUDIO &&
3423             !codec->defaults &&
3424             !av_dict_get(ost->encoder_opts, "b", NULL, 0) &&
3425             !av_dict_get(ost->encoder_opts, "ab", NULL, 0))
3426             av_dict_set(&ost->encoder_opts, "b", "128000", 0);
3427
3428         if (ost->filter && av_buffersink_get_hw_frames_ctx(ost->filter->filter) &&
3429             ((AVHWFramesContext*)av_buffersink_get_hw_frames_ctx(ost->filter->filter)->data)->format ==
3430             av_buffersink_get_format(ost->filter->filter)) {
3431             ost->enc_ctx->hw_frames_ctx = av_buffer_ref(av_buffersink_get_hw_frames_ctx(ost->filter->filter));
3432             if (!ost->enc_ctx->hw_frames_ctx)
3433                 return AVERROR(ENOMEM);
3434         }
3435
3436         if ((ret = avcodec_open2(ost->enc_ctx, codec, &ost->encoder_opts)) < 0) {
3437             if (ret == AVERROR_EXPERIMENTAL)
3438                 abort_codec_experimental(codec, 1);
3439             snprintf(error, error_len,
3440                      "Error while opening encoder for output stream #%d:%d - "
3441                      "maybe incorrect parameters such as bit_rate, rate, width or height",
3442                     ost->file_index, ost->index);
3443             return ret;
3444         }
3445         if (ost->enc->type == AVMEDIA_TYPE_AUDIO &&
3446             !(ost->enc->capabilities & AV_CODEC_CAP_VARIABLE_FRAME_SIZE))
3447             av_buffersink_set_frame_size(ost->filter->filter,
3448                                             ost->enc_ctx->frame_size);
3449         assert_avoptions(ost->encoder_opts);
3450         if (ost->enc_ctx->bit_rate && ost->enc_ctx->bit_rate < 1000)
3451             av_log(NULL, AV_LOG_WARNING, "The bitrate parameter is set too low."
3452                                          " It takes bits/s as argument, not kbits/s\n");
3453
3454         ret = avcodec_parameters_from_context(ost->st->codecpar, ost->enc_ctx);
3455         if (ret < 0) {
3456             av_log(NULL, AV_LOG_FATAL,
3457                    "Error initializing the output stream codec context.\n");
3458             exit_program(1);
3459         }
3460         /*
3461          * FIXME: ost->st->codec should't be needed here anymore.
3462          */
3463         ret = avcodec_copy_context(ost->st->codec, ost->enc_ctx);
3464         if (ret < 0)
3465             return ret;
3466
3467         if (ost->enc_ctx->nb_coded_side_data) {
3468             int i;
3469
3470             ost->st->side_data = av_realloc_array(NULL, ost->enc_ctx->nb_coded_side_data,
3471                                                   sizeof(*ost->st->side_data));
3472             if (!ost->st->side_data)
3473                 return AVERROR(ENOMEM);
3474
3475             for (i = 0; i < ost->enc_ctx->nb_coded_side_data; i++) {
3476                 const AVPacketSideData *sd_src = &ost->enc_ctx->coded_side_data[i];
3477                 AVPacketSideData *sd_dst = &ost->st->side_data[i];
3478
3479                 sd_dst->data = av_malloc(sd_src->size);
3480                 if (!sd_dst->data)
3481                     return AVERROR(ENOMEM);
3482                 memcpy(sd_dst->data, sd_src->data, sd_src->size);
3483                 sd_dst->size = sd_src->size;
3484                 sd_dst->type = sd_src->type;
3485                 ost->st->nb_side_data++;
3486             }
3487         }
3488
3489         /*
3490          * Add global input side data. For now this is naive, and copies it
3491          * from the input stream's global side data. All side data should
3492          * really be funneled over AVFrame and libavfilter, then added back to
3493          * packet side data, and then potentially using the first packet for
3494          * global side data.
3495          */
3496         if (ist) {
3497             int i;
3498             for (i = 0; i < ist->st->nb_side_data; i++) {
3499                 AVPacketSideData *sd = &ist->st->side_data[i];
3500                 uint8_t *dst = av_stream_new_side_data(ost->st, sd->type, sd->size);
3501                 if (!dst)
3502                     return AVERROR(ENOMEM);
3503                 memcpy(dst, sd->data, sd->size);
3504                 if (ist->autorotate && sd->type == AV_PKT_DATA_DISPLAYMATRIX)
3505                     av_display_rotation_set((uint32_t *)dst, 0);
3506             }
3507         }
3508
3509         // copy timebase while removing common factors
3510         if (ost->st->time_base.num <= 0 || ost->st->time_base.den <= 0)
3511             ost->st->time_base = av_add_q(ost->enc_ctx->time_base, (AVRational){0, 1});
3512
3513         // copy estimated duration as a hint to the muxer
3514         if (ost->st->duration <= 0 && ist && ist->st->duration > 0)
3515             ost->st->duration = av_rescale_q(ist->st->duration, ist->st->time_base, ost->st->time_base);
3516
3517         ost->st->codec->codec= ost->enc_ctx->codec;
3518     } else if (ost->stream_copy) {
3519         ret = init_output_stream_streamcopy(ost);
3520         if (ret < 0)
3521             return ret;
3522
3523         /*
3524          * FIXME: will the codec context used by the parser during streamcopy
3525          * This should go away with the new parser API.
3526          */
3527         ret = avcodec_parameters_to_context(ost->parser_avctx, ost->st->codecpar);
3528         if (ret < 0)
3529             return ret;
3530     }
3531
3532     // parse user provided disposition, and update stream values
3533     if (ost->disposition) {
3534         static const AVOption opts[] = {
3535             { "disposition"         , NULL, 0, AV_OPT_TYPE_FLAGS, { .i64 = 0 }, INT64_MIN, INT64_MAX, .unit = "flags" },
3536             { "default"             , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_DEFAULT           },    .unit = "flags" },
3537             { "dub"                 , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_DUB               },    .unit = "flags" },
3538             { "original"            , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_ORIGINAL          },    .unit = "flags" },
3539             { "comment"             , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_COMMENT           },    .unit = "flags" },
3540             { "lyrics"              , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_LYRICS            },    .unit = "flags" },
3541             { "karaoke"             , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_KARAOKE           },    .unit = "flags" },
3542             { "forced"              , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_FORCED            },    .unit = "flags" },
3543             { "hearing_impaired"    , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_HEARING_IMPAIRED  },    .unit = "flags" },
3544             { "visual_impaired"     , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_VISUAL_IMPAIRED   },    .unit = "flags" },
3545             { "clean_effects"       , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_CLEAN_EFFECTS     },    .unit = "flags" },
3546             { "captions"            , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_CAPTIONS          },    .unit = "flags" },
3547             { "descriptions"        , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_DESCRIPTIONS      },    .unit = "flags" },
3548             { "metadata"            , NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AV_DISPOSITION_METADATA          },    .unit = "flags" },
3549             { NULL },
3550         };
3551         static const AVClass class = {
3552             .class_name = "",
3553             .item_name  = av_default_item_name,
3554             .option     = opts,
3555             .version    = LIBAVUTIL_VERSION_INT,
3556         };
3557         const AVClass *pclass = &class;
3558
3559         ret = av_opt_eval_flags(&pclass, &opts[0], ost->disposition, &ost->st->disposition);
3560         if (ret < 0)
3561             return ret;
3562     }
3563
3564     /* initialize bitstream filters for the output stream
3565      * needs to be done here, because the codec id for streamcopy is not
3566      * known until now */
3567     ret = init_output_bsfs(ost);
3568     if (ret < 0)
3569         return ret;
3570
3571     ost->initialized = 1;
3572
3573     ret = check_init_output_file(output_files[ost->file_index], ost->file_index);
3574     if (ret < 0)
3575         return ret;
3576
3577     return ret;
3578 }
3579
3580 static void report_new_stream(int input_index, AVPacket *pkt)
3581 {
3582     InputFile *file = input_files[input_index];
3583     AVStream *st = file->ctx->streams[pkt->stream_index];
3584
3585     if (pkt->stream_index < file->nb_streams_warn)
3586         return;
3587     av_log(file->ctx, AV_LOG_WARNING,
3588            "New %s stream %d:%d at pos:%"PRId64" and DTS:%ss\n",
3589            av_get_media_type_string(st->codecpar->codec_type),
3590            input_index, pkt->stream_index,
3591            pkt->pos, av_ts2timestr(pkt->dts, &st->time_base));
3592     file->nb_streams_warn = pkt->stream_index + 1;
3593 }
3594
3595 static int transcode_init(void)
3596 {
3597     int ret = 0, i, j, k;
3598     AVFormatContext *oc;
3599     OutputStream *ost;
3600     InputStream *ist;
3601     char error[1024] = {0};
3602
3603     for (i = 0; i < nb_filtergraphs; i++) {
3604         FilterGraph *fg = filtergraphs[i];
3605         for (j = 0; j < fg->nb_outputs; j++) {
3606             OutputFilter *ofilter = fg->outputs[j];
3607             if (!ofilter->ost || ofilter->ost->source_index >= 0)
3608                 continue;
3609             if (fg->nb_inputs != 1)
3610                 continue;
3611             for (k = nb_input_streams-1; k >= 0 ; k--)
3612                 if (fg->inputs[0]->ist == input_streams[k])
3613                     break;
3614             ofilter->ost->source_index = k;
3615         }
3616     }
3617
3618     /* init framerate emulation */
3619     for (i = 0; i < nb_input_files; i++) {
3620         InputFile *ifile = input_files[i];
3621         if (ifile->rate_emu)
3622             for (j = 0; j < ifile->nb_streams; j++)
3623                 input_streams[j + ifile->ist_index]->start = av_gettime_relative();
3624     }
3625
3626     /* init input streams */
3627     for (i = 0; i < nb_input_streams; i++)
3628         if ((ret = init_input_stream(i, error, sizeof(error))) < 0) {
3629             for (i = 0; i < nb_output_streams; i++) {
3630                 ost = output_streams[i];
3631                 avcodec_close(ost->enc_ctx);
3632             }
3633             goto dump_format;
3634         }
3635
3636     /* open each encoder */
3637     for (i = 0; i < nb_output_streams; i++) {
3638         // skip streams fed from filtergraphs until we have a frame for them
3639         if (output_streams[i]->filter)
3640             continue;
3641
3642         ret = init_output_stream(output_streams[i], error, sizeof(error));
3643         if (ret < 0)
3644             goto dump_format;
3645     }
3646
3647     /* discard unused programs */
3648     for (i = 0; i < nb_input_files; i++) {
3649         InputFile *ifile = input_files[i];
3650         for (j = 0; j < ifile->ctx->nb_programs; j++) {
3651             AVProgram *p = ifile->ctx->programs[j];
3652             int discard  = AVDISCARD_ALL;
3653
3654             for (k = 0; k < p->nb_stream_indexes; k++)
3655                 if (!input_streams[ifile->ist_index + p->stream_index[k]]->discard) {
3656                     discard = AVDISCARD_DEFAULT;
3657                     break;
3658                 }
3659             p->discard = discard;
3660         }
3661     }
3662
3663     /* write headers for files with no streams */
3664     for (i = 0; i < nb_output_files; i++) {
3665         oc = output_files[i]->ctx;
3666         if (oc->oformat->flags & AVFMT_NOSTREAMS && oc->nb_streams == 0) {
3667             ret = check_init_output_file(output_files[i], i);
3668             if (ret < 0)
3669                 goto dump_format;
3670         }
3671     }
3672
3673  dump_format:
3674     /* dump the stream mapping */
3675     av_log(NULL, AV_LOG_INFO, "Stream mapping:\n");
3676     for (i = 0; i < nb_input_streams; i++) {
3677         ist = input_streams[i];
3678
3679         for (j = 0; j < ist->nb_filters; j++) {
3680             if (!filtergraph_is_simple(ist->filters[j]->graph)) {
3681                 av_log(NULL, AV_LOG_INFO, "  Stream #%d:%d (%s) -> %s",
3682                        ist->file_index, ist->st->index, ist->dec ? ist->dec->name : "?",
3683                        ist->filters[j]->name);
3684                 if (nb_filtergraphs > 1)
3685                     av_log(NULL, AV_LOG_INFO, " (graph %d)", ist->filters[j]->graph->index);
3686                 av_log(NULL, AV_LOG_INFO, "\n");
3687             }
3688         }
3689     }
3690
3691     for (i = 0; i < nb_output_streams; i++) {
3692         ost = output_streams[i];
3693
3694         if (ost->attachment_filename) {
3695             /* an attached file */
3696             av_log(NULL, AV_LOG_INFO, "  File %s -> Stream #%d:%d\n",
3697                    ost->attachment_filename, ost->file_index, ost->index);
3698             continue;
3699         }
3700
3701         if (ost->filter && !filtergraph_is_simple(ost->filter->graph)) {
3702             /* output from a complex graph */
3703             av_log(NULL, AV_LOG_INFO, "  %s", ost->filter->name);
3704             if (nb_filtergraphs > 1)
3705                 av_log(NULL, AV_LOG_INFO, " (graph %d)", ost->filter->graph->index);
3706
3707             av_log(NULL, AV_LOG_INFO, " -> Stream #%d:%d (%s)\n", ost->file_index,
3708                    ost->index, ost->enc ? ost->enc->name : "?");
3709             continue;
3710         }
3711
3712         av_log(NULL, AV_LOG_INFO, "  Stream #%d:%d -> #%d:%d",
3713                input_streams[ost->source_index]->file_index,
3714                input_streams[ost->source_index]->st->index,
3715                ost->file_index,
3716                ost->index);
3717         if (ost->sync_ist != input_streams[ost->source_index])
3718             av_log(NULL, AV_LOG_INFO, " [sync #%d:%d]",
3719                    ost->sync_ist->file_index,
3720                    ost->sync_ist->st->index);
3721         if (ost->stream_copy)
3722             av_log(NULL, AV_LOG_INFO, " (copy)");
3723         else {
3724             const AVCodec *in_codec    = input_streams[ost->source_index]->dec;
3725             const AVCodec *out_codec   = ost->enc;
3726             const char *decoder_name   = "?";
3727             const char *in_codec_name  = "?";
3728             const char *encoder_name   = "?";
3729             const char *out_codec_name = "?";
3730             const AVCodecDescriptor *desc;
3731
3732             if (in_codec) {
3733                 decoder_name  = in_codec->name;
3734                 desc = avcodec_descriptor_get(in_codec->id);
3735                 if (desc)
3736                     in_codec_name = desc->name;
3737                 if (!strcmp(decoder_name, in_codec_name))
3738                     decoder_name = "native";
3739             }
3740
3741             if (out_codec) {
3742                 encoder_name   = out_codec->name;
3743                 desc = avcodec_descriptor_get(out_codec->id);
3744                 if (desc)
3745                     out_codec_name = desc->name;
3746                 if (!strcmp(encoder_name, out_codec_name))
3747                     encoder_name = "native";
3748             }
3749
3750             av_log(NULL, AV_LOG_INFO, " (%s (%s) -> %s (%s))",
3751                    in_codec_name, decoder_name,
3752                    out_codec_name, encoder_name);
3753         }
3754         av_log(NULL, AV_LOG_INFO, "\n");
3755     }
3756
3757     if (ret) {
3758         av_log(NULL, AV_LOG_ERROR, "%s\n", error);
3759         return ret;
3760     }
3761
3762     atomic_store(&transcode_init_done, 1);
3763
3764     return 0;
3765 }
3766
3767 /* Return 1 if there remain streams where more output is wanted, 0 otherwise. */
3768 static int need_output(void)
3769 {
3770     int i;
3771
3772     for (i = 0; i < nb_output_streams; i++) {
3773         OutputStream *ost    = output_streams[i];
3774         OutputFile *of       = output_files[ost->file_index];
3775         AVFormatContext *os  = output_files[ost->file_index]->ctx;
3776
3777         if (ost->finished ||
3778             (os->pb && avio_tell(os->pb) >= of->limit_filesize))
3779             continue;
3780         if (ost->frame_number >= ost->max_frames) {
3781             int j;
3782             for (j = 0; j < of->ctx->nb_streams; j++)
3783                 close_output_stream(output_streams[of->ost_index + j]);
3784             continue;
3785         }
3786
3787         return 1;
3788     }
3789
3790     return 0;
3791 }
3792
3793 /**
3794  * Select the output stream to process.
3795  *
3796  * @return  selected output stream, or NULL if none available
3797  */
3798 static OutputStream *choose_output(void)
3799 {
3800     int i;
3801     int64_t opts_min = INT64_MAX;
3802     OutputStream *ost_min = NULL;
3803
3804     for (i = 0; i < nb_output_streams; i++) {
3805         OutputStream *ost = output_streams[i];
3806         int64_t opts = ost->st->cur_dts == AV_NOPTS_VALUE ? INT64_MIN :
3807                        av_rescale_q(ost->st->cur_dts, ost->st->time_base,
3808                                     AV_TIME_BASE_Q);
3809         if (ost->st->cur_dts == AV_NOPTS_VALUE)
3810             av_log(NULL, AV_LOG_DEBUG, "cur_dts is invalid (this is harmless if it occurs once at the start per stream)\n");
3811
3812         if (!ost->initialized && !ost->inputs_done)
3813             return ost;
3814
3815         if (!ost->finished && opts < opts_min) {
3816             opts_min = opts;
3817             ost_min  = ost->unavailable ? NULL : ost;
3818         }
3819     }
3820     return ost_min;
3821 }
3822
3823 static void set_tty_echo(int on)
3824 {
3825 #if HAVE_TERMIOS_H
3826     struct termios tty;
3827     if (tcgetattr(0, &tty) == 0) {
3828         if (on) tty.c_lflag |= ECHO;
3829         else    tty.c_lflag &= ~ECHO;
3830         tcsetattr(0, TCSANOW, &tty);
3831     }
3832 #endif
3833 }
3834
3835 static int check_keyboard_interaction(int64_t cur_time)
3836 {
3837     int i, ret, key;
3838     static int64_t last_time;
3839     if (received_nb_signals)
3840         return AVERROR_EXIT;
3841     /* read_key() returns 0 on EOF */
3842     if(cur_time - last_time >= 100000 && !run_as_daemon){
3843         key =  read_key();
3844         last_time = cur_time;
3845     }else
3846         key = -1;
3847     if (key == 'q')
3848         return AVERROR_EXIT;
3849     if (key == '+') av_log_set_level(av_log_get_level()+10);
3850     if (key == '-') av_log_set_level(av_log_get_level()-10);
3851     if (key == 's') qp_hist     ^= 1;
3852     if (key == 'h'){
3853         if (do_hex_dump){
3854             do_hex_dump = do_pkt_dump = 0;
3855         } else if(do_pkt_dump){
3856             do_hex_dump = 1;
3857         } else
3858             do_pkt_dump = 1;
3859         av_log_set_level(AV_LOG_DEBUG);
3860     }
3861     if (key == 'c' || key == 'C'){
3862         char buf[4096], target[64], command[256], arg[256] = {0};
3863         double time;
3864         int k, n = 0;
3865         fprintf(stderr, "\nEnter command: <target>|all <time>|-1 <command>[ <argument>]\n");
3866         i = 0;
3867         set_tty_echo(1);
3868         while ((k = read_key()) != '\n' && k != '\r' && i < sizeof(buf)-1)
3869             if (k > 0)
3870                 buf[i++] = k;
3871         buf[i] = 0;
3872         set_tty_echo(0);
3873         fprintf(stderr, "\n");
3874         if (k > 0 &&
3875             (n = sscanf(buf, "%63[^ ] %lf %255[^ ] %255[^\n]", target, &time, command, arg)) >= 3) {
3876             av_log(NULL, AV_LOG_DEBUG, "Processing command target:%s time:%f command:%s arg:%s",
3877                    target, time, command, arg);
3878             for (i = 0; i < nb_filtergraphs; i++) {
3879                 FilterGraph *fg = filtergraphs[i];
3880                 if (fg->graph) {
3881                     if (time < 0) {
3882                         ret = avfilter_graph_send_command(fg->graph, target, command, arg, buf, sizeof(buf),
3883                                                           key == 'c' ? AVFILTER_CMD_FLAG_ONE : 0);
3884                         fprintf(stderr, "Command reply for stream %d: ret:%d res:\n%s", i, ret, buf);
3885                     } else if (key == 'c') {
3886                         fprintf(stderr, "Queuing commands only on filters supporting the specific command is unsupported\n");
3887                         ret = AVERROR_PATCHWELCOME;
3888                     } else {
3889                         ret = avfilter_graph_queue_command(fg->graph, target, command, arg, 0, time);
3890                         if (ret < 0)
3891                             fprintf(stderr, "Queuing command failed with error %s\n", av_err2str(ret));
3892                     }
3893                 }
3894             }
3895         } else {
3896             av_log(NULL, AV_LOG_ERROR,
3897                    "Parse error, at least 3 arguments were expected, "
3898                    "only %d given in string '%s'\n", n, buf);
3899         }
3900     }
3901     if (key == 'd' || key == 'D'){
3902         int debug=0;
3903         if(key == 'D') {
3904             debug = input_streams[0]->st->codec->debug<<1;
3905             if(!debug) debug = 1;
3906             while(debug & (FF_DEBUG_DCT_COEFF|FF_DEBUG_VIS_QP|FF_DEBUG_VIS_MB_TYPE)) //unsupported, would just crash
3907                 debug += debug;
3908         }else{
3909             char buf[32];
3910             int k = 0;
3911             i = 0;
3912             set_tty_echo(1);
3913             while ((k = read_key()) != '\n' && k != '\r' && i < sizeof(buf)-1)
3914                 if (k > 0)
3915                     buf[i++] = k;
3916             buf[i] = 0;
3917             set_tty_echo(0);
3918             fprintf(stderr, "\n");
3919             if (k <= 0 || sscanf(buf, "%d", &debug)!=1)
3920                 fprintf(stderr,"error parsing debug value\n");
3921         }
3922         for(i=0;i<nb_input_streams;i++) {
3923             input_streams[i]->st->codec->debug = debug;
3924         }
3925         for(i=0;i<nb_output_streams;i++) {
3926             OutputStream *ost = output_streams[i];
3927             ost->enc_ctx->debug = debug;
3928         }
3929         if(debug) av_log_set_level(AV_LOG_DEBUG);
3930         fprintf(stderr,"debug=%d\n", debug);
3931     }
3932     if (key == '?'){
3933         fprintf(stderr, "key    function\n"
3934                         "?      show this help\n"
3935                         "+      increase verbosity\n"
3936                         "-      decrease verbosity\n"
3937                         "c      Send command to first matching filter supporting it\n"
3938                         "C      Send/Queue command to all matching filters\n"
3939                         "D      cycle through available debug modes\n"
3940                         "h      dump packets/hex press to cycle through the 3 states\n"
3941                         "q      quit\n"
3942                         "s      Show QP histogram\n"
3943         );
3944     }
3945     return 0;
3946 }
3947
3948 #if HAVE_PTHREADS
3949 static void *input_thread(void *arg)
3950 {
3951     InputFile *f = arg;
3952     unsigned flags = f->non_blocking ? AV_THREAD_MESSAGE_NONBLOCK : 0;
3953     int ret = 0;
3954
3955     while (1) {
3956         AVPacket pkt;
3957         ret = av_read_frame(f->ctx, &pkt);
3958
3959         if (ret == AVERROR(EAGAIN)) {
3960             av_usleep(10000);
3961             continue;
3962         }
3963         if (ret < 0) {
3964             av_thread_message_queue_set_err_recv(f->in_thread_queue, ret);
3965             break;
3966         }
3967         ret = av_thread_message_queue_send(f->in_thread_queue, &pkt, flags);
3968         if (flags && ret == AVERROR(EAGAIN)) {
3969             flags = 0;
3970             ret = av_thread_message_queue_send(f->in_thread_queue, &pkt, flags);
3971             av_log(f->ctx, AV_LOG_WARNING,
3972                    "Thread message queue blocking; consider raising the "
3973                    "thread_queue_size option (current value: %d)\n",
3974                    f->thread_queue_size);
3975         }
3976         if (ret < 0) {
3977             if (ret != AVERROR_EOF)
3978                 av_log(f->ctx, AV_LOG_ERROR,
3979                        "Unable to send packet to main thread: %s\n",
3980                        av_err2str(ret));
3981             av_packet_unref(&pkt);
3982             av_thread_message_queue_set_err_recv(f->in_thread_queue, ret);
3983             break;
3984         }
3985     }
3986
3987     return NULL;
3988 }
3989
3990 static void free_input_threads(void)
3991 {
3992     int i;
3993
3994     for (i = 0; i < nb_input_files; i++) {
3995         InputFile *f = input_files[i];
3996         AVPacket pkt;
3997
3998         if (!f || !f->in_thread_queue)
3999             continue;
4000         av_thread_message_queue_set_err_send(f->in_thread_queue, AVERROR_EOF);
4001         while (av_thread_message_queue_recv(f->in_thread_queue, &pkt, 0) >= 0)
4002             av_packet_unref(&pkt);
4003
4004         pthread_join(f->thread, NULL);
4005         f->joined = 1;
4006         av_thread_message_queue_free(&f->in_thread_queue);
4007     }
4008 }
4009
4010 static int init_input_threads(void)
4011 {
4012     int i, ret;
4013
4014     if (nb_input_files == 1)
4015         return 0;
4016
4017     for (i = 0; i < nb_input_files; i++) {
4018         InputFile *f = input_files[i];
4019
4020         if (f->ctx->pb ? !f->ctx->pb->seekable :
4021             strcmp(f->ctx->iformat->name, "lavfi"))
4022             f->non_blocking = 1;
4023         ret = av_thread_message_queue_alloc(&f->in_thread_queue,
4024                                             f->thread_queue_size, sizeof(AVPacket));
4025         if (ret < 0)
4026             return ret;
4027
4028         if ((ret = pthread_create(&f->thread, NULL, input_thread, f))) {
4029             av_log(NULL, AV_LOG_ERROR, "pthread_create failed: %s. Try to increase `ulimit -v` or decrease `ulimit -s`.\n", strerror(ret));
4030             av_thread_message_queue_free(&f->in_thread_queue);
4031             return AVERROR(ret);
4032         }
4033     }
4034     return 0;
4035 }
4036
4037 static int get_input_packet_mt(InputFile *f, AVPacket *pkt)
4038 {
4039     return av_thread_message_queue_recv(f->in_thread_queue, pkt,
4040                                         f->non_blocking ?
4041                                         AV_THREAD_MESSAGE_NONBLOCK : 0);
4042 }
4043 #endif
4044
4045 static int get_input_packet(InputFile *f, AVPacket *pkt)
4046 {
4047     if (f->rate_emu) {
4048         int i;
4049         for (i = 0; i < f->nb_streams; i++) {
4050             InputStream *ist = input_streams[f->ist_index + i];
4051             int64_t pts = av_rescale(ist->dts, 1000000, AV_TIME_BASE);
4052             int64_t now = av_gettime_relative() - ist->start;
4053             if (pts > now)
4054                 return AVERROR(EAGAIN);
4055         }
4056     }
4057
4058 #if HAVE_PTHREADS
4059     if (nb_input_files > 1)
4060         return get_input_packet_mt(f, pkt);
4061 #endif
4062     return av_read_frame(f->ctx, pkt);
4063 }
4064
4065 static int got_eagain(void)
4066 {
4067     int i;
4068     for (i = 0; i < nb_output_streams; i++)
4069         if (output_streams[i]->unavailable)
4070             return 1;
4071     return 0;
4072 }
4073
4074 static void reset_eagain(void)
4075 {
4076     int i;
4077     for (i = 0; i < nb_input_files; i++)
4078         input_files[i]->eagain = 0;
4079     for (i = 0; i < nb_output_streams; i++)
4080         output_streams[i]->unavailable = 0;
4081 }
4082
4083 // set duration to max(tmp, duration) in a proper time base and return duration's time_base
4084 static AVRational duration_max(int64_t tmp, int64_t *duration, AVRational tmp_time_base,
4085                                 AVRational time_base)
4086 {
4087     int ret;
4088
4089     if (!*duration) {
4090         *duration = tmp;
4091         return tmp_time_base;
4092     }
4093
4094     ret = av_compare_ts(*duration, time_base, tmp, tmp_time_base);
4095     if (ret < 0) {
4096         *duration = tmp;
4097         return tmp_time_base;
4098     }
4099
4100     return time_base;
4101 }
4102
4103 static int seek_to_start(InputFile *ifile, AVFormatContext *is)
4104 {
4105     InputStream *ist;
4106     AVCodecContext *avctx;
4107     int i, ret, has_audio = 0;
4108     int64_t duration = 0;
4109
4110     ret = av_seek_frame(is, -1, is->start_time, 0);
4111     if (ret < 0)
4112         return ret;
4113
4114     for (i = 0; i < ifile->nb_streams; i++) {
4115         ist   = input_streams[ifile->ist_index + i];
4116         avctx = ist->dec_ctx;
4117
4118         // flush decoders
4119         if (ist->decoding_needed) {
4120             process_input_packet(ist, NULL, 1);
4121             avcodec_flush_buffers(avctx);
4122         }
4123
4124         /* duration is the length of the last frame in a stream
4125          * when audio stream is present we don't care about
4126          * last video frame length because it's not defined exactly */
4127         if (avctx->codec_type == AVMEDIA_TYPE_AUDIO && ist->nb_samples)
4128             has_audio = 1;
4129     }
4130
4131     for (i = 0; i < ifile->nb_streams; i++) {
4132         ist   = input_streams[ifile->ist_index + i];
4133         avctx = ist->dec_ctx;
4134
4135         if (has_audio) {
4136             if (avctx->codec_type == AVMEDIA_TYPE_AUDIO && ist->nb_samples) {
4137                 AVRational sample_rate = {1, avctx->sample_rate};
4138
4139                 duration = av_rescale_q(ist->nb_samples, sample_rate, ist->st->time_base);
4140             } else
4141                 continue;
4142         } else {
4143             if (ist->framerate.num) {
4144                 duration = av_rescale_q(1, ist->framerate, ist->st->time_base);
4145             } else if (ist->st->avg_frame_rate.num) {
4146                 duration = av_rescale_q(1, ist->st->avg_frame_rate, ist->st->time_base);
4147             } else duration = 1;
4148         }
4149         if (!ifile->duration)
4150             ifile->time_base = ist->st->time_base;
4151         /* the total duration of the stream, max_pts - min_pts is
4152          * the duration of the stream without the last frame */
4153         duration += ist->max_pts - ist->min_pts;
4154         ifile->time_base = duration_max(duration, &ifile->duration, ist->st->time_base,
4155                                         ifile->time_base);
4156     }
4157
4158     if (ifile->loop > 0)
4159         ifile->loop--;
4160
4161     return ret;
4162 }
4163
4164 /*
4165  * Return
4166  * - 0 -- one packet was read and processed
4167  * - AVERROR(EAGAIN) -- no packets were available for selected file,
4168  *   this function should be called again
4169  * - AVERROR_EOF -- this function should not be called again
4170  */
4171 static int process_input(int file_index)
4172 {
4173     InputFile *ifile = input_files[file_index];
4174     AVFormatContext *is;
4175     InputStream *ist;
4176     AVPacket pkt;
4177     int ret, i, j;
4178     int64_t duration;
4179     int64_t pkt_dts;
4180
4181     is  = ifile->ctx;
4182     ret = get_input_packet(ifile, &pkt);
4183
4184     if (ret == AVERROR(EAGAIN)) {
4185         ifile->eagain = 1;
4186         return ret;
4187     }
4188     if (ret < 0 && ifile->loop) {
4189         if ((ret = seek_to_start(ifile, is)) < 0)
4190             return ret;
4191         ret = get_input_packet(ifile, &pkt);
4192         if (ret == AVERROR(EAGAIN)) {
4193             ifile->eagain = 1;
4194             return ret;
4195         }
4196     }
4197     if (ret < 0) {
4198         if (ret != AVERROR_EOF) {
4199             print_error(is->filename, ret);
4200             if (exit_on_error)
4201                 exit_program(1);
4202         }
4203
4204         for (i = 0; i < ifile->nb_streams; i++) {
4205             ist = input_streams[ifile->ist_index + i];
4206             if (ist->decoding_needed) {
4207                 ret = process_input_packet(ist, NULL, 0);
4208                 if (ret>0)
4209                     return 0;
4210             }
4211
4212             /* mark all outputs that don't go through lavfi as finished */
4213             for (j = 0; j < nb_output_streams; j++) {
4214                 OutputStream *ost = output_streams[j];
4215
4216                 if (ost->source_index == ifile->ist_index + i &&
4217                     (ost->stream_copy || ost->enc->type == AVMEDIA_TYPE_SUBTITLE))
4218                     finish_output_stream(ost);
4219             }
4220         }
4221
4222         ifile->eof_reached = 1;
4223         return AVERROR(EAGAIN);
4224     }
4225
4226     reset_eagain();
4227
4228     if (do_pkt_dump) {
4229         av_pkt_dump_log2(NULL, AV_LOG_INFO, &pkt, do_hex_dump,
4230                          is->streams[pkt.stream_index]);
4231     }
4232     /* the following test is needed in case new streams appear
4233        dynamically in stream : we ignore them */
4234     if (pkt.stream_index >= ifile->nb_streams) {
4235         report_new_stream(file_index, &pkt);
4236         goto discard_packet;
4237     }
4238
4239     ist = input_streams[ifile->ist_index + pkt.stream_index];
4240
4241     ist->data_size += pkt.size;
4242     ist->nb_packets++;
4243
4244     if (ist->discard)
4245         goto discard_packet;
4246
4247     if (exit_on_error && (pkt.flags & AV_PKT_FLAG_CORRUPT)) {
4248         av_log(NULL, AV_LOG_FATAL, "%s: corrupt input packet in stream %d\n", is->filename, pkt.stream_index);
4249         exit_program(1);
4250     }
4251
4252     if (debug_ts) {
4253         av_log(NULL, AV_LOG_INFO, "demuxer -> ist_index:%d type:%s "
4254                "next_dts:%s next_dts_time:%s next_pts:%s next_pts_time:%s pkt_pts:%s pkt_pts_time:%s pkt_dts:%s pkt_dts_time:%s off:%s off_time:%s\n",
4255                ifile->ist_index + pkt.stream_index, av_get_media_type_string(ist->dec_ctx->codec_type),
4256                av_ts2str(ist->next_dts), av_ts2timestr(ist->next_dts, &AV_TIME_BASE_Q),
4257                av_ts2str(ist->next_pts), av_ts2timestr(ist->next_pts, &AV_TIME_BASE_Q),
4258                av_ts2str(pkt.pts), av_ts2timestr(pkt.pts, &ist->st->time_base),
4259                av_ts2str(pkt.dts), av_ts2timestr(pkt.dts, &ist->st->time_base),
4260                av_ts2str(input_files[ist->file_index]->ts_offset),
4261                av_ts2timestr(input_files[ist->file_index]->ts_offset, &AV_TIME_BASE_Q));
4262     }
4263
4264     if(!ist->wrap_correction_done && is->start_time != AV_NOPTS_VALUE && ist->st->pts_wrap_bits < 64){
4265         int64_t stime, stime2;
4266         // Correcting starttime based on the enabled streams
4267         // FIXME this ideally should be done before the first use of starttime but we do not know which are the enabled streams at that point.
4268         //       so we instead do it here as part of discontinuity handling
4269         if (   ist->next_dts == AV_NOPTS_VALUE
4270             && ifile->ts_offset == -is->start_time
4271             && (is->iformat->flags & AVFMT_TS_DISCONT)) {
4272             int64_t new_start_time = INT64_MAX;
4273             for (i=0; i<is->nb_streams; i++) {
4274                 AVStream *st = is->streams[i];
4275                 if(st->discard == AVDISCARD_ALL || st->start_time == AV_NOPTS_VALUE)
4276                     continue;
4277                 new_start_time = FFMIN(new_start_time, av_rescale_q(st->start_time, st->time_base, AV_TIME_BASE_Q));
4278             }
4279             if (new_start_time > is->start_time) {
4280                 av_log(is, AV_LOG_VERBOSE, "Correcting start time by %"PRId64"\n", new_start_time - is->start_time);
4281                 ifile->ts_offset = -new_start_time;
4282             }
4283         }
4284
4285         stime = av_rescale_q(is->start_time, AV_TIME_BASE_Q, ist->st->time_base);
4286         stime2= stime + (1ULL<<ist->st->pts_wrap_bits);
4287         ist->wrap_correction_done = 1;
4288
4289         if(stime2 > stime && pkt.dts != AV_NOPTS_VALUE && pkt.dts > stime + (1LL<<(ist->st->pts_wrap_bits-1))) {
4290             pkt.dts -= 1ULL<<ist->st->pts_wrap_bits;
4291             ist->wrap_correction_done = 0;
4292         }
4293         if(stime2 > stime && pkt.pts != AV_NOPTS_VALUE && pkt.pts > stime + (1LL<<(ist->st->pts_wrap_bits-1))) {
4294             pkt.pts -= 1ULL<<ist->st->pts_wrap_bits;
4295             ist->wrap_correction_done = 0;
4296         }
4297     }
4298
4299     /* add the stream-global side data to the first packet */
4300     if (ist->nb_packets == 1) {
4301         for (i = 0; i < ist->st->nb_side_data; i++) {
4302             AVPacketSideData *src_sd = &ist->st->side_data[i];
4303             uint8_t *dst_data;
4304
4305             if (src_sd->type == AV_PKT_DATA_DISPLAYMATRIX)
4306                 continue;
4307
4308             if (av_packet_get_side_data(&pkt, src_sd->type, NULL))
4309                 continue;
4310
4311             dst_data = av_packet_new_side_data(&pkt, src_sd->type, src_sd->size);
4312             if (!dst_data)
4313                 exit_program(1);
4314
4315             memcpy(dst_data, src_sd->data, src_sd->size);
4316         }
4317     }
4318
4319     if (pkt.dts != AV_NOPTS_VALUE)
4320         pkt.dts += av_rescale_q(ifile->ts_offset, AV_TIME_BASE_Q, ist->st->time_base);
4321     if (pkt.pts != AV_NOPTS_VALUE)
4322         pkt.pts += av_rescale_q(ifile->ts_offset, AV_TIME_BASE_Q, ist->st->time_base);
4323
4324     if (pkt.pts != AV_NOPTS_VALUE)
4325         pkt.pts *= ist->ts_scale;
4326     if (pkt.dts != AV_NOPTS_VALUE)
4327         pkt.dts *= ist->ts_scale;
4328
4329     pkt_dts = av_rescale_q_rnd(pkt.dts, ist->st->time_base, AV_TIME_BASE_Q, AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX);
4330     if ((ist->dec_ctx->codec_type == AVMEDIA_TYPE_VIDEO ||
4331          ist->dec_ctx->codec_type == AVMEDIA_TYPE_AUDIO) &&
4332         pkt_dts != AV_NOPTS_VALUE && ist->next_dts == AV_NOPTS_VALUE && !copy_ts
4333         && (is->iformat->flags & AVFMT_TS_DISCONT) && ifile->last_ts != AV_NOPTS_VALUE) {
4334         int64_t delta   = pkt_dts - ifile->last_ts;
4335         if (delta < -1LL*dts_delta_threshold*AV_TIME_BASE ||
4336             delta >  1LL*dts_delta_threshold*AV_TIME_BASE){
4337             ifile->ts_offset -= delta;
4338             av_log(NULL, AV_LOG_DEBUG,
4339                    "Inter stream timestamp discontinuity %"PRId64", new offset= %"PRId64"\n",
4340                    delta, ifile->ts_offset);
4341             pkt.dts -= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
4342             if (pkt.pts != AV_NOPTS_VALUE)
4343                 pkt.pts -= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
4344         }
4345     }
4346
4347     duration = av_rescale_q(ifile->duration, ifile->time_base, ist->st->time_base);
4348     if (pkt.pts != AV_NOPTS_VALUE) {
4349         pkt.pts += duration;
4350         ist->max_pts = FFMAX(pkt.pts, ist->max_pts);
4351         ist->min_pts = FFMIN(pkt.pts, ist->min_pts);
4352     }
4353
4354     if (pkt.dts != AV_NOPTS_VALUE)
4355         pkt.dts += duration;
4356
4357     pkt_dts = av_rescale_q_rnd(pkt.dts, ist->st->time_base, AV_TIME_BASE_Q, AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX);
4358     if ((ist->dec_ctx->codec_type == AVMEDIA_TYPE_VIDEO ||
4359          ist->dec_ctx->codec_type == AVMEDIA_TYPE_AUDIO) &&
4360          pkt_dts != AV_NOPTS_VALUE && ist->next_dts != AV_NOPTS_VALUE &&
4361         !copy_ts) {
4362         int64_t delta   = pkt_dts - ist->next_dts;
4363         if (is->iformat->flags & AVFMT_TS_DISCONT) {
4364             if (delta < -1LL*dts_delta_threshold*AV_TIME_BASE ||
4365                 delta >  1LL*dts_delta_threshold*AV_TIME_BASE ||
4366                 pkt_dts + AV_TIME_BASE/10 < FFMAX(ist->pts, ist->dts)) {
4367                 ifile->ts_offset -= delta;
4368                 av_log(NULL, AV_LOG_DEBUG,
4369                        "timestamp discontinuity %"PRId64", new offset= %"PRId64"\n",
4370                        delta, ifile->ts_offset);
4371                 pkt.dts -= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
4372                 if (pkt.pts != AV_NOPTS_VALUE)
4373                     pkt.pts -= av_rescale_q(delta, AV_TIME_BASE_Q, ist->st->time_base);
4374             }
4375         } else {
4376             if ( delta < -1LL*dts_error_threshold*AV_TIME_BASE ||
4377                  delta >  1LL*dts_error_threshold*AV_TIME_BASE) {
4378                 av_log(NULL, AV_LOG_WARNING, "DTS %"PRId64", next:%"PRId64" st:%d invalid dropping\n", pkt.dts, ist->next_dts, pkt.stream_index);
4379                 pkt.dts = AV_NOPTS_VALUE;
4380             }
4381             if (pkt.pts != AV_NOPTS_VALUE){
4382                 int64_t pkt_pts = av_rescale_q(pkt.pts, ist->st->time_base, AV_TIME_BASE_Q);
4383                 delta   = pkt_pts - ist->next_dts;
4384                 if ( delta < -1LL*dts_error_threshold*AV_TIME_BASE ||
4385                      delta >  1LL*dts_error_threshold*AV_TIME_BASE) {
4386                     av_log(NULL, AV_LOG_WARNING, "PTS %"PRId64", next:%"PRId64" invalid dropping st:%d\n", pkt.pts, ist->next_dts, pkt.stream_index);
4387                     pkt.pts = AV_NOPTS_VALUE;
4388                 }
4389             }
4390         }
4391     }
4392
4393     if (pkt.dts != AV_NOPTS_VALUE)
4394         ifile->last_ts = av_rescale_q(pkt.dts, ist->st->time_base, AV_TIME_BASE_Q);
4395
4396     if (debug_ts) {
4397         av_log(NULL, AV_LOG_INFO, "demuxer+ffmpeg -> ist_index:%d type:%s pkt_pts:%s pkt_pts_time:%s pkt_dts:%s pkt_dts_time:%s off:%s off_time:%s\n",
4398                ifile->ist_index + pkt.stream_index, av_get_media_type_string(ist->dec_ctx->codec_type),
4399                av_ts2str(pkt.pts), av_ts2timestr(pkt.pts, &ist->st->time_base),
4400                av_ts2str(pkt.dts), av_ts2timestr(pkt.dts, &ist->st->time_base),
4401                av_ts2str(input_files[ist->file_index]->ts_offset),
4402                av_ts2timestr(input_files[ist->file_index]->ts_offset, &AV_TIME_BASE_Q));
4403     }
4404
4405     sub2video_heartbeat(ist, pkt.pts);
4406
4407     process_input_packet(ist, &pkt, 0);
4408
4409 discard_packet:
4410     av_packet_unref(&pkt);
4411
4412     return 0;
4413 }
4414
4415 /**
4416  * Perform a step of transcoding for the specified filter graph.
4417  *
4418  * @param[in]  graph     filter graph to consider
4419  * @param[out] best_ist  input stream where a frame would allow to continue
4420  * @return  0 for success, <0 for error
4421  */
4422 static int transcode_from_filter(FilterGraph *graph, InputStream **best_ist)
4423 {
4424     int i, ret;
4425     int nb_requests, nb_requests_max = 0;
4426     InputFilter *ifilter;
4427     InputStream *ist;
4428
4429     *best_ist = NULL;
4430     ret = avfilter_graph_request_oldest(graph->graph);
4431     if (ret >= 0)
4432         return reap_filters(0);
4433
4434     if (ret == AVERROR_EOF) {
4435         ret = reap_filters(1);
4436         for (i = 0; i < graph->nb_outputs; i++)
4437             close_output_stream(graph->outputs[i]->ost);
4438         return ret;
4439     }
4440     if (ret != AVERROR(EAGAIN))
4441         return ret;
4442
4443     for (i = 0; i < graph->nb_inputs; i++) {
4444         ifilter = graph->inputs[i];
4445         ist = ifilter->ist;
4446         if (input_files[ist->file_index]->eagain ||
4447             input_files[ist->file_index]->eof_reached)
4448             continue;
4449         nb_requests = av_buffersrc_get_nb_failed_requests(ifilter->filter);
4450         if (nb_requests > nb_requests_max) {
4451             nb_requests_max = nb_requests;
4452             *best_ist = ist;
4453         }
4454     }
4455
4456     if (!*best_ist)
4457         for (i = 0; i < graph->nb_outputs; i++)
4458             graph->outputs[i]->ost->unavailable = 1;
4459
4460     return 0;
4461 }
4462
4463 /**
4464  * Run a single step of transcoding.
4465  *
4466  * @return  0 for success, <0 for error
4467  */
4468 static int transcode_step(void)
4469 {
4470     OutputStream *ost;
4471     InputStream  *ist = NULL;
4472     int ret;
4473
4474     ost = choose_output();
4475     if (!ost) {
4476         if (got_eagain()) {
4477             reset_eagain();
4478             av_usleep(10000);
4479             return 0;
4480         }
4481         av_log(NULL, AV_LOG_VERBOSE, "No more inputs to read from, finishing.\n");
4482         return AVERROR_EOF;
4483     }
4484
4485     if (ost->filter && !ost->filter->graph->graph) {
4486         if (ifilter_has_all_input_formats(ost->filter->graph)) {
4487             ret = configure_filtergraph(ost->filter->graph);
4488             if (ret < 0) {
4489                 av_log(NULL, AV_LOG_ERROR, "Error reinitializing filters!\n");
4490                 return ret;
4491             }
4492         }
4493     }
4494
4495     if (ost->filter && ost->filter->graph->graph) {
4496         if ((ret = transcode_from_filter(ost->filter->graph, &ist)) < 0)
4497             return ret;
4498         if (!ist)
4499             return 0;
4500     } else if (ost->filter) {
4501         int i;
4502         for (i = 0; i < ost->filter->graph->nb_inputs; i++) {
4503             InputFilter *ifilter = ost->filter->graph->inputs[i];
4504             if (!ifilter->ist->got_output && !input_files[ifilter->ist->file_index]->eof_reached) {
4505                 ist = ifilter->ist;
4506                 break;
4507             }
4508         }
4509         if (!ist) {
4510             ost->inputs_done = 1;
4511             return 0;
4512         }
4513     } else {
4514         av_assert0(ost->source_index >= 0);
4515         ist = input_streams[ost->source_index];
4516     }
4517
4518     ret = process_input(ist->file_index);
4519     if (ret == AVERROR(EAGAIN)) {
4520         if (input_files[ist->file_index]->eagain)
4521             ost->unavailable = 1;
4522         return 0;
4523     }
4524
4525     if (ret < 0)
4526         return ret == AVERROR_EOF ? 0 : ret;
4527
4528     return reap_filters(0);
4529 }
4530
4531 /*
4532  * The following code is the main loop of the file converter
4533  */
4534 static int transcode(void)
4535 {
4536     int ret, i;
4537     AVFormatContext *os;
4538     OutputStream *ost;
4539     InputStream *ist;
4540     int64_t timer_start;
4541     int64_t total_packets_written = 0;
4542
4543     ret = transcode_init();
4544     if (ret < 0)
4545         goto fail;
4546
4547     if (stdin_interaction) {
4548         av_log(NULL, AV_LOG_INFO, "Press [q] to stop, [?] for help\n");
4549     }
4550
4551     timer_start = av_gettime_relative();
4552
4553 #if HAVE_PTHREADS
4554     if ((ret = init_input_threads()) < 0)
4555         goto fail;
4556 #endif
4557
4558     while (!received_sigterm) {
4559         int64_t cur_time= av_gettime_relative();
4560
4561         /* if 'q' pressed, exits */
4562         if (stdin_interaction)
4563             if (check_keyboard_interaction(cur_time) < 0)
4564                 break;
4565
4566         /* check if there's any stream where output is still needed */
4567         if (!need_output()) {
4568             av_log(NULL, AV_LOG_VERBOSE, "No more output streams to write to, finishing.\n");
4569             break;
4570         }
4571
4572         ret = transcode_step();
4573         if (ret < 0 && ret != AVERROR_EOF) {
4574             char errbuf[128];
4575             av_strerror(ret, errbuf, sizeof(errbuf));
4576
4577             av_log(NULL, AV_LOG_ERROR, "Error while filtering: %s\n", errbuf);
4578             break;
4579         }
4580
4581         /* dump report by using the output first video and audio streams */
4582         print_report(0, timer_start, cur_time);
4583     }
4584 #if HAVE_PTHREADS
4585     free_input_threads();
4586 #endif
4587
4588     /* at the end of stream, we must flush the decoder buffers */
4589     for (i = 0; i < nb_input_streams; i++) {
4590         ist = input_streams[i];
4591         if (!input_files[ist->file_index]->eof_reached && ist->decoding_needed) {
4592             process_input_packet(ist, NULL, 0);
4593         }
4594     }
4595     flush_encoders();
4596
4597     term_exit();
4598
4599     /* write the trailer if needed and close file */
4600     for (i = 0; i < nb_output_files; i++) {
4601         os = output_files[i]->ctx;
4602         if (!output_files[i]->header_written) {
4603             av_log(NULL, AV_LOG_ERROR,
4604                    "Nothing was written into output file %d (%s), because "
4605                    "at least one of its streams received no packets.\n",
4606                    i, os->filename);
4607             continue;
4608         }
4609         if ((ret = av_write_trailer(os)) < 0) {
4610             av_log(NULL, AV_LOG_ERROR, "Error writing trailer of %s: %s\n", os->filename, av_err2str(ret));
4611             if (exit_on_error)
4612                 exit_program(1);
4613         }
4614     }
4615
4616     /* dump report by using the first video and audio streams */
4617     print_report(1, timer_start, av_gettime_relative());
4618
4619     /* close each encoder */
4620     for (i = 0; i < nb_output_streams; i++) {
4621         ost = output_streams[i];
4622         if (ost->encoding_needed) {
4623             av_freep(&ost->enc_ctx->stats_in);
4624         }
4625         total_packets_written += ost->packets_written;
4626     }
4627
4628     if (!total_packets_written && (abort_on_flags & ABORT_ON_FLAG_EMPTY_OUTPUT)) {
4629         av_log(NULL, AV_LOG_FATAL, "Empty output\n");
4630         exit_program(1);
4631     }
4632
4633     /* close each decoder */
4634     for (i = 0; i < nb_input_streams; i++) {
4635         ist = input_streams[i];
4636         if (ist->decoding_needed) {
4637             avcodec_close(ist->dec_ctx);
4638             if (ist->hwaccel_uninit)
4639                 ist->hwaccel_uninit(ist->dec_ctx);
4640         }
4641     }
4642
4643     av_buffer_unref(&hw_device_ctx);
4644
4645     /* finished ! */
4646     ret = 0;
4647
4648  fail:
4649 #if HAVE_PTHREADS
4650     free_input_threads();
4651 #endif
4652
4653     if (output_streams) {
4654         for (i = 0; i < nb_output_streams; i++) {
4655             ost = output_streams[i];
4656             if (ost) {
4657                 if (ost->logfile) {
4658                     if (fclose(ost->logfile))
4659                         av_log(NULL, AV_LOG_ERROR,
4660                                "Error closing logfile, loss of information possible: %s\n",
4661                                av_err2str(AVERROR(errno)));
4662                     ost->logfile = NULL;
4663                 }
4664                 av_freep(&ost->forced_kf_pts);
4665                 av_freep(&ost->apad);
4666                 av_freep(&ost->disposition);
4667                 av_dict_free(&ost->encoder_opts);
4668                 av_dict_free(&ost->sws_dict);
4669                 av_dict_free(&ost->swr_opts);
4670                 av_dict_free(&ost->resample_opts);
4671             }
4672         }
4673     }
4674     return ret;
4675 }
4676
4677
4678 static int64_t getutime(void)
4679 {
4680 #if HAVE_GETRUSAGE
4681     struct rusage rusage;
4682
4683     getrusage(RUSAGE_SELF, &rusage);
4684     return (rusage.ru_utime.tv_sec * 1000000LL) + rusage.ru_utime.tv_usec;
4685 #elif HAVE_GETPROCESSTIMES
4686     HANDLE proc;
4687     FILETIME c, e, k, u;
4688     proc = GetCurrentProcess();
4689     GetProcessTimes(proc, &c, &e, &k, &u);
4690     return ((int64_t) u.dwHighDateTime << 32 | u.dwLowDateTime) / 10;
4691 #else
4692     return av_gettime_relative();
4693 #endif
4694 }
4695
4696 static int64_t getmaxrss(void)
4697 {
4698 #if HAVE_GETRUSAGE && HAVE_STRUCT_RUSAGE_RU_MAXRSS
4699     struct rusage rusage;
4700     getrusage(RUSAGE_SELF, &rusage);
4701     return (int64_t)rusage.ru_maxrss * 1024;
4702 #elif HAVE_GETPROCESSMEMORYINFO
4703     HANDLE proc;
4704     PROCESS_MEMORY_COUNTERS memcounters;
4705     proc = GetCurrentProcess();
4706     memcounters.cb = sizeof(memcounters);
4707     GetProcessMemoryInfo(proc, &memcounters, sizeof(memcounters));
4708     return memcounters.PeakPagefileUsage;
4709 #else
4710     return 0;
4711 #endif
4712 }
4713
4714 static void log_callback_null(void *ptr, int level, const char *fmt, va_list vl)
4715 {
4716 }
4717
4718 int main(int argc, char **argv)
4719 {
4720     int i, ret;
4721     int64_t ti;
4722
4723     init_dynload();
4724
4725     register_exit(ffmpeg_cleanup);
4726
4727     setvbuf(stderr,NULL,_IONBF,0); /* win32 runtime needs this */
4728
4729     av_log_set_flags(AV_LOG_SKIP_REPEATED);
4730     parse_loglevel(argc, argv, options);
4731
4732     if(argc>1 && !strcmp(argv[1], "-d")){
4733         run_as_daemon=1;
4734         av_log_set_callback(log_callback_null);
4735         argc--;
4736         argv++;
4737     }
4738
4739     avcodec_register_all();
4740 #if CONFIG_AVDEVICE
4741     avdevice_register_all();
4742 #endif
4743     avfilter_register_all();
4744     av_register_all();
4745     avformat_network_init();
4746
4747     show_banner(argc, argv, options);
4748
4749     /* parse options and open all input/output files */
4750     ret = ffmpeg_parse_options(argc, argv);
4751     if (ret < 0)
4752         exit_program(1);
4753
4754     if (nb_output_files <= 0 && nb_input_files == 0) {
4755         show_usage();
4756         av_log(NULL, AV_LOG_WARNING, "Use -h to get full help or, even better, run 'man %s'\n", program_name);
4757         exit_program(1);
4758     }
4759
4760     /* file converter / grab */
4761     if (nb_output_files <= 0) {
4762         av_log(NULL, AV_LOG_FATAL, "At least one output file must be specified\n");
4763         exit_program(1);
4764     }
4765
4766 //     if (nb_input_files == 0) {
4767 //         av_log(NULL, AV_LOG_FATAL, "At least one input file must be specified\n");
4768 //         exit_program(1);
4769 //     }
4770
4771     for (i = 0; i < nb_output_files; i++) {
4772         if (strcmp(output_files[i]->ctx->oformat->name, "rtp"))
4773             want_sdp = 0;
4774     }
4775
4776     current_time = ti = getutime();
4777     if (transcode() < 0)
4778         exit_program(1);
4779     ti = getutime() - ti;
4780     if (do_benchmark) {
4781         av_log(NULL, AV_LOG_INFO, "bench: utime=%0.3fs\n", ti / 1000000.0);
4782     }
4783     av_log(NULL, AV_LOG_DEBUG, "%"PRIu64" frames successfully decoded, %"PRIu64" decoding errors\n",
4784            decode_error_stat[0], decode_error_stat[1]);
4785     if ((decode_error_stat[0] + decode_error_stat[1]) * max_error_rate < decode_error_stat[1])
4786         exit_program(69);
4787
4788     exit_program(received_nb_signals ? 255 : main_return_code);
4789     return main_return_code;
4790 }