]> git.sesse.net Git - ffmpeg/blob - libavformat/mux.c
avformat: Remove deprecated filename field from AVFormatContext
[ffmpeg] / libavformat / mux.c
1 /*
2  * muxing functions for use within FFmpeg
3  * Copyright (c) 2000, 2001, 2002 Fabrice Bellard
4  *
5  * This file is part of FFmpeg.
6  *
7  * FFmpeg is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * FFmpeg is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with FFmpeg; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 #include "avformat.h"
23 #include "internal.h"
24 #include "libavcodec/internal.h"
25 #include "libavcodec/packet_internal.h"
26 #include "libavutil/opt.h"
27 #include "libavutil/dict.h"
28 #include "libavutil/pixdesc.h"
29 #include "libavutil/timestamp.h"
30 #include "libavutil/avassert.h"
31 #include "libavutil/avstring.h"
32 #include "libavutil/internal.h"
33 #include "libavutil/mathematics.h"
34
35 /**
36  * @file
37  * muxing functions for use within libavformat
38  */
39
40 /* fraction handling */
41
42 /**
43  * f = val + (num / den) + 0.5.
44  *
45  * 'num' is normalized so that it is such as 0 <= num < den.
46  *
47  * @param f fractional number
48  * @param val integer value
49  * @param num must be >= 0
50  * @param den must be >= 1
51  */
52 static void frac_init(FFFrac *f, int64_t val, int64_t num, int64_t den)
53 {
54     num += (den >> 1);
55     if (num >= den) {
56         val += num / den;
57         num  = num % den;
58     }
59     f->val = val;
60     f->num = num;
61     f->den = den;
62 }
63
64 /**
65  * Fractional addition to f: f = f + (incr / f->den).
66  *
67  * @param f fractional number
68  * @param incr increment, can be positive or negative
69  */
70 static void frac_add(FFFrac *f, int64_t incr)
71 {
72     int64_t num, den;
73
74     num = f->num + incr;
75     den = f->den;
76     if (num < 0) {
77         f->val += num / den;
78         num     = num % den;
79         if (num < 0) {
80             num += den;
81             f->val--;
82         }
83     } else if (num >= den) {
84         f->val += num / den;
85         num     = num % den;
86     }
87     f->num = num;
88 }
89
90 AVRational ff_choose_timebase(AVFormatContext *s, AVStream *st, int min_precision)
91 {
92     AVRational q;
93     int j;
94
95     q = st->time_base;
96
97     for (j=2; j<14; j+= 1+(j>2))
98         while (q.den / q.num < min_precision && q.num % j == 0)
99             q.num /= j;
100     while (q.den / q.num < min_precision && q.den < (1<<24))
101         q.den <<= 1;
102
103     return q;
104 }
105
106 enum AVChromaLocation ff_choose_chroma_location(AVFormatContext *s, AVStream *st)
107 {
108     AVCodecParameters *par = st->codecpar;
109     const AVPixFmtDescriptor *pix_desc = av_pix_fmt_desc_get(par->format);
110
111     if (par->chroma_location != AVCHROMA_LOC_UNSPECIFIED)
112         return par->chroma_location;
113
114     if (pix_desc) {
115         if (pix_desc->log2_chroma_h == 0) {
116             return AVCHROMA_LOC_TOPLEFT;
117         } else if (pix_desc->log2_chroma_w == 1 && pix_desc->log2_chroma_h == 1) {
118             if (par->field_order == AV_FIELD_UNKNOWN || par->field_order == AV_FIELD_PROGRESSIVE) {
119                 switch (par->codec_id) {
120                 case AV_CODEC_ID_MJPEG:
121                 case AV_CODEC_ID_MPEG1VIDEO: return AVCHROMA_LOC_CENTER;
122                 }
123             }
124             if (par->field_order == AV_FIELD_UNKNOWN || par->field_order != AV_FIELD_PROGRESSIVE) {
125                 switch (par->codec_id) {
126                 case AV_CODEC_ID_MPEG2VIDEO: return AVCHROMA_LOC_LEFT;
127                 }
128             }
129         }
130     }
131
132     return AVCHROMA_LOC_UNSPECIFIED;
133
134 }
135
136 int avformat_alloc_output_context2(AVFormatContext **avctx, const AVOutputFormat *oformat,
137                                    const char *format, const char *filename)
138 {
139     AVFormatContext *s = avformat_alloc_context();
140     int ret = 0;
141
142     *avctx = NULL;
143     if (!s)
144         goto nomem;
145
146     if (!oformat) {
147         if (format) {
148             oformat = av_guess_format(format, NULL, NULL);
149             if (!oformat) {
150                 av_log(s, AV_LOG_ERROR, "Requested output format '%s' is not a suitable output format\n", format);
151                 ret = AVERROR(EINVAL);
152                 goto error;
153             }
154         } else {
155             oformat = av_guess_format(NULL, filename, NULL);
156             if (!oformat) {
157                 ret = AVERROR(EINVAL);
158                 av_log(s, AV_LOG_ERROR, "Unable to find a suitable output format for '%s'\n",
159                        filename);
160                 goto error;
161             }
162         }
163     }
164
165     s->oformat = oformat;
166     if (s->oformat->priv_data_size > 0) {
167         s->priv_data = av_mallocz(s->oformat->priv_data_size);
168         if (!s->priv_data)
169             goto nomem;
170         if (s->oformat->priv_class) {
171             *(const AVClass**)s->priv_data= s->oformat->priv_class;
172             av_opt_set_defaults(s->priv_data);
173         }
174     } else
175         s->priv_data = NULL;
176
177     if (filename) {
178         if (!(s->url = av_strdup(filename)))
179             goto nomem;
180
181     }
182     *avctx = s;
183     return 0;
184 nomem:
185     av_log(s, AV_LOG_ERROR, "Out of memory\n");
186     ret = AVERROR(ENOMEM);
187 error:
188     avformat_free_context(s);
189     return ret;
190 }
191
192 static int validate_codec_tag(AVFormatContext *s, AVStream *st)
193 {
194     const AVCodecTag *avctag;
195     int n;
196     enum AVCodecID id = AV_CODEC_ID_NONE;
197     int64_t tag  = -1;
198
199     /**
200      * Check that tag + id is in the table
201      * If neither is in the table -> OK
202      * If tag is in the table with another id -> FAIL
203      * If id is in the table with another tag -> FAIL unless strict < normal
204      */
205     for (n = 0; s->oformat->codec_tag[n]; n++) {
206         avctag = s->oformat->codec_tag[n];
207         while (avctag->id != AV_CODEC_ID_NONE) {
208             if (avpriv_toupper4(avctag->tag) == avpriv_toupper4(st->codecpar->codec_tag)) {
209                 id = avctag->id;
210                 if (id == st->codecpar->codec_id)
211                     return 1;
212             }
213             if (avctag->id == st->codecpar->codec_id)
214                 tag = avctag->tag;
215             avctag++;
216         }
217     }
218     if (id != AV_CODEC_ID_NONE)
219         return 0;
220     if (tag >= 0 && (s->strict_std_compliance >= FF_COMPLIANCE_NORMAL))
221         return 0;
222     return 1;
223 }
224
225
226 static int init_muxer(AVFormatContext *s, AVDictionary **options)
227 {
228     int ret = 0, i;
229     AVStream *st;
230     AVDictionary *tmp = NULL;
231     AVCodecParameters *par = NULL;
232     const AVOutputFormat *of = s->oformat;
233     const AVCodecDescriptor *desc;
234     AVDictionaryEntry *e;
235
236     if (options)
237         av_dict_copy(&tmp, *options, 0);
238
239     if ((ret = av_opt_set_dict(s, &tmp)) < 0)
240         goto fail;
241     if (s->priv_data && s->oformat->priv_class && *(const AVClass**)s->priv_data==s->oformat->priv_class &&
242         (ret = av_opt_set_dict2(s->priv_data, &tmp, AV_OPT_SEARCH_CHILDREN)) < 0)
243         goto fail;
244
245     if (!s->url && !(s->url = av_strdup(""))) {
246         ret = AVERROR(ENOMEM);
247         goto fail;
248     }
249
250 #if FF_API_LAVF_AVCTX
251 FF_DISABLE_DEPRECATION_WARNINGS
252     if (s->nb_streams && s->streams[0]->codec->flags & AV_CODEC_FLAG_BITEXACT) {
253         if (!(s->flags & AVFMT_FLAG_BITEXACT)) {
254             av_log(s, AV_LOG_WARNING,
255                    "The AVFormatContext is not in set to bitexact mode, only "
256                    "the AVCodecContext. If this is not intended, set "
257                    "AVFormatContext.flags |= AVFMT_FLAG_BITEXACT.\n");
258         }
259     }
260 FF_ENABLE_DEPRECATION_WARNINGS
261 #endif
262
263     // some sanity checks
264     if (s->nb_streams == 0 && !(of->flags & AVFMT_NOSTREAMS)) {
265         av_log(s, AV_LOG_ERROR, "No streams to mux were specified\n");
266         ret = AVERROR(EINVAL);
267         goto fail;
268     }
269
270     for (i = 0; i < s->nb_streams; i++) {
271         st  = s->streams[i];
272         par = st->codecpar;
273
274 #if FF_API_LAVF_AVCTX
275 FF_DISABLE_DEPRECATION_WARNINGS
276         if (st->codecpar->codec_type == AVMEDIA_TYPE_UNKNOWN &&
277             st->codec->codec_type    != AVMEDIA_TYPE_UNKNOWN) {
278             av_log(s, AV_LOG_WARNING, "Using AVStream.codec to pass codec "
279                    "parameters to muxers is deprecated, use AVStream.codecpar "
280                    "instead.\n");
281             ret = avcodec_parameters_from_context(st->codecpar, st->codec);
282             if (ret < 0)
283                 goto fail;
284         }
285 FF_ENABLE_DEPRECATION_WARNINGS
286 #endif
287
288         if (!st->time_base.num) {
289             /* fall back on the default timebase values */
290             if (par->codec_type == AVMEDIA_TYPE_AUDIO && par->sample_rate)
291                 avpriv_set_pts_info(st, 64, 1, par->sample_rate);
292             else
293                 avpriv_set_pts_info(st, 33, 1, 90000);
294         }
295
296         switch (par->codec_type) {
297         case AVMEDIA_TYPE_AUDIO:
298             if (par->sample_rate <= 0) {
299                 av_log(s, AV_LOG_ERROR, "sample rate not set\n");
300                 ret = AVERROR(EINVAL);
301                 goto fail;
302             }
303             if (!par->block_align)
304                 par->block_align = par->channels *
305                                    av_get_bits_per_sample(par->codec_id) >> 3;
306             break;
307         case AVMEDIA_TYPE_VIDEO:
308             if ((par->width <= 0 || par->height <= 0) &&
309                 !(of->flags & AVFMT_NODIMENSIONS)) {
310                 av_log(s, AV_LOG_ERROR, "dimensions not set\n");
311                 ret = AVERROR(EINVAL);
312                 goto fail;
313             }
314             if (av_cmp_q(st->sample_aspect_ratio, par->sample_aspect_ratio)
315                 && fabs(av_q2d(st->sample_aspect_ratio) - av_q2d(par->sample_aspect_ratio)) > 0.004*av_q2d(st->sample_aspect_ratio)
316             ) {
317                 if (st->sample_aspect_ratio.num != 0 &&
318                     st->sample_aspect_ratio.den != 0 &&
319                     par->sample_aspect_ratio.num != 0 &&
320                     par->sample_aspect_ratio.den != 0) {
321                     av_log(s, AV_LOG_ERROR, "Aspect ratio mismatch between muxer "
322                            "(%d/%d) and encoder layer (%d/%d)\n",
323                            st->sample_aspect_ratio.num, st->sample_aspect_ratio.den,
324                            par->sample_aspect_ratio.num,
325                            par->sample_aspect_ratio.den);
326                     ret = AVERROR(EINVAL);
327                     goto fail;
328                 }
329             }
330             break;
331         }
332
333         desc = avcodec_descriptor_get(par->codec_id);
334         if (desc && desc->props & AV_CODEC_PROP_REORDER)
335             st->internal->reorder = 1;
336
337         st->internal->is_intra_only = ff_is_intra_only(par->codec_id);
338
339         if (of->codec_tag) {
340             if (   par->codec_tag
341                 && par->codec_id == AV_CODEC_ID_RAWVIDEO
342                 && (   av_codec_get_tag(of->codec_tag, par->codec_id) == 0
343                     || av_codec_get_tag(of->codec_tag, par->codec_id) == MKTAG('r', 'a', 'w', ' '))
344                 && !validate_codec_tag(s, st)) {
345                 // the current rawvideo encoding system ends up setting
346                 // the wrong codec_tag for avi/mov, we override it here
347                 par->codec_tag = 0;
348             }
349             if (par->codec_tag) {
350                 if (!validate_codec_tag(s, st)) {
351                     const uint32_t otag = av_codec_get_tag(s->oformat->codec_tag, par->codec_id);
352                     av_log(s, AV_LOG_ERROR,
353                            "Tag %s incompatible with output codec id '%d' (%s)\n",
354                            av_fourcc2str(par->codec_tag), par->codec_id, av_fourcc2str(otag));
355                     ret = AVERROR_INVALIDDATA;
356                     goto fail;
357                 }
358             } else
359                 par->codec_tag = av_codec_get_tag(of->codec_tag, par->codec_id);
360         }
361
362         if (par->codec_type != AVMEDIA_TYPE_ATTACHMENT)
363             s->internal->nb_interleaved_streams++;
364     }
365
366     if (!s->priv_data && of->priv_data_size > 0) {
367         s->priv_data = av_mallocz(of->priv_data_size);
368         if (!s->priv_data) {
369             ret = AVERROR(ENOMEM);
370             goto fail;
371         }
372         if (of->priv_class) {
373             *(const AVClass **)s->priv_data = of->priv_class;
374             av_opt_set_defaults(s->priv_data);
375             if ((ret = av_opt_set_dict2(s->priv_data, &tmp, AV_OPT_SEARCH_CHILDREN)) < 0)
376                 goto fail;
377         }
378     }
379
380     /* set muxer identification string */
381     if (!(s->flags & AVFMT_FLAG_BITEXACT)) {
382         av_dict_set(&s->metadata, "encoder", LIBAVFORMAT_IDENT, 0);
383     } else {
384         av_dict_set(&s->metadata, "encoder", NULL, 0);
385     }
386
387     for (e = NULL; e = av_dict_get(s->metadata, "encoder-", e, AV_DICT_IGNORE_SUFFIX); ) {
388         av_dict_set(&s->metadata, e->key, NULL, 0);
389     }
390
391     if (options) {
392          av_dict_free(options);
393          *options = tmp;
394     }
395
396     if (s->oformat->init) {
397         if ((ret = s->oformat->init(s)) < 0) {
398             if (s->oformat->deinit)
399                 s->oformat->deinit(s);
400             return ret;
401         }
402         return ret == 0;
403     }
404
405     return 0;
406
407 fail:
408     av_dict_free(&tmp);
409     return ret;
410 }
411
412 static int init_pts(AVFormatContext *s)
413 {
414     int i;
415     AVStream *st;
416
417     /* init PTS generation */
418     for (i = 0; i < s->nb_streams; i++) {
419         int64_t den = AV_NOPTS_VALUE;
420         st = s->streams[i];
421
422         switch (st->codecpar->codec_type) {
423         case AVMEDIA_TYPE_AUDIO:
424             den = (int64_t)st->time_base.num * st->codecpar->sample_rate;
425             break;
426         case AVMEDIA_TYPE_VIDEO:
427             den = (int64_t)st->time_base.num * st->time_base.den;
428             break;
429         default:
430             break;
431         }
432
433         if (!st->internal->priv_pts)
434             st->internal->priv_pts = av_mallocz(sizeof(*st->internal->priv_pts));
435         if (!st->internal->priv_pts)
436             return AVERROR(ENOMEM);
437
438         if (den != AV_NOPTS_VALUE) {
439             if (den <= 0)
440                 return AVERROR_INVALIDDATA;
441
442             frac_init(st->internal->priv_pts, 0, 0, den);
443         }
444     }
445
446     if (s->avoid_negative_ts < 0) {
447         av_assert2(s->avoid_negative_ts == AVFMT_AVOID_NEG_TS_AUTO);
448         if (s->oformat->flags & (AVFMT_TS_NEGATIVE | AVFMT_NOTIMESTAMPS)) {
449             s->avoid_negative_ts = 0;
450         } else
451             s->avoid_negative_ts = AVFMT_AVOID_NEG_TS_MAKE_NON_NEGATIVE;
452     }
453
454     return 0;
455 }
456
457 static void flush_if_needed(AVFormatContext *s)
458 {
459     if (s->pb && s->pb->error >= 0) {
460         if (s->flush_packets == 1 || s->flags & AVFMT_FLAG_FLUSH_PACKETS)
461             avio_flush(s->pb);
462         else if (s->flush_packets && !(s->oformat->flags & AVFMT_NOFILE))
463             avio_write_marker(s->pb, AV_NOPTS_VALUE, AVIO_DATA_MARKER_FLUSH_POINT);
464     }
465 }
466
467 static void deinit_muxer(AVFormatContext *s)
468 {
469     if (s->oformat && s->oformat->deinit && s->internal->initialized)
470         s->oformat->deinit(s);
471     s->internal->initialized =
472     s->internal->streams_initialized = 0;
473 }
474
475 int avformat_init_output(AVFormatContext *s, AVDictionary **options)
476 {
477     int ret = 0;
478
479     if ((ret = init_muxer(s, options)) < 0)
480         return ret;
481
482     s->internal->initialized = 1;
483     s->internal->streams_initialized = ret;
484
485     if (s->oformat->init && ret) {
486         if ((ret = init_pts(s)) < 0)
487             return ret;
488
489         return AVSTREAM_INIT_IN_INIT_OUTPUT;
490     }
491
492     return AVSTREAM_INIT_IN_WRITE_HEADER;
493 }
494
495 int avformat_write_header(AVFormatContext *s, AVDictionary **options)
496 {
497     int ret = 0;
498     int already_initialized = s->internal->initialized;
499     int streams_already_initialized = s->internal->streams_initialized;
500
501     if (!already_initialized)
502         if ((ret = avformat_init_output(s, options)) < 0)
503             return ret;
504
505     if (!(s->oformat->flags & AVFMT_NOFILE) && s->pb)
506         avio_write_marker(s->pb, AV_NOPTS_VALUE, AVIO_DATA_MARKER_HEADER);
507     if (s->oformat->write_header) {
508         ret = s->oformat->write_header(s);
509         if (ret >= 0 && s->pb && s->pb->error < 0)
510             ret = s->pb->error;
511         if (ret < 0)
512             goto fail;
513         flush_if_needed(s);
514     }
515     if (!(s->oformat->flags & AVFMT_NOFILE) && s->pb)
516         avio_write_marker(s->pb, AV_NOPTS_VALUE, AVIO_DATA_MARKER_UNKNOWN);
517
518     if (!s->internal->streams_initialized) {
519         if ((ret = init_pts(s)) < 0)
520             goto fail;
521     }
522
523     return streams_already_initialized;
524
525 fail:
526     deinit_muxer(s);
527     return ret;
528 }
529
530 #define AV_PKT_FLAG_UNCODED_FRAME 0x2000
531
532
533 #if FF_API_COMPUTE_PKT_FIELDS2
534 FF_DISABLE_DEPRECATION_WARNINGS
535 //FIXME merge with compute_pkt_fields
536 static int compute_muxer_pkt_fields(AVFormatContext *s, AVStream *st, AVPacket *pkt)
537 {
538     int delay = FFMAX(st->codecpar->video_delay, st->internal->avctx->max_b_frames > 0);
539     int i;
540     int frame_size;
541
542     if (!s->internal->missing_ts_warning &&
543         !(s->oformat->flags & AVFMT_NOTIMESTAMPS) &&
544         (!(st->disposition & AV_DISPOSITION_ATTACHED_PIC) || (st->disposition & AV_DISPOSITION_TIMED_THUMBNAILS)) &&
545         (pkt->pts == AV_NOPTS_VALUE || pkt->dts == AV_NOPTS_VALUE)) {
546         av_log(s, AV_LOG_WARNING,
547                "Timestamps are unset in a packet for stream %d. "
548                "This is deprecated and will stop working in the future. "
549                "Fix your code to set the timestamps properly\n", st->index);
550         s->internal->missing_ts_warning = 1;
551     }
552
553     if (s->debug & FF_FDEBUG_TS)
554         av_log(s, AV_LOG_DEBUG, "compute_muxer_pkt_fields: pts:%s dts:%s cur_dts:%s b:%d size:%d st:%d\n",
555             av_ts2str(pkt->pts), av_ts2str(pkt->dts), av_ts2str(st->cur_dts), delay, pkt->size, pkt->stream_index);
556
557     if (pkt->pts == AV_NOPTS_VALUE && pkt->dts != AV_NOPTS_VALUE && delay == 0)
558         pkt->pts = pkt->dts;
559
560     //XXX/FIXME this is a temporary hack until all encoders output pts
561     if ((pkt->pts == 0 || pkt->pts == AV_NOPTS_VALUE) && pkt->dts == AV_NOPTS_VALUE && !delay) {
562         static int warned;
563         if (!warned) {
564             av_log(s, AV_LOG_WARNING, "Encoder did not produce proper pts, making some up.\n");
565             warned = 1;
566         }
567         pkt->dts =
568 //        pkt->pts= st->cur_dts;
569             pkt->pts = st->internal->priv_pts->val;
570     }
571
572     //calculate dts from pts
573     if (pkt->pts != AV_NOPTS_VALUE && pkt->dts == AV_NOPTS_VALUE && delay <= MAX_REORDER_DELAY) {
574         st->internal->pts_buffer[0] = pkt->pts;
575         for (i = 1; i < delay + 1 && st->internal->pts_buffer[i] == AV_NOPTS_VALUE; i++)
576             st->internal->pts_buffer[i] = pkt->pts + (i - delay - 1) * pkt->duration;
577         for (i = 0; i<delay && st->internal->pts_buffer[i] > st->internal->pts_buffer[i + 1]; i++)
578             FFSWAP(int64_t, st->internal->pts_buffer[i], st->internal->pts_buffer[i + 1]);
579
580         pkt->dts = st->internal->pts_buffer[0];
581     }
582
583     if (st->cur_dts && st->cur_dts != AV_NOPTS_VALUE &&
584         ((!(s->oformat->flags & AVFMT_TS_NONSTRICT) &&
585           st->codecpar->codec_type != AVMEDIA_TYPE_SUBTITLE &&
586           st->codecpar->codec_type != AVMEDIA_TYPE_DATA &&
587           st->cur_dts >= pkt->dts) || st->cur_dts > pkt->dts)) {
588         av_log(s, AV_LOG_ERROR,
589                "Application provided invalid, non monotonically increasing dts to muxer in stream %d: %s >= %s\n",
590                st->index, av_ts2str(st->cur_dts), av_ts2str(pkt->dts));
591         return AVERROR(EINVAL);
592     }
593     if (pkt->dts != AV_NOPTS_VALUE && pkt->pts != AV_NOPTS_VALUE && pkt->pts < pkt->dts) {
594         av_log(s, AV_LOG_ERROR,
595                "pts (%s) < dts (%s) in stream %d\n",
596                av_ts2str(pkt->pts), av_ts2str(pkt->dts),
597                st->index);
598         return AVERROR(EINVAL);
599     }
600
601     if (s->debug & FF_FDEBUG_TS)
602         av_log(s, AV_LOG_DEBUG, "av_write_frame: pts2:%s dts2:%s\n",
603             av_ts2str(pkt->pts), av_ts2str(pkt->dts));
604
605     st->cur_dts = pkt->dts;
606     st->internal->priv_pts->val = pkt->dts;
607
608     /* update pts */
609     switch (st->codecpar->codec_type) {
610     case AVMEDIA_TYPE_AUDIO:
611         frame_size = (pkt->flags & AV_PKT_FLAG_UNCODED_FRAME) ?
612                      (*(AVFrame **)pkt->data)->nb_samples :
613                      av_get_audio_frame_duration2(st->codecpar, pkt->size);
614
615         /* HACK/FIXME, we skip the initial 0 size packets as they are most
616          * likely equal to the encoder delay, but it would be better if we
617          * had the real timestamps from the encoder */
618         if (frame_size >= 0 && (pkt->size || st->internal->priv_pts->num != st->internal->priv_pts->den >> 1 || st->internal->priv_pts->val)) {
619             frac_add(st->internal->priv_pts, (int64_t)st->time_base.den * frame_size);
620         }
621         break;
622     case AVMEDIA_TYPE_VIDEO:
623         frac_add(st->internal->priv_pts, (int64_t)st->time_base.den * st->time_base.num);
624         break;
625     }
626     return 0;
627 }
628 FF_ENABLE_DEPRECATION_WARNINGS
629 #endif
630
631 static void guess_pkt_duration(AVFormatContext *s, AVStream *st, AVPacket *pkt)
632 {
633     if (pkt->duration < 0 && st->codecpar->codec_type != AVMEDIA_TYPE_SUBTITLE) {
634         av_log(s, AV_LOG_WARNING, "Packet with invalid duration %"PRId64" in stream %d\n",
635                pkt->duration, pkt->stream_index);
636         pkt->duration = 0;
637     }
638
639     if (pkt->duration)
640         return;
641
642     switch (st->codecpar->codec_type) {
643     case AVMEDIA_TYPE_VIDEO:
644         if (st->avg_frame_rate.num > 0 && st->avg_frame_rate.den > 0) {
645             pkt->duration = av_rescale_q(1, av_inv_q(st->avg_frame_rate),
646                                          st->time_base);
647         } else if (st->time_base.num * 1000LL > st->time_base.den)
648             pkt->duration = 1;
649         break;
650     case AVMEDIA_TYPE_AUDIO: {
651         int frame_size = av_get_audio_frame_duration2(st->codecpar, pkt->size);
652         if (frame_size && st->codecpar->sample_rate) {
653             pkt->duration = av_rescale_q(frame_size,
654                                          (AVRational){1, st->codecpar->sample_rate},
655                                          st->time_base);
656         }
657         break;
658         }
659     }
660 }
661
662 /**
663  * Shift timestamps and call muxer; the original pts/dts are not kept.
664  *
665  * FIXME: this function should NEVER get undefined pts/dts beside when the
666  * AVFMT_NOTIMESTAMPS is set.
667  * Those additional safety checks should be dropped once the correct checks
668  * are set in the callers.
669  */
670 static int write_packet(AVFormatContext *s, AVPacket *pkt)
671 {
672     int ret;
673
674     // If the timestamp offsetting below is adjusted, adjust
675     // ff_interleaved_peek similarly.
676     if (s->output_ts_offset) {
677         AVStream *st = s->streams[pkt->stream_index];
678         int64_t offset = av_rescale_q(s->output_ts_offset, AV_TIME_BASE_Q, st->time_base);
679
680         if (pkt->dts != AV_NOPTS_VALUE)
681             pkt->dts += offset;
682         if (pkt->pts != AV_NOPTS_VALUE)
683             pkt->pts += offset;
684     }
685
686     if (s->avoid_negative_ts > 0) {
687         AVStream *st = s->streams[pkt->stream_index];
688         int64_t offset = st->internal->mux_ts_offset;
689         int64_t ts = s->internal->avoid_negative_ts_use_pts ? pkt->pts : pkt->dts;
690
691         if (s->internal->offset == AV_NOPTS_VALUE && ts != AV_NOPTS_VALUE &&
692             (ts < 0 || s->avoid_negative_ts == AVFMT_AVOID_NEG_TS_MAKE_ZERO)) {
693             s->internal->offset = -ts;
694             s->internal->offset_timebase = st->time_base;
695         }
696
697         if (s->internal->offset != AV_NOPTS_VALUE && !offset) {
698             offset = st->internal->mux_ts_offset =
699                 av_rescale_q_rnd(s->internal->offset,
700                                  s->internal->offset_timebase,
701                                  st->time_base,
702                                  AV_ROUND_UP);
703         }
704
705         if (pkt->dts != AV_NOPTS_VALUE)
706             pkt->dts += offset;
707         if (pkt->pts != AV_NOPTS_VALUE)
708             pkt->pts += offset;
709
710         if (s->internal->avoid_negative_ts_use_pts) {
711             if (pkt->pts != AV_NOPTS_VALUE && pkt->pts < 0) {
712                 av_log(s, AV_LOG_WARNING, "failed to avoid negative "
713                     "pts %s in stream %d.\n"
714                     "Try -avoid_negative_ts 1 as a possible workaround.\n",
715                     av_ts2str(pkt->pts),
716                     pkt->stream_index
717                 );
718             }
719         } else {
720             av_assert2(pkt->dts == AV_NOPTS_VALUE || pkt->dts >= 0 || s->max_interleave_delta > 0);
721             if (pkt->dts != AV_NOPTS_VALUE && pkt->dts < 0) {
722                 av_log(s, AV_LOG_WARNING,
723                     "Packets poorly interleaved, failed to avoid negative "
724                     "timestamp %s in stream %d.\n"
725                     "Try -max_interleave_delta 0 as a possible workaround.\n",
726                     av_ts2str(pkt->dts),
727                     pkt->stream_index
728                 );
729             }
730         }
731     }
732
733     if ((pkt->flags & AV_PKT_FLAG_UNCODED_FRAME)) {
734         AVFrame **frame = (AVFrame **)pkt->data;
735         av_assert0(pkt->size == sizeof(*frame));
736         ret = s->oformat->write_uncoded_frame(s, pkt->stream_index, frame, 0);
737     } else {
738         ret = s->oformat->write_packet(s, pkt);
739     }
740
741     if (s->pb && ret >= 0) {
742         flush_if_needed(s);
743         if (s->pb->error < 0)
744             ret = s->pb->error;
745     }
746
747     if (ret >= 0)
748         s->streams[pkt->stream_index]->nb_frames++;
749
750     return ret;
751 }
752
753 static int check_packet(AVFormatContext *s, AVPacket *pkt)
754 {
755     if (pkt->stream_index < 0 || pkt->stream_index >= s->nb_streams) {
756         av_log(s, AV_LOG_ERROR, "Invalid packet stream index: %d\n",
757                pkt->stream_index);
758         return AVERROR(EINVAL);
759     }
760
761     if (s->streams[pkt->stream_index]->codecpar->codec_type == AVMEDIA_TYPE_ATTACHMENT) {
762         av_log(s, AV_LOG_ERROR, "Received a packet for an attachment stream.\n");
763         return AVERROR(EINVAL);
764     }
765
766     return 0;
767 }
768
769 static int prepare_input_packet(AVFormatContext *s, AVStream *st, AVPacket *pkt)
770 {
771 #if !FF_API_COMPUTE_PKT_FIELDS2
772     /* sanitize the timestamps */
773     if (!(s->oformat->flags & AVFMT_NOTIMESTAMPS)) {
774
775         /* when there is no reordering (so dts is equal to pts), but
776          * only one of them is set, set the other as well */
777         if (!st->internal->reorder) {
778             if (pkt->pts == AV_NOPTS_VALUE && pkt->dts != AV_NOPTS_VALUE)
779                 pkt->pts = pkt->dts;
780             if (pkt->dts == AV_NOPTS_VALUE && pkt->pts != AV_NOPTS_VALUE)
781                 pkt->dts = pkt->pts;
782         }
783
784         /* check that the timestamps are set */
785         if (pkt->pts == AV_NOPTS_VALUE || pkt->dts == AV_NOPTS_VALUE) {
786             av_log(s, AV_LOG_ERROR,
787                    "Timestamps are unset in a packet for stream %d\n", st->index);
788             return AVERROR(EINVAL);
789         }
790
791         /* check that the dts are increasing (or at least non-decreasing,
792          * if the format allows it */
793         if (st->cur_dts != AV_NOPTS_VALUE &&
794             ((!(s->oformat->flags & AVFMT_TS_NONSTRICT) && st->cur_dts >= pkt->dts) ||
795              st->cur_dts > pkt->dts)) {
796             av_log(s, AV_LOG_ERROR,
797                    "Application provided invalid, non monotonically increasing "
798                    "dts to muxer in stream %d: %" PRId64 " >= %" PRId64 "\n",
799                    st->index, st->cur_dts, pkt->dts);
800             return AVERROR(EINVAL);
801         }
802
803         if (pkt->pts < pkt->dts) {
804             av_log(s, AV_LOG_ERROR, "pts %" PRId64 " < dts %" PRId64 " in stream %d\n",
805                    pkt->pts, pkt->dts, st->index);
806             return AVERROR(EINVAL);
807         }
808     }
809 #endif
810     /* update flags */
811     if (st->internal->is_intra_only)
812         pkt->flags |= AV_PKT_FLAG_KEY;
813
814     return 0;
815 }
816
817 #define CHUNK_START 0x1000
818
819 int ff_interleave_add_packet(AVFormatContext *s, AVPacket *pkt,
820                              int (*compare)(AVFormatContext *, const AVPacket *, const AVPacket *))
821 {
822     int ret;
823     PacketList **next_point, *this_pktl;
824     AVStream *st = s->streams[pkt->stream_index];
825     int chunked  = s->max_chunk_size || s->max_chunk_duration;
826
827     this_pktl    = av_malloc(sizeof(PacketList));
828     if (!this_pktl) {
829         av_packet_unref(pkt);
830         return AVERROR(ENOMEM);
831     }
832     if ((ret = av_packet_make_refcounted(pkt)) < 0) {
833         av_free(this_pktl);
834         av_packet_unref(pkt);
835         return ret;
836     }
837
838     av_packet_move_ref(&this_pktl->pkt, pkt);
839     pkt = &this_pktl->pkt;
840
841     if (st->internal->last_in_packet_buffer) {
842         next_point = &(st->internal->last_in_packet_buffer->next);
843     } else {
844         next_point = &s->internal->packet_buffer;
845     }
846
847     if (chunked) {
848         uint64_t max= av_rescale_q_rnd(s->max_chunk_duration, AV_TIME_BASE_Q, st->time_base, AV_ROUND_UP);
849         st->internal->interleaver_chunk_size     += pkt->size;
850         st->internal->interleaver_chunk_duration += pkt->duration;
851         if (   (s->max_chunk_size && st->internal->interleaver_chunk_size > s->max_chunk_size)
852             || (max && st->internal->interleaver_chunk_duration           > max)) {
853             st->internal->interleaver_chunk_size = 0;
854             pkt->flags |= CHUNK_START;
855             if (max && st->internal->interleaver_chunk_duration > max) {
856                 int64_t syncoffset = (st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)*max/2;
857                 int64_t syncto = av_rescale(pkt->dts + syncoffset, 1, max)*max - syncoffset;
858
859                 st->internal->interleaver_chunk_duration += (pkt->dts - syncto)/8 - max;
860             } else
861                 st->internal->interleaver_chunk_duration = 0;
862         }
863     }
864     if (*next_point) {
865         if (chunked && !(pkt->flags & CHUNK_START))
866             goto next_non_null;
867
868         if (compare(s, &s->internal->packet_buffer_end->pkt, pkt)) {
869             while (   *next_point
870                    && ((chunked && !((*next_point)->pkt.flags&CHUNK_START))
871                        || !compare(s, &(*next_point)->pkt, pkt)))
872                 next_point = &(*next_point)->next;
873             if (*next_point)
874                 goto next_non_null;
875         } else {
876             next_point = &(s->internal->packet_buffer_end->next);
877         }
878     }
879     av_assert1(!*next_point);
880
881     s->internal->packet_buffer_end = this_pktl;
882 next_non_null:
883
884     this_pktl->next = *next_point;
885
886     st->internal->last_in_packet_buffer = *next_point = this_pktl;
887
888     return 0;
889 }
890
891 static int interleave_compare_dts(AVFormatContext *s, const AVPacket *next,
892                                                       const AVPacket *pkt)
893 {
894     AVStream *st  = s->streams[pkt->stream_index];
895     AVStream *st2 = s->streams[next->stream_index];
896     int comp      = av_compare_ts(next->dts, st2->time_base, pkt->dts,
897                                   st->time_base);
898     if (s->audio_preload) {
899         int preload  = st ->codecpar->codec_type == AVMEDIA_TYPE_AUDIO;
900         int preload2 = st2->codecpar->codec_type == AVMEDIA_TYPE_AUDIO;
901         if (preload != preload2) {
902             int64_t ts, ts2;
903             preload  *= s->audio_preload;
904             preload2 *= s->audio_preload;
905             ts = av_rescale_q(pkt ->dts, st ->time_base, AV_TIME_BASE_Q) - preload;
906             ts2= av_rescale_q(next->dts, st2->time_base, AV_TIME_BASE_Q) - preload2;
907             if (ts == ts2) {
908                 ts  = ((uint64_t)pkt ->dts*st ->time_base.num*AV_TIME_BASE - (uint64_t)preload *st ->time_base.den)*st2->time_base.den
909                     - ((uint64_t)next->dts*st2->time_base.num*AV_TIME_BASE - (uint64_t)preload2*st2->time_base.den)*st ->time_base.den;
910                 ts2 = 0;
911             }
912             comp = (ts2 > ts) - (ts2 < ts);
913         }
914     }
915
916     if (comp == 0)
917         return pkt->stream_index < next->stream_index;
918     return comp > 0;
919 }
920
921 int ff_interleave_packet_per_dts(AVFormatContext *s, AVPacket *out,
922                                  AVPacket *pkt, int flush)
923 {
924     PacketList *pktl;
925     int stream_count = 0;
926     int noninterleaved_count = 0;
927     int i, ret;
928     int eof = flush;
929
930     if (pkt) {
931         if ((ret = ff_interleave_add_packet(s, pkt, interleave_compare_dts)) < 0)
932             return ret;
933     }
934
935     for (i = 0; i < s->nb_streams; i++) {
936         if (s->streams[i]->internal->last_in_packet_buffer) {
937             ++stream_count;
938         } else if (s->streams[i]->codecpar->codec_type != AVMEDIA_TYPE_ATTACHMENT &&
939                    s->streams[i]->codecpar->codec_id != AV_CODEC_ID_VP8 &&
940                    s->streams[i]->codecpar->codec_id != AV_CODEC_ID_VP9) {
941             ++noninterleaved_count;
942         }
943     }
944
945     if (s->internal->nb_interleaved_streams == stream_count)
946         flush = 1;
947
948     if (s->max_interleave_delta > 0 &&
949         s->internal->packet_buffer &&
950         !flush &&
951         s->internal->nb_interleaved_streams == stream_count+noninterleaved_count
952     ) {
953         AVPacket *top_pkt = &s->internal->packet_buffer->pkt;
954         int64_t delta_dts = INT64_MIN;
955         int64_t top_dts = av_rescale_q(top_pkt->dts,
956                                        s->streams[top_pkt->stream_index]->time_base,
957                                        AV_TIME_BASE_Q);
958
959         for (i = 0; i < s->nb_streams; i++) {
960             int64_t last_dts;
961             const PacketList *last = s->streams[i]->internal->last_in_packet_buffer;
962
963             if (!last)
964                 continue;
965
966             last_dts = av_rescale_q(last->pkt.dts,
967                                     s->streams[i]->time_base,
968                                     AV_TIME_BASE_Q);
969             delta_dts = FFMAX(delta_dts, last_dts - top_dts);
970         }
971
972         if (delta_dts > s->max_interleave_delta) {
973             av_log(s, AV_LOG_DEBUG,
974                    "Delay between the first packet and last packet in the "
975                    "muxing queue is %"PRId64" > %"PRId64": forcing output\n",
976                    delta_dts, s->max_interleave_delta);
977             flush = 1;
978         }
979     }
980
981     if (s->internal->packet_buffer &&
982         eof &&
983         (s->flags & AVFMT_FLAG_SHORTEST) &&
984         s->internal->shortest_end == AV_NOPTS_VALUE) {
985         AVPacket *top_pkt = &s->internal->packet_buffer->pkt;
986
987         s->internal->shortest_end = av_rescale_q(top_pkt->dts,
988                                        s->streams[top_pkt->stream_index]->time_base,
989                                        AV_TIME_BASE_Q);
990     }
991
992     if (s->internal->shortest_end != AV_NOPTS_VALUE) {
993         while (s->internal->packet_buffer) {
994             AVPacket *top_pkt = &s->internal->packet_buffer->pkt;
995             AVStream *st;
996             int64_t top_dts = av_rescale_q(top_pkt->dts,
997                                         s->streams[top_pkt->stream_index]->time_base,
998                                         AV_TIME_BASE_Q);
999
1000             if (s->internal->shortest_end + 1 >= top_dts)
1001                 break;
1002
1003             pktl = s->internal->packet_buffer;
1004             st   = s->streams[pktl->pkt.stream_index];
1005
1006             s->internal->packet_buffer = pktl->next;
1007             if (!s->internal->packet_buffer)
1008                 s->internal->packet_buffer_end = NULL;
1009
1010             if (st->internal->last_in_packet_buffer == pktl)
1011                 st->internal->last_in_packet_buffer = NULL;
1012
1013             av_packet_unref(&pktl->pkt);
1014             av_freep(&pktl);
1015             flush = 0;
1016         }
1017     }
1018
1019     if (stream_count && flush) {
1020         AVStream *st;
1021         pktl = s->internal->packet_buffer;
1022         *out = pktl->pkt;
1023         st   = s->streams[out->stream_index];
1024
1025         s->internal->packet_buffer = pktl->next;
1026         if (!s->internal->packet_buffer)
1027             s->internal->packet_buffer_end = NULL;
1028
1029         if (st->internal->last_in_packet_buffer == pktl)
1030             st->internal->last_in_packet_buffer = NULL;
1031         av_freep(&pktl);
1032
1033         return 1;
1034     } else {
1035         return 0;
1036     }
1037 }
1038
1039 int ff_get_muxer_ts_offset(AVFormatContext *s, int stream_index, int64_t *offset)
1040 {
1041     AVStream *st;
1042
1043     if (stream_index < 0 || stream_index >= s->nb_streams)
1044         return AVERROR(EINVAL);
1045
1046     st = s->streams[stream_index];
1047     *offset = st->internal->mux_ts_offset;
1048
1049     if (s->output_ts_offset)
1050         *offset += av_rescale_q(s->output_ts_offset, AV_TIME_BASE_Q, st->time_base);
1051
1052     return 0;
1053 }
1054
1055 const AVPacket *ff_interleaved_peek(AVFormatContext *s, int stream)
1056 {
1057     PacketList *pktl = s->internal->packet_buffer;
1058     while (pktl) {
1059         if (pktl->pkt.stream_index == stream) {
1060             return &pktl->pkt;
1061         }
1062         pktl = pktl->next;
1063     }
1064     return NULL;
1065 }
1066
1067 /**
1068  * Interleave an AVPacket correctly so it can be muxed.
1069  * @param out the interleaved packet will be output here
1070  * @param in the input packet; will always be blank on return if not NULL
1071  * @param flush 1 if no further packets are available as input and all
1072  *              remaining packets should be output
1073  * @return 1 if a packet was output, 0 if no packet could be output,
1074  *         < 0 if an error occurred
1075  */
1076 static int interleave_packet(AVFormatContext *s, AVPacket *out, AVPacket *in, int flush)
1077 {
1078     if (s->oformat->interleave_packet) {
1079         return s->oformat->interleave_packet(s, out, in, flush);
1080     } else
1081         return ff_interleave_packet_per_dts(s, out, in, flush);
1082 }
1083
1084 static int check_bitstream(AVFormatContext *s, AVStream *st, AVPacket *pkt)
1085 {
1086     int ret;
1087
1088     if (!(s->flags & AVFMT_FLAG_AUTO_BSF))
1089         return 1;
1090
1091     if (s->oformat->check_bitstream) {
1092         if (!st->internal->bitstream_checked) {
1093             if ((ret = s->oformat->check_bitstream(s, pkt)) < 0)
1094                 return ret;
1095             else if (ret == 1)
1096                 st->internal->bitstream_checked = 1;
1097         }
1098     }
1099
1100     return 1;
1101 }
1102
1103 static int interleaved_write_packet(AVFormatContext *s, AVPacket *pkt, int flush)
1104 {
1105     for (;; ) {
1106         AVPacket opkt;
1107         int ret = interleave_packet(s, &opkt, pkt, flush);
1108         if (ret <= 0)
1109             return ret;
1110
1111         pkt = NULL;
1112
1113         ret = write_packet(s, &opkt);
1114
1115         av_packet_unref(&opkt);
1116
1117         if (ret < 0)
1118             return ret;
1119     }
1120 }
1121
1122 static int write_packet_common(AVFormatContext *s, AVStream *st, AVPacket *pkt, int interleaved)
1123 {
1124     int ret;
1125
1126     if (s->debug & FF_FDEBUG_TS)
1127         av_log(s, AV_LOG_DEBUG, "%s size:%d dts:%s pts:%s\n", __FUNCTION__,
1128                pkt->size, av_ts2str(pkt->dts), av_ts2str(pkt->pts));
1129
1130     guess_pkt_duration(s, st, pkt);
1131
1132 #if FF_API_COMPUTE_PKT_FIELDS2
1133     if ((ret = compute_muxer_pkt_fields(s, st, pkt)) < 0 && !(s->oformat->flags & AVFMT_NOTIMESTAMPS))
1134         return ret;
1135 #endif
1136
1137     if (interleaved) {
1138         if (pkt->dts == AV_NOPTS_VALUE && !(s->oformat->flags & AVFMT_NOTIMESTAMPS))
1139             return AVERROR(EINVAL);
1140         return interleaved_write_packet(s, pkt, 0);
1141     } else {
1142         return write_packet(s, pkt);
1143     }
1144 }
1145
1146 static int write_packets_from_bsfs(AVFormatContext *s, AVStream *st, AVPacket *pkt, int interleaved)
1147 {
1148     AVBSFContext *bsfc = st->internal->bsfc;
1149     int ret;
1150
1151     if ((ret = av_bsf_send_packet(bsfc, pkt)) < 0) {
1152         av_log(s, AV_LOG_ERROR,
1153                 "Failed to send packet to filter %s for stream %d\n",
1154                 bsfc->filter->name, st->index);
1155         return ret;
1156     }
1157
1158     do {
1159         ret = av_bsf_receive_packet(bsfc, pkt);
1160         if (ret < 0) {
1161             if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF)
1162                 return 0;
1163             av_log(s, AV_LOG_ERROR, "Error applying bitstream filters to an output "
1164                    "packet for stream #%d: %s\n", st->index, av_err2str(ret));
1165             if (!(s->error_recognition & AV_EF_EXPLODE) && ret != AVERROR(ENOMEM))
1166                 continue;
1167             return ret;
1168         }
1169         av_packet_rescale_ts(pkt, bsfc->time_base_out, st->time_base);
1170         ret = write_packet_common(s, st, pkt, interleaved);
1171         if (ret >= 0 && !interleaved) // a successful write_packet_common already unrefed pkt for interleaved
1172             av_packet_unref(pkt);
1173     } while (ret >= 0);
1174
1175     return ret;
1176 }
1177
1178 static int write_packets_common(AVFormatContext *s, AVPacket *pkt, int interleaved)
1179 {
1180     AVStream *st;
1181     int ret = check_packet(s, pkt);
1182     if (ret < 0)
1183         return ret;
1184     st = s->streams[pkt->stream_index];
1185
1186     ret = prepare_input_packet(s, st, pkt);
1187     if (ret < 0)
1188         return ret;
1189
1190     ret = check_bitstream(s, st, pkt);
1191     if (ret < 0)
1192         return ret;
1193
1194     if (st->internal->bsfc) {
1195         return write_packets_from_bsfs(s, st, pkt, interleaved);
1196     } else {
1197         return write_packet_common(s, st, pkt, interleaved);
1198     }
1199 }
1200
1201 int av_write_frame(AVFormatContext *s, AVPacket *in)
1202 {
1203     AVPacket *pkt = s->internal->pkt;
1204     int ret;
1205
1206     if (!in) {
1207         if (s->oformat->flags & AVFMT_ALLOW_FLUSH) {
1208             ret = s->oformat->write_packet(s, NULL);
1209             flush_if_needed(s);
1210             if (ret >= 0 && s->pb && s->pb->error < 0)
1211                 ret = s->pb->error;
1212             return ret;
1213         }
1214         return 1;
1215     }
1216
1217     if (in->flags & AV_PKT_FLAG_UNCODED_FRAME) {
1218         pkt = in;
1219     } else {
1220         /* We don't own in, so we have to make sure not to modify it.
1221          * The following avoids copying in's data unnecessarily.
1222          * Copying side data is unavoidable as a bitstream filter
1223          * may change it, e.g. free it on errors. */
1224         av_packet_unref(pkt);
1225         pkt->buf  = NULL;
1226         pkt->data = in->data;
1227         pkt->size = in->size;
1228         ret = av_packet_copy_props(pkt, in);
1229         if (ret < 0)
1230             return ret;
1231         if (in->buf) {
1232             pkt->buf = av_buffer_ref(in->buf);
1233             if (!pkt->buf) {
1234                 ret = AVERROR(ENOMEM);
1235                 goto fail;
1236             }
1237         }
1238     }
1239
1240     ret = write_packets_common(s, pkt, 0/*non-interleaved*/);
1241
1242 fail:
1243     // Uncoded frames using the noninterleaved codepath are also freed here
1244     av_packet_unref(pkt);
1245     return ret;
1246 }
1247
1248 int av_interleaved_write_frame(AVFormatContext *s, AVPacket *pkt)
1249 {
1250     int ret;
1251
1252     if (pkt) {
1253         ret = write_packets_common(s, pkt, 1/*interleaved*/);
1254         if (ret < 0)
1255             av_packet_unref(pkt);
1256         return ret;
1257     } else {
1258         av_log(s, AV_LOG_TRACE, "av_interleaved_write_frame FLUSH\n");
1259         return interleaved_write_packet(s, NULL, 1/*flush*/);
1260     }
1261 }
1262
1263 int av_write_trailer(AVFormatContext *s)
1264 {
1265     int i, ret1, ret = 0;
1266     AVPacket *pkt = s->internal->pkt;
1267
1268     av_packet_unref(pkt);
1269     for (i = 0; i < s->nb_streams; i++) {
1270         if (s->streams[i]->internal->bsfc) {
1271             ret1 = write_packets_from_bsfs(s, s->streams[i], pkt, 1/*interleaved*/);
1272             if (ret1 < 0)
1273                 av_packet_unref(pkt);
1274             if (ret >= 0)
1275                 ret = ret1;
1276         }
1277     }
1278     ret1 = interleaved_write_packet(s, NULL, 1);
1279     if (ret >= 0)
1280         ret = ret1;
1281
1282     if (s->oformat->write_trailer) {
1283         if (!(s->oformat->flags & AVFMT_NOFILE) && s->pb)
1284             avio_write_marker(s->pb, AV_NOPTS_VALUE, AVIO_DATA_MARKER_TRAILER);
1285         if (ret >= 0) {
1286         ret = s->oformat->write_trailer(s);
1287         } else {
1288             s->oformat->write_trailer(s);
1289         }
1290     }
1291
1292     deinit_muxer(s);
1293
1294     if (s->pb)
1295        avio_flush(s->pb);
1296     if (ret == 0)
1297        ret = s->pb ? s->pb->error : 0;
1298     for (i = 0; i < s->nb_streams; i++) {
1299         av_freep(&s->streams[i]->priv_data);
1300         av_freep(&s->streams[i]->internal->index_entries);
1301     }
1302     if (s->oformat->priv_class)
1303         av_opt_free(s->priv_data);
1304     av_freep(&s->priv_data);
1305     return ret;
1306 }
1307
1308 int av_get_output_timestamp(struct AVFormatContext *s, int stream,
1309                             int64_t *dts, int64_t *wall)
1310 {
1311     if (!s->oformat || !s->oformat->get_output_timestamp)
1312         return AVERROR(ENOSYS);
1313     s->oformat->get_output_timestamp(s, stream, dts, wall);
1314     return 0;
1315 }
1316
1317 int ff_write_chained(AVFormatContext *dst, int dst_stream, AVPacket *pkt,
1318                      AVFormatContext *src, int interleave)
1319 {
1320     AVPacket local_pkt;
1321     int ret;
1322
1323     local_pkt = *pkt;
1324     local_pkt.stream_index = dst_stream;
1325
1326     av_packet_rescale_ts(&local_pkt,
1327                          src->streams[pkt->stream_index]->time_base,
1328                          dst->streams[dst_stream]->time_base);
1329
1330     if (interleave) ret = av_interleaved_write_frame(dst, &local_pkt);
1331     else            ret = av_write_frame(dst, &local_pkt);
1332     pkt->buf = local_pkt.buf;
1333     pkt->side_data       = local_pkt.side_data;
1334     pkt->side_data_elems = local_pkt.side_data_elems;
1335     return ret;
1336 }
1337
1338 static void uncoded_frame_free(void *unused, uint8_t *data)
1339 {
1340     av_frame_free((AVFrame **)data);
1341     av_free(data);
1342 }
1343
1344 static int write_uncoded_frame_internal(AVFormatContext *s, int stream_index,
1345                                         AVFrame *frame, int interleaved)
1346 {
1347     AVPacket *pkt = s->internal->pkt;
1348
1349     av_assert0(s->oformat);
1350     if (!s->oformat->write_uncoded_frame) {
1351         av_frame_free(&frame);
1352         return AVERROR(ENOSYS);
1353     }
1354
1355     if (!frame) {
1356         pkt = NULL;
1357     } else {
1358         size_t   bufsize = sizeof(frame) + AV_INPUT_BUFFER_PADDING_SIZE;
1359         AVFrame **framep = av_mallocz(bufsize);
1360
1361         if (!framep)
1362             goto fail;
1363         av_packet_unref(pkt);
1364         pkt->buf = av_buffer_create((void *)framep, bufsize,
1365                                    uncoded_frame_free, NULL, 0);
1366         if (!pkt->buf) {
1367             av_free(framep);
1368     fail:
1369             av_frame_free(&frame);
1370             return AVERROR(ENOMEM);
1371         }
1372         *framep = frame;
1373
1374         pkt->data         = (void *)framep;
1375         pkt->size         = sizeof(frame);
1376         pkt->pts          =
1377         pkt->dts          = frame->pts;
1378         pkt->duration     = frame->pkt_duration;
1379         pkt->stream_index = stream_index;
1380         pkt->flags |= AV_PKT_FLAG_UNCODED_FRAME;
1381     }
1382
1383     return interleaved ? av_interleaved_write_frame(s, pkt) :
1384                          av_write_frame(s, pkt);
1385 }
1386
1387 int av_write_uncoded_frame(AVFormatContext *s, int stream_index,
1388                            AVFrame *frame)
1389 {
1390     return write_uncoded_frame_internal(s, stream_index, frame, 0);
1391 }
1392
1393 int av_interleaved_write_uncoded_frame(AVFormatContext *s, int stream_index,
1394                                        AVFrame *frame)
1395 {
1396     return write_uncoded_frame_internal(s, stream_index, frame, 1);
1397 }
1398
1399 int av_write_uncoded_frame_query(AVFormatContext *s, int stream_index)
1400 {
1401     av_assert0(s->oformat);
1402     if (!s->oformat->write_uncoded_frame)
1403         return AVERROR(ENOSYS);
1404     return s->oformat->write_uncoded_frame(s, stream_index, NULL,
1405                                            AV_WRITE_UNCODED_FRAME_QUERY);
1406 }