]> git.sesse.net Git - ffmpeg/blob - libavfilter/vf_setpts.c
lavf: minor bump for avformat_queue_attached_pictures()
[ffmpeg] / libavfilter / vf_setpts.c
1 /*
2  * Copyright (c) 2010 Stefano Sabatini
3  * Copyright (c) 2008 Victor Paesa
4  *
5  * This file is part of FFmpeg.
6  *
7  * FFmpeg is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * FFmpeg is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with FFmpeg; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 /**
23  * @file
24  * video presentation timestamp (PTS) modification filter
25  */
26
27 /* #define DEBUG */
28
29 #include "libavutil/eval.h"
30 #include "libavutil/mathematics.h"
31 #include "avfilter.h"
32 #include "internal.h"
33 #include "audio.h"
34 #include "video.h"
35
36 static const char *const var_names[] = {
37     "INTERLACED",  ///< tell if the current frame is interlaced
38     "N",           ///< frame number (starting at zero)
39     "NB_CONSUMED_SAMPLES", ///< number of samples consumed by the filter (only audio)
40     "NB_SAMPLES",  ///< number of samples in the current frame (only audio)
41     "POS",         ///< original position in the file of the frame
42     "PREV_INPTS",  ///< previous  input PTS
43     "PREV_OUTPTS", ///< previous output PTS
44     "PTS",         ///< original pts in the file of the frame
45     "SAMPLE_RATE", ///< sample rate (only audio)
46     "STARTPTS",    ///< PTS at start of movie
47     "TB",          ///< timebase
48     NULL
49 };
50
51 enum var_name {
52     VAR_INTERLACED,
53     VAR_N,
54     VAR_NB_CONSUMED_SAMPLES,
55     VAR_NB_SAMPLES,
56     VAR_POS,
57     VAR_PREV_INPTS,
58     VAR_PREV_OUTPTS,
59     VAR_PTS,
60     VAR_SAMPLE_RATE,
61     VAR_STARTPTS,
62     VAR_TB,
63     VAR_VARS_NB
64 };
65
66 typedef struct {
67     AVExpr *expr;
68     double var_values[VAR_VARS_NB];
69     enum AVMediaType type;
70 } SetPTSContext;
71
72 static av_cold int init(AVFilterContext *ctx, const char *args)
73 {
74     SetPTSContext *setpts = ctx->priv;
75     int ret;
76
77     if ((ret = av_expr_parse(&setpts->expr, args ? args : "PTS",
78                              var_names, NULL, NULL, NULL, NULL, 0, ctx)) < 0) {
79         av_log(ctx, AV_LOG_ERROR, "Error while parsing expression '%s'\n", args);
80         return ret;
81     }
82
83     setpts->var_values[VAR_N          ] = 0.0;
84     setpts->var_values[VAR_PREV_INPTS ] = NAN;
85     setpts->var_values[VAR_PREV_OUTPTS] = NAN;
86     setpts->var_values[VAR_STARTPTS   ] = NAN;
87     return 0;
88 }
89
90 static int config_input(AVFilterLink *inlink)
91 {
92     AVFilterContext *ctx = inlink->dst;
93     SetPTSContext *setpts = ctx->priv;
94
95     setpts->type = inlink->type;
96     setpts->var_values[VAR_TB] = av_q2d(inlink->time_base);
97
98     if (setpts->type == AVMEDIA_TYPE_AUDIO)
99         setpts->var_values[VAR_SAMPLE_RATE] = inlink->sample_rate;
100
101     av_log(inlink->src, AV_LOG_VERBOSE, "TB:%f SAMPLE_RATE:%f\n",
102            setpts->var_values[VAR_TB], setpts->var_values[VAR_SAMPLE_RATE]);
103     return 0;
104 }
105
106 #define D2TS(d)  (isnan(d) ? AV_NOPTS_VALUE : (int64_t)(d))
107 #define TS2D(ts) ((ts) == AV_NOPTS_VALUE ? NAN : (double)(ts))
108
109 static int filter_frame(AVFilterLink *inlink, AVFilterBufferRef *inpicref)
110 {
111     SetPTSContext *setpts = inlink->dst->priv;
112     double d;
113     AVFilterBufferRef *outpicref = avfilter_ref_buffer(inpicref, ~0);
114
115     if (!outpicref)
116         return AVERROR(ENOMEM);
117
118     if (isnan(setpts->var_values[VAR_STARTPTS]))
119         setpts->var_values[VAR_STARTPTS] = TS2D(inpicref->pts);
120     setpts->var_values[VAR_PTS       ] = TS2D(inpicref->pts);
121     setpts->var_values[VAR_POS       ] = inpicref->pos == -1 ? NAN : inpicref->pos;
122
123     switch (inlink->type) {
124     case AVMEDIA_TYPE_VIDEO:
125         setpts->var_values[VAR_INTERLACED] = inpicref->video->interlaced;
126         break;
127
128     case AVMEDIA_TYPE_AUDIO:
129         setpts->var_values[VAR_NB_SAMPLES] = inpicref->audio->nb_samples;
130         break;
131     }
132
133     d = av_expr_eval(setpts->expr, setpts->var_values, NULL);
134     outpicref->pts = D2TS(d);
135
136 #ifdef DEBUG
137     av_log(inlink->dst, AV_LOG_DEBUG,
138            "n:%"PRId64" interlaced:%d nb_samples:%d nb_consumed_samples:%d "
139            "pos:%"PRId64" pts:%"PRId64" t:%f -> pts:%"PRId64" t:%f\n",
140            (int64_t)setpts->var_values[VAR_N],
141            (int)setpts->var_values[VAR_INTERLACED],
142            (int)setpts->var_values[VAR_NB_SAMPLES],
143            (int)setpts->var_values[VAR_NB_CONSUMED_SAMPLES],
144            inpicref ->pos,
145            inpicref ->pts, inpicref ->pts * av_q2d(inlink->time_base),
146            outpicref->pts, outpicref->pts * av_q2d(inlink->time_base));
147
148 #endif
149
150     setpts->var_values[VAR_N] += 1.0;
151     setpts->var_values[VAR_PREV_INPTS ] = TS2D(inpicref ->pts);
152     setpts->var_values[VAR_PREV_OUTPTS] = TS2D(outpicref->pts);
153
154     if (setpts->type == AVMEDIA_TYPE_AUDIO) {
155         setpts->var_values[VAR_NB_CONSUMED_SAMPLES] += inpicref->audio->nb_samples;
156         return ff_filter_samples(inlink->dst->outputs[0], outpicref);
157     } else
158         return ff_start_frame   (inlink->dst->outputs[0], outpicref);
159 }
160
161 static av_cold void uninit(AVFilterContext *ctx)
162 {
163     SetPTSContext *setpts = ctx->priv;
164     av_expr_free(setpts->expr);
165     setpts->expr = NULL;
166 }
167
168 #if CONFIG_ASETPTS_FILTER
169 AVFilter avfilter_af_asetpts = {
170     .name      = "asetpts",
171     .description = NULL_IF_CONFIG_SMALL("Set PTS for the output audio frame."),
172     .init      = init,
173     .uninit    = uninit,
174
175     .priv_size = sizeof(SetPTSContext),
176
177     .inputs = (const AVFilterPad[]) {
178         {
179             .name             = "default",
180             .type             = AVMEDIA_TYPE_AUDIO,
181             .get_audio_buffer = ff_null_get_audio_buffer,
182             .config_props     = config_input,
183             .filter_samples   = filter_frame,
184         },
185         { .name = NULL }
186     },
187     .outputs = (const AVFilterPad[]) {
188         {
189             .name             = "default",
190             .type             = AVMEDIA_TYPE_AUDIO,
191         },
192         { .name = NULL }
193     },
194 };
195 #endif /* CONFIG_ASETPTS_FILTER */
196
197 #if CONFIG_SETPTS_FILTER
198 AVFilter avfilter_vf_setpts = {
199     .name      = "setpts",
200     .description = NULL_IF_CONFIG_SMALL("Set PTS for the output video frame."),
201     .init      = init,
202     .uninit    = uninit,
203
204     .priv_size = sizeof(SetPTSContext),
205
206     .inputs    = (const AVFilterPad[]) {{ .name             = "default",
207                                           .type             = AVMEDIA_TYPE_VIDEO,
208                                           .get_video_buffer = ff_null_get_video_buffer,
209                                           .config_props     = config_input,
210                                           .start_frame      = filter_frame, },
211                                         { .name = NULL }},
212     .outputs   = (const AVFilterPad[]) {{ .name             = "default",
213                                           .type             = AVMEDIA_TYPE_VIDEO, },
214                                         { .name = NULL}},
215 };
216 #endif /* CONFIG_SETPTS_FILTER */