]> git.sesse.net Git - ffmpeg/blob - libavfilter/f_select.c
avformat/f_select: add support for more pixel formats for scene change score calculations
[ffmpeg] / libavfilter / f_select.c
1 /*
2  * Copyright (c) 2011 Stefano Sabatini
3  *
4  * This file is part of FFmpeg.
5  *
6  * FFmpeg is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * FFmpeg is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with FFmpeg; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 /**
22  * @file
23  * filter for selecting which frame passes in the filterchain
24  */
25
26 #include "libavutil/avstring.h"
27 #include "libavutil/eval.h"
28 #include "libavutil/fifo.h"
29 #include "libavutil/imgutils.h"
30 #include "libavutil/internal.h"
31 #include "libavutil/opt.h"
32 #include "libavutil/pixdesc.h"
33 #include "avfilter.h"
34 #include "audio.h"
35 #include "formats.h"
36 #include "internal.h"
37 #include "video.h"
38 #include "scene_sad.h"
39
40 static const char *const var_names[] = {
41     "TB",                ///< timebase
42
43     "pts",               ///< original pts in the file of the frame
44     "start_pts",         ///< first PTS in the stream, expressed in TB units
45     "prev_pts",          ///< previous frame PTS
46     "prev_selected_pts", ///< previous selected frame PTS
47
48     "t",                 ///< timestamp expressed in seconds
49     "start_t",           ///< first PTS in the stream, expressed in seconds
50     "prev_t",            ///< previous frame time
51     "prev_selected_t",   ///< previously selected time
52
53     "pict_type",         ///< the type of picture in the movie
54     "I",
55     "P",
56     "B",
57     "S",
58     "SI",
59     "SP",
60     "BI",
61     "PICT_TYPE_I",
62     "PICT_TYPE_P",
63     "PICT_TYPE_B",
64     "PICT_TYPE_S",
65     "PICT_TYPE_SI",
66     "PICT_TYPE_SP",
67     "PICT_TYPE_BI",
68
69     "interlace_type",    ///< the frame interlace type
70     "PROGRESSIVE",
71     "TOPFIRST",
72     "BOTTOMFIRST",
73
74     "consumed_samples_n",///< number of samples consumed by the filter (only audio)
75     "samples_n",         ///< number of samples in the current frame (only audio)
76     "sample_rate",       ///< sample rate (only audio)
77
78     "n",                 ///< frame number (starting from zero)
79     "selected_n",        ///< selected frame number (starting from zero)
80     "prev_selected_n",   ///< number of the last selected frame
81
82     "key",               ///< tell if the frame is a key frame
83     "pos",               ///< original position in the file of the frame
84
85     "scene",
86
87     "concatdec_select",  ///< frame is within the interval set by the concat demuxer
88
89     NULL
90 };
91
92 enum var_name {
93     VAR_TB,
94
95     VAR_PTS,
96     VAR_START_PTS,
97     VAR_PREV_PTS,
98     VAR_PREV_SELECTED_PTS,
99
100     VAR_T,
101     VAR_START_T,
102     VAR_PREV_T,
103     VAR_PREV_SELECTED_T,
104
105     VAR_PICT_TYPE,
106     VAR_I,
107     VAR_P,
108     VAR_B,
109     VAR_S,
110     VAR_SI,
111     VAR_SP,
112     VAR_BI,
113     VAR_PICT_TYPE_I,
114     VAR_PICT_TYPE_P,
115     VAR_PICT_TYPE_B,
116     VAR_PICT_TYPE_S,
117     VAR_PICT_TYPE_SI,
118     VAR_PICT_TYPE_SP,
119     VAR_PICT_TYPE_BI,
120
121     VAR_INTERLACE_TYPE,
122     VAR_INTERLACE_TYPE_P,
123     VAR_INTERLACE_TYPE_T,
124     VAR_INTERLACE_TYPE_B,
125
126     VAR_CONSUMED_SAMPLES_N,
127     VAR_SAMPLES_N,
128     VAR_SAMPLE_RATE,
129
130     VAR_N,
131     VAR_SELECTED_N,
132     VAR_PREV_SELECTED_N,
133
134     VAR_KEY,
135     VAR_POS,
136
137     VAR_SCENE,
138
139     VAR_CONCATDEC_SELECT,
140
141     VAR_VARS_NB
142 };
143
144 typedef struct SelectContext {
145     const AVClass *class;
146     char *expr_str;
147     AVExpr *expr;
148     double var_values[VAR_VARS_NB];
149     int bitdepth;
150     int nb_planes;
151     ptrdiff_t width[4];
152     ptrdiff_t height[4];
153     int do_scene_detect;            ///< 1 if the expression requires scene detection variables, 0 otherwise
154     ff_scene_sad_fn sad;            ///< Sum of the absolute difference function (scene detect only)
155     double prev_mafd;               ///< previous MAFD                           (scene detect only)
156     AVFrame *prev_picref;           ///< previous frame                          (scene detect only)
157     double select;
158     int select_out;                 ///< mark the selected output pad index
159     int nb_outputs;
160 } SelectContext;
161
162 #define OFFSET(x) offsetof(SelectContext, x)
163 #define DEFINE_OPTIONS(filt_name, FLAGS)                            \
164 static const AVOption filt_name##_options[] = {                     \
165     { "expr", "set an expression to use for selecting frames", OFFSET(expr_str), AV_OPT_TYPE_STRING, { .str = "1" }, .flags=FLAGS }, \
166     { "e",    "set an expression to use for selecting frames", OFFSET(expr_str), AV_OPT_TYPE_STRING, { .str = "1" }, .flags=FLAGS }, \
167     { "outputs", "set the number of outputs", OFFSET(nb_outputs), AV_OPT_TYPE_INT, {.i64 = 1}, 1, INT_MAX, .flags=FLAGS }, \
168     { "n",       "set the number of outputs", OFFSET(nb_outputs), AV_OPT_TYPE_INT, {.i64 = 1}, 1, INT_MAX, .flags=FLAGS }, \
169     { NULL }                                                            \
170 }
171
172 static int request_frame(AVFilterLink *outlink);
173
174 static av_cold int init(AVFilterContext *ctx)
175 {
176     SelectContext *select = ctx->priv;
177     int i, ret;
178
179     if ((ret = av_expr_parse(&select->expr, select->expr_str,
180                              var_names, NULL, NULL, NULL, NULL, 0, ctx)) < 0) {
181         av_log(ctx, AV_LOG_ERROR, "Error while parsing expression '%s'\n",
182                select->expr_str);
183         return ret;
184     }
185     select->do_scene_detect = !!strstr(select->expr_str, "scene");
186
187     for (i = 0; i < select->nb_outputs; i++) {
188         AVFilterPad pad = { 0 };
189
190         pad.name = av_asprintf("output%d", i);
191         if (!pad.name)
192             return AVERROR(ENOMEM);
193         pad.type = ctx->filter->inputs[0].type;
194         pad.request_frame = request_frame;
195         if ((ret = ff_insert_outpad(ctx, i, &pad)) < 0) {
196             av_freep(&pad.name);
197             return ret;
198         }
199     }
200
201     return 0;
202 }
203
204 #define INTERLACE_TYPE_P 0
205 #define INTERLACE_TYPE_T 1
206 #define INTERLACE_TYPE_B 2
207
208 static int config_input(AVFilterLink *inlink)
209 {
210     SelectContext *select = inlink->dst->priv;
211     const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(inlink->format);
212
213     select->bitdepth = desc->comp[0].depth;
214     select->nb_planes = av_pix_fmt_count_planes(inlink->format);
215     for (int plane = 0; plane < select->nb_planes; plane++) {
216         ptrdiff_t line_size = av_image_get_linesize(inlink->format, inlink->w, plane);
217         int vsub = desc->log2_chroma_h;
218
219         select->width[plane] = line_size >> (select->bitdepth > 8);
220         select->height[plane] = plane == 1 || plane == 2 ?  AV_CEIL_RSHIFT(inlink->h, vsub) : inlink->h;
221     }
222
223     select->var_values[VAR_N]          = 0.0;
224     select->var_values[VAR_SELECTED_N] = 0.0;
225
226     select->var_values[VAR_TB] = av_q2d(inlink->time_base);
227
228     select->var_values[VAR_PREV_PTS]          = NAN;
229     select->var_values[VAR_PREV_SELECTED_PTS] = NAN;
230     select->var_values[VAR_PREV_SELECTED_T]   = NAN;
231     select->var_values[VAR_PREV_T]            = NAN;
232     select->var_values[VAR_START_PTS]         = NAN;
233     select->var_values[VAR_START_T]           = NAN;
234
235     select->var_values[VAR_I]  = AV_PICTURE_TYPE_I;
236     select->var_values[VAR_P]  = AV_PICTURE_TYPE_P;
237     select->var_values[VAR_B]  = AV_PICTURE_TYPE_B;
238     select->var_values[VAR_SI] = AV_PICTURE_TYPE_SI;
239     select->var_values[VAR_SP] = AV_PICTURE_TYPE_SP;
240     select->var_values[VAR_BI] = AV_PICTURE_TYPE_BI;
241     select->var_values[VAR_PICT_TYPE_I]  = AV_PICTURE_TYPE_I;
242     select->var_values[VAR_PICT_TYPE_P]  = AV_PICTURE_TYPE_P;
243     select->var_values[VAR_PICT_TYPE_B]  = AV_PICTURE_TYPE_B;
244     select->var_values[VAR_PICT_TYPE_SI] = AV_PICTURE_TYPE_SI;
245     select->var_values[VAR_PICT_TYPE_SP] = AV_PICTURE_TYPE_SP;
246     select->var_values[VAR_PICT_TYPE_BI] = AV_PICTURE_TYPE_BI;
247
248     select->var_values[VAR_INTERLACE_TYPE_P] = INTERLACE_TYPE_P;
249     select->var_values[VAR_INTERLACE_TYPE_T] = INTERLACE_TYPE_T;
250     select->var_values[VAR_INTERLACE_TYPE_B] = INTERLACE_TYPE_B;
251
252     select->var_values[VAR_PICT_TYPE]         = NAN;
253     select->var_values[VAR_INTERLACE_TYPE]    = NAN;
254     select->var_values[VAR_SCENE]             = NAN;
255     select->var_values[VAR_CONSUMED_SAMPLES_N] = NAN;
256     select->var_values[VAR_SAMPLES_N]          = NAN;
257
258     select->var_values[VAR_SAMPLE_RATE] =
259         inlink->type == AVMEDIA_TYPE_AUDIO ? inlink->sample_rate : NAN;
260
261     if (CONFIG_SELECT_FILTER && select->do_scene_detect) {
262         select->sad = ff_scene_sad_get_fn(select->bitdepth == 8 ? 8 : 16);
263         if (!select->sad)
264             return AVERROR(EINVAL);
265     }
266     return 0;
267 }
268
269 static double get_scene_score(AVFilterContext *ctx, AVFrame *frame)
270 {
271     double ret = 0;
272     SelectContext *select = ctx->priv;
273     AVFrame *prev_picref = select->prev_picref;
274
275     if (prev_picref &&
276         frame->height == prev_picref->height &&
277         frame->width  == prev_picref->width) {
278         uint64_t sad = 0;
279         double mafd, diff;
280         uint64_t count = 0;
281
282         for (int plane = 0; plane < select->nb_planes; plane++) {
283             uint64_t plane_sad;
284             select->sad(prev_picref->data[plane], prev_picref->linesize[plane],
285                     frame->data[plane], frame->linesize[plane],
286                     select->width[plane], select->height[plane], &plane_sad);
287             sad += plane_sad;
288             count += select->width[plane] * select->height[plane];
289         }
290
291         emms_c();
292         mafd = (double)sad / count / (1ULL << (select->bitdepth - 8));
293         diff = fabs(mafd - select->prev_mafd);
294         ret  = av_clipf(FFMIN(mafd, diff) / 100., 0, 1);
295         select->prev_mafd = mafd;
296         av_frame_free(&prev_picref);
297     }
298     select->prev_picref = av_frame_clone(frame);
299     return ret;
300 }
301
302 static double get_concatdec_select(AVFrame *frame, int64_t pts)
303 {
304     AVDictionary *metadata = frame->metadata;
305     AVDictionaryEntry *start_time_entry = av_dict_get(metadata, "lavf.concatdec.start_time", NULL, 0);
306     AVDictionaryEntry *duration_entry = av_dict_get(metadata, "lavf.concatdec.duration", NULL, 0);
307     if (start_time_entry) {
308         int64_t start_time = strtoll(start_time_entry->value, NULL, 10);
309         if (pts >= start_time) {
310             if (duration_entry) {
311               int64_t duration = strtoll(duration_entry->value, NULL, 10);
312               if (pts < start_time + duration)
313                   return -1;
314               else
315                   return 0;
316             }
317             return -1;
318         }
319         return 0;
320     }
321     return NAN;
322 }
323
324 #define D2TS(d)  (isnan(d) ? AV_NOPTS_VALUE : (int64_t)(d))
325 #define TS2D(ts) ((ts) == AV_NOPTS_VALUE ? NAN : (double)(ts))
326
327 static void select_frame(AVFilterContext *ctx, AVFrame *frame)
328 {
329     SelectContext *select = ctx->priv;
330     AVFilterLink *inlink = ctx->inputs[0];
331     double res;
332
333     if (isnan(select->var_values[VAR_START_PTS]))
334         select->var_values[VAR_START_PTS] = TS2D(frame->pts);
335     if (isnan(select->var_values[VAR_START_T]))
336         select->var_values[VAR_START_T] = TS2D(frame->pts) * av_q2d(inlink->time_base);
337
338     select->var_values[VAR_N  ] = inlink->frame_count_out;
339     select->var_values[VAR_PTS] = TS2D(frame->pts);
340     select->var_values[VAR_T  ] = TS2D(frame->pts) * av_q2d(inlink->time_base);
341     select->var_values[VAR_POS] = frame->pkt_pos == -1 ? NAN : frame->pkt_pos;
342     select->var_values[VAR_KEY] = frame->key_frame;
343     select->var_values[VAR_CONCATDEC_SELECT] = get_concatdec_select(frame, av_rescale_q(frame->pts, inlink->time_base, AV_TIME_BASE_Q));
344
345     switch (inlink->type) {
346     case AVMEDIA_TYPE_AUDIO:
347         select->var_values[VAR_SAMPLES_N] = frame->nb_samples;
348         break;
349
350     case AVMEDIA_TYPE_VIDEO:
351         select->var_values[VAR_INTERLACE_TYPE] =
352             !frame->interlaced_frame ? INTERLACE_TYPE_P :
353         frame->top_field_first ? INTERLACE_TYPE_T : INTERLACE_TYPE_B;
354         select->var_values[VAR_PICT_TYPE] = frame->pict_type;
355         if (select->do_scene_detect) {
356             char buf[32];
357             select->var_values[VAR_SCENE] = get_scene_score(ctx, frame);
358             // TODO: document metadata
359             snprintf(buf, sizeof(buf), "%f", select->var_values[VAR_SCENE]);
360             av_dict_set(&frame->metadata, "lavfi.scene_score", buf, 0);
361         }
362         break;
363     }
364
365     select->select = res = av_expr_eval(select->expr, select->var_values, NULL);
366     av_log(inlink->dst, AV_LOG_DEBUG,
367            "n:%f pts:%f t:%f key:%d",
368            select->var_values[VAR_N],
369            select->var_values[VAR_PTS],
370            select->var_values[VAR_T],
371            frame->key_frame);
372
373     switch (inlink->type) {
374     case AVMEDIA_TYPE_VIDEO:
375         av_log(inlink->dst, AV_LOG_DEBUG, " interlace_type:%c pict_type:%c scene:%f",
376                (!frame->interlaced_frame) ? 'P' :
377                frame->top_field_first     ? 'T' : 'B',
378                av_get_picture_type_char(frame->pict_type),
379                select->var_values[VAR_SCENE]);
380         break;
381     case AVMEDIA_TYPE_AUDIO:
382         av_log(inlink->dst, AV_LOG_DEBUG, " samples_n:%d consumed_samples_n:%f",
383                frame->nb_samples,
384                select->var_values[VAR_CONSUMED_SAMPLES_N]);
385         break;
386     }
387
388     if (res == 0) {
389         select->select_out = -1; /* drop */
390     } else if (isnan(res) || res < 0) {
391         select->select_out = 0; /* first output */
392     } else {
393         select->select_out = FFMIN(ceilf(res)-1, select->nb_outputs-1); /* other outputs */
394     }
395
396     av_log(inlink->dst, AV_LOG_DEBUG, " -> select:%f select_out:%d\n", res, select->select_out);
397
398     if (res) {
399         select->var_values[VAR_PREV_SELECTED_N]   = select->var_values[VAR_N];
400         select->var_values[VAR_PREV_SELECTED_PTS] = select->var_values[VAR_PTS];
401         select->var_values[VAR_PREV_SELECTED_T]   = select->var_values[VAR_T];
402         select->var_values[VAR_SELECTED_N] += 1.0;
403         if (inlink->type == AVMEDIA_TYPE_AUDIO)
404             select->var_values[VAR_CONSUMED_SAMPLES_N] += frame->nb_samples;
405     }
406
407     select->var_values[VAR_PREV_PTS] = select->var_values[VAR_PTS];
408     select->var_values[VAR_PREV_T]   = select->var_values[VAR_T];
409 }
410
411 static int filter_frame(AVFilterLink *inlink, AVFrame *frame)
412 {
413     AVFilterContext *ctx = inlink->dst;
414     SelectContext *select = ctx->priv;
415
416     select_frame(ctx, frame);
417     if (select->select)
418         return ff_filter_frame(ctx->outputs[select->select_out], frame);
419
420     av_frame_free(&frame);
421     return 0;
422 }
423
424 static int request_frame(AVFilterLink *outlink)
425 {
426     AVFilterLink *inlink = outlink->src->inputs[0];
427     int ret = ff_request_frame(inlink);
428     return ret;
429 }
430
431 static av_cold void uninit(AVFilterContext *ctx)
432 {
433     SelectContext *select = ctx->priv;
434     int i;
435
436     av_expr_free(select->expr);
437     select->expr = NULL;
438
439     for (i = 0; i < ctx->nb_outputs; i++)
440         av_freep(&ctx->output_pads[i].name);
441
442     if (select->do_scene_detect) {
443         av_frame_free(&select->prev_picref);
444     }
445 }
446
447 #if CONFIG_ASELECT_FILTER
448
449 DEFINE_OPTIONS(aselect, AV_OPT_FLAG_AUDIO_PARAM|AV_OPT_FLAG_FILTERING_PARAM);
450 AVFILTER_DEFINE_CLASS(aselect);
451
452 static av_cold int aselect_init(AVFilterContext *ctx)
453 {
454     SelectContext *select = ctx->priv;
455     int ret;
456
457     if ((ret = init(ctx)) < 0)
458         return ret;
459
460     if (select->do_scene_detect) {
461         av_log(ctx, AV_LOG_ERROR, "Scene detection is ignored in aselect filter\n");
462         return AVERROR(EINVAL);
463     }
464
465     return 0;
466 }
467
468 static const AVFilterPad avfilter_af_aselect_inputs[] = {
469     {
470         .name         = "default",
471         .type         = AVMEDIA_TYPE_AUDIO,
472         .config_props = config_input,
473         .filter_frame = filter_frame,
474     },
475     { NULL }
476 };
477
478 AVFilter ff_af_aselect = {
479     .name        = "aselect",
480     .description = NULL_IF_CONFIG_SMALL("Select audio frames to pass in output."),
481     .init        = aselect_init,
482     .uninit      = uninit,
483     .priv_size   = sizeof(SelectContext),
484     .inputs      = avfilter_af_aselect_inputs,
485     .priv_class  = &aselect_class,
486     .flags       = AVFILTER_FLAG_DYNAMIC_OUTPUTS,
487 };
488 #endif /* CONFIG_ASELECT_FILTER */
489
490 #if CONFIG_SELECT_FILTER
491
492 static int query_formats(AVFilterContext *ctx)
493 {
494     SelectContext *select = ctx->priv;
495
496     if (!select->do_scene_detect) {
497         return ff_default_query_formats(ctx);
498     } else {
499         int ret;
500         static const enum AVPixelFormat pix_fmts[] = {
501             AV_PIX_FMT_RGB24, AV_PIX_FMT_BGR24, AV_PIX_FMT_RGBA,
502             AV_PIX_FMT_ABGR, AV_PIX_FMT_BGRA, AV_PIX_FMT_GRAY8,
503             AV_PIX_FMT_YUV420P, AV_PIX_FMT_YUVJ420P,
504             AV_PIX_FMT_YUV422P, AV_PIX_FMT_YUVJ422P,
505             AV_PIX_FMT_YUV420P10,
506             AV_PIX_FMT_NONE
507         };
508         AVFilterFormats *fmts_list = ff_make_format_list(pix_fmts);
509
510         if (!fmts_list)
511             return AVERROR(ENOMEM);
512         ret = ff_set_common_formats(ctx, fmts_list);
513         if (ret < 0)
514             return ret;
515     }
516     return 0;
517 }
518
519 DEFINE_OPTIONS(select, AV_OPT_FLAG_VIDEO_PARAM|AV_OPT_FLAG_FILTERING_PARAM);
520 AVFILTER_DEFINE_CLASS(select);
521
522 static av_cold int select_init(AVFilterContext *ctx)
523 {
524     int ret;
525
526     if ((ret = init(ctx)) < 0)
527         return ret;
528
529     return 0;
530 }
531
532 static const AVFilterPad avfilter_vf_select_inputs[] = {
533     {
534         .name         = "default",
535         .type         = AVMEDIA_TYPE_VIDEO,
536         .config_props = config_input,
537         .filter_frame = filter_frame,
538     },
539     { NULL }
540 };
541
542 AVFilter ff_vf_select = {
543     .name          = "select",
544     .description   = NULL_IF_CONFIG_SMALL("Select video frames to pass in output."),
545     .init          = select_init,
546     .uninit        = uninit,
547     .query_formats = query_formats,
548     .priv_size     = sizeof(SelectContext),
549     .priv_class    = &select_class,
550     .inputs        = avfilter_vf_select_inputs,
551     .flags         = AVFILTER_FLAG_DYNAMIC_OUTPUTS,
552 };
553 #endif /* CONFIG_SELECT_FILTER */