]> git.sesse.net Git - ffmpeg/blob - libavfilter/vf_xmedian.c
doc/writing_filters: Use ff_filter_get_nb_threads() get number of threads
[ffmpeg] / libavfilter / vf_xmedian.c
1 /*
2  * Copyright (c) 2019 Paul B Mahol
3  *
4  * This file is part of FFmpeg.
5  *
6  * FFmpeg is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * FFmpeg is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with FFmpeg; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 #include "libavutil/avstring.h"
22 #include "libavutil/imgutils.h"
23 #include "libavutil/intreadwrite.h"
24 #include "libavutil/opt.h"
25 #include "libavutil/pixdesc.h"
26 #include "libavutil/qsort.h"
27
28 #include "avfilter.h"
29 #include "formats.h"
30 #include "internal.h"
31 #include "framesync.h"
32 #include "video.h"
33
34 typedef struct XMedianContext {
35     const AVClass *class;
36     const AVPixFmtDescriptor *desc;
37     int nb_inputs;
38     int planes;
39
40     int radius;
41     int depth;
42     int max;
43     int nb_planes;
44     int linesize[4];
45     int width[4];
46     int height[4];
47
48     AVFrame **frames;
49     FFFrameSync fs;
50
51     int (*median_frames)(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs);
52 } XMedianContext;
53
54 static int query_formats(AVFilterContext *ctx)
55 {
56     static const enum AVPixelFormat pixel_fmts[] = {
57         AV_PIX_FMT_GRAY8,
58         AV_PIX_FMT_GRAY9,
59         AV_PIX_FMT_GRAY10,
60         AV_PIX_FMT_GRAY12,
61         AV_PIX_FMT_GRAY14,
62         AV_PIX_FMT_GRAY16,
63         AV_PIX_FMT_YUV410P, AV_PIX_FMT_YUV411P,
64         AV_PIX_FMT_YUV420P, AV_PIX_FMT_YUV422P,
65         AV_PIX_FMT_YUV440P, AV_PIX_FMT_YUV444P,
66         AV_PIX_FMT_YUVJ420P, AV_PIX_FMT_YUVJ422P,
67         AV_PIX_FMT_YUVJ440P, AV_PIX_FMT_YUVJ444P,
68         AV_PIX_FMT_YUVJ411P,
69         AV_PIX_FMT_YUV420P9, AV_PIX_FMT_YUV422P9, AV_PIX_FMT_YUV444P9,
70         AV_PIX_FMT_YUV420P10, AV_PIX_FMT_YUV422P10, AV_PIX_FMT_YUV444P10,
71         AV_PIX_FMT_YUV440P10,
72         AV_PIX_FMT_YUV444P12, AV_PIX_FMT_YUV422P12, AV_PIX_FMT_YUV420P12,
73         AV_PIX_FMT_YUV440P12,
74         AV_PIX_FMT_YUV444P14, AV_PIX_FMT_YUV422P14, AV_PIX_FMT_YUV420P14,
75         AV_PIX_FMT_YUV420P16, AV_PIX_FMT_YUV422P16, AV_PIX_FMT_YUV444P16,
76         AV_PIX_FMT_GBRP, AV_PIX_FMT_GBRP9, AV_PIX_FMT_GBRP10,
77         AV_PIX_FMT_GBRP12, AV_PIX_FMT_GBRP14, AV_PIX_FMT_GBRP16,
78         AV_PIX_FMT_NONE
79     };
80     AVFilterFormats *formats = ff_make_format_list(pixel_fmts);
81     if (!formats)
82         return AVERROR(ENOMEM);
83     return ff_set_common_formats(ctx, formats);
84 }
85
86 static av_cold int init(AVFilterContext *ctx)
87 {
88     XMedianContext *s = ctx->priv;
89     int ret;
90
91     if (!(s->nb_inputs & 1))
92         av_log(s, AV_LOG_WARNING, "nb_intputs: %d is not odd number.\n", s->nb_inputs);
93
94     s->nb_inputs = s->nb_inputs | 1;
95     s->radius = s->nb_inputs / 2;
96     s->frames = av_calloc(s->nb_inputs, sizeof(*s->frames));
97     if (!s->frames)
98         return AVERROR(ENOMEM);
99
100     for (int i = 0; i < s->nb_inputs; i++) {
101         AVFilterPad pad = { 0 };
102
103         pad.type = AVMEDIA_TYPE_VIDEO;
104         pad.name = av_asprintf("input%d", i);
105         if (!pad.name)
106             return AVERROR(ENOMEM);
107
108         if ((ret = ff_insert_inpad(ctx, i, &pad)) < 0) {
109             av_freep(&pad.name);
110             return ret;
111         }
112     }
113
114     return 0;
115 }
116
117 typedef struct ThreadData {
118     AVFrame **in, *out;
119 } ThreadData;
120
121 static int comparei(const void *p1, const void *p2)
122 {
123     int left  = *(const int *)p1;
124     int right = *(const int *)p2;
125     return FFDIFFSIGN(left, right);
126 }
127
128 static int median_frames16(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
129 {
130     XMedianContext *s = ctx->priv;
131     ThreadData *td = arg;
132     AVFrame **in = td->in;
133     AVFrame *out = td->out;
134     const int nb_inputs = s->nb_inputs;
135     const int radius = s->radius;
136     int values[256];
137
138     for (int p = 0; p < s->nb_planes; p++) {
139         const int slice_start = (s->height[p] * jobnr) / nb_jobs;
140         const int slice_end = (s->height[p] * (jobnr+1)) / nb_jobs;
141         uint16_t *dst = (uint16_t *)(out->data[p] + slice_start * out->linesize[p]);
142
143         if (!((1 << p) & s->planes)) {
144             av_image_copy_plane((uint8_t *)dst, out->linesize[p],
145                                 in[0]->data[p] + slice_start * in[radius]->linesize[p],
146                                 in[0]->linesize[p],
147                                 s->linesize[p], slice_end - slice_start);
148             continue;
149         }
150
151         for (int y = slice_start; y < slice_end; y++) {
152             for (int x = 0; x < s->width[p]; x++) {
153                 for (int i = 0; i < nb_inputs; i++) {
154                     const uint16_t *src = (const uint16_t *)(in[i]->data[p] + y * in[i]->linesize[p]);
155                     values[i] = src[x];
156                 }
157
158                 AV_QSORT(values, nb_inputs, int, comparei);
159                 dst[x] = values[radius];
160             }
161
162             dst += out->linesize[p] / 2;
163         }
164     }
165
166     return 0;
167 }
168
169 static int median_frames8(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
170 {
171     XMedianContext *s = ctx->priv;
172     ThreadData *td = arg;
173     AVFrame **in = td->in;
174     AVFrame *out = td->out;
175     const int nb_inputs = s->nb_inputs;
176     const int radius = s->radius;
177     int values[256];
178
179     for (int p = 0; p < s->nb_planes; p++) {
180         const int slice_start = (s->height[p] * jobnr) / nb_jobs;
181         const int slice_end = (s->height[p] * (jobnr+1)) / nb_jobs;
182         uint8_t *dst = out->data[p] + slice_start * out->linesize[p];
183
184         if (!((1 << p) & s->planes)) {
185             av_image_copy_plane(dst, out->linesize[p],
186                                 in[0]->data[p] + slice_start * in[0]->linesize[p],
187                                 in[0]->linesize[p],
188                                 s->linesize[p], slice_end - slice_start);
189             continue;
190         }
191
192         for (int y = slice_start; y < slice_end; y++) {
193             for (int x = 0; x < s->width[p]; x++) {
194                 for (int i = 0; i < nb_inputs; i++)
195                     values[i] = in[i]->data[p][y * in[i]->linesize[p] + x];
196
197                 AV_QSORT(values, nb_inputs, int, comparei);
198                 dst[x] = values[radius];
199             }
200
201             dst += out->linesize[p];
202         }
203     }
204
205     return 0;
206 }
207
208 static int process_frame(FFFrameSync *fs)
209 {
210     AVFilterContext *ctx = fs->parent;
211     AVFilterLink *outlink = ctx->outputs[0];
212     XMedianContext *s = fs->opaque;
213     AVFrame **in = s->frames;
214     AVFrame *out;
215     ThreadData td;
216     int i, ret;
217
218     for (i = 0; i < s->nb_inputs; i++) {
219         if ((ret = ff_framesync_get_frame(&s->fs, i, &in[i], 0)) < 0)
220             return ret;
221     }
222
223     out = ff_get_video_buffer(outlink, outlink->w, outlink->h);
224     if (!out)
225         return AVERROR(ENOMEM);
226     out->pts = av_rescale_q(s->fs.pts, s->fs.time_base, outlink->time_base);
227
228     td.in = in;
229     td.out = out;
230     ctx->internal->execute(ctx, s->median_frames, &td, NULL, FFMIN(s->height[1], ff_filter_get_nb_threads(ctx)));
231
232     return ff_filter_frame(outlink, out);
233 }
234
235 static int config_output(AVFilterLink *outlink)
236 {
237     AVFilterContext *ctx = outlink->src;
238     XMedianContext *s = ctx->priv;
239     AVRational frame_rate = ctx->inputs[0]->frame_rate;
240     AVFilterLink *inlink = ctx->inputs[0];
241     int height = ctx->inputs[0]->h;
242     int width = ctx->inputs[0]->w;
243     FFFrameSyncIn *in;
244     int i, ret;
245
246     for (int i = 1; i < s->nb_inputs; i++) {
247         if (ctx->inputs[i]->h != height || ctx->inputs[i]->w != width) {
248             av_log(ctx, AV_LOG_ERROR, "Input %d size (%dx%d) does not match input %d size (%dx%d).\n", i, ctx->inputs[i]->w, ctx->inputs[i]->h, 0, width, height);
249             return AVERROR(EINVAL);
250         }
251     }
252
253     s->desc = av_pix_fmt_desc_get(outlink->format);
254     if (!s->desc)
255         return AVERROR_BUG;
256     s->nb_planes = av_pix_fmt_count_planes(outlink->format);
257     s->depth = s->desc->comp[0].depth;
258     s->max = (1 << s->depth) - 1;
259
260     if (s->depth <= 8)
261         s->median_frames = median_frames8;
262     else
263         s->median_frames = median_frames16;
264
265     if ((ret = av_image_fill_linesizes(s->linesize, inlink->format, inlink->w)) < 0)
266         return ret;
267
268     s->width[1] = s->width[2] = AV_CEIL_RSHIFT(inlink->w, s->desc->log2_chroma_w);
269     s->width[0] = s->width[3] = inlink->w;
270     s->height[1] = s->height[2] = AV_CEIL_RSHIFT(inlink->h, s->desc->log2_chroma_h);
271     s->height[0] = s->height[3] = inlink->h;
272
273     outlink->w          = width;
274     outlink->h          = height;
275     outlink->frame_rate = frame_rate;
276
277     if ((ret = ff_framesync_init(&s->fs, ctx, s->nb_inputs)) < 0)
278         return ret;
279
280     in = s->fs.in;
281     s->fs.opaque = s;
282     s->fs.on_event = process_frame;
283
284     for (i = 0; i < s->nb_inputs; i++) {
285         AVFilterLink *inlink = ctx->inputs[i];
286
287         in[i].time_base = inlink->time_base;
288         in[i].sync   = 1;
289         in[i].before = EXT_STOP;
290         in[i].after  = EXT_STOP;
291     }
292
293     ret = ff_framesync_configure(&s->fs);
294     outlink->time_base = s->fs.time_base;
295
296     return ret;
297 }
298
299 static av_cold void uninit(AVFilterContext *ctx)
300 {
301     XMedianContext *s = ctx->priv;
302
303     ff_framesync_uninit(&s->fs);
304     av_freep(&s->frames);
305
306     for (int i = 0; i < ctx->nb_inputs; i++)
307         av_freep(&ctx->input_pads[i].name);
308 }
309
310 static int activate(AVFilterContext *ctx)
311 {
312     XMedianContext *s = ctx->priv;
313     return ff_framesync_activate(&s->fs);
314 }
315
316 #define OFFSET(x) offsetof(XMedianContext, x)
317 #define FLAGS AV_OPT_FLAG_VIDEO_PARAM | AV_OPT_FLAG_FILTERING_PARAM
318
319 static const AVOption xmedian_options[] = {
320     { "nb_inputs", "set number of inputs", OFFSET(nb_inputs), AV_OPT_TYPE_INT, {.i64=3},  3, 255, .flags = FLAGS },
321     { "planes",    "set planes to filter", OFFSET(planes),    AV_OPT_TYPE_INT, {.i64=15}, 0,  15, .flags = FLAGS },
322     { NULL },
323 };
324
325 static const AVFilterPad outputs[] = {
326     {
327         .name          = "default",
328         .type          = AVMEDIA_TYPE_VIDEO,
329         .config_props  = config_output,
330     },
331     { NULL }
332 };
333
334 AVFILTER_DEFINE_CLASS(xmedian);
335
336 AVFilter ff_vf_xmedian = {
337     .name          = "xmedian",
338     .description   = NULL_IF_CONFIG_SMALL("Pick median pixels from several video inputs."),
339     .priv_size     = sizeof(XMedianContext),
340     .priv_class    = &xmedian_class,
341     .query_formats = query_formats,
342     .outputs       = outputs,
343     .init          = init,
344     .uninit        = uninit,
345     .activate      = activate,
346     .flags         = AVFILTER_FLAG_DYNAMIC_INPUTS | AVFILTER_FLAG_SLICE_THREADS,
347 };