]> git.sesse.net Git - ffmpeg/blob - libavfilter/vf_remap.c
Merge commit '6a9c00c09d2bc50c0ea64ba092b2f4afc46aa978'
[ffmpeg] / libavfilter / vf_remap.c
1 /*
2  * Copyright (c) 2016 Floris Sluiter
3  *
4  * This file is part of FFmpeg.
5  *
6  * FFmpeg is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * FFmpeg is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with FFmpeg; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 /**
22  * @file
23  * Pixel remap filter
24  * This filter copies pixel by pixel a source frame to a target frame.
25  * It remaps the pixels to a new x,y destination based on two files ymap/xmap.
26  * Map files are passed as a parameter and are in PGM format (P2 or P5),
27  * where the values are y(rows)/x(cols) coordinates of the source_frame.
28  * The *target* frame dimension is based on mapfile dimensions: specified in the
29  * header of the mapfile and reflected in the number of datavalues.
30  * Dimensions of ymap and xmap must be equal. Datavalues must be positive or zero.
31  * Any datavalue in the ymap or xmap which value is higher
32  * then the *source* frame height or width is silently ignored, leaving a
33  * blank/chromakey pixel. This can safely be used as a feature to create overlays.
34  *
35  * Algorithm digest:
36  * Target_frame[y][x] = Source_frame[ ymap[y][x] ][ [xmap[y][x] ];
37  */
38
39 #include "libavutil/imgutils.h"
40 #include "libavutil/pixdesc.h"
41 #include "libavutil/opt.h"
42 #include "avfilter.h"
43 #include "formats.h"
44 #include "framesync.h"
45 #include "internal.h"
46 #include "video.h"
47
48 typedef struct RemapContext {
49     const AVClass *class;
50     int nb_planes;
51     int nb_components;
52     int step;
53     FFFrameSync fs;
54
55     int (*remap_slice)(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs);
56 } RemapContext;
57
58 #define OFFSET(x) offsetof(RemapContext, x)
59 #define FLAGS AV_OPT_FLAG_FILTERING_PARAM|AV_OPT_FLAG_VIDEO_PARAM
60
61 static const AVOption remap_options[] = {
62     { NULL }
63 };
64
65 AVFILTER_DEFINE_CLASS(remap);
66
67 typedef struct ThreadData {
68     AVFrame *in, *xin, *yin, *out;
69     int nb_planes;
70     int nb_components;
71     int step;
72 } ThreadData;
73
74 static int query_formats(AVFilterContext *ctx)
75 {
76     static const enum AVPixelFormat pix_fmts[] = {
77         AV_PIX_FMT_YUVA444P,
78         AV_PIX_FMT_YUV444P,
79         AV_PIX_FMT_YUVJ444P,
80         AV_PIX_FMT_RGB24, AV_PIX_FMT_BGR24,
81         AV_PIX_FMT_ARGB, AV_PIX_FMT_ABGR, AV_PIX_FMT_RGBA, AV_PIX_FMT_BGRA,
82         AV_PIX_FMT_GBRP, AV_PIX_FMT_GBRAP,
83         AV_PIX_FMT_YUV444P9, AV_PIX_FMT_YUV444P10, AV_PIX_FMT_YUV444P12,
84         AV_PIX_FMT_YUV444P14, AV_PIX_FMT_YUV444P16,
85         AV_PIX_FMT_YUVA444P9, AV_PIX_FMT_YUVA444P10, AV_PIX_FMT_YUVA444P16,
86         AV_PIX_FMT_GBRP9, AV_PIX_FMT_GBRP10, AV_PIX_FMT_GBRP12,
87         AV_PIX_FMT_GBRP14, AV_PIX_FMT_GBRP16,
88         AV_PIX_FMT_GBRAP10, AV_PIX_FMT_GBRAP12, AV_PIX_FMT_GBRAP16,
89         AV_PIX_FMT_RGB48, AV_PIX_FMT_BGR48,
90         AV_PIX_FMT_RGBA64, AV_PIX_FMT_BGRA64,
91         AV_PIX_FMT_GRAY8, AV_PIX_FMT_GRAY9,
92         AV_PIX_FMT_GRAY10, AV_PIX_FMT_GRAY12,
93         AV_PIX_FMT_GRAY14, AV_PIX_FMT_GRAY16,
94         AV_PIX_FMT_NONE
95     };
96     static const enum AVPixelFormat map_fmts[] = {
97         AV_PIX_FMT_GRAY16,
98         AV_PIX_FMT_NONE
99     };
100     AVFilterFormats *pix_formats = NULL, *map_formats = NULL;
101     int ret;
102
103     if (!(pix_formats = ff_make_format_list(pix_fmts)) ||
104         !(map_formats = ff_make_format_list(map_fmts))) {
105         ret = AVERROR(ENOMEM);
106         goto fail;
107     }
108     if ((ret = ff_formats_ref(pix_formats, &ctx->inputs[0]->out_formats)) < 0 ||
109         (ret = ff_formats_ref(map_formats, &ctx->inputs[1]->out_formats)) < 0 ||
110         (ret = ff_formats_ref(map_formats, &ctx->inputs[2]->out_formats)) < 0 ||
111         (ret = ff_formats_ref(pix_formats, &ctx->outputs[0]->in_formats)) < 0)
112         goto fail;
113     return 0;
114 fail:
115     if (pix_formats)
116         av_freep(&pix_formats->formats);
117     av_freep(&pix_formats);
118     if (map_formats)
119         av_freep(&map_formats->formats);
120     av_freep(&map_formats);
121     return ret;
122 }
123
124 /**
125  * remap_planar algorithm expects planes of same size
126  * pixels are copied from source to target using :
127  * Target_frame[y][x] = Source_frame[ ymap[y][x] ][ [xmap[y][x] ];
128  */
129 static int remap_planar_slice(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
130 {
131     const ThreadData *td = (ThreadData*)arg;
132     const AVFrame *in  = td->in;
133     const AVFrame *xin = td->xin;
134     const AVFrame *yin = td->yin;
135     const AVFrame *out = td->out;
136
137     const int slice_start = (out->height *  jobnr   ) / nb_jobs;
138     const int slice_end   = (out->height * (jobnr+1)) / nb_jobs;
139
140     const int xlinesize = xin->linesize[0] / 2;
141     const int ylinesize = yin->linesize[0] / 2;
142     int x , y, plane;
143
144     for (plane = 0; plane < td->nb_planes ; plane++) {
145         const int dlinesize  = out->linesize[plane];
146         const uint8_t *src   = in->data[plane];
147         uint8_t *dst         = out->data[plane] + slice_start * dlinesize;
148         const int slinesize  = in->linesize[plane];
149         const uint16_t *xmap = (const uint16_t *)xin->data[0] + slice_start * xlinesize;
150         const uint16_t *ymap = (const uint16_t *)yin->data[0] + slice_start * ylinesize;
151
152         for (y = slice_start; y < slice_end; y++) {
153             for (x = 0; x < out->width; x++) {
154                 if (ymap[x] < in->height && xmap[x] < in->width) {
155                     dst[x] = src[ymap[x] * slinesize + xmap[x]];
156                 } else {
157                     dst[x] = 0;
158                 }
159             }
160             dst  += dlinesize;
161             xmap += xlinesize;
162             ymap += ylinesize;
163         }
164     }
165
166     return 0;
167 }
168
169 static int remap_planar16_slice(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
170 {
171     const ThreadData *td = (ThreadData*)arg;
172     const AVFrame *in  = td->in;
173     const AVFrame *xin = td->xin;
174     const AVFrame *yin = td->yin;
175     const AVFrame *out = td->out;
176
177     const int slice_start = (out->height *  jobnr   ) / nb_jobs;
178     const int slice_end   = (out->height * (jobnr+1)) / nb_jobs;
179
180     const int xlinesize = xin->linesize[0] / 2;
181     const int ylinesize = yin->linesize[0] / 2;
182     int x , y, plane;
183
184     for (plane = 0; plane < td->nb_planes ; plane++) {
185         const int dlinesize  = out->linesize[plane] / 2;
186         const uint16_t *src  = (const uint16_t *)in->data[plane];
187         uint16_t *dst        = (uint16_t *)out->data[plane] + slice_start * dlinesize;
188         const int slinesize  = in->linesize[plane] / 2;
189         const uint16_t *xmap = (const uint16_t *)xin->data[0] + slice_start * xlinesize;
190         const uint16_t *ymap = (const uint16_t *)yin->data[0] + slice_start * ylinesize;
191
192         for (y = slice_start; y < slice_end; y++) {
193             for (x = 0; x < out->width; x++) {
194                 if (ymap[x] < in->height && xmap[x] < in->width) {
195                     dst[x] = src[ymap[x] * slinesize + xmap[x]];
196                 } else {
197                     dst[x] = 0;
198                 }
199             }
200             dst  += dlinesize;
201             xmap += xlinesize;
202             ymap += ylinesize;
203         }
204     }
205
206     return 0;
207 }
208
209 /**
210  * remap_packed algorithm expects pixels with both padded bits (step) and
211  * number of components correctly set.
212  * pixels are copied from source to target using :
213  * Target_frame[y][x] = Source_frame[ ymap[y][x] ][ [xmap[y][x] ];
214  */
215 static int remap_packed_slice(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
216 {
217     const ThreadData *td = (ThreadData*)arg;
218     const AVFrame *in  = td->in;
219     const AVFrame *xin = td->xin;
220     const AVFrame *yin = td->yin;
221     const AVFrame *out = td->out;
222
223     const int slice_start = (out->height *  jobnr   ) / nb_jobs;
224     const int slice_end   = (out->height * (jobnr+1)) / nb_jobs;
225
226     const int dlinesize  = out->linesize[0];
227     const int slinesize  = in->linesize[0];
228     const int xlinesize  = xin->linesize[0] / 2;
229     const int ylinesize  = yin->linesize[0] / 2;
230     const uint8_t *src   = in->data[0];
231     uint8_t *dst         = out->data[0] + slice_start * dlinesize;
232     const uint16_t *xmap = (const uint16_t *)xin->data[0] + slice_start * xlinesize;
233     const uint16_t *ymap = (const uint16_t *)yin->data[0] + slice_start * ylinesize;
234     const int step       = td->step;
235     int c, x, y;
236
237     for (y = slice_start; y < slice_end; y++) {
238         for (x = 0; x < out->width; x++) {
239             for (c = 0; c < td->nb_components; c++) {
240                 if (ymap[x] < in->height && xmap[x] < in->width) {
241                     dst[x * step + c] = src[ymap[x] * slinesize + xmap[x] * step + c];
242                 } else {
243                     dst[x * step + c] = 0;
244                 }
245             }
246         }
247         dst  += dlinesize;
248         xmap += xlinesize;
249         ymap += ylinesize;
250     }
251
252     return 0;
253 }
254
255 static int remap_packed16_slice(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
256 {
257     const ThreadData *td = (ThreadData*)arg;
258     const AVFrame *in  = td->in;
259     const AVFrame *xin = td->xin;
260     const AVFrame *yin = td->yin;
261     const AVFrame *out = td->out;
262
263     const int slice_start = (out->height *  jobnr   ) / nb_jobs;
264     const int slice_end   = (out->height * (jobnr+1)) / nb_jobs;
265
266     const int dlinesize  = out->linesize[0] / 2;
267     const int slinesize  = in->linesize[0] / 2;
268     const int xlinesize  = xin->linesize[0] / 2;
269     const int ylinesize  = yin->linesize[0] / 2;
270     const uint16_t *src  = (const uint16_t *)in->data[0];
271     uint16_t *dst        = (uint16_t *)out->data[0] + slice_start * dlinesize;
272     const uint16_t *xmap = (const uint16_t *)xin->data[0] + slice_start * xlinesize;
273     const uint16_t *ymap = (const uint16_t *)yin->data[0] + slice_start * ylinesize;
274     const int step       = td->step / 2;
275     int c, x, y;
276
277     for (y = slice_start; y < slice_end; y++) {
278         for (x = 0; x < out->width; x++) {
279             for (c = 0; c < td->nb_components; c++) {
280                 if (ymap[x] < in->height && xmap[x] < in->width) {
281                     dst[x * step + c] = src[ymap[x] * slinesize + xmap[x] * step + c];
282                 } else {
283                     dst[x * step + c] = 0;
284                 }
285             }
286         }
287         dst  += dlinesize;
288         xmap += xlinesize;
289         ymap += ylinesize;
290     }
291
292     return 0;
293 }
294
295 static int config_input(AVFilterLink *inlink)
296 {
297     AVFilterContext *ctx = inlink->dst;
298     RemapContext *s = ctx->priv;
299     const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(inlink->format);
300
301     s->nb_planes = av_pix_fmt_count_planes(inlink->format);
302     s->nb_components = desc->nb_components;
303
304     if (desc->comp[0].depth == 8) {
305         if (s->nb_planes > 1 || s->nb_components == 1) {
306             s->remap_slice = remap_planar_slice;
307         } else {
308             s->remap_slice = remap_packed_slice;
309         }
310     } else {
311         if (s->nb_planes > 1 || s->nb_components == 1) {
312             s->remap_slice = remap_planar16_slice;
313         } else {
314             s->remap_slice = remap_packed16_slice;
315         }
316     }
317
318     s->step = av_get_padded_bits_per_pixel(desc) >> 3;
319     return 0;
320 }
321
322 static int process_frame(FFFrameSync *fs)
323 {
324     AVFilterContext *ctx = fs->parent;
325     RemapContext *s = fs->opaque;
326     AVFilterLink *outlink = ctx->outputs[0];
327     AVFrame *out, *in, *xpic, *ypic;
328     int ret;
329
330     if ((ret = ff_framesync_get_frame(&s->fs, 0, &in,   0)) < 0 ||
331         (ret = ff_framesync_get_frame(&s->fs, 1, &xpic, 0)) < 0 ||
332         (ret = ff_framesync_get_frame(&s->fs, 2, &ypic, 0)) < 0)
333         return ret;
334
335     if (ctx->is_disabled) {
336         out = av_frame_clone(in);
337         if (!out)
338             return AVERROR(ENOMEM);
339     } else {
340         ThreadData td;
341
342         out = ff_get_video_buffer(outlink, outlink->w, outlink->h);
343         if (!out)
344             return AVERROR(ENOMEM);
345         av_frame_copy_props(out, in);
346
347         td.in  = in;
348         td.xin = xpic;
349         td.yin = ypic;
350         td.out = out;
351         td.nb_planes = s->nb_planes;
352         td.nb_components = s->nb_components;
353         td.step = s->step;
354         ctx->internal->execute(ctx, s->remap_slice, &td, NULL, FFMIN(outlink->h, ff_filter_get_nb_threads(ctx)));
355     }
356     out->pts = av_rescale_q(in->pts, s->fs.time_base, outlink->time_base);
357
358     return ff_filter_frame(outlink, out);
359 }
360
361 static int config_output(AVFilterLink *outlink)
362 {
363     AVFilterContext *ctx = outlink->src;
364     RemapContext *s = ctx->priv;
365     AVFilterLink *srclink = ctx->inputs[0];
366     AVFilterLink *xlink = ctx->inputs[1];
367     AVFilterLink *ylink = ctx->inputs[2];
368     FFFrameSyncIn *in;
369     int ret;
370
371     if (xlink->w != ylink->w || xlink->h != ylink->h) {
372         av_log(ctx, AV_LOG_ERROR, "Second input link %s parameters "
373                "(size %dx%d) do not match the corresponding "
374                "third input link %s parameters (%dx%d)\n",
375                ctx->input_pads[1].name, xlink->w, xlink->h,
376                ctx->input_pads[2].name, ylink->w, ylink->h);
377         return AVERROR(EINVAL);
378     }
379
380     outlink->w = xlink->w;
381     outlink->h = xlink->h;
382     outlink->time_base = srclink->time_base;
383     outlink->sample_aspect_ratio = srclink->sample_aspect_ratio;
384     outlink->frame_rate = srclink->frame_rate;
385
386     ret = ff_framesync_init(&s->fs, ctx, 3);
387     if (ret < 0)
388         return ret;
389
390     in = s->fs.in;
391     in[0].time_base = srclink->time_base;
392     in[1].time_base = xlink->time_base;
393     in[2].time_base = ylink->time_base;
394     in[0].sync   = 2;
395     in[0].before = EXT_STOP;
396     in[0].after  = EXT_STOP;
397     in[1].sync   = 1;
398     in[1].before = EXT_NULL;
399     in[1].after  = EXT_INFINITY;
400     in[2].sync   = 1;
401     in[2].before = EXT_NULL;
402     in[2].after  = EXT_INFINITY;
403     s->fs.opaque   = s;
404     s->fs.on_event = process_frame;
405
406     return ff_framesync_configure(&s->fs);
407 }
408
409 static int activate(AVFilterContext *ctx)
410 {
411     RemapContext *s = ctx->priv;
412     return ff_framesync_activate(&s->fs);
413 }
414
415 static av_cold void uninit(AVFilterContext *ctx)
416 {
417     RemapContext *s = ctx->priv;
418
419     ff_framesync_uninit(&s->fs);
420 }
421
422 static const AVFilterPad remap_inputs[] = {
423     {
424         .name         = "source",
425         .type         = AVMEDIA_TYPE_VIDEO,
426         .config_props = config_input,
427     },
428     {
429         .name         = "xmap",
430         .type         = AVMEDIA_TYPE_VIDEO,
431     },
432     {
433         .name         = "ymap",
434         .type         = AVMEDIA_TYPE_VIDEO,
435     },
436     { NULL }
437 };
438
439 static const AVFilterPad remap_outputs[] = {
440     {
441         .name          = "default",
442         .type          = AVMEDIA_TYPE_VIDEO,
443         .config_props  = config_output,
444     },
445     { NULL }
446 };
447
448 AVFilter ff_vf_remap = {
449     .name          = "remap",
450     .description   = NULL_IF_CONFIG_SMALL("Remap pixels."),
451     .priv_size     = sizeof(RemapContext),
452     .uninit        = uninit,
453     .query_formats = query_formats,
454     .activate      = activate,
455     .inputs        = remap_inputs,
456     .outputs       = remap_outputs,
457     .priv_class    = &remap_class,
458     .flags         = AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC | AVFILTER_FLAG_SLICE_THREADS,
459 };