]> git.sesse.net Git - ffmpeg/blob - libavfilter/vf_colormatrix.c
avfilter/colormatrix:add slice threading
[ffmpeg] / libavfilter / vf_colormatrix.c
1 /*
2  * ColorMatrix v2.2 for Avisynth 2.5.x
3  *
4  * Copyright (C) 2006-2007 Kevin Stone
5  *
6  * ColorMatrix 1.x is Copyright (C) Wilbert Dijkhof
7  *
8  * This program is free software; you can redistribute it and/or modify it
9  * under the terms of the GNU General Public License as published by the
10  * Free Software Foundation; either version 2 of the License, or (at your
11  * option) any later version.
12  *
13  * This program is distributed in the hope that it will be useful, but
14  * OUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
15  * or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public
16  * License for more details.
17  *
18  * You should have received a copy of the GNU General Public License
19  * along with this program; if not, write to the Free Software Foundation,
20  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
21  */
22
23 /**
24  * @file
25  * ColorMatrix 2.0 is based on the original ColorMatrix filter by Wilbert
26  * Dijkhof.  It adds the ability to convert between any of: Rec.709, FCC,
27  * Rec.601, and SMPTE 240M. It also makes pre and post clipping optional,
28  * adds an option to use scaled or non-scaled coefficients, and more...
29  */
30
31 #include <float.h>
32 #include "avfilter.h"
33 #include "formats.h"
34 #include "internal.h"
35 #include "video.h"
36 #include "libavutil/opt.h"
37 #include "libavutil/pixdesc.h"
38 #include "libavutil/avstring.h"
39
40 #define NS(n) ((n) < 0 ? (int)((n)*65536.0-0.5+DBL_EPSILON) : (int)((n)*65536.0+0.5))
41 #define CB(n) av_clip_uint8(n)
42
43 static const double yuv_coeff[4][3][3] = {
44     { { +0.7152, +0.0722, +0.2126 }, // Rec.709 (0)
45       { -0.3850, +0.5000, -0.1150 },
46       { -0.4540, -0.0460, +0.5000 } },
47     { { +0.5900, +0.1100, +0.3000 }, // FCC (1)
48       { -0.3310, +0.5000, -0.1690 },
49       { -0.4210, -0.0790, +0.5000 } },
50     { { +0.5870, +0.1140, +0.2990 }, // Rec.601 (ITU-R BT.470-2/SMPTE 170M) (2)
51       { -0.3313, +0.5000, -0.1687 },
52       { -0.4187, -0.0813, +0.5000 } },
53     { { +0.7010, +0.0870, +0.2120 }, // SMPTE 240M (3)
54       { -0.3840, +0.5000, -0.1160 },
55       { -0.4450, -0.0550, +0.5000 } },
56 };
57
58 enum ColorMode {
59     COLOR_MODE_NONE = -1,
60     COLOR_MODE_BT709,
61     COLOR_MODE_FCC,
62     COLOR_MODE_BT601,
63     COLOR_MODE_SMPTE240M,
64     COLOR_MODE_COUNT
65 };
66
67 typedef struct {
68     const AVClass *class;
69     int yuv_convert[16][3][3];
70     int interlaced;
71     int source, dest;        ///< ColorMode
72     int mode;
73     int hsub, vsub;
74 } ColorMatrixContext;
75
76 typedef struct ThreadData {
77     AVFrame *dst;
78     const AVFrame *src;
79     int c2;
80     int c3;
81     int c4;
82     int c5;
83     int c6;
84     int c7;
85 } ThreadData;
86
87 #define OFFSET(x) offsetof(ColorMatrixContext, x)
88 #define FLAGS AV_OPT_FLAG_VIDEO_PARAM|AV_OPT_FLAG_FILTERING_PARAM
89
90 static const AVOption colormatrix_options[] = {
91     { "src", "set source color matrix",      OFFSET(source), AV_OPT_TYPE_INT, {.i64=COLOR_MODE_NONE}, COLOR_MODE_NONE, COLOR_MODE_COUNT-1, .flags=FLAGS, .unit="color_mode" },
92     { "dst", "set destination color matrix", OFFSET(dest),   AV_OPT_TYPE_INT, {.i64=COLOR_MODE_NONE}, COLOR_MODE_NONE, COLOR_MODE_COUNT-1, .flags=FLAGS, .unit="color_mode" },
93     { "bt709",     "set BT.709 colorspace",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT709},       .flags=FLAGS, .unit="color_mode" },
94     { "fcc",       "set FCC colorspace   ",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_FCC},         .flags=FLAGS, .unit="color_mode" },
95     { "bt601",     "set BT.601 colorspace",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT601},       .flags=FLAGS, .unit="color_mode" },
96     { "bt470",     "set BT.470 colorspace",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT601},       .flags=FLAGS, .unit="color_mode" },
97     { "smpte170m", "set SMTPE-170M colorspace",  0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT601},       .flags=FLAGS, .unit="color_mode" },
98     { "smpte240m", "set SMPTE-240M colorspace",  0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_SMPTE240M},   .flags=FLAGS, .unit="color_mode" },
99     { NULL }
100 };
101
102 AVFILTER_DEFINE_CLASS(colormatrix);
103
104 #define ma m[0][0]
105 #define mb m[0][1]
106 #define mc m[0][2]
107 #define md m[1][0]
108 #define me m[1][1]
109 #define mf m[1][2]
110 #define mg m[2][0]
111 #define mh m[2][1]
112 #define mi m[2][2]
113
114 #define ima im[0][0]
115 #define imb im[0][1]
116 #define imc im[0][2]
117 #define imd im[1][0]
118 #define ime im[1][1]
119 #define imf im[1][2]
120 #define img im[2][0]
121 #define imh im[2][1]
122 #define imi im[2][2]
123
124 static void inverse3x3(double im[3][3], const double m[3][3])
125 {
126     double det = ma * (me * mi - mf * mh) - mb * (md * mi - mf * mg) + mc * (md * mh - me * mg);
127     det = 1.0 / det;
128     ima = det * (me * mi - mf * mh);
129     imb = det * (mc * mh - mb * mi);
130     imc = det * (mb * mf - mc * me);
131     imd = det * (mf * mg - md * mi);
132     ime = det * (ma * mi - mc * mg);
133     imf = det * (mc * md - ma * mf);
134     img = det * (md * mh - me * mg);
135     imh = det * (mb * mg - ma * mh);
136     imi = det * (ma * me - mb * md);
137 }
138
139 static void solve_coefficients(double cm[3][3], double rgb[3][3], const double yuv[3][3])
140 {
141     int i, j;
142     for (i = 0; i < 3; i++)
143         for (j = 0; j < 3; j++)
144             cm[i][j] = yuv[i][0] * rgb[0][j] + yuv[i][1] * rgb[1][j] + yuv[i][2] * rgb[2][j];
145 }
146
147 static void calc_coefficients(AVFilterContext *ctx)
148 {
149     ColorMatrixContext *color = ctx->priv;
150     double rgb_coeffd[4][3][3];
151     double yuv_convertd[16][3][3];
152     int v = 0;
153     int i, j, k;
154
155     for (i = 0; i < 4; i++)
156         inverse3x3(rgb_coeffd[i], yuv_coeff[i]);
157     for (i = 0; i < 4; i++) {
158         for (j = 0; j < 4; j++) {
159             solve_coefficients(yuv_convertd[v], rgb_coeffd[i], yuv_coeff[j]);
160             for (k = 0; k < 3; k++) {
161                 color->yuv_convert[v][k][0] = NS(yuv_convertd[v][k][0]);
162                 color->yuv_convert[v][k][1] = NS(yuv_convertd[v][k][1]);
163                 color->yuv_convert[v][k][2] = NS(yuv_convertd[v][k][2]);
164             }
165             if (color->yuv_convert[v][0][0] != 65536 || color->yuv_convert[v][1][0] != 0 ||
166                 color->yuv_convert[v][2][0] != 0) {
167                 av_log(ctx, AV_LOG_ERROR, "error calculating conversion coefficients\n");
168             }
169             v++;
170         }
171     }
172 }
173
174 static const char * const color_modes[] = {"bt709", "fcc", "bt601", "smpte240m"};
175
176 static av_cold int init(AVFilterContext *ctx)
177 {
178     ColorMatrixContext *color = ctx->priv;
179
180     if (color->dest == COLOR_MODE_NONE) {
181         av_log(ctx, AV_LOG_ERROR, "Unspecified destination color space\n");
182         return AVERROR(EINVAL);
183     }
184
185     if (color->source == color->dest) {
186         av_log(ctx, AV_LOG_ERROR, "Source and destination color space must not be identical\n");
187         return AVERROR(EINVAL);
188     }
189
190     return 0;
191 }
192
193 static int process_slice_uyvy422(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
194 {
195     const ThreadData *td = arg;
196     const AVFrame *src = td->src;
197     AVFrame *dst = td->dst;
198     const int height = src->height;
199     const int width = src->width*2;
200     const int src_pitch = src->linesize[0];
201     const int dst_pitch = dst->linesize[0];
202     const int slice_start = (height *  jobnr   ) / nb_jobs;
203     const int slice_end   = (height * (jobnr+1)) / nb_jobs;
204     const unsigned char *srcp = src->data[0] + slice_start * src_pitch;
205     unsigned char *dstp = dst->data[0] + slice_start * dst_pitch;
206     const int c2 = td->c2;
207     const int c3 = td->c3;
208     const int c4 = td->c4;
209     const int c5 = td->c5;
210     const int c6 = td->c6;
211     const int c7 = td->c7;
212     int x, y;
213
214     for (y = slice_start; y < slice_end; y++) {
215         for (x = 0; x < width; x += 4) {
216             const int u = srcp[x + 0] - 128;
217             const int v = srcp[x + 2] - 128;
218             const int uvval = c2 * u + c3 * v + 1081344;
219             dstp[x + 0] = CB((c4 * u + c5 * v + 8421376) >> 16);
220             dstp[x + 1] = CB((65536 * (srcp[x + 1] - 16) + uvval) >> 16);
221             dstp[x + 2] = CB((c6 * u + c7 * v + 8421376) >> 16);
222             dstp[x + 3] = CB((65536 * (srcp[x + 3] - 16) + uvval) >> 16);
223         }
224         srcp += src_pitch;
225         dstp += dst_pitch;
226     }
227
228     return 0;
229 }
230
231 static int process_slice_yuv422p(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
232 {
233     const ThreadData *td = arg;
234     const AVFrame *src = td->src;
235     AVFrame *dst = td->dst;
236     const int height = src->height;
237     const int width = src->width;
238     const int slice_start = (height *  jobnr   ) / nb_jobs;
239     const int slice_end   = (height * (jobnr+1)) / nb_jobs;
240     const int src_pitchY  = src->linesize[0];
241     const int src_pitchUV = src->linesize[1];
242     const unsigned char *srcpU = src->data[1] + slice_start * src_pitchUV;
243     const unsigned char *srcpV = src->data[2] + slice_start * src_pitchUV;
244     const unsigned char *srcpY = src->data[0] + slice_start * src_pitchY;
245     const int dst_pitchY  = dst->linesize[0];
246     const int dst_pitchUV = dst->linesize[1];
247     unsigned char *dstpU = dst->data[1] + slice_start * dst_pitchUV;
248     unsigned char *dstpV = dst->data[2] + slice_start * dst_pitchUV;
249     unsigned char *dstpY = dst->data[0] + slice_start * dst_pitchY;
250     const int c2 = td->c2;
251     const int c3 = td->c3;
252     const int c4 = td->c4;
253     const int c5 = td->c5;
254     const int c6 = td->c6;
255     const int c7 = td->c7;
256     int x, y;
257
258     for (y = slice_start; y < slice_end; y++) {
259         for (x = 0; x < width; x += 2) {
260             const int u = srcpU[x >> 1] - 128;
261             const int v = srcpV[x >> 1] - 128;
262             const int uvval = c2 * u + c3 * v + 1081344;
263             dstpY[x + 0] = CB((65536 * (srcpY[x + 0] - 16) + uvval) >> 16);
264             dstpY[x + 1] = CB((65536 * (srcpY[x + 1] - 16) + uvval) >> 16);
265             dstpU[x >> 1] = CB((c4 * u + c5 * v + 8421376) >> 16);
266             dstpV[x >> 1] = CB((c6 * u + c7 * v + 8421376) >> 16);
267         }
268         srcpY += src_pitchY;
269         dstpY += dst_pitchY;
270         srcpU += src_pitchUV;
271         srcpV += src_pitchUV;
272         dstpU += dst_pitchUV;
273         dstpV += dst_pitchUV;
274     }
275
276     return 0;
277 }
278
279 static int process_slice_yuv420p(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
280 {
281     const ThreadData *td = arg;
282     const AVFrame *src = td->src;
283     AVFrame *dst = td->dst;
284     const int height = src->height;
285     const int width = src->width;
286     const int slice_start = (height *  jobnr   ) / nb_jobs;
287     const int slice_end   = (height * (jobnr+1)) / nb_jobs;
288     const int src_pitchY  = src->linesize[0];
289     const int src_pitchUV = src->linesize[1];
290     const int dst_pitchY  = dst->linesize[0];
291     const int dst_pitchUV = dst->linesize[1];
292     const unsigned char *srcpY = src->data[0] + src_pitchY * slice_start;
293     const unsigned char *srcpU = src->data[1] + src_pitchUV * (slice_start >> 1);
294     const unsigned char *srcpV = src->data[2] + src_pitchUV * (slice_start >> 1);
295     const unsigned char *srcpN = src->data[0] + src_pitchY * (slice_start + 1);
296     unsigned char *dstpU = dst->data[1] + dst_pitchUV * (slice_start >> 1);
297     unsigned char *dstpV = dst->data[2] + dst_pitchUV * (slice_start >> 1);
298     unsigned char *dstpY = dst->data[0] + dst_pitchY * slice_start;
299     unsigned char *dstpN = dst->data[0] + dst_pitchY * (slice_start + 1);
300     const int c2 = td->c2;
301     const int c3 = td->c3;
302     const int c4 = td->c4;
303     const int c5 = td->c5;
304     const int c6 = td->c6;
305     const int c7 = td->c7;
306     int x, y;
307
308     for (y = slice_start; y < slice_end; y += 2) {
309         for (x = 0; x < width; x += 2) {
310             const int u = srcpU[x >> 1] - 128;
311             const int v = srcpV[x >> 1] - 128;
312             const int uvval = c2 * u + c3 * v + 1081344;
313             dstpY[x + 0] = CB((65536 * (srcpY[x + 0] - 16) + uvval) >> 16);
314             dstpY[x + 1] = CB((65536 * (srcpY[x + 1] - 16) + uvval) >> 16);
315             dstpN[x + 0] = CB((65536 * (srcpN[x + 0] - 16) + uvval) >> 16);
316             dstpN[x + 1] = CB((65536 * (srcpN[x + 1] - 16) + uvval) >> 16);
317             dstpU[x >> 1] = CB((c4 * u + c5 * v + 8421376) >> 16);
318             dstpV[x >> 1] = CB((c6 * u + c7 * v + 8421376) >> 16);
319         }
320         srcpY += src_pitchY << 1;
321         dstpY += dst_pitchY << 1;
322         srcpN += src_pitchY << 1;
323         dstpN += dst_pitchY << 1;
324         srcpU += src_pitchUV;
325         srcpV += src_pitchUV;
326         dstpU += dst_pitchUV;
327         dstpV += dst_pitchUV;
328     }
329
330     return 0;
331 }
332
333 static int config_input(AVFilterLink *inlink)
334 {
335     AVFilterContext *ctx = inlink->dst;
336     ColorMatrixContext *color = ctx->priv;
337     const AVPixFmtDescriptor *pix_desc = av_pix_fmt_desc_get(inlink->format);
338
339     color->hsub = pix_desc->log2_chroma_w;
340     color->vsub = pix_desc->log2_chroma_h;
341
342     av_log(ctx, AV_LOG_VERBOSE, "%s -> %s\n",
343            color_modes[color->source], color_modes[color->dest]);
344
345     return 0;
346 }
347
348 static int query_formats(AVFilterContext *ctx)
349 {
350     static const enum AVPixelFormat pix_fmts[] = {
351         AV_PIX_FMT_YUV422P,
352         AV_PIX_FMT_YUV420P,
353         AV_PIX_FMT_UYVY422,
354         AV_PIX_FMT_NONE
355     };
356
357     ff_set_common_formats(ctx, ff_make_format_list(pix_fmts));
358
359     return 0;
360 }
361
362 static int filter_frame(AVFilterLink *link, AVFrame *in)
363 {
364     AVFilterContext *ctx = link->dst;
365     ColorMatrixContext *color = ctx->priv;
366     AVFilterLink *outlink = ctx->outputs[0];
367     AVFrame *out;
368     ThreadData td = {0};
369
370     out = ff_get_video_buffer(outlink, outlink->w, outlink->h);
371     if (!out) {
372         av_frame_free(&in);
373         return AVERROR(ENOMEM);
374     }
375     av_frame_copy_props(out, in);
376
377     if (color->source == COLOR_MODE_NONE) {
378         enum AVColorSpace cs = av_frame_get_colorspace(in);
379         enum ColorMode source;
380
381         switch(cs) {
382         case AVCOL_SPC_BT709     : source = COLOR_MODE_BT709     ; break;
383         case AVCOL_SPC_FCC       : source = COLOR_MODE_FCC       ; break;
384         case AVCOL_SPC_SMPTE240M : source = COLOR_MODE_SMPTE240M ; break;
385         case AVCOL_SPC_BT470BG   : source = COLOR_MODE_BT601     ; break;
386         case AVCOL_SPC_SMPTE170M : source = COLOR_MODE_BT601     ; break;
387         default :
388             av_log(ctx, AV_LOG_ERROR, "Input frame does not specify a supported colorspace, and none has been specified as source either\n");
389             av_frame_free(&out);
390             return AVERROR(EINVAL);
391         }
392         color->mode = source * 4 + color->dest;
393     } else
394         color->mode = color->source * 4 + color->dest;
395
396     switch(color->dest) {
397     case COLOR_MODE_BT709    : av_frame_set_colorspace(out, AVCOL_SPC_BT709)    ; break;
398     case COLOR_MODE_FCC      : av_frame_set_colorspace(out, AVCOL_SPC_FCC)      ; break;
399     case COLOR_MODE_SMPTE240M: av_frame_set_colorspace(out, AVCOL_SPC_SMPTE240M); break;
400     case COLOR_MODE_BT601    : av_frame_set_colorspace(out, AVCOL_SPC_BT470BG)  ; break;
401     }
402
403     calc_coefficients(ctx);
404
405     td.src = in;
406     td.dst = out;
407     td.c2 = color->yuv_convert[color->mode][0][1];
408     td.c3 = color->yuv_convert[color->mode][0][2];
409     td.c4 = color->yuv_convert[color->mode][1][1];
410     td.c5 = color->yuv_convert[color->mode][1][2];
411     td.c6 = color->yuv_convert[color->mode][2][1];
412     td.c7 = color->yuv_convert[color->mode][2][2];
413
414     if (in->format == AV_PIX_FMT_YUV422P)
415         ctx->internal->execute(ctx, process_slice_yuv422p, &td, NULL,
416                                FFMIN(in->height, ctx->graph->nb_threads));
417     else if (in->format == AV_PIX_FMT_YUV420P)
418         ctx->internal->execute(ctx, process_slice_yuv420p, &td, NULL,
419                                FFMIN(in->height, ctx->graph->nb_threads));
420     else
421         ctx->internal->execute(ctx, process_slice_uyvy422, &td, NULL,
422                                FFMIN(in->height, ctx->graph->nb_threads));
423
424     av_frame_free(&in);
425     return ff_filter_frame(outlink, out);
426 }
427
428 static const AVFilterPad colormatrix_inputs[] = {
429     {
430         .name         = "default",
431         .type         = AVMEDIA_TYPE_VIDEO,
432         .config_props = config_input,
433         .filter_frame = filter_frame,
434     },
435     { NULL }
436 };
437
438 static const AVFilterPad colormatrix_outputs[] = {
439     {
440         .name = "default",
441         .type = AVMEDIA_TYPE_VIDEO,
442     },
443     { NULL }
444 };
445
446 AVFilter ff_vf_colormatrix = {
447     .name          = "colormatrix",
448     .description   = NULL_IF_CONFIG_SMALL("Convert color matrix."),
449     .priv_size     = sizeof(ColorMatrixContext),
450     .init          = init,
451     .query_formats = query_formats,
452     .inputs        = colormatrix_inputs,
453     .outputs       = colormatrix_outputs,
454     .priv_class    = &colormatrix_class,
455     .flags         = AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC | AVFILTER_FLAG_SLICE_THREADS,
456 };