]> git.sesse.net Git - ffmpeg/blob - libavfilter/vf_colormatrix.c
configure: fix LARGEADDRESSAWARE flag with MSVC
[ffmpeg] / libavfilter / vf_colormatrix.c
1 /*
2  * ColorMatrix v2.2 for Avisynth 2.5.x
3  *
4  * Copyright (C) 2006-2007 Kevin Stone
5  *
6  * ColorMatrix 1.x is Copyright (C) Wilbert Dijkhof
7  *
8  * This program is free software; you can redistribute it and/or modify it
9  * under the terms of the GNU General Public License as published by the
10  * Free Software Foundation; either version 2 of the License, or (at your
11  * option) any later version.
12  *
13  * This program is distributed in the hope that it will be useful, but
14  * OUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
15  * or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public
16  * License for more details.
17  *
18  * You should have received a copy of the GNU General Public License
19  * along with this program; if not, write to the Free Software Foundation,
20  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
21  */
22
23 /**
24  * @file
25  * ColorMatrix 2.0 is based on the original ColorMatrix filter by Wilbert
26  * Dijkhof.  It adds the ability to convert between any of: Rec.709, FCC,
27  * Rec.601, and SMPTE 240M. It also makes pre and post clipping optional,
28  * adds an option to use scaled or non-scaled coefficients, and more...
29  */
30
31 #include <float.h>
32 #include "avfilter.h"
33 #include "formats.h"
34 #include "internal.h"
35 #include "video.h"
36 #include "libavutil/opt.h"
37 #include "libavutil/pixdesc.h"
38 #include "libavutil/avstring.h"
39
40 #define NS(n) ((n) < 0 ? (int)((n)*65536.0-0.5+DBL_EPSILON) : (int)((n)*65536.0+0.5))
41 #define CB(n) av_clip_uint8(n)
42
43 static const double yuv_coeff[4][3][3] = {
44     { { +0.7152, +0.0722, +0.2126 }, // Rec.709 (0)
45       { -0.3850, +0.5000, -0.1150 },
46       { -0.4540, -0.0460, +0.5000 } },
47     { { +0.5900, +0.1100, +0.3000 }, // FCC (1)
48       { -0.3310, +0.5000, -0.1690 },
49       { -0.4210, -0.0790, +0.5000 } },
50     { { +0.5870, +0.1140, +0.2990 }, // Rec.601 (ITU-R BT.470-2/SMPTE 170M) (2)
51       { -0.3313, +0.5000, -0.1687 },
52       { -0.4187, -0.0813, +0.5000 } },
53     { { +0.7010, +0.0870, +0.2120 }, // SMPTE 240M (3)
54       { -0.3840, +0.5000, -0.1160 },
55       { -0.4450, -0.0550, +0.5000 } },
56 };
57
58 enum ColorMode {
59     COLOR_MODE_NONE = -1,
60     COLOR_MODE_BT709,
61     COLOR_MODE_FCC,
62     COLOR_MODE_BT601,
63     COLOR_MODE_SMPTE240M,
64     COLOR_MODE_COUNT
65 };
66
67 typedef struct {
68     const AVClass *class;
69     int yuv_convert[16][3][3];
70     int interlaced;
71     int source, dest;        ///< ColorMode
72     int mode;
73     int hsub, vsub;
74 } ColorMatrixContext;
75
76 typedef struct ThreadData {
77     AVFrame *dst;
78     const AVFrame *src;
79     int c2;
80     int c3;
81     int c4;
82     int c5;
83     int c6;
84     int c7;
85 } ThreadData;
86
87 #define OFFSET(x) offsetof(ColorMatrixContext, x)
88 #define FLAGS AV_OPT_FLAG_VIDEO_PARAM|AV_OPT_FLAG_FILTERING_PARAM
89
90 static const AVOption colormatrix_options[] = {
91     { "src", "set source color matrix",      OFFSET(source), AV_OPT_TYPE_INT, {.i64=COLOR_MODE_NONE}, COLOR_MODE_NONE, COLOR_MODE_COUNT-1, .flags=FLAGS, .unit="color_mode" },
92     { "dst", "set destination color matrix", OFFSET(dest),   AV_OPT_TYPE_INT, {.i64=COLOR_MODE_NONE}, COLOR_MODE_NONE, COLOR_MODE_COUNT-1, .flags=FLAGS, .unit="color_mode" },
93     { "bt709",     "set BT.709 colorspace",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT709},       .flags=FLAGS, .unit="color_mode" },
94     { "fcc",       "set FCC colorspace   ",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_FCC},         .flags=FLAGS, .unit="color_mode" },
95     { "bt601",     "set BT.601 colorspace",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT601},       .flags=FLAGS, .unit="color_mode" },
96     { "bt470",     "set BT.470 colorspace",      0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT601},       .flags=FLAGS, .unit="color_mode" },
97     { "smpte170m", "set SMTPE-170M colorspace",  0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_BT601},       .flags=FLAGS, .unit="color_mode" },
98     { "smpte240m", "set SMPTE-240M colorspace",  0, AV_OPT_TYPE_CONST, {.i64=COLOR_MODE_SMPTE240M},   .flags=FLAGS, .unit="color_mode" },
99     { NULL }
100 };
101
102 AVFILTER_DEFINE_CLASS(colormatrix);
103
104 #define ma m[0][0]
105 #define mb m[0][1]
106 #define mc m[0][2]
107 #define md m[1][0]
108 #define me m[1][1]
109 #define mf m[1][2]
110 #define mg m[2][0]
111 #define mh m[2][1]
112 #define mi m[2][2]
113
114 #define ima im[0][0]
115 #define imb im[0][1]
116 #define imc im[0][2]
117 #define imd im[1][0]
118 #define ime im[1][1]
119 #define imf im[1][2]
120 #define img im[2][0]
121 #define imh im[2][1]
122 #define imi im[2][2]
123
124 static void inverse3x3(double im[3][3], const double m[3][3])
125 {
126     double det = ma * (me * mi - mf * mh) - mb * (md * mi - mf * mg) + mc * (md * mh - me * mg);
127     det = 1.0 / det;
128     ima = det * (me * mi - mf * mh);
129     imb = det * (mc * mh - mb * mi);
130     imc = det * (mb * mf - mc * me);
131     imd = det * (mf * mg - md * mi);
132     ime = det * (ma * mi - mc * mg);
133     imf = det * (mc * md - ma * mf);
134     img = det * (md * mh - me * mg);
135     imh = det * (mb * mg - ma * mh);
136     imi = det * (ma * me - mb * md);
137 }
138
139 static void solve_coefficients(double cm[3][3], double rgb[3][3], const double yuv[3][3])
140 {
141     int i, j;
142     for (i = 0; i < 3; i++)
143         for (j = 0; j < 3; j++)
144             cm[i][j] = yuv[i][0] * rgb[0][j] + yuv[i][1] * rgb[1][j] + yuv[i][2] * rgb[2][j];
145 }
146
147 static void calc_coefficients(AVFilterContext *ctx)
148 {
149     ColorMatrixContext *color = ctx->priv;
150     double rgb_coeffd[4][3][3];
151     double yuv_convertd[16][3][3];
152     int v = 0;
153     int i, j, k;
154
155     for (i = 0; i < 4; i++)
156         inverse3x3(rgb_coeffd[i], yuv_coeff[i]);
157     for (i = 0; i < 4; i++) {
158         for (j = 0; j < 4; j++) {
159             solve_coefficients(yuv_convertd[v], rgb_coeffd[i], yuv_coeff[j]);
160             for (k = 0; k < 3; k++) {
161                 color->yuv_convert[v][k][0] = NS(yuv_convertd[v][k][0]);
162                 color->yuv_convert[v][k][1] = NS(yuv_convertd[v][k][1]);
163                 color->yuv_convert[v][k][2] = NS(yuv_convertd[v][k][2]);
164             }
165             if (color->yuv_convert[v][0][0] != 65536 || color->yuv_convert[v][1][0] != 0 ||
166                 color->yuv_convert[v][2][0] != 0) {
167                 av_log(ctx, AV_LOG_ERROR, "error calculating conversion coefficients\n");
168             }
169             v++;
170         }
171     }
172 }
173
174 static const char * const color_modes[] = {"bt709", "fcc", "bt601", "smpte240m"};
175
176 static av_cold int init(AVFilterContext *ctx)
177 {
178     ColorMatrixContext *color = ctx->priv;
179
180     if (color->dest == COLOR_MODE_NONE) {
181         av_log(ctx, AV_LOG_ERROR, "Unspecified destination color space\n");
182         return AVERROR(EINVAL);
183     }
184
185     if (color->source == color->dest) {
186         av_log(ctx, AV_LOG_ERROR, "Source and destination color space must not be identical\n");
187         return AVERROR(EINVAL);
188     }
189
190     calc_coefficients(ctx);
191
192     return 0;
193 }
194
195 static int process_slice_uyvy422(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
196 {
197     const ThreadData *td = arg;
198     const AVFrame *src = td->src;
199     AVFrame *dst = td->dst;
200     const int height = src->height;
201     const int width = src->width*2;
202     const int src_pitch = src->linesize[0];
203     const int dst_pitch = dst->linesize[0];
204     const int slice_start = (height *  jobnr   ) / nb_jobs;
205     const int slice_end   = (height * (jobnr+1)) / nb_jobs;
206     const unsigned char *srcp = src->data[0] + slice_start * src_pitch;
207     unsigned char *dstp = dst->data[0] + slice_start * dst_pitch;
208     const int c2 = td->c2;
209     const int c3 = td->c3;
210     const int c4 = td->c4;
211     const int c5 = td->c5;
212     const int c6 = td->c6;
213     const int c7 = td->c7;
214     int x, y;
215
216     for (y = slice_start; y < slice_end; y++) {
217         for (x = 0; x < width; x += 4) {
218             const int u = srcp[x + 0] - 128;
219             const int v = srcp[x + 2] - 128;
220             const int uvval = c2 * u + c3 * v + 1081344;
221             dstp[x + 0] = CB((c4 * u + c5 * v + 8421376) >> 16);
222             dstp[x + 1] = CB((65536 * (srcp[x + 1] - 16) + uvval) >> 16);
223             dstp[x + 2] = CB((c6 * u + c7 * v + 8421376) >> 16);
224             dstp[x + 3] = CB((65536 * (srcp[x + 3] - 16) + uvval) >> 16);
225         }
226         srcp += src_pitch;
227         dstp += dst_pitch;
228     }
229
230     return 0;
231 }
232
233 static int process_slice_yuv444p(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
234 {
235     const ThreadData *td = arg;
236     const AVFrame *src = td->src;
237     AVFrame *dst = td->dst;
238     const int height = src->height;
239     const int width = src->width;
240     const int slice_start = (height *  jobnr   ) / nb_jobs;
241     const int slice_end   = (height * (jobnr+1)) / nb_jobs;
242     const int src_pitchY  = src->linesize[0];
243     const int src_pitchUV = src->linesize[1];
244     const unsigned char *srcpU = src->data[1] + slice_start * src_pitchUV;
245     const unsigned char *srcpV = src->data[2] + slice_start * src_pitchUV;
246     const unsigned char *srcpY = src->data[0] + slice_start * src_pitchY;
247     const int dst_pitchY  = dst->linesize[0];
248     const int dst_pitchUV = dst->linesize[1];
249     unsigned char *dstpU = dst->data[1] + slice_start * dst_pitchUV;
250     unsigned char *dstpV = dst->data[2] + slice_start * dst_pitchUV;
251     unsigned char *dstpY = dst->data[0] + slice_start * dst_pitchY;
252     const int c2 = td->c2;
253     const int c3 = td->c3;
254     const int c4 = td->c4;
255     const int c5 = td->c5;
256     const int c6 = td->c6;
257     const int c7 = td->c7;
258     int x, y;
259
260     for (y = slice_start; y < slice_end; y++) {
261         for (x = 0; x < width; x++) {
262             const int u = srcpU[x] - 128;
263             const int v = srcpV[x] - 128;
264             const int uvval = c2 * u + c3 * v + 1081344;
265             dstpY[x] = CB((65536 * (srcpY[x] - 16) + uvval) >> 16);
266             dstpU[x] = CB((c4 * u + c5 * v + 8421376) >> 16);
267             dstpV[x] = CB((c6 * u + c7 * v + 8421376) >> 16);
268         }
269         srcpY += src_pitchY;
270         dstpY += dst_pitchY;
271         srcpU += src_pitchUV;
272         srcpV += src_pitchUV;
273         dstpU += dst_pitchUV;
274         dstpV += dst_pitchUV;
275     }
276
277     return 0;
278 }
279
280 static int process_slice_yuv422p(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
281 {
282     const ThreadData *td = arg;
283     const AVFrame *src = td->src;
284     AVFrame *dst = td->dst;
285     const int height = src->height;
286     const int width = src->width;
287     const int slice_start = (height *  jobnr   ) / nb_jobs;
288     const int slice_end   = (height * (jobnr+1)) / nb_jobs;
289     const int src_pitchY  = src->linesize[0];
290     const int src_pitchUV = src->linesize[1];
291     const unsigned char *srcpU = src->data[1] + slice_start * src_pitchUV;
292     const unsigned char *srcpV = src->data[2] + slice_start * src_pitchUV;
293     const unsigned char *srcpY = src->data[0] + slice_start * src_pitchY;
294     const int dst_pitchY  = dst->linesize[0];
295     const int dst_pitchUV = dst->linesize[1];
296     unsigned char *dstpU = dst->data[1] + slice_start * dst_pitchUV;
297     unsigned char *dstpV = dst->data[2] + slice_start * dst_pitchUV;
298     unsigned char *dstpY = dst->data[0] + slice_start * dst_pitchY;
299     const int c2 = td->c2;
300     const int c3 = td->c3;
301     const int c4 = td->c4;
302     const int c5 = td->c5;
303     const int c6 = td->c6;
304     const int c7 = td->c7;
305     int x, y;
306
307     for (y = slice_start; y < slice_end; y++) {
308         for (x = 0; x < width; x += 2) {
309             const int u = srcpU[x >> 1] - 128;
310             const int v = srcpV[x >> 1] - 128;
311             const int uvval = c2 * u + c3 * v + 1081344;
312             dstpY[x + 0] = CB((65536 * (srcpY[x + 0] - 16) + uvval) >> 16);
313             dstpY[x + 1] = CB((65536 * (srcpY[x + 1] - 16) + uvval) >> 16);
314             dstpU[x >> 1] = CB((c4 * u + c5 * v + 8421376) >> 16);
315             dstpV[x >> 1] = CB((c6 * u + c7 * v + 8421376) >> 16);
316         }
317         srcpY += src_pitchY;
318         dstpY += dst_pitchY;
319         srcpU += src_pitchUV;
320         srcpV += src_pitchUV;
321         dstpU += dst_pitchUV;
322         dstpV += dst_pitchUV;
323     }
324
325     return 0;
326 }
327
328 static int process_slice_yuv420p(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
329 {
330     const ThreadData *td = arg;
331     const AVFrame *src = td->src;
332     AVFrame *dst = td->dst;
333     const int height = FFALIGN(src->height, 2) >> 1;
334     const int width = src->width;
335     const int slice_start = ((height *  jobnr   ) / nb_jobs) << 1;
336     const int slice_end   = ((height * (jobnr+1)) / nb_jobs) << 1;
337     const int src_pitchY  = src->linesize[0];
338     const int src_pitchUV = src->linesize[1];
339     const int dst_pitchY  = dst->linesize[0];
340     const int dst_pitchUV = dst->linesize[1];
341     const unsigned char *srcpY = src->data[0] + src_pitchY * slice_start;
342     const unsigned char *srcpU = src->data[1] + src_pitchUV * (slice_start >> 1);
343     const unsigned char *srcpV = src->data[2] + src_pitchUV * (slice_start >> 1);
344     const unsigned char *srcpN = src->data[0] + src_pitchY * (slice_start + 1);
345     unsigned char *dstpU = dst->data[1] + dst_pitchUV * (slice_start >> 1);
346     unsigned char *dstpV = dst->data[2] + dst_pitchUV * (slice_start >> 1);
347     unsigned char *dstpY = dst->data[0] + dst_pitchY * slice_start;
348     unsigned char *dstpN = dst->data[0] + dst_pitchY * (slice_start + 1);
349     const int c2 = td->c2;
350     const int c3 = td->c3;
351     const int c4 = td->c4;
352     const int c5 = td->c5;
353     const int c6 = td->c6;
354     const int c7 = td->c7;
355     int x, y;
356
357     for (y = slice_start; y < slice_end; y += 2) {
358         for (x = 0; x < width; x += 2) {
359             const int u = srcpU[x >> 1] - 128;
360             const int v = srcpV[x >> 1] - 128;
361             const int uvval = c2 * u + c3 * v + 1081344;
362             dstpY[x + 0] = CB((65536 * (srcpY[x + 0] - 16) + uvval) >> 16);
363             dstpY[x + 1] = CB((65536 * (srcpY[x + 1] - 16) + uvval) >> 16);
364             dstpN[x + 0] = CB((65536 * (srcpN[x + 0] - 16) + uvval) >> 16);
365             dstpN[x + 1] = CB((65536 * (srcpN[x + 1] - 16) + uvval) >> 16);
366             dstpU[x >> 1] = CB((c4 * u + c5 * v + 8421376) >> 16);
367             dstpV[x >> 1] = CB((c6 * u + c7 * v + 8421376) >> 16);
368         }
369         srcpY += src_pitchY << 1;
370         dstpY += dst_pitchY << 1;
371         srcpN += src_pitchY << 1;
372         dstpN += dst_pitchY << 1;
373         srcpU += src_pitchUV;
374         srcpV += src_pitchUV;
375         dstpU += dst_pitchUV;
376         dstpV += dst_pitchUV;
377     }
378
379     return 0;
380 }
381
382 static int config_input(AVFilterLink *inlink)
383 {
384     AVFilterContext *ctx = inlink->dst;
385     ColorMatrixContext *color = ctx->priv;
386     const AVPixFmtDescriptor *pix_desc = av_pix_fmt_desc_get(inlink->format);
387
388     color->hsub = pix_desc->log2_chroma_w;
389     color->vsub = pix_desc->log2_chroma_h;
390
391     av_log(ctx, AV_LOG_VERBOSE, "%s -> %s\n",
392            color_modes[color->source], color_modes[color->dest]);
393
394     return 0;
395 }
396
397 static int query_formats(AVFilterContext *ctx)
398 {
399     static const enum AVPixelFormat pix_fmts[] = {
400         AV_PIX_FMT_YUV444P,
401         AV_PIX_FMT_YUV422P,
402         AV_PIX_FMT_YUV420P,
403         AV_PIX_FMT_UYVY422,
404         AV_PIX_FMT_NONE
405     };
406     AVFilterFormats *fmts_list = ff_make_format_list(pix_fmts);
407     if (!fmts_list)
408         return AVERROR(ENOMEM);
409     return ff_set_common_formats(ctx, fmts_list);
410 }
411
412 static int filter_frame(AVFilterLink *link, AVFrame *in)
413 {
414     AVFilterContext *ctx = link->dst;
415     ColorMatrixContext *color = ctx->priv;
416     AVFilterLink *outlink = ctx->outputs[0];
417     AVFrame *out;
418     ThreadData td = {0};
419
420     out = ff_get_video_buffer(outlink, outlink->w, outlink->h);
421     if (!out) {
422         av_frame_free(&in);
423         return AVERROR(ENOMEM);
424     }
425     av_frame_copy_props(out, in);
426
427     if (color->source == COLOR_MODE_NONE) {
428         enum AVColorSpace cs = av_frame_get_colorspace(in);
429         enum ColorMode source;
430
431         switch(cs) {
432         case AVCOL_SPC_BT709     : source = COLOR_MODE_BT709     ; break;
433         case AVCOL_SPC_FCC       : source = COLOR_MODE_FCC       ; break;
434         case AVCOL_SPC_SMPTE240M : source = COLOR_MODE_SMPTE240M ; break;
435         case AVCOL_SPC_BT470BG   : source = COLOR_MODE_BT601     ; break;
436         case AVCOL_SPC_SMPTE170M : source = COLOR_MODE_BT601     ; break;
437         default :
438             av_log(ctx, AV_LOG_ERROR, "Input frame does not specify a supported colorspace, and none has been specified as source either\n");
439             av_frame_free(&out);
440             return AVERROR(EINVAL);
441         }
442         color->mode = source * 4 + color->dest;
443     } else
444         color->mode = color->source * 4 + color->dest;
445
446     switch(color->dest) {
447     case COLOR_MODE_BT709    : av_frame_set_colorspace(out, AVCOL_SPC_BT709)    ; break;
448     case COLOR_MODE_FCC      : av_frame_set_colorspace(out, AVCOL_SPC_FCC)      ; break;
449     case COLOR_MODE_SMPTE240M: av_frame_set_colorspace(out, AVCOL_SPC_SMPTE240M); break;
450     case COLOR_MODE_BT601    : av_frame_set_colorspace(out, AVCOL_SPC_BT470BG)  ; break;
451     }
452
453     td.src = in;
454     td.dst = out;
455     td.c2 = color->yuv_convert[color->mode][0][1];
456     td.c3 = color->yuv_convert[color->mode][0][2];
457     td.c4 = color->yuv_convert[color->mode][1][1];
458     td.c5 = color->yuv_convert[color->mode][1][2];
459     td.c6 = color->yuv_convert[color->mode][2][1];
460     td.c7 = color->yuv_convert[color->mode][2][2];
461
462     if (in->format == AV_PIX_FMT_YUV444P)
463         ctx->internal->execute(ctx, process_slice_yuv444p, &td, NULL,
464                                FFMIN(in->height, ctx->graph->nb_threads));
465     else if (in->format == AV_PIX_FMT_YUV422P)
466         ctx->internal->execute(ctx, process_slice_yuv422p, &td, NULL,
467                                FFMIN(in->height, ctx->graph->nb_threads));
468     else if (in->format == AV_PIX_FMT_YUV420P)
469         ctx->internal->execute(ctx, process_slice_yuv420p, &td, NULL,
470                                FFMIN(in->height / 2, ctx->graph->nb_threads));
471     else
472         ctx->internal->execute(ctx, process_slice_uyvy422, &td, NULL,
473                                FFMIN(in->height, ctx->graph->nb_threads));
474
475     av_frame_free(&in);
476     return ff_filter_frame(outlink, out);
477 }
478
479 static const AVFilterPad colormatrix_inputs[] = {
480     {
481         .name         = "default",
482         .type         = AVMEDIA_TYPE_VIDEO,
483         .config_props = config_input,
484         .filter_frame = filter_frame,
485     },
486     { NULL }
487 };
488
489 static const AVFilterPad colormatrix_outputs[] = {
490     {
491         .name = "default",
492         .type = AVMEDIA_TYPE_VIDEO,
493     },
494     { NULL }
495 };
496
497 AVFilter ff_vf_colormatrix = {
498     .name          = "colormatrix",
499     .description   = NULL_IF_CONFIG_SMALL("Convert color matrix."),
500     .priv_size     = sizeof(ColorMatrixContext),
501     .init          = init,
502     .query_formats = query_formats,
503     .inputs        = colormatrix_inputs,
504     .outputs       = colormatrix_outputs,
505     .priv_class    = &colormatrix_class,
506     .flags         = AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC | AVFILTER_FLAG_SLICE_THREADS,
507 };