Convert a loop to range-based for.
[movit] / deconvolution_sharpen_effect.cpp
1 // NOTE: Throughout, we use the symbol ⊙ for convolution.
2 // Since all of our signals are symmetrical, discrete correlation and convolution
3 // is the same operation, and so we won't make a difference in notation.
4
5 #include <Eigen/Dense>
6 #include <Eigen/Cholesky>
7 #include <epoxy/gl.h>
8 #include <assert.h>
9 #include <math.h>
10 #include <stdio.h>
11 #include <stdlib.h>
12 #include <algorithm>
13 #include <new>
14
15 #include "deconvolution_sharpen_effect.h"
16 #include "effect_util.h"
17 #include "util.h"
18
19 using namespace Eigen;
20 using namespace std;
21
22 namespace movit {
23
24 DeconvolutionSharpenEffect::DeconvolutionSharpenEffect()
25         : R(5),
26           circle_radius(2.0f),
27           gaussian_radius(0.0f),
28           correlation(0.95f),
29           noise(0.01f),
30           last_R(-1),
31           last_circle_radius(-1.0f),
32           last_gaussian_radius(-1.0f),
33           last_correlation(-1.0f),
34           last_noise(-1.0f),
35           uniform_samples(nullptr)
36 {
37         register_int("matrix_size", &R);
38         register_float("circle_radius", &circle_radius);
39         register_float("gaussian_radius", &gaussian_radius);
40         register_float("correlation", &correlation);
41         register_float("noise", &noise);
42 }
43
44 DeconvolutionSharpenEffect::~DeconvolutionSharpenEffect()
45 {
46         delete[] uniform_samples;
47 }
48
49 string DeconvolutionSharpenEffect::output_fragment_shader()
50 {
51         char buf[256];
52         sprintf(buf, "#define R %u\n", R);
53
54         assert(R >= 1);
55         assert(R <= 25);  // Same limit as Refocus.
56
57         uniform_samples = new float[4 * (R + 1) * (R + 1)];
58         register_uniform_vec4_array("samples", uniform_samples, (R + 1) * (R + 1));
59
60         last_R = R;
61         return buf + read_file("deconvolution_sharpen_effect.frag");
62 }
63
64 namespace {
65
66 // Integral of sqrt(r² - x²) dx over x=0..a.
67 float circle_integral(float a, float r)
68 {
69         assert(a >= 0.0f);
70         if (a <= 0.0f) {
71                 return 0.0f;
72         }
73         if (a >= r) {
74                 return 0.25f * M_PI * r * r;
75         }
76         return 0.5f * (a * sqrt(r*r - a*a) + r*r * asin(a / r));
77 }
78
79 // Yields the impulse response of a circular blur with radius r.
80 // We basically look at each element as a square centered around (x,y),
81 // and figure out how much of its area is covered by the circle.
82 float circle_impulse_response(int x, int y, float r)
83 {
84         if (r < 1e-3) {
85                 // Degenerate case: radius = 0 yields the impulse response.
86                 return (x == 0 && y == 0) ? 1.0f : 0.0f;
87         }
88
89         // Find the extents of this cell. Due to symmetry, we can cheat a bit
90         // and pretend we're always in the upper-right quadrant, except when
91         // we're right at an axis crossing (x = 0 or y = 0), in which case we
92         // simply use the evenness of the function; shrink the cell, make
93         // the calculation, and down below we'll normalize by the cell's area.
94         float min_x, max_x, min_y, max_y;
95         if (x == 0) {
96                 min_x = 0.0f;
97                 max_x = 0.5f;
98         } else {
99                 min_x = abs(x) - 0.5f;
100                 max_x = abs(x) + 0.5f;
101         }
102         if (y == 0) {
103                 min_y = 0.0f;
104                 max_y = 0.5f;
105         } else {
106                 min_y = abs(y) - 0.5f;
107                 max_y = abs(y) + 0.5f;
108         }
109         assert(min_x >= 0.0f && max_x >= 0.0f);
110         assert(min_y >= 0.0f && max_y >= 0.0f);
111
112         float cell_height = max_y - min_y;
113         float cell_width = max_x - min_x;
114
115         if (min_x * min_x + min_y * min_y > r * r) {
116                 // Lower-left corner is outside the circle, so the entire cell is.
117                 return 0.0f;
118         }
119         if (max_x * max_x + max_y * max_y < r * r) {
120                 // Upper-right corner is inside the circle, so the entire cell is.
121                 return 1.0f;
122         }
123
124         // OK, so now we know the cell is partially covered by the circle:
125         //
126         //      \           .
127         //  -------------
128         // |####|#\      |
129         // |####|##|     |
130         //  -------------
131         //   A   ###|
132         //       ###|
133         //
134         // The edge of the circle is defined by x² + y² = r², 
135         // or x = sqrt(r² - y²) (since x is nonnegative).
136         // Find out where the curve crosses our given y values.
137         float mid_x1 = (max_y >= r) ? min_x : sqrt(r * r - max_y * max_y);
138         float mid_x2 = sqrt(r * r - min_y * min_y);
139         if (mid_x1 < min_x) {
140                 mid_x1 = min_x;
141         }
142         if (mid_x2 > max_x) {
143                 mid_x2 = max_x;
144         }
145         assert(mid_x1 >= min_x);
146         assert(mid_x2 >= mid_x1);
147         assert(max_x >= mid_x2);
148
149         // The area marked A in the figure above.
150         float covered_area = cell_height * (mid_x1 - min_x);
151
152         // The area marked B in the figure above. Note that the integral gives the entire
153         // shaded space down to zero, so we need to subtract the rectangle that does not
154         // belong to our cell.
155         covered_area += circle_integral(mid_x2, r) - circle_integral(mid_x1, r);
156         covered_area -= min_y * (mid_x2 - mid_x1);
157
158         assert(covered_area <= cell_width * cell_height);
159         return covered_area / (cell_width * cell_height);
160 }
161
162 // Compute a ⊙ b. Note that we compute the “full” convolution,
163 // ie., our matrix will be big enough to hold every nonzero element of the result.
164 MatrixXf convolve(const MatrixXf &a, const MatrixXf &b)
165 {
166         MatrixXf result(a.rows() + b.rows() - 1, a.cols() + b.cols() - 1);
167         for (int yr = 0; yr < result.rows(); ++yr) {
168                 for (int xr = 0; xr < result.cols(); ++xr) {
169                         float sum = 0.0f;
170
171                         // Given that x_b = x_r - x_a, find the values of x_a where
172                         // x_a is in [0, a_cols> and x_b is in [0, b_cols>. (y is similar.)
173                         //
174                         // The second demand gives:
175                         //
176                         //   0 <= x_r - x_a < b_cols
177                         //   0 >= x_a - x_r > -b_cols
178                         //   x_r >= x_a > x_r - b_cols
179                         int ya_min = yr - b.rows() + 1;
180                         int ya_max = yr;
181                         int xa_min = xr - b.rows() + 1;
182                         int xa_max = xr;
183
184                         // Now fit to the first demand.
185                         ya_min = max<int>(ya_min, 0);
186                         ya_max = min<int>(ya_max, a.rows() - 1);
187                         xa_min = max<int>(xa_min, 0);
188                         xa_max = min<int>(xa_max, a.cols() - 1);
189
190                         assert(ya_max >= ya_min);
191                         assert(xa_max >= xa_min);
192
193                         for (int ya = ya_min; ya <= ya_max; ++ya) {
194                                 for (int xa = xa_min; xa <= xa_max; ++xa) {
195                                         sum += a(ya, xa) * b(yr - ya, xr - xa);
196                                 }
197                         }
198
199                         result(yr, xr) = sum;
200                 }
201         }
202         return result;
203 }
204
205 // Similar to convolve(), but instead of assuming every element outside
206 // of b is zero, we make no such assumption and instead return only the
207 // elements where we know the right answer. (This is the only difference
208 // between the two.)
209 // This is the same as conv2(a, b, 'valid') in Octave.
210 //
211 // a must be the larger matrix of the two.
212 MatrixXf central_convolve(const MatrixXf &a, const MatrixXf &b)
213 {
214         assert(a.rows() >= b.rows());
215         assert(a.cols() >= b.cols());
216         MatrixXf result(a.rows() - b.rows() + 1, a.cols() - b.cols() + 1);
217         for (int yr = b.rows() - 1; yr < result.rows() + b.rows() - 1; ++yr) {
218                 for (int xr = b.cols() - 1; xr < result.cols() + b.cols() - 1; ++xr) {
219                         float sum = 0.0f;
220
221                         // Given that x_b = x_r - x_a, find the values of x_a where
222                         // x_a is in [0, a_cols> and x_b is in [0, b_cols>. (y is similar.)
223                         //
224                         // The second demand gives:
225                         //
226                         //   0 <= x_r - x_a < b_cols
227                         //   0 >= x_a - x_r > -b_cols
228                         //   x_r >= x_a > x_r - b_cols
229                         int ya_min = yr - b.rows() + 1;
230                         int ya_max = yr;
231                         int xa_min = xr - b.rows() + 1;
232                         int xa_max = xr;
233
234                         // Now fit to the first demand.
235                         ya_min = max<int>(ya_min, 0);
236                         ya_max = min<int>(ya_max, a.rows() - 1);
237                         xa_min = max<int>(xa_min, 0);
238                         xa_max = min<int>(xa_max, a.cols() - 1);
239
240                         assert(ya_max >= ya_min);
241                         assert(xa_max >= xa_min);
242
243                         for (int ya = ya_min; ya <= ya_max; ++ya) {
244                                 for (int xa = xa_min; xa <= xa_max; ++xa) {
245                                         sum += a(ya, xa) * b(yr - ya, xr - xa);
246                                 }
247                         }
248
249                         result(yr - b.rows() + 1, xr - b.cols() + 1) = sum;
250                 }
251         }
252         return result;
253 }
254
255 }  // namespace
256
257 void DeconvolutionSharpenEffect::update_deconvolution_kernel()
258 {
259         // Figure out the impulse response for the circular part of the blur.
260         MatrixXf circ_h(2 * R + 1, 2 * R + 1);
261         for (int y = -R; y <= R; ++y) { 
262                 for (int x = -R; x <= R; ++x) {
263                         circ_h(y + R, x + R) = circle_impulse_response(x, y, circle_radius);
264                 }
265         }
266
267         // Same, for the Gaussian part of the blur. We make this a lot larger
268         // since we're going to convolve with it soon, and it has infinite support
269         // (see comments for central_convolve()).
270         MatrixXf gaussian_h(4 * R + 1, 4 * R + 1);
271         for (int y = -2 * R; y <= 2 * R; ++y) { 
272                 for (int x = -2 * R; x <= 2 * R; ++x) {
273                         float val;
274                         if (gaussian_radius < 1e-3) {
275                                 val = (x == 0 && y == 0) ? 1.0f : 0.0f;
276                         } else {
277                                 val = exp(-(x*x + y*y) / (2.0 * gaussian_radius * gaussian_radius));
278                         }
279                         gaussian_h(y + 2 * R, x + 2 * R) = val;
280                 }
281         }
282
283         // h, the (assumed) impulse response that we're trying to invert.
284         MatrixXf h = central_convolve(gaussian_h, circ_h);
285         assert(h.rows() == 2 * R + 1);
286         assert(h.cols() == 2 * R + 1);
287
288         // Normalize the impulse response.
289         float sum = 0.0f;
290         for (int y = 0; y < 2 * R + 1; ++y) {
291                 for (int x = 0; x < 2 * R + 1; ++x) {
292                         sum += h(y, x);
293                 }
294         }
295         for (int y = 0; y < 2 * R + 1; ++y) {
296                 for (int x = 0; x < 2 * R + 1; ++x) {
297                         h(y, x) /= sum;
298                 }
299         }
300
301         // r_uu, the (estimated/assumed) autocorrelation of the input signal (u).
302         // The signal is modelled a standard autoregressive process with the
303         // given correlation coefficient.
304         //
305         // We have to take a bit of care with the size of this matrix.
306         // The pow() function naturally has an infinite support (except for the
307         // degenerate case of correlation=0), but we have to chop it off
308         // somewhere. Since we convolve it with a 4*R+1 large matrix below,
309         // we need to make it twice as big as that, so that we have enough
310         // data to make r_vv valid. (central_convolve() effectively enforces
311         // that we get at least the right size.)
312         MatrixXf r_uu(8 * R + 1, 8 * R + 1);
313         for (int y = -4 * R; y <= 4 * R; ++y) { 
314                 for (int x = -4 * R; x <= 4 * R; ++x) {
315                         r_uu(x + 4 * R, y + 4 * R) = pow(double(correlation), hypot(x, y));
316                 }
317         }
318
319         // Estimate r_vv, the autocorrelation of the output signal v.
320         // Since we know that v = h ⊙ u and both are symmetrical,
321         // convolution and correlation are the same, and
322         // r_vv = v ⊙ v = (h ⊙ u) ⊙ (h ⊙ u) = (h ⊙ h) ⊙ r_uu.
323         MatrixXf r_vv = central_convolve(r_uu, convolve(h, h));
324         assert(r_vv.rows() == 4 * R + 1);
325         assert(r_vv.cols() == 4 * R + 1);
326
327         // Similarly, r_uv = u ⊙ v = u ⊙ (h ⊙ u) = h ⊙ r_uu.
328         MatrixXf r_uu_center = r_uu.block(2 * R, 2 * R, 4 * R + 1, 4 * R + 1);
329         MatrixXf r_uv = central_convolve(r_uu_center, h);
330         assert(r_uv.rows() == 2 * R + 1);
331         assert(r_uv.cols() == 2 * R + 1);
332         
333         // Add the noise term (we assume the noise is uncorrelated,
334         // so it only affects the central element).
335         r_vv(2 * R, 2 * R) += noise;
336
337         // Now solve the Wiener-Hopf equations to find the deconvolution kernel g.
338         // Most texts show this only for the simpler 1D case:
339         //
340         // [ r_vv(0)  r_vv(1) r_vv(2) ... ] [ g(0) ]   [ r_uv(0) ]
341         // [ r_vv(-1) r_vv(0) ...         ] [ g(1) ] = [ r_uv(1) ]
342         // [ r_vv(-2) ...                 ] [ g(2) ]   [ r_uv(2) ]
343         // [ ...                          ] [ g(3) ]   [ r_uv(3) ]
344         //
345         // (Since r_vv is symmetrical, we can drop the minus signs.)
346         //
347         // Generally, row i of the matrix contains (dropping _vv for brevity):
348         //
349         // [ r(0-i) r(1-i) r(2-i) ... ]
350         //
351         // However, we have the 2D case. We flatten the vectors out to
352         // 1D quantities; this means we must think of the row number
353         // as a pair instead of as a scalar. Row (i,j) then contains:
354         //
355         // [ r(0-i,0-j) r(1-i,0-j) r(2-i,0-j) ... r(0-i,1-j) r_(1-i,1-j) r(2-i,1-j) ... ]
356         //
357         // g and r_uv are flattened in the same fashion.
358         //
359         // Note that even though this matrix is block Toeplitz, it is _not_ Toeplitz,
360         // and thus can not be inverted through the standard Levinson-Durbin method.
361         // There exists a block Levinson-Durbin method, which we may or may not
362         // want to use later. (Eigen's solvers are fast enough that for big matrices,
363         // the convolution operation and not the matrix solving is the bottleneck.)
364         //
365         // One thing we definitely want to use, though, is the symmetry properties.
366         // Since we know that g(i, j) = g(|i|, |j|), we can reduce the amount of
367         // unknowns to about 1/4th of the total size. The method is quite simple,
368         // as can be seen from the following toy equation system:
369         //
370         //   A x0 + B x1 + C x2 = y0
371         //   D x0 + E x1 + F x2 = y1
372         //   G x0 + H x1 + I x2 = y2
373         //
374         // If we now know that e.g. x0=x1 and y0=y1, we can rewrite this to
375         //
376         //   (A+B+D+E) x0 + (C+F) x2 = 2 y0
377         //   (G+H)     x0 + I x2     = y2
378         //
379         // This both increases accuracy and provides us with a very nice speed
380         // boost.
381         MatrixXf M(MatrixXf::Zero((R + 1) * (R + 1), (R + 1) * (R + 1)));
382         MatrixXf r_uv_flattened(MatrixXf::Zero((R + 1) * (R + 1), 1));
383         for (int outer_i = 0; outer_i < 2 * R + 1; ++outer_i) {
384                 int folded_outer_i = abs(outer_i - R);
385                 for (int outer_j = 0; outer_j < 2 * R + 1; ++outer_j) {
386                         int folded_outer_j = abs(outer_j - R);
387                         int row = folded_outer_i * (R + 1) + folded_outer_j;
388                         for (int inner_i = 0; inner_i < 2 * R + 1; ++inner_i) {
389                                 int folded_inner_i = abs(inner_i - R);
390                                 for (int inner_j = 0; inner_j < 2 * R + 1; ++inner_j) {
391                                         int folded_inner_j = abs(inner_j - R);
392                                         int col = folded_inner_i * (R + 1) + folded_inner_j;
393                                         M(row, col) += r_vv((inner_i - R) - (outer_i - R) + 2 * R,
394                                                             (inner_j - R) - (outer_j - R) + 2 * R);
395                                 }
396                         }
397                         r_uv_flattened(row) += r_uv(outer_i, outer_j);
398                 }
399         }
400
401         LLT<MatrixXf> llt(M);
402         MatrixXf g_flattened = llt.solve(r_uv_flattened);
403         assert(g_flattened.rows() == (R + 1) * (R + 1)),
404         assert(g_flattened.cols() == 1);
405
406         // Normalize and de-flatten the deconvolution matrix.
407         g = MatrixXf(R + 1, R + 1);
408         sum = 0.0f;
409         for (int i = 0; i < g_flattened.rows(); ++i) {
410                 int y = i / (R + 1);
411                 int x = i % (R + 1);
412                 if (y == 0 && x == 0) {
413                         sum += g_flattened(i);
414                 } else if (y == 0 || x == 0) {
415                         sum += 2.0f * g_flattened(i);
416                 } else {
417                         sum += 4.0f * g_flattened(i);
418                 }
419         }
420         for (int i = 0; i < g_flattened.rows(); ++i) {
421                 int y = i / (R + 1);
422                 int x = i % (R + 1);
423                 g(y, x) = g_flattened(i) / sum;
424         }
425
426         last_circle_radius = circle_radius;
427         last_gaussian_radius = gaussian_radius;
428         last_correlation = correlation;
429         last_noise = noise;
430 }
431
432 void DeconvolutionSharpenEffect::set_gl_state(GLuint glsl_program_num, const string &prefix, unsigned *sampler_num)
433 {
434         Effect::set_gl_state(glsl_program_num, prefix, sampler_num);
435
436         assert(R == last_R);
437
438         if (fabs(circle_radius - last_circle_radius) > 1e-3 ||
439             fabs(gaussian_radius - last_gaussian_radius) > 1e-3 ||
440             fabs(correlation - last_correlation) > 1e-3 ||
441             fabs(noise - last_noise) > 1e-3) {
442                 update_deconvolution_kernel();
443         }
444         // Now encode it as uniforms, and pass it on to the shader.
445         for (int y = 0; y <= R; ++y) {
446                 for (int x = 0; x <= R; ++x) {
447                         int i = y * (R + 1) + x;
448                         uniform_samples[i * 4 + 0] = x / float(width);
449                         uniform_samples[i * 4 + 1] = y / float(height);
450                         uniform_samples[i * 4 + 2] = g(y, x);
451                         uniform_samples[i * 4 + 3] = 0.0f;
452                 }
453         }
454 }
455
456 }  // namespace movit