]> git.sesse.net Git - ffmpeg/blob - libavfilter/af_afir.c
avfilter/af_afir: stop using as much threads as stream have it
[ffmpeg] / libavfilter / af_afir.c
1 /*
2  * Copyright (c) 2017 Paul B Mahol
3  *
4  * This file is part of FFmpeg.
5  *
6  * FFmpeg is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * FFmpeg is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with FFmpeg; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 /**
22  * @file
23  * An arbitrary audio FIR filter
24  */
25
26 #include <float.h>
27
28 #include "libavutil/common.h"
29 #include "libavutil/float_dsp.h"
30 #include "libavutil/intreadwrite.h"
31 #include "libavutil/opt.h"
32 #include "libavutil/xga_font_data.h"
33 #include "libavcodec/avfft.h"
34
35 #include "audio.h"
36 #include "avfilter.h"
37 #include "filters.h"
38 #include "formats.h"
39 #include "internal.h"
40 #include "af_afir.h"
41
42 static void fcmul_add_c(float *sum, const float *t, const float *c, ptrdiff_t len)
43 {
44     int n;
45
46     for (n = 0; n < len; n++) {
47         const float cre = c[2 * n    ];
48         const float cim = c[2 * n + 1];
49         const float tre = t[2 * n    ];
50         const float tim = t[2 * n + 1];
51
52         sum[2 * n    ] += tre * cre - tim * cim;
53         sum[2 * n + 1] += tre * cim + tim * cre;
54     }
55
56     sum[2 * n] += t[2 * n] * c[2 * n];
57 }
58
59 static int fir_channel(AVFilterContext *ctx, void *arg, int ch)
60 {
61     AudioFIRContext *s = ctx->priv;
62     const float *in = (const float *)s->in[0]->extended_data[ch];
63     AVFrame *out = arg;
64     float *block, *buf, *ptr = (float *)out->extended_data[ch];
65     int n, i, j;
66
67     for (int segment = 0; segment < s->nb_segments; segment++) {
68         AudioFIRSegment *seg = &s->seg[segment];
69         float *src = (float *)seg->input->extended_data[ch];
70         float *dst = (float *)seg->output->extended_data[ch];
71         float *sum = (float *)seg->sum->extended_data[ch];
72
73         s->fdsp->vector_fmul_scalar(src + seg->input_offset, in, s->dry_gain, FFALIGN(out->nb_samples, 4));
74         emms_c();
75
76         seg->output_offset[ch] += s->min_part_size;
77         if (seg->output_offset[ch] == seg->part_size) {
78             seg->output_offset[ch] = 0;
79         } else {
80             memmove(src, src + s->min_part_size, (seg->input_size - s->min_part_size) * sizeof(*src));
81
82             dst += seg->output_offset[ch];
83             for (n = 0; n < out->nb_samples; n++) {
84                 ptr[n] += dst[n];
85             }
86             continue;
87         }
88
89         memset(sum, 0, sizeof(*sum) * seg->fft_length);
90         block = (float *)seg->block->extended_data[ch] + seg->part_index[ch] * seg->block_size;
91         memset(block + seg->part_size, 0, sizeof(*block) * (seg->fft_length - seg->part_size));
92
93         memcpy(block, src, sizeof(*src) * seg->part_size);
94
95         av_rdft_calc(seg->rdft[ch], block);
96         block[2 * seg->part_size] = block[1];
97         block[1] = 0;
98
99         j = seg->part_index[ch];
100
101         for (i = 0; i < seg->nb_partitions; i++) {
102             const int coffset = j * seg->coeff_size;
103             const float *block = (const float *)seg->block->extended_data[ch] + i * seg->block_size;
104             const FFTComplex *coeff = (const FFTComplex *)seg->coeff->extended_data[ch * !s->one2many] + coffset;
105
106             s->fcmul_add(sum, block, (const float *)coeff, seg->part_size);
107
108             if (j == 0)
109                 j = seg->nb_partitions;
110             j--;
111         }
112
113         sum[1] = sum[2 * seg->part_size];
114         av_rdft_calc(seg->irdft[ch], sum);
115
116         buf = (float *)seg->buffer->extended_data[ch];
117         for (n = 0; n < seg->part_size; n++) {
118             buf[n] += sum[n];
119         }
120
121         memcpy(dst, buf, seg->part_size * sizeof(*dst));
122
123         buf = (float *)seg->buffer->extended_data[ch];
124         memcpy(buf, sum + seg->part_size, seg->part_size * sizeof(*buf));
125
126         seg->part_index[ch] = (seg->part_index[ch] + 1) % seg->nb_partitions;
127
128         memmove(src, src + s->min_part_size, (seg->input_size - s->min_part_size) * sizeof(*src));
129
130         for (n = 0; n < out->nb_samples; n++) {
131             ptr[n] += dst[n];
132         }
133     }
134
135     s->fdsp->vector_fmul_scalar(ptr, ptr, s->wet_gain, FFALIGN(out->nb_samples, 4));
136     emms_c();
137
138     return 0;
139 }
140
141 static int fir_channels(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs)
142 {
143     AVFrame *out = arg;
144     const int start = (out->channels * jobnr) / nb_jobs;
145     const int end = (out->channels * (jobnr+1)) / nb_jobs;
146
147     for (int ch = start; ch < end; ch++) {
148         fir_channel(ctx, out, ch);
149     }
150
151     return 0;
152 }
153
154 static int fir_frame(AudioFIRContext *s, AVFrame *in, AVFilterLink *outlink)
155 {
156     AVFilterContext *ctx = outlink->src;
157     AVFrame *out = NULL;
158
159     out = ff_get_audio_buffer(outlink, in->nb_samples);
160     if (!out) {
161         av_frame_free(&in);
162         return AVERROR(ENOMEM);
163     }
164
165     if (s->pts == AV_NOPTS_VALUE)
166         s->pts = in->pts;
167     s->in[0] = in;
168     ctx->internal->execute(ctx, fir_channels, out, NULL, FFMIN(outlink->channels,
169                                                                ff_filter_get_nb_threads(ctx)));
170
171     out->pts = s->pts;
172     if (s->pts != AV_NOPTS_VALUE)
173         s->pts += av_rescale_q(out->nb_samples, (AVRational){1, outlink->sample_rate}, outlink->time_base);
174
175     av_frame_free(&in);
176     s->in[0] = NULL;
177
178     return ff_filter_frame(outlink, out);
179 }
180
181 static void drawtext(AVFrame *pic, int x, int y, const char *txt, uint32_t color)
182 {
183     const uint8_t *font;
184     int font_height;
185     int i;
186
187     font = avpriv_cga_font, font_height = 8;
188
189     for (i = 0; txt[i]; i++) {
190         int char_y, mask;
191
192         uint8_t *p = pic->data[0] + y * pic->linesize[0] + (x + i * 8) * 4;
193         for (char_y = 0; char_y < font_height; char_y++) {
194             for (mask = 0x80; mask; mask >>= 1) {
195                 if (font[txt[i] * font_height + char_y] & mask)
196                     AV_WL32(p, color);
197                 p += 4;
198             }
199             p += pic->linesize[0] - 8 * 4;
200         }
201     }
202 }
203
204 static void draw_line(AVFrame *out, int x0, int y0, int x1, int y1, uint32_t color)
205 {
206     int dx = FFABS(x1-x0);
207     int dy = FFABS(y1-y0), sy = y0 < y1 ? 1 : -1;
208     int err = (dx>dy ? dx : -dy) / 2, e2;
209
210     for (;;) {
211         AV_WL32(out->data[0] + y0 * out->linesize[0] + x0 * 4, color);
212
213         if (x0 == x1 && y0 == y1)
214             break;
215
216         e2 = err;
217
218         if (e2 >-dx) {
219             err -= dy;
220             x0--;
221         }
222
223         if (e2 < dy) {
224             err += dx;
225             y0 += sy;
226         }
227     }
228 }
229
230 static void draw_response(AVFilterContext *ctx, AVFrame *out)
231 {
232     AudioFIRContext *s = ctx->priv;
233     float *mag, *phase, *delay, min = FLT_MAX, max = FLT_MIN;
234     float min_delay = FLT_MAX, max_delay = FLT_MIN;
235     int prev_ymag = -1, prev_yphase = -1, prev_ydelay = -1;
236     char text[32];
237     int channel, i, x;
238
239     memset(out->data[0], 0, s->h * out->linesize[0]);
240
241     phase = av_malloc_array(s->w, sizeof(*phase));
242     mag = av_malloc_array(s->w, sizeof(*mag));
243     delay = av_malloc_array(s->w, sizeof(*delay));
244     if (!mag || !phase || !delay)
245         goto end;
246
247     channel = av_clip(s->ir_channel, 0, s->in[1]->channels - 1);
248     for (i = 0; i < s->w; i++) {
249         const float *src = (const float *)s->in[1]->extended_data[channel];
250         double w = i * M_PI / (s->w - 1);
251         double div, real_num = 0., imag_num = 0., real = 0., imag = 0.;
252
253         for (x = 0; x < s->nb_taps; x++) {
254             real += cos(-x * w) * src[x];
255             imag += sin(-x * w) * src[x];
256             real_num += cos(-x * w) * src[x] * x;
257             imag_num += sin(-x * w) * src[x] * x;
258         }
259
260         mag[i] = hypot(real, imag);
261         phase[i] = atan2(imag, real);
262         div = real * real + imag * imag;
263         delay[i] = (real_num * real + imag_num * imag) / div;
264         min = fminf(min, mag[i]);
265         max = fmaxf(max, mag[i]);
266         min_delay = fminf(min_delay, delay[i]);
267         max_delay = fmaxf(max_delay, delay[i]);
268     }
269
270     for (i = 0; i < s->w; i++) {
271         int ymag = mag[i] / max * (s->h - 1);
272         int ydelay = (delay[i] - min_delay) / (max_delay - min_delay) * (s->h - 1);
273         int yphase = (0.5 * (1. + phase[i] / M_PI)) * (s->h - 1);
274
275         ymag = s->h - 1 - av_clip(ymag, 0, s->h - 1);
276         yphase = s->h - 1 - av_clip(yphase, 0, s->h - 1);
277         ydelay = s->h - 1 - av_clip(ydelay, 0, s->h - 1);
278
279         if (prev_ymag < 0)
280             prev_ymag = ymag;
281         if (prev_yphase < 0)
282             prev_yphase = yphase;
283         if (prev_ydelay < 0)
284             prev_ydelay = ydelay;
285
286         draw_line(out, i,   ymag, FFMAX(i - 1, 0),   prev_ymag, 0xFFFF00FF);
287         draw_line(out, i, yphase, FFMAX(i - 1, 0), prev_yphase, 0xFF00FF00);
288         draw_line(out, i, ydelay, FFMAX(i - 1, 0), prev_ydelay, 0xFF00FFFF);
289
290         prev_ymag   = ymag;
291         prev_yphase = yphase;
292         prev_ydelay = ydelay;
293     }
294
295     if (s->w > 400 && s->h > 100) {
296         drawtext(out, 2, 2, "Max Magnitude:", 0xDDDDDDDD);
297         snprintf(text, sizeof(text), "%.2f", max);
298         drawtext(out, 15 * 8 + 2, 2, text, 0xDDDDDDDD);
299
300         drawtext(out, 2, 12, "Min Magnitude:", 0xDDDDDDDD);
301         snprintf(text, sizeof(text), "%.2f", min);
302         drawtext(out, 15 * 8 + 2, 12, text, 0xDDDDDDDD);
303
304         drawtext(out, 2, 22, "Max Delay:", 0xDDDDDDDD);
305         snprintf(text, sizeof(text), "%.2f", max_delay);
306         drawtext(out, 11 * 8 + 2, 22, text, 0xDDDDDDDD);
307
308         drawtext(out, 2, 32, "Min Delay:", 0xDDDDDDDD);
309         snprintf(text, sizeof(text), "%.2f", min_delay);
310         drawtext(out, 11 * 8 + 2, 32, text, 0xDDDDDDDD);
311     }
312
313 end:
314     av_free(delay);
315     av_free(phase);
316     av_free(mag);
317 }
318
319 static int init_segment(AVFilterContext *ctx, AudioFIRSegment *seg,
320                         int offset, int nb_partitions, int part_size)
321 {
322     AudioFIRContext *s = ctx->priv;
323
324     seg->rdft  = av_calloc(ctx->inputs[0]->channels, sizeof(*seg->rdft));
325     seg->irdft = av_calloc(ctx->inputs[0]->channels, sizeof(*seg->irdft));
326     if (!seg->rdft || !seg->irdft)
327         return AVERROR(ENOMEM);
328
329     seg->fft_length    = part_size * 4 + 1;
330     seg->part_size     = part_size;
331     seg->block_size    = FFALIGN(seg->fft_length, 32);
332     seg->coeff_size    = FFALIGN(seg->part_size + 1, 32);
333     seg->nb_partitions = nb_partitions;
334     seg->input_size    = offset + s->min_part_size;
335     seg->input_offset  = offset;
336
337     seg->part_index    = av_calloc(ctx->inputs[0]->channels, sizeof(*seg->part_index));
338     seg->output_offset = av_calloc(ctx->inputs[0]->channels, sizeof(*seg->output_offset));
339     if (!seg->part_index || !seg->output_offset)
340         return AVERROR(ENOMEM);
341
342     for (int ch = 0; ch < ctx->inputs[0]->channels; ch++) {
343         seg->rdft[ch]  = av_rdft_init(av_log2(2 * part_size), DFT_R2C);
344         seg->irdft[ch] = av_rdft_init(av_log2(2 * part_size), IDFT_C2R);
345         if (!seg->rdft[ch] || !seg->irdft[ch])
346             return AVERROR(ENOMEM);
347     }
348
349     seg->sum    = ff_get_audio_buffer(ctx->inputs[0], seg->fft_length);
350     seg->block  = ff_get_audio_buffer(ctx->inputs[0], seg->nb_partitions * seg->block_size);
351     seg->buffer = ff_get_audio_buffer(ctx->inputs[0], seg->part_size);
352     seg->coeff  = ff_get_audio_buffer(ctx->inputs[1], seg->nb_partitions * seg->coeff_size * 2);
353     seg->input  = ff_get_audio_buffer(ctx->inputs[0], seg->input_size);
354     seg->output = ff_get_audio_buffer(ctx->inputs[0], seg->part_size);
355     if (!seg->buffer || !seg->sum || !seg->block || !seg->coeff || !seg->input || !seg->output)
356         return AVERROR(ENOMEM);
357
358     return 0;
359 }
360
361 static int convert_coeffs(AVFilterContext *ctx)
362 {
363     AudioFIRContext *s = ctx->priv;
364     int left, offset = 0, part_size, max_part_size;
365     int ret, i, ch, n;
366     float power = 0;
367
368     s->nb_taps = ff_inlink_queued_samples(ctx->inputs[1]);
369     if (s->nb_taps <= 0)
370         return AVERROR(EINVAL);
371
372     if (s->minp > s->maxp) {
373         s->maxp = s->minp;
374     }
375
376     left = s->nb_taps;
377     part_size = 1 << av_log2(s->minp);
378     max_part_size = 1 << av_log2(s->maxp);
379
380     s->min_part_size = part_size;
381
382     for (i = 0; left > 0; i++) {
383         int step = part_size == max_part_size ? INT_MAX : 1 + (i == 0);
384         int nb_partitions = FFMIN(step, (left + part_size - 1) / part_size);
385
386         s->nb_segments = i + 1;
387         ret = init_segment(ctx, &s->seg[i], offset, nb_partitions, part_size);
388         if (ret < 0)
389             return ret;
390         offset += nb_partitions * part_size;
391         left -= nb_partitions * part_size;
392         part_size *= 2;
393         part_size = FFMIN(part_size, max_part_size);
394     }
395
396     ret = ff_inlink_consume_samples(ctx->inputs[1], s->nb_taps, s->nb_taps, &s->in[1]);
397     if (ret < 0)
398         return ret;
399     if (ret == 0)
400         return AVERROR_BUG;
401
402     if (s->response)
403         draw_response(ctx, s->video);
404
405     s->gain = 1;
406
407     switch (s->gtype) {
408     case -1:
409         /* nothing to do */
410         break;
411     case 0:
412         for (ch = 0; ch < ctx->inputs[1]->channels; ch++) {
413             float *time = (float *)s->in[1]->extended_data[!s->one2many * ch];
414
415             for (i = 0; i < s->nb_taps; i++)
416                 power += FFABS(time[i]);
417         }
418         s->gain = ctx->inputs[1]->channels / power;
419         break;
420     case 1:
421         for (ch = 0; ch < ctx->inputs[1]->channels; ch++) {
422             float *time = (float *)s->in[1]->extended_data[!s->one2many * ch];
423
424             for (i = 0; i < s->nb_taps; i++)
425                 power += time[i];
426         }
427         s->gain = ctx->inputs[1]->channels / power;
428         break;
429     case 2:
430         for (ch = 0; ch < ctx->inputs[1]->channels; ch++) {
431             float *time = (float *)s->in[1]->extended_data[!s->one2many * ch];
432
433             for (i = 0; i < s->nb_taps; i++)
434                 power += time[i] * time[i];
435         }
436         s->gain = sqrtf(ch / power);
437         break;
438     default:
439         return AVERROR_BUG;
440     }
441
442     s->gain = FFMIN(s->gain * s->ir_gain, 1.f);
443     av_log(ctx, AV_LOG_DEBUG, "power %f, gain %f\n", power, s->gain);
444     for (ch = 0; ch < ctx->inputs[1]->channels; ch++) {
445         float *time = (float *)s->in[1]->extended_data[!s->one2many * ch];
446
447         s->fdsp->vector_fmul_scalar(time, time, s->gain, FFALIGN(s->nb_taps, 4));
448     }
449
450     av_log(ctx, AV_LOG_DEBUG, "nb_taps: %d\n", s->nb_taps);
451     av_log(ctx, AV_LOG_DEBUG, "nb_segments: %d\n", s->nb_segments);
452
453     for (ch = 0; ch < ctx->inputs[1]->channels; ch++) {
454         float *time = (float *)s->in[1]->extended_data[!s->one2many * ch];
455         int toffset = 0;
456
457         for (i = FFMAX(1, s->length * s->nb_taps); i < s->nb_taps; i++)
458             time[i] = 0;
459
460         av_log(ctx, AV_LOG_DEBUG, "channel: %d\n", ch);
461
462         for (int segment = 0; segment < s->nb_segments; segment++) {
463             AudioFIRSegment *seg = &s->seg[segment];
464             float *block = (float *)seg->block->extended_data[ch];
465             FFTComplex *coeff = (FFTComplex *)seg->coeff->extended_data[ch];
466
467             av_log(ctx, AV_LOG_DEBUG, "segment: %d\n", segment);
468
469             for (i = 0; i < seg->nb_partitions; i++) {
470                 const float scale = 1.f / seg->part_size;
471                 const int coffset = i * seg->coeff_size;
472                 const int remaining = s->nb_taps - toffset;
473                 const int size = remaining >= seg->part_size ? seg->part_size : remaining;
474
475                 memset(block, 0, sizeof(*block) * seg->fft_length);
476                 memcpy(block, time + toffset, size * sizeof(*block));
477
478                 av_rdft_calc(seg->rdft[0], block);
479
480                 coeff[coffset].re = block[0] * scale;
481                 coeff[coffset].im = 0;
482                 for (n = 1; n < seg->part_size; n++) {
483                     coeff[coffset + n].re = block[2 * n] * scale;
484                     coeff[coffset + n].im = block[2 * n + 1] * scale;
485                 }
486                 coeff[coffset + seg->part_size].re = block[1] * scale;
487                 coeff[coffset + seg->part_size].im = 0;
488
489                 toffset += size;
490             }
491
492             av_log(ctx, AV_LOG_DEBUG, "nb_partitions: %d\n", seg->nb_partitions);
493             av_log(ctx, AV_LOG_DEBUG, "partition size: %d\n", seg->part_size);
494             av_log(ctx, AV_LOG_DEBUG, "block size: %d\n", seg->block_size);
495             av_log(ctx, AV_LOG_DEBUG, "fft_length: %d\n", seg->fft_length);
496             av_log(ctx, AV_LOG_DEBUG, "coeff_size: %d\n", seg->coeff_size);
497             av_log(ctx, AV_LOG_DEBUG, "input_size: %d\n", seg->input_size);
498             av_log(ctx, AV_LOG_DEBUG, "input_offset: %d\n", seg->input_offset);
499         }
500     }
501
502     av_frame_free(&s->in[1]);
503     s->have_coeffs = 1;
504
505     return 0;
506 }
507
508 static int check_ir(AVFilterLink *link, AVFrame *frame)
509 {
510     AVFilterContext *ctx = link->dst;
511     AudioFIRContext *s = ctx->priv;
512     int nb_taps, max_nb_taps;
513
514     nb_taps = ff_inlink_queued_samples(link);
515     max_nb_taps = s->max_ir_len * ctx->outputs[0]->sample_rate;
516     if (nb_taps > max_nb_taps) {
517         av_log(ctx, AV_LOG_ERROR, "Too big number of coefficients: %d > %d.\n", nb_taps, max_nb_taps);
518         return AVERROR(EINVAL);
519     }
520
521     return 0;
522 }
523
524 static int activate(AVFilterContext *ctx)
525 {
526     AudioFIRContext *s = ctx->priv;
527     AVFilterLink *outlink = ctx->outputs[0];
528     AVFrame *in = NULL;
529     int ret, status;
530     int64_t pts;
531
532     FF_FILTER_FORWARD_STATUS_BACK_ALL(ctx->outputs[0], ctx);
533     if (s->response)
534         FF_FILTER_FORWARD_STATUS_BACK_ALL(ctx->outputs[1], ctx);
535     if (!s->eof_coeffs) {
536         AVFrame *ir = NULL;
537
538         ret = check_ir(ctx->inputs[1], ir);
539         if (ret < 0)
540             return ret;
541
542         if (ff_outlink_get_status(ctx->inputs[1]) == AVERROR_EOF)
543             s->eof_coeffs = 1;
544
545         if (!s->eof_coeffs) {
546             if (ff_outlink_frame_wanted(ctx->outputs[0]))
547                 ff_inlink_request_frame(ctx->inputs[1]);
548             else if (s->response && ff_outlink_frame_wanted(ctx->outputs[1]))
549                 ff_inlink_request_frame(ctx->inputs[1]);
550             return 0;
551         }
552     }
553
554     if (!s->have_coeffs && s->eof_coeffs) {
555         ret = convert_coeffs(ctx);
556         if (ret < 0)
557             return ret;
558     }
559
560     ret = ff_inlink_consume_samples(ctx->inputs[0], s->min_part_size, s->min_part_size, &in);
561     if (ret > 0)
562         ret = fir_frame(s, in, outlink);
563
564     if (ret < 0)
565         return ret;
566
567     if (s->response && s->have_coeffs) {
568         int64_t old_pts = s->video->pts;
569         int64_t new_pts = av_rescale_q(s->pts, ctx->inputs[0]->time_base, ctx->outputs[1]->time_base);
570
571         if (ff_outlink_frame_wanted(ctx->outputs[1]) && old_pts < new_pts) {
572             s->video->pts = new_pts;
573             return ff_filter_frame(ctx->outputs[1], av_frame_clone(s->video));
574         }
575     }
576
577     if (ff_inlink_queued_samples(ctx->inputs[0]) >= s->min_part_size) {
578         ff_filter_set_ready(ctx, 10);
579         return 0;
580     }
581
582     if (ff_inlink_acknowledge_status(ctx->inputs[0], &status, &pts)) {
583         if (status == AVERROR_EOF) {
584             ff_outlink_set_status(ctx->outputs[0], status, pts);
585             if (s->response)
586                 ff_outlink_set_status(ctx->outputs[1], status, pts);
587             return 0;
588         }
589     }
590
591     if (ff_outlink_frame_wanted(ctx->outputs[0]) &&
592         !ff_outlink_get_status(ctx->inputs[0])) {
593         ff_inlink_request_frame(ctx->inputs[0]);
594         return 0;
595     }
596
597     if (s->response &&
598         ff_outlink_frame_wanted(ctx->outputs[1]) &&
599         !ff_outlink_get_status(ctx->inputs[0])) {
600         ff_inlink_request_frame(ctx->inputs[0]);
601         return 0;
602     }
603
604     return FFERROR_NOT_READY;
605 }
606
607 static int query_formats(AVFilterContext *ctx)
608 {
609     AudioFIRContext *s = ctx->priv;
610     AVFilterFormats *formats;
611     AVFilterChannelLayouts *layouts;
612     static const enum AVSampleFormat sample_fmts[] = {
613         AV_SAMPLE_FMT_FLTP,
614         AV_SAMPLE_FMT_NONE
615     };
616     static const enum AVPixelFormat pix_fmts[] = {
617         AV_PIX_FMT_RGB0,
618         AV_PIX_FMT_NONE
619     };
620     int ret;
621
622     if (s->response) {
623         AVFilterLink *videolink = ctx->outputs[1];
624         formats = ff_make_format_list(pix_fmts);
625         if ((ret = ff_formats_ref(formats, &videolink->in_formats)) < 0)
626             return ret;
627     }
628
629     layouts = ff_all_channel_counts();
630     if (!layouts)
631         return AVERROR(ENOMEM);
632
633     if (s->ir_format) {
634         ret = ff_set_common_channel_layouts(ctx, layouts);
635         if (ret < 0)
636             return ret;
637     } else {
638         AVFilterChannelLayouts *mono = NULL;
639
640         ret = ff_add_channel_layout(&mono, AV_CH_LAYOUT_MONO);
641         if (ret)
642             return ret;
643
644         if ((ret = ff_channel_layouts_ref(layouts, &ctx->inputs[0]->out_channel_layouts)) < 0)
645             return ret;
646         if ((ret = ff_channel_layouts_ref(layouts, &ctx->outputs[0]->in_channel_layouts)) < 0)
647             return ret;
648         if ((ret = ff_channel_layouts_ref(mono, &ctx->inputs[1]->out_channel_layouts)) < 0)
649             return ret;
650     }
651
652     formats = ff_make_format_list(sample_fmts);
653     if ((ret = ff_set_common_formats(ctx, formats)) < 0)
654         return ret;
655
656     formats = ff_all_samplerates();
657     return ff_set_common_samplerates(ctx, formats);
658 }
659
660 static int config_output(AVFilterLink *outlink)
661 {
662     AVFilterContext *ctx = outlink->src;
663     AudioFIRContext *s = ctx->priv;
664
665     s->one2many = ctx->inputs[1]->channels == 1;
666     outlink->sample_rate = ctx->inputs[0]->sample_rate;
667     outlink->time_base   = ctx->inputs[0]->time_base;
668     outlink->channel_layout = ctx->inputs[0]->channel_layout;
669     outlink->channels = ctx->inputs[0]->channels;
670
671     s->nb_channels = outlink->channels;
672     s->nb_coef_channels = ctx->inputs[1]->channels;
673     s->pts = AV_NOPTS_VALUE;
674
675     return 0;
676 }
677
678 static void uninit_segment(AVFilterContext *ctx, AudioFIRSegment *seg)
679 {
680     AudioFIRContext *s = ctx->priv;
681
682     if (seg->rdft) {
683         for (int ch = 0; ch < s->nb_channels; ch++) {
684             av_rdft_end(seg->rdft[ch]);
685         }
686     }
687     av_freep(&seg->rdft);
688
689     if (seg->irdft) {
690         for (int ch = 0; ch < s->nb_channels; ch++) {
691             av_rdft_end(seg->irdft[ch]);
692         }
693     }
694     av_freep(&seg->irdft);
695
696     av_freep(&seg->output_offset);
697     av_freep(&seg->part_index);
698
699     av_frame_free(&seg->block);
700     av_frame_free(&seg->sum);
701     av_frame_free(&seg->buffer);
702     av_frame_free(&seg->coeff);
703     av_frame_free(&seg->input);
704     av_frame_free(&seg->output);
705     seg->input_size = 0;
706 }
707
708 static av_cold void uninit(AVFilterContext *ctx)
709 {
710     AudioFIRContext *s = ctx->priv;
711
712     for (int i = 0; i < s->nb_segments; i++) {
713         uninit_segment(ctx, &s->seg[i]);
714     }
715
716     av_freep(&s->fdsp);
717     av_frame_free(&s->in[1]);
718
719     for (int i = 0; i < ctx->nb_outputs; i++)
720         av_freep(&ctx->output_pads[i].name);
721     av_frame_free(&s->video);
722 }
723
724 static int config_video(AVFilterLink *outlink)
725 {
726     AVFilterContext *ctx = outlink->src;
727     AudioFIRContext *s = ctx->priv;
728
729     outlink->sample_aspect_ratio = (AVRational){1,1};
730     outlink->w = s->w;
731     outlink->h = s->h;
732     outlink->frame_rate = s->frame_rate;
733     outlink->time_base = av_inv_q(outlink->frame_rate);
734
735     av_frame_free(&s->video);
736     s->video = ff_get_video_buffer(outlink, outlink->w, outlink->h);
737     if (!s->video)
738         return AVERROR(ENOMEM);
739
740     return 0;
741 }
742
743 static av_cold int init(AVFilterContext *ctx)
744 {
745     AudioFIRContext *s = ctx->priv;
746     AVFilterPad pad, vpad;
747     int ret;
748
749     pad = (AVFilterPad){
750         .name          = av_strdup("default"),
751         .type          = AVMEDIA_TYPE_AUDIO,
752         .config_props  = config_output,
753     };
754
755     if (!pad.name)
756         return AVERROR(ENOMEM);
757
758     if (s->response) {
759         vpad = (AVFilterPad){
760             .name         = av_strdup("filter_response"),
761             .type         = AVMEDIA_TYPE_VIDEO,
762             .config_props = config_video,
763         };
764         if (!vpad.name)
765             return AVERROR(ENOMEM);
766     }
767
768     ret = ff_insert_outpad(ctx, 0, &pad);
769     if (ret < 0) {
770         av_freep(&pad.name);
771         return ret;
772     }
773
774     if (s->response) {
775         ret = ff_insert_outpad(ctx, 1, &vpad);
776         if (ret < 0) {
777             av_freep(&vpad.name);
778             return ret;
779         }
780     }
781
782     s->fcmul_add = fcmul_add_c;
783
784     s->fdsp = avpriv_float_dsp_alloc(0);
785     if (!s->fdsp)
786         return AVERROR(ENOMEM);
787
788     if (ARCH_X86)
789         ff_afir_init_x86(s);
790
791     return 0;
792 }
793
794 static const AVFilterPad afir_inputs[] = {
795     {
796         .name = "main",
797         .type = AVMEDIA_TYPE_AUDIO,
798     },{
799         .name = "ir",
800         .type = AVMEDIA_TYPE_AUDIO,
801     },
802     { NULL }
803 };
804
805 #define AF AV_OPT_FLAG_AUDIO_PARAM|AV_OPT_FLAG_FILTERING_PARAM
806 #define VF AV_OPT_FLAG_VIDEO_PARAM|AV_OPT_FLAG_FILTERING_PARAM
807 #define OFFSET(x) offsetof(AudioFIRContext, x)
808
809 static const AVOption afir_options[] = {
810     { "dry",    "set dry gain",      OFFSET(dry_gain),   AV_OPT_TYPE_FLOAT, {.dbl=1},    0, 10, AF },
811     { "wet",    "set wet gain",      OFFSET(wet_gain),   AV_OPT_TYPE_FLOAT, {.dbl=1},    0, 10, AF },
812     { "length", "set IR length",     OFFSET(length),     AV_OPT_TYPE_FLOAT, {.dbl=1},    0,  1, AF },
813     { "gtype",  "set IR auto gain type",OFFSET(gtype),   AV_OPT_TYPE_INT,   {.i64=0},   -1,  2, AF, "gtype" },
814     {  "none",  "without auto gain", 0,                  AV_OPT_TYPE_CONST, {.i64=-1},   0,  0, AF, "gtype" },
815     {  "peak",  "peak gain",         0,                  AV_OPT_TYPE_CONST, {.i64=0},    0,  0, AF, "gtype" },
816     {  "dc",    "DC gain",           0,                  AV_OPT_TYPE_CONST, {.i64=1},    0,  0, AF, "gtype" },
817     {  "gn",    "gain to noise",     0,                  AV_OPT_TYPE_CONST, {.i64=2},    0,  0, AF, "gtype" },
818     { "irgain", "set IR gain",       OFFSET(ir_gain),    AV_OPT_TYPE_FLOAT, {.dbl=1},    0,  1, AF },
819     { "irfmt",  "set IR format",     OFFSET(ir_format),  AV_OPT_TYPE_INT,   {.i64=1},    0,  1, AF, "irfmt" },
820     {  "mono",  "single channel",    0,                  AV_OPT_TYPE_CONST, {.i64=0},    0,  0, AF, "irfmt" },
821     {  "input", "same as input",     0,                  AV_OPT_TYPE_CONST, {.i64=1},    0,  0, AF, "irfmt" },
822     { "maxir",  "set max IR length", OFFSET(max_ir_len), AV_OPT_TYPE_FLOAT, {.dbl=30}, 0.1, 60, AF },
823     { "response", "show IR frequency response", OFFSET(response), AV_OPT_TYPE_BOOL, {.i64=0}, 0, 1, VF },
824     { "channel", "set IR channel to display frequency response", OFFSET(ir_channel), AV_OPT_TYPE_INT, {.i64=0}, 0, 1024, VF },
825     { "size",   "set video size",    OFFSET(w),          AV_OPT_TYPE_IMAGE_SIZE, {.str = "hd720"}, 0, 0, VF },
826     { "rate",   "set video rate",    OFFSET(frame_rate), AV_OPT_TYPE_VIDEO_RATE, {.str = "25"}, 0, INT32_MAX, VF },
827     { "minp",   "set min partition size", OFFSET(minp),  AV_OPT_TYPE_INT,   {.i64=8192},  16, 32768, AF },
828     { "maxp",   "set max partition size", OFFSET(maxp),  AV_OPT_TYPE_INT,   {.i64=8192},  16, 32768, AF },
829     { NULL }
830 };
831
832 AVFILTER_DEFINE_CLASS(afir);
833
834 AVFilter ff_af_afir = {
835     .name          = "afir",
836     .description   = NULL_IF_CONFIG_SMALL("Apply Finite Impulse Response filter with supplied coefficients in 2nd stream."),
837     .priv_size     = sizeof(AudioFIRContext),
838     .priv_class    = &afir_class,
839     .query_formats = query_formats,
840     .init          = init,
841     .activate      = activate,
842     .uninit        = uninit,
843     .inputs        = afir_inputs,
844     .flags         = AVFILTER_FLAG_DYNAMIC_OUTPUTS |
845                      AVFILTER_FLAG_SLICE_THREADS,
846 };