]> git.sesse.net Git - ffmpeg/blob - libavcodec/wmaprodec.c
vp3: Use hpeldsp instead of dsputil for half-pel functions
[ffmpeg] / libavcodec / wmaprodec.c
1 /*
2  * Wmapro compatible decoder
3  * Copyright (c) 2007 Baptiste Coudurier, Benjamin Larsson, Ulion
4  * Copyright (c) 2008 - 2011 Sascha Sommer, Benjamin Larsson
5  *
6  * This file is part of Libav.
7  *
8  * Libav is free software; you can redistribute it and/or
9  * modify it under the terms of the GNU Lesser General Public
10  * License as published by the Free Software Foundation; either
11  * version 2.1 of the License, or (at your option) any later version.
12  *
13  * Libav is distributed in the hope that it will be useful,
14  * but WITHOUT ANY WARRANTY; without even the implied warranty of
15  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
16  * Lesser General Public License for more details.
17  *
18  * You should have received a copy of the GNU Lesser General Public
19  * License along with Libav; if not, write to the Free Software
20  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
21  */
22
23 /**
24  * @file
25  * @brief wmapro decoder implementation
26  * Wmapro is an MDCT based codec comparable to wma standard or AAC.
27  * The decoding therefore consists of the following steps:
28  * - bitstream decoding
29  * - reconstruction of per-channel data
30  * - rescaling and inverse quantization
31  * - IMDCT
32  * - windowing and overlapp-add
33  *
34  * The compressed wmapro bitstream is split into individual packets.
35  * Every such packet contains one or more wma frames.
36  * The compressed frames may have a variable length and frames may
37  * cross packet boundaries.
38  * Common to all wmapro frames is the number of samples that are stored in
39  * a frame.
40  * The number of samples and a few other decode flags are stored
41  * as extradata that has to be passed to the decoder.
42  *
43  * The wmapro frames themselves are again split into a variable number of
44  * subframes. Every subframe contains the data for 2^N time domain samples
45  * where N varies between 7 and 12.
46  *
47  * Example wmapro bitstream (in samples):
48  *
49  * ||   packet 0           || packet 1 || packet 2      packets
50  * ---------------------------------------------------
51  * || frame 0      || frame 1       || frame 2    ||    frames
52  * ---------------------------------------------------
53  * ||   |      |   ||   |   |   |   ||            ||    subframes of channel 0
54  * ---------------------------------------------------
55  * ||      |   |   ||   |   |   |   ||            ||    subframes of channel 1
56  * ---------------------------------------------------
57  *
58  * The frame layouts for the individual channels of a wma frame does not need
59  * to be the same.
60  *
61  * However, if the offsets and lengths of several subframes of a frame are the
62  * same, the subframes of the channels can be grouped.
63  * Every group may then use special coding techniques like M/S stereo coding
64  * to improve the compression ratio. These channel transformations do not
65  * need to be applied to a whole subframe. Instead, they can also work on
66  * individual scale factor bands (see below).
67  * The coefficients that carry the audio signal in the frequency domain
68  * are transmitted as huffman-coded vectors with 4, 2 and 1 elements.
69  * In addition to that, the encoder can switch to a runlevel coding scheme
70  * by transmitting subframe_length / 128 zero coefficients.
71  *
72  * Before the audio signal can be converted to the time domain, the
73  * coefficients have to be rescaled and inverse quantized.
74  * A subframe is therefore split into several scale factor bands that get
75  * scaled individually.
76  * Scale factors are submitted for every frame but they might be shared
77  * between the subframes of a channel. Scale factors are initially DPCM-coded.
78  * Once scale factors are shared, the differences are transmitted as runlevel
79  * codes.
80  * Every subframe length and offset combination in the frame layout shares a
81  * common quantization factor that can be adjusted for every channel by a
82  * modifier.
83  * After the inverse quantization, the coefficients get processed by an IMDCT.
84  * The resulting values are then windowed with a sine window and the first half
85  * of the values are added to the second half of the output from the previous
86  * subframe in order to reconstruct the output samples.
87  */
88
89 #include "libavutil/float_dsp.h"
90 #include "libavutil/intfloat.h"
91 #include "libavutil/intreadwrite.h"
92 #include "avcodec.h"
93 #include "internal.h"
94 #include "get_bits.h"
95 #include "put_bits.h"
96 #include "wmaprodata.h"
97 #include "sinewin.h"
98 #include "wma.h"
99 #include "wma_common.h"
100
101 /** current decoder limitations */
102 #define WMAPRO_MAX_CHANNELS    8                             ///< max number of handled channels
103 #define MAX_SUBFRAMES  32                                    ///< max number of subframes per channel
104 #define MAX_BANDS      29                                    ///< max number of scale factor bands
105 #define MAX_FRAMESIZE  32768                                 ///< maximum compressed frame size
106
107 #define WMAPRO_BLOCK_MIN_BITS  6                                           ///< log2 of min block size
108 #define WMAPRO_BLOCK_MAX_BITS 13                                           ///< log2 of max block size
109 #define WMAPRO_BLOCK_MAX_SIZE (1 << WMAPRO_BLOCK_MAX_BITS)                 ///< maximum block size
110 #define WMAPRO_BLOCK_SIZES    (WMAPRO_BLOCK_MAX_BITS - WMAPRO_BLOCK_MIN_BITS + 1) ///< possible block sizes
111
112
113 #define VLCBITS            9
114 #define SCALEVLCBITS       8
115 #define VEC4MAXDEPTH    ((HUFF_VEC4_MAXBITS+VLCBITS-1)/VLCBITS)
116 #define VEC2MAXDEPTH    ((HUFF_VEC2_MAXBITS+VLCBITS-1)/VLCBITS)
117 #define VEC1MAXDEPTH    ((HUFF_VEC1_MAXBITS+VLCBITS-1)/VLCBITS)
118 #define SCALEMAXDEPTH   ((HUFF_SCALE_MAXBITS+SCALEVLCBITS-1)/SCALEVLCBITS)
119 #define SCALERLMAXDEPTH ((HUFF_SCALE_RL_MAXBITS+VLCBITS-1)/VLCBITS)
120
121 static VLC              sf_vlc;           ///< scale factor DPCM vlc
122 static VLC              sf_rl_vlc;        ///< scale factor run length vlc
123 static VLC              vec4_vlc;         ///< 4 coefficients per symbol
124 static VLC              vec2_vlc;         ///< 2 coefficients per symbol
125 static VLC              vec1_vlc;         ///< 1 coefficient per symbol
126 static VLC              coef_vlc[2];      ///< coefficient run length vlc codes
127 static float            sin64[33];        ///< sinus table for decorrelation
128
129 /**
130  * @brief frame specific decoder context for a single channel
131  */
132 typedef struct {
133     int16_t  prev_block_len;                          ///< length of the previous block
134     uint8_t  transmit_coefs;
135     uint8_t  num_subframes;
136     uint16_t subframe_len[MAX_SUBFRAMES];             ///< subframe length in samples
137     uint16_t subframe_offset[MAX_SUBFRAMES];          ///< subframe positions in the current frame
138     uint8_t  cur_subframe;                            ///< current subframe number
139     uint16_t decoded_samples;                         ///< number of already processed samples
140     uint8_t  grouped;                                 ///< channel is part of a group
141     int      quant_step;                              ///< quantization step for the current subframe
142     int8_t   reuse_sf;                                ///< share scale factors between subframes
143     int8_t   scale_factor_step;                       ///< scaling step for the current subframe
144     int      max_scale_factor;                        ///< maximum scale factor for the current subframe
145     int      saved_scale_factors[2][MAX_BANDS];       ///< resampled and (previously) transmitted scale factor values
146     int8_t   scale_factor_idx;                        ///< index for the transmitted scale factor values (used for resampling)
147     int*     scale_factors;                           ///< pointer to the scale factor values used for decoding
148     uint8_t  table_idx;                               ///< index in sf_offsets for the scale factor reference block
149     float*   coeffs;                                  ///< pointer to the subframe decode buffer
150     uint16_t num_vec_coeffs;                          ///< number of vector coded coefficients
151     DECLARE_ALIGNED(32, float, out)[WMAPRO_BLOCK_MAX_SIZE + WMAPRO_BLOCK_MAX_SIZE / 2]; ///< output buffer
152 } WMAProChannelCtx;
153
154 /**
155  * @brief channel group for channel transformations
156  */
157 typedef struct {
158     uint8_t num_channels;                                     ///< number of channels in the group
159     int8_t  transform;                                        ///< transform on / off
160     int8_t  transform_band[MAX_BANDS];                        ///< controls if the transform is enabled for a certain band
161     float   decorrelation_matrix[WMAPRO_MAX_CHANNELS*WMAPRO_MAX_CHANNELS];
162     float*  channel_data[WMAPRO_MAX_CHANNELS];                ///< transformation coefficients
163 } WMAProChannelGrp;
164
165 /**
166  * @brief main decoder context
167  */
168 typedef struct WMAProDecodeCtx {
169     /* generic decoder variables */
170     AVCodecContext*  avctx;                         ///< codec context for av_log
171     AVFloatDSPContext fdsp;
172     uint8_t          frame_data[MAX_FRAMESIZE +
173                       FF_INPUT_BUFFER_PADDING_SIZE];///< compressed frame data
174     PutBitContext    pb;                            ///< context for filling the frame_data buffer
175     FFTContext       mdct_ctx[WMAPRO_BLOCK_SIZES];  ///< MDCT context per block size
176     DECLARE_ALIGNED(32, float, tmp)[WMAPRO_BLOCK_MAX_SIZE]; ///< IMDCT output buffer
177     float*           windows[WMAPRO_BLOCK_SIZES];   ///< windows for the different block sizes
178
179     /* frame size dependent frame information (set during initialization) */
180     uint32_t         decode_flags;                  ///< used compression features
181     uint8_t          len_prefix;                    ///< frame is prefixed with its length
182     uint8_t          dynamic_range_compression;     ///< frame contains DRC data
183     uint8_t          bits_per_sample;               ///< integer audio sample size for the unscaled IMDCT output (used to scale to [-1.0, 1.0])
184     uint16_t         samples_per_frame;             ///< number of samples to output
185     uint16_t         log2_frame_size;
186     int8_t           lfe_channel;                   ///< lfe channel index
187     uint8_t          max_num_subframes;
188     uint8_t          subframe_len_bits;             ///< number of bits used for the subframe length
189     uint8_t          max_subframe_len_bit;          ///< flag indicating that the subframe is of maximum size when the first subframe length bit is 1
190     uint16_t         min_samples_per_subframe;
191     int8_t           num_sfb[WMAPRO_BLOCK_SIZES];   ///< scale factor bands per block size
192     int16_t          sfb_offsets[WMAPRO_BLOCK_SIZES][MAX_BANDS];                    ///< scale factor band offsets (multiples of 4)
193     int8_t           sf_offsets[WMAPRO_BLOCK_SIZES][WMAPRO_BLOCK_SIZES][MAX_BANDS]; ///< scale factor resample matrix
194     int16_t          subwoofer_cutoffs[WMAPRO_BLOCK_SIZES]; ///< subwoofer cutoff values
195
196     /* packet decode state */
197     GetBitContext    pgb;                           ///< bitstream reader context for the packet
198     int              next_packet_start;             ///< start offset of the next wma packet in the demuxer packet
199     uint8_t          packet_offset;                 ///< frame offset in the packet
200     uint8_t          packet_sequence_number;        ///< current packet number
201     int              num_saved_bits;                ///< saved number of bits
202     int              frame_offset;                  ///< frame offset in the bit reservoir
203     int              subframe_offset;               ///< subframe offset in the bit reservoir
204     uint8_t          packet_loss;                   ///< set in case of bitstream error
205     uint8_t          packet_done;                   ///< set when a packet is fully decoded
206
207     /* frame decode state */
208     uint32_t         frame_num;                     ///< current frame number (not used for decoding)
209     GetBitContext    gb;                            ///< bitstream reader context
210     int              buf_bit_size;                  ///< buffer size in bits
211     uint8_t          drc_gain;                      ///< gain for the DRC tool
212     int8_t           skip_frame;                    ///< skip output step
213     int8_t           parsed_all_subframes;          ///< all subframes decoded?
214
215     /* subframe/block decode state */
216     int16_t          subframe_len;                  ///< current subframe length
217     int8_t           channels_for_cur_subframe;     ///< number of channels that contain the subframe
218     int8_t           channel_indexes_for_cur_subframe[WMAPRO_MAX_CHANNELS];
219     int8_t           num_bands;                     ///< number of scale factor bands
220     int8_t           transmit_num_vec_coeffs;       ///< number of vector coded coefficients is part of the bitstream
221     int16_t*         cur_sfb_offsets;               ///< sfb offsets for the current block
222     uint8_t          table_idx;                     ///< index for the num_sfb, sfb_offsets, sf_offsets and subwoofer_cutoffs tables
223     int8_t           esc_len;                       ///< length of escaped coefficients
224
225     uint8_t          num_chgroups;                  ///< number of channel groups
226     WMAProChannelGrp chgroup[WMAPRO_MAX_CHANNELS];  ///< channel group information
227
228     WMAProChannelCtx channel[WMAPRO_MAX_CHANNELS];  ///< per channel data
229 } WMAProDecodeCtx;
230
231
232 /**
233  *@brief helper function to print the most important members of the context
234  *@param s context
235  */
236 static av_cold void dump_context(WMAProDecodeCtx *s)
237 {
238 #define PRINT(a, b)     av_log(s->avctx, AV_LOG_DEBUG, " %s = %d\n", a, b);
239 #define PRINT_HEX(a, b) av_log(s->avctx, AV_LOG_DEBUG, " %s = %x\n", a, b);
240
241     PRINT("ed sample bit depth", s->bits_per_sample);
242     PRINT_HEX("ed decode flags", s->decode_flags);
243     PRINT("samples per frame",   s->samples_per_frame);
244     PRINT("log2 frame size",     s->log2_frame_size);
245     PRINT("max num subframes",   s->max_num_subframes);
246     PRINT("len prefix",          s->len_prefix);
247     PRINT("num channels",        s->avctx->channels);
248 }
249
250 /**
251  *@brief Uninitialize the decoder and free all resources.
252  *@param avctx codec context
253  *@return 0 on success, < 0 otherwise
254  */
255 static av_cold int decode_end(AVCodecContext *avctx)
256 {
257     WMAProDecodeCtx *s = avctx->priv_data;
258     int i;
259
260     for (i = 0; i < WMAPRO_BLOCK_SIZES; i++)
261         ff_mdct_end(&s->mdct_ctx[i]);
262
263     return 0;
264 }
265
266 /**
267  *@brief Initialize the decoder.
268  *@param avctx codec context
269  *@return 0 on success, -1 otherwise
270  */
271 static av_cold int decode_init(AVCodecContext *avctx)
272 {
273     WMAProDecodeCtx *s = avctx->priv_data;
274     uint8_t *edata_ptr = avctx->extradata;
275     unsigned int channel_mask;
276     int i, bits;
277     int log2_max_num_subframes;
278     int num_possible_block_sizes;
279
280     if (!avctx->block_align) {
281         av_log(avctx, AV_LOG_ERROR, "block_align is not set\n");
282         return AVERROR(EINVAL);
283     }
284
285     s->avctx = avctx;
286     avpriv_float_dsp_init(&s->fdsp, avctx->flags & CODEC_FLAG_BITEXACT);
287
288     init_put_bits(&s->pb, s->frame_data, MAX_FRAMESIZE);
289
290     avctx->sample_fmt = AV_SAMPLE_FMT_FLTP;
291
292     if (avctx->extradata_size >= 18) {
293         s->decode_flags    = AV_RL16(edata_ptr+14);
294         channel_mask       = AV_RL32(edata_ptr+2);
295         s->bits_per_sample = AV_RL16(edata_ptr);
296         /** dump the extradata */
297         for (i = 0; i < avctx->extradata_size; i++)
298             av_dlog(avctx, "[%x] ", avctx->extradata[i]);
299         av_dlog(avctx, "\n");
300
301     } else {
302         avpriv_request_sample(avctx, "Unknown extradata size");
303         return AVERROR_PATCHWELCOME;
304     }
305
306     /** generic init */
307     s->log2_frame_size = av_log2(avctx->block_align) + 4;
308
309     /** frame info */
310     s->skip_frame  = 1; /* skip first frame */
311     s->packet_loss = 1;
312     s->len_prefix  = (s->decode_flags & 0x40);
313
314     /** get frame len */
315     bits = ff_wma_get_frame_len_bits(avctx->sample_rate, 3, s->decode_flags);
316     if (bits > WMAPRO_BLOCK_MAX_BITS) {
317         avpriv_request_sample(avctx, "14-bit block sizes");
318         return AVERROR_PATCHWELCOME;
319     }
320     s->samples_per_frame = 1 << bits;
321
322     /** subframe info */
323     log2_max_num_subframes       = ((s->decode_flags & 0x38) >> 3);
324     s->max_num_subframes         = 1 << log2_max_num_subframes;
325     if (s->max_num_subframes == 16 || s->max_num_subframes == 4)
326         s->max_subframe_len_bit = 1;
327     s->subframe_len_bits = av_log2(log2_max_num_subframes) + 1;
328
329     num_possible_block_sizes     = log2_max_num_subframes + 1;
330     s->min_samples_per_subframe  = s->samples_per_frame / s->max_num_subframes;
331     s->dynamic_range_compression = (s->decode_flags & 0x80);
332
333     if (s->max_num_subframes > MAX_SUBFRAMES) {
334         av_log(avctx, AV_LOG_ERROR, "invalid number of subframes %i\n",
335                s->max_num_subframes);
336         return AVERROR_INVALIDDATA;
337     }
338
339     if (s->avctx->sample_rate <= 0) {
340         av_log(avctx, AV_LOG_ERROR, "invalid sample rate\n");
341         return AVERROR_INVALIDDATA;
342     }
343
344     if (avctx->channels < 0) {
345         av_log(avctx, AV_LOG_ERROR, "invalid number of channels %d\n",
346                avctx->channels);
347         return AVERROR_INVALIDDATA;
348     } else if (avctx->channels > WMAPRO_MAX_CHANNELS) {
349         avpriv_request_sample(avctx,
350                               "More than %d channels", WMAPRO_MAX_CHANNELS);
351         return AVERROR_PATCHWELCOME;
352     }
353
354     /** init previous block len */
355     for (i = 0; i < avctx->channels; i++)
356         s->channel[i].prev_block_len = s->samples_per_frame;
357
358     /** extract lfe channel position */
359     s->lfe_channel = -1;
360
361     if (channel_mask & 8) {
362         unsigned int mask;
363         for (mask = 1; mask < 16; mask <<= 1) {
364             if (channel_mask & mask)
365                 ++s->lfe_channel;
366         }
367     }
368
369     INIT_VLC_STATIC(&sf_vlc, SCALEVLCBITS, HUFF_SCALE_SIZE,
370                     scale_huffbits, 1, 1,
371                     scale_huffcodes, 2, 2, 616);
372
373     INIT_VLC_STATIC(&sf_rl_vlc, VLCBITS, HUFF_SCALE_RL_SIZE,
374                     scale_rl_huffbits, 1, 1,
375                     scale_rl_huffcodes, 4, 4, 1406);
376
377     INIT_VLC_STATIC(&coef_vlc[0], VLCBITS, HUFF_COEF0_SIZE,
378                     coef0_huffbits, 1, 1,
379                     coef0_huffcodes, 4, 4, 2108);
380
381     INIT_VLC_STATIC(&coef_vlc[1], VLCBITS, HUFF_COEF1_SIZE,
382                     coef1_huffbits, 1, 1,
383                     coef1_huffcodes, 4, 4, 3912);
384
385     INIT_VLC_STATIC(&vec4_vlc, VLCBITS, HUFF_VEC4_SIZE,
386                     vec4_huffbits, 1, 1,
387                     vec4_huffcodes, 2, 2, 604);
388
389     INIT_VLC_STATIC(&vec2_vlc, VLCBITS, HUFF_VEC2_SIZE,
390                     vec2_huffbits, 1, 1,
391                     vec2_huffcodes, 2, 2, 562);
392
393     INIT_VLC_STATIC(&vec1_vlc, VLCBITS, HUFF_VEC1_SIZE,
394                     vec1_huffbits, 1, 1,
395                     vec1_huffcodes, 2, 2, 562);
396
397     /** calculate number of scale factor bands and their offsets
398         for every possible block size */
399     for (i = 0; i < num_possible_block_sizes; i++) {
400         int subframe_len = s->samples_per_frame >> i;
401         int x;
402         int band = 1;
403
404         s->sfb_offsets[i][0] = 0;
405
406         for (x = 0; x < MAX_BANDS-1 && s->sfb_offsets[i][band - 1] < subframe_len; x++) {
407             int offset = (subframe_len * 2 * critical_freq[x])
408                           / s->avctx->sample_rate + 2;
409             offset &= ~3;
410             if (offset > s->sfb_offsets[i][band - 1])
411                 s->sfb_offsets[i][band++] = offset;
412         }
413         s->sfb_offsets[i][band - 1] = subframe_len;
414         s->num_sfb[i]               = band - 1;
415     }
416
417
418     /** Scale factors can be shared between blocks of different size
419         as every block has a different scale factor band layout.
420         The matrix sf_offsets is needed to find the correct scale factor.
421      */
422
423     for (i = 0; i < num_possible_block_sizes; i++) {
424         int b;
425         for (b = 0; b < s->num_sfb[i]; b++) {
426             int x;
427             int offset = ((s->sfb_offsets[i][b]
428                            + s->sfb_offsets[i][b + 1] - 1) << i) >> 1;
429             for (x = 0; x < num_possible_block_sizes; x++) {
430                 int v = 0;
431                 while (s->sfb_offsets[x][v + 1] << x < offset)
432                     ++v;
433                 s->sf_offsets[i][x][b] = v;
434             }
435         }
436     }
437
438     /** init MDCT, FIXME: only init needed sizes */
439     for (i = 0; i < WMAPRO_BLOCK_SIZES; i++)
440         ff_mdct_init(&s->mdct_ctx[i], WMAPRO_BLOCK_MIN_BITS+1+i, 1,
441                      1.0 / (1 << (WMAPRO_BLOCK_MIN_BITS + i - 1))
442                      / (1 << (s->bits_per_sample - 1)));
443
444     /** init MDCT windows: simple sinus window */
445     for (i = 0; i < WMAPRO_BLOCK_SIZES; i++) {
446         const int win_idx = WMAPRO_BLOCK_MAX_BITS - i;
447         ff_init_ff_sine_windows(win_idx);
448         s->windows[WMAPRO_BLOCK_SIZES - i - 1] = ff_sine_windows[win_idx];
449     }
450
451     /** calculate subwoofer cutoff values */
452     for (i = 0; i < num_possible_block_sizes; i++) {
453         int block_size = s->samples_per_frame >> i;
454         int cutoff = (440*block_size + 3 * (s->avctx->sample_rate >> 1) - 1)
455                      / s->avctx->sample_rate;
456         s->subwoofer_cutoffs[i] = av_clip(cutoff, 4, block_size);
457     }
458
459     /** calculate sine values for the decorrelation matrix */
460     for (i = 0; i < 33; i++)
461         sin64[i] = sin(i*M_PI / 64.0);
462
463     if (avctx->debug & FF_DEBUG_BITSTREAM)
464         dump_context(s);
465
466     avctx->channel_layout = channel_mask;
467
468     return 0;
469 }
470
471 /**
472  *@brief Decode the subframe length.
473  *@param s context
474  *@param offset sample offset in the frame
475  *@return decoded subframe length on success, < 0 in case of an error
476  */
477 static int decode_subframe_length(WMAProDecodeCtx *s, int offset)
478 {
479     int frame_len_shift = 0;
480     int subframe_len;
481
482     /** no need to read from the bitstream when only one length is possible */
483     if (offset == s->samples_per_frame - s->min_samples_per_subframe)
484         return s->min_samples_per_subframe;
485
486     /** 1 bit indicates if the subframe is of maximum length */
487     if (s->max_subframe_len_bit) {
488         if (get_bits1(&s->gb))
489             frame_len_shift = 1 + get_bits(&s->gb, s->subframe_len_bits-1);
490     } else
491         frame_len_shift = get_bits(&s->gb, s->subframe_len_bits);
492
493     subframe_len = s->samples_per_frame >> frame_len_shift;
494
495     /** sanity check the length */
496     if (subframe_len < s->min_samples_per_subframe ||
497         subframe_len > s->samples_per_frame) {
498         av_log(s->avctx, AV_LOG_ERROR, "broken frame: subframe_len %i\n",
499                subframe_len);
500         return AVERROR_INVALIDDATA;
501     }
502     return subframe_len;
503 }
504
505 /**
506  *@brief Decode how the data in the frame is split into subframes.
507  *       Every WMA frame contains the encoded data for a fixed number of
508  *       samples per channel. The data for every channel might be split
509  *       into several subframes. This function will reconstruct the list of
510  *       subframes for every channel.
511  *
512  *       If the subframes are not evenly split, the algorithm estimates the
513  *       channels with the lowest number of total samples.
514  *       Afterwards, for each of these channels a bit is read from the
515  *       bitstream that indicates if the channel contains a subframe with the
516  *       next subframe size that is going to be read from the bitstream or not.
517  *       If a channel contains such a subframe, the subframe size gets added to
518  *       the channel's subframe list.
519  *       The algorithm repeats these steps until the frame is properly divided
520  *       between the individual channels.
521  *
522  *@param s context
523  *@return 0 on success, < 0 in case of an error
524  */
525 static int decode_tilehdr(WMAProDecodeCtx *s)
526 {
527     uint16_t num_samples[WMAPRO_MAX_CHANNELS] = { 0 };/**< sum of samples for all currently known subframes of a channel */
528     uint8_t  contains_subframe[WMAPRO_MAX_CHANNELS];  /**< flag indicating if a channel contains the current subframe */
529     int channels_for_cur_subframe = s->avctx->channels; /**< number of channels that contain the current subframe */
530     int fixed_channel_layout = 0;                     /**< flag indicating that all channels use the same subframe offsets and sizes */
531     int min_channel_len = 0;                          /**< smallest sum of samples (channels with this length will be processed first) */
532     int c;
533
534     /* Should never consume more than 3073 bits (256 iterations for the
535      * while loop when always the minimum amount of 128 samples is subtracted
536      * from missing samples in the 8 channel case).
537      * 1 + BLOCK_MAX_SIZE * MAX_CHANNELS / BLOCK_MIN_SIZE * (MAX_CHANNELS  + 4)
538      */
539
540     /** reset tiling information */
541     for (c = 0; c < s->avctx->channels; c++)
542         s->channel[c].num_subframes = 0;
543
544     if (s->max_num_subframes == 1 || get_bits1(&s->gb))
545         fixed_channel_layout = 1;
546
547     /** loop until the frame data is split between the subframes */
548     do {
549         int subframe_len;
550
551         /** check which channels contain the subframe */
552         for (c = 0; c < s->avctx->channels; c++) {
553             if (num_samples[c] == min_channel_len) {
554                 if (fixed_channel_layout || channels_for_cur_subframe == 1 ||
555                    (min_channel_len == s->samples_per_frame - s->min_samples_per_subframe))
556                     contains_subframe[c] = 1;
557                 else
558                     contains_subframe[c] = get_bits1(&s->gb);
559             } else
560                 contains_subframe[c] = 0;
561         }
562
563         /** get subframe length, subframe_len == 0 is not allowed */
564         if ((subframe_len = decode_subframe_length(s, min_channel_len)) <= 0)
565             return AVERROR_INVALIDDATA;
566
567         /** add subframes to the individual channels and find new min_channel_len */
568         min_channel_len += subframe_len;
569         for (c = 0; c < s->avctx->channels; c++) {
570             WMAProChannelCtx* chan = &s->channel[c];
571
572             if (contains_subframe[c]) {
573                 if (chan->num_subframes >= MAX_SUBFRAMES) {
574                     av_log(s->avctx, AV_LOG_ERROR,
575                            "broken frame: num subframes > 31\n");
576                     return AVERROR_INVALIDDATA;
577                 }
578                 chan->subframe_len[chan->num_subframes] = subframe_len;
579                 num_samples[c] += subframe_len;
580                 ++chan->num_subframes;
581                 if (num_samples[c] > s->samples_per_frame) {
582                     av_log(s->avctx, AV_LOG_ERROR, "broken frame: "
583                            "channel len > samples_per_frame\n");
584                     return AVERROR_INVALIDDATA;
585                 }
586             } else if (num_samples[c] <= min_channel_len) {
587                 if (num_samples[c] < min_channel_len) {
588                     channels_for_cur_subframe = 0;
589                     min_channel_len = num_samples[c];
590                 }
591                 ++channels_for_cur_subframe;
592             }
593         }
594     } while (min_channel_len < s->samples_per_frame);
595
596     for (c = 0; c < s->avctx->channels; c++) {
597         int i;
598         int offset = 0;
599         for (i = 0; i < s->channel[c].num_subframes; i++) {
600             av_dlog(s->avctx, "frame[%i] channel[%i] subframe[%i]"
601                     " len %i\n", s->frame_num, c, i,
602                     s->channel[c].subframe_len[i]);
603             s->channel[c].subframe_offset[i] = offset;
604             offset += s->channel[c].subframe_len[i];
605         }
606     }
607
608     return 0;
609 }
610
611 /**
612  *@brief Calculate a decorrelation matrix from the bitstream parameters.
613  *@param s codec context
614  *@param chgroup channel group for which the matrix needs to be calculated
615  */
616 static void decode_decorrelation_matrix(WMAProDecodeCtx *s,
617                                         WMAProChannelGrp *chgroup)
618 {
619     int i;
620     int offset = 0;
621     int8_t rotation_offset[WMAPRO_MAX_CHANNELS * WMAPRO_MAX_CHANNELS];
622     memset(chgroup->decorrelation_matrix, 0, s->avctx->channels *
623            s->avctx->channels * sizeof(*chgroup->decorrelation_matrix));
624
625     for (i = 0; i < chgroup->num_channels * (chgroup->num_channels - 1) >> 1; i++)
626         rotation_offset[i] = get_bits(&s->gb, 6);
627
628     for (i = 0; i < chgroup->num_channels; i++)
629         chgroup->decorrelation_matrix[chgroup->num_channels * i + i] =
630             get_bits1(&s->gb) ? 1.0 : -1.0;
631
632     for (i = 1; i < chgroup->num_channels; i++) {
633         int x;
634         for (x = 0; x < i; x++) {
635             int y;
636             for (y = 0; y < i + 1; y++) {
637                 float v1 = chgroup->decorrelation_matrix[x * chgroup->num_channels + y];
638                 float v2 = chgroup->decorrelation_matrix[i * chgroup->num_channels + y];
639                 int n = rotation_offset[offset + x];
640                 float sinv;
641                 float cosv;
642
643                 if (n < 32) {
644                     sinv = sin64[n];
645                     cosv = sin64[32 - n];
646                 } else {
647                     sinv =  sin64[64 -  n];
648                     cosv = -sin64[n  - 32];
649                 }
650
651                 chgroup->decorrelation_matrix[y + x * chgroup->num_channels] =
652                                                (v1 * sinv) - (v2 * cosv);
653                 chgroup->decorrelation_matrix[y + i * chgroup->num_channels] =
654                                                (v1 * cosv) + (v2 * sinv);
655             }
656         }
657         offset += i;
658     }
659 }
660
661 /**
662  *@brief Decode channel transformation parameters
663  *@param s codec context
664  *@return 0 in case of success, < 0 in case of bitstream errors
665  */
666 static int decode_channel_transform(WMAProDecodeCtx* s)
667 {
668     int i;
669     /* should never consume more than 1921 bits for the 8 channel case
670      * 1 + MAX_CHANNELS * (MAX_CHANNELS + 2 + 3 * MAX_CHANNELS * MAX_CHANNELS
671      * + MAX_CHANNELS + MAX_BANDS + 1)
672      */
673
674     /** in the one channel case channel transforms are pointless */
675     s->num_chgroups = 0;
676     if (s->avctx->channels > 1) {
677         int remaining_channels = s->channels_for_cur_subframe;
678
679         if (get_bits1(&s->gb)) {
680             avpriv_request_sample(s->avctx,
681                                   "Channel transform bit");
682             return AVERROR_PATCHWELCOME;
683         }
684
685         for (s->num_chgroups = 0; remaining_channels &&
686              s->num_chgroups < s->channels_for_cur_subframe; s->num_chgroups++) {
687             WMAProChannelGrp* chgroup = &s->chgroup[s->num_chgroups];
688             float** channel_data = chgroup->channel_data;
689             chgroup->num_channels = 0;
690             chgroup->transform = 0;
691
692             /** decode channel mask */
693             if (remaining_channels > 2) {
694                 for (i = 0; i < s->channels_for_cur_subframe; i++) {
695                     int channel_idx = s->channel_indexes_for_cur_subframe[i];
696                     if (!s->channel[channel_idx].grouped
697                         && get_bits1(&s->gb)) {
698                         ++chgroup->num_channels;
699                         s->channel[channel_idx].grouped = 1;
700                         *channel_data++ = s->channel[channel_idx].coeffs;
701                     }
702                 }
703             } else {
704                 chgroup->num_channels = remaining_channels;
705                 for (i = 0; i < s->channels_for_cur_subframe; i++) {
706                     int channel_idx = s->channel_indexes_for_cur_subframe[i];
707                     if (!s->channel[channel_idx].grouped)
708                         *channel_data++ = s->channel[channel_idx].coeffs;
709                     s->channel[channel_idx].grouped = 1;
710                 }
711             }
712
713             /** decode transform type */
714             if (chgroup->num_channels == 2) {
715                 if (get_bits1(&s->gb)) {
716                     if (get_bits1(&s->gb)) {
717                         avpriv_request_sample(s->avctx,
718                                               "Unknown channel transform type");
719                     }
720                 } else {
721                     chgroup->transform = 1;
722                     if (s->avctx->channels == 2) {
723                         chgroup->decorrelation_matrix[0] =  1.0;
724                         chgroup->decorrelation_matrix[1] = -1.0;
725                         chgroup->decorrelation_matrix[2] =  1.0;
726                         chgroup->decorrelation_matrix[3] =  1.0;
727                     } else {
728                         /** cos(pi/4) */
729                         chgroup->decorrelation_matrix[0] =  0.70703125;
730                         chgroup->decorrelation_matrix[1] = -0.70703125;
731                         chgroup->decorrelation_matrix[2] =  0.70703125;
732                         chgroup->decorrelation_matrix[3] =  0.70703125;
733                     }
734                 }
735             } else if (chgroup->num_channels > 2) {
736                 if (get_bits1(&s->gb)) {
737                     chgroup->transform = 1;
738                     if (get_bits1(&s->gb)) {
739                         decode_decorrelation_matrix(s, chgroup);
740                     } else {
741                         /** FIXME: more than 6 coupled channels not supported */
742                         if (chgroup->num_channels > 6) {
743                             avpriv_request_sample(s->avctx,
744                                                   "Coupled channels > 6");
745                         } else {
746                             memcpy(chgroup->decorrelation_matrix,
747                                    default_decorrelation[chgroup->num_channels],
748                                    chgroup->num_channels * chgroup->num_channels *
749                                    sizeof(*chgroup->decorrelation_matrix));
750                         }
751                     }
752                 }
753             }
754
755             /** decode transform on / off */
756             if (chgroup->transform) {
757                 if (!get_bits1(&s->gb)) {
758                     int i;
759                     /** transform can be enabled for individual bands */
760                     for (i = 0; i < s->num_bands; i++) {
761                         chgroup->transform_band[i] = get_bits1(&s->gb);
762                     }
763                 } else {
764                     memset(chgroup->transform_band, 1, s->num_bands);
765                 }
766             }
767             remaining_channels -= chgroup->num_channels;
768         }
769     }
770     return 0;
771 }
772
773 /**
774  *@brief Extract the coefficients from the bitstream.
775  *@param s codec context
776  *@param c current channel number
777  *@return 0 on success, < 0 in case of bitstream errors
778  */
779 static int decode_coeffs(WMAProDecodeCtx *s, int c)
780 {
781     /* Integers 0..15 as single-precision floats.  The table saves a
782        costly int to float conversion, and storing the values as
783        integers allows fast sign-flipping. */
784     static const uint32_t fval_tab[16] = {
785         0x00000000, 0x3f800000, 0x40000000, 0x40400000,
786         0x40800000, 0x40a00000, 0x40c00000, 0x40e00000,
787         0x41000000, 0x41100000, 0x41200000, 0x41300000,
788         0x41400000, 0x41500000, 0x41600000, 0x41700000,
789     };
790     int vlctable;
791     VLC* vlc;
792     WMAProChannelCtx* ci = &s->channel[c];
793     int rl_mode = 0;
794     int cur_coeff = 0;
795     int num_zeros = 0;
796     const uint16_t* run;
797     const float* level;
798
799     av_dlog(s->avctx, "decode coefficients for channel %i\n", c);
800
801     vlctable = get_bits1(&s->gb);
802     vlc = &coef_vlc[vlctable];
803
804     if (vlctable) {
805         run = coef1_run;
806         level = coef1_level;
807     } else {
808         run = coef0_run;
809         level = coef0_level;
810     }
811
812     /** decode vector coefficients (consumes up to 167 bits per iteration for
813       4 vector coded large values) */
814     while ((s->transmit_num_vec_coeffs || !rl_mode) &&
815            (cur_coeff + 3 < ci->num_vec_coeffs)) {
816         uint32_t vals[4];
817         int i;
818         unsigned int idx;
819
820         idx = get_vlc2(&s->gb, vec4_vlc.table, VLCBITS, VEC4MAXDEPTH);
821
822         if (idx == HUFF_VEC4_SIZE - 1) {
823             for (i = 0; i < 4; i += 2) {
824                 idx = get_vlc2(&s->gb, vec2_vlc.table, VLCBITS, VEC2MAXDEPTH);
825                 if (idx == HUFF_VEC2_SIZE - 1) {
826                     uint32_t v0, v1;
827                     v0 = get_vlc2(&s->gb, vec1_vlc.table, VLCBITS, VEC1MAXDEPTH);
828                     if (v0 == HUFF_VEC1_SIZE - 1)
829                         v0 += ff_wma_get_large_val(&s->gb);
830                     v1 = get_vlc2(&s->gb, vec1_vlc.table, VLCBITS, VEC1MAXDEPTH);
831                     if (v1 == HUFF_VEC1_SIZE - 1)
832                         v1 += ff_wma_get_large_val(&s->gb);
833                     vals[i  ] = av_float2int(v0);
834                     vals[i+1] = av_float2int(v1);
835                 } else {
836                     vals[i]   = fval_tab[symbol_to_vec2[idx] >> 4 ];
837                     vals[i+1] = fval_tab[symbol_to_vec2[idx] & 0xF];
838                 }
839             }
840         } else {
841             vals[0] = fval_tab[ symbol_to_vec4[idx] >> 12      ];
842             vals[1] = fval_tab[(symbol_to_vec4[idx] >> 8) & 0xF];
843             vals[2] = fval_tab[(symbol_to_vec4[idx] >> 4) & 0xF];
844             vals[3] = fval_tab[ symbol_to_vec4[idx]       & 0xF];
845         }
846
847         /** decode sign */
848         for (i = 0; i < 4; i++) {
849             if (vals[i]) {
850                 uint32_t sign = get_bits1(&s->gb) - 1;
851                 AV_WN32A(&ci->coeffs[cur_coeff], vals[i] ^ sign << 31);
852                 num_zeros = 0;
853             } else {
854                 ci->coeffs[cur_coeff] = 0;
855                 /** switch to run level mode when subframe_len / 128 zeros
856                     were found in a row */
857                 rl_mode |= (++num_zeros > s->subframe_len >> 8);
858             }
859             ++cur_coeff;
860         }
861     }
862
863     /** decode run level coded coefficients */
864     if (cur_coeff < s->subframe_len) {
865         memset(&ci->coeffs[cur_coeff], 0,
866                sizeof(*ci->coeffs) * (s->subframe_len - cur_coeff));
867         if (ff_wma_run_level_decode(s->avctx, &s->gb, vlc,
868                                     level, run, 1, ci->coeffs,
869                                     cur_coeff, s->subframe_len,
870                                     s->subframe_len, s->esc_len, 0))
871             return AVERROR_INVALIDDATA;
872     }
873
874     return 0;
875 }
876
877 /**
878  *@brief Extract scale factors from the bitstream.
879  *@param s codec context
880  *@return 0 on success, < 0 in case of bitstream errors
881  */
882 static int decode_scale_factors(WMAProDecodeCtx* s)
883 {
884     int i;
885
886     /** should never consume more than 5344 bits
887      *  MAX_CHANNELS * (1 +  MAX_BANDS * 23)
888      */
889
890     for (i = 0; i < s->channels_for_cur_subframe; i++) {
891         int c = s->channel_indexes_for_cur_subframe[i];
892         int* sf;
893         int* sf_end;
894         s->channel[c].scale_factors = s->channel[c].saved_scale_factors[!s->channel[c].scale_factor_idx];
895         sf_end = s->channel[c].scale_factors + s->num_bands;
896
897         /** resample scale factors for the new block size
898          *  as the scale factors might need to be resampled several times
899          *  before some  new values are transmitted, a backup of the last
900          *  transmitted scale factors is kept in saved_scale_factors
901          */
902         if (s->channel[c].reuse_sf) {
903             const int8_t* sf_offsets = s->sf_offsets[s->table_idx][s->channel[c].table_idx];
904             int b;
905             for (b = 0; b < s->num_bands; b++)
906                 s->channel[c].scale_factors[b] =
907                     s->channel[c].saved_scale_factors[s->channel[c].scale_factor_idx][*sf_offsets++];
908         }
909
910         if (!s->channel[c].cur_subframe || get_bits1(&s->gb)) {
911
912             if (!s->channel[c].reuse_sf) {
913                 int val;
914                 /** decode DPCM coded scale factors */
915                 s->channel[c].scale_factor_step = get_bits(&s->gb, 2) + 1;
916                 val = 45 / s->channel[c].scale_factor_step;
917                 for (sf = s->channel[c].scale_factors; sf < sf_end; sf++) {
918                     val += get_vlc2(&s->gb, sf_vlc.table, SCALEVLCBITS, SCALEMAXDEPTH) - 60;
919                     *sf = val;
920                 }
921             } else {
922                 int i;
923                 /** run level decode differences to the resampled factors */
924                 for (i = 0; i < s->num_bands; i++) {
925                     int idx;
926                     int skip;
927                     int val;
928                     int sign;
929
930                     idx = get_vlc2(&s->gb, sf_rl_vlc.table, VLCBITS, SCALERLMAXDEPTH);
931
932                     if (!idx) {
933                         uint32_t code = get_bits(&s->gb, 14);
934                         val  =  code >> 6;
935                         sign = (code & 1) - 1;
936                         skip = (code & 0x3f) >> 1;
937                     } else if (idx == 1) {
938                         break;
939                     } else {
940                         skip = scale_rl_run[idx];
941                         val  = scale_rl_level[idx];
942                         sign = get_bits1(&s->gb)-1;
943                     }
944
945                     i += skip;
946                     if (i >= s->num_bands) {
947                         av_log(s->avctx, AV_LOG_ERROR,
948                                "invalid scale factor coding\n");
949                         return AVERROR_INVALIDDATA;
950                     }
951                     s->channel[c].scale_factors[i] += (val ^ sign) - sign;
952                 }
953             }
954             /** swap buffers */
955             s->channel[c].scale_factor_idx = !s->channel[c].scale_factor_idx;
956             s->channel[c].table_idx = s->table_idx;
957             s->channel[c].reuse_sf  = 1;
958         }
959
960         /** calculate new scale factor maximum */
961         s->channel[c].max_scale_factor = s->channel[c].scale_factors[0];
962         for (sf = s->channel[c].scale_factors + 1; sf < sf_end; sf++) {
963             s->channel[c].max_scale_factor =
964                 FFMAX(s->channel[c].max_scale_factor, *sf);
965         }
966
967     }
968     return 0;
969 }
970
971 /**
972  *@brief Reconstruct the individual channel data.
973  *@param s codec context
974  */
975 static void inverse_channel_transform(WMAProDecodeCtx *s)
976 {
977     int i;
978
979     for (i = 0; i < s->num_chgroups; i++) {
980         if (s->chgroup[i].transform) {
981             float data[WMAPRO_MAX_CHANNELS];
982             const int num_channels = s->chgroup[i].num_channels;
983             float** ch_data = s->chgroup[i].channel_data;
984             float** ch_end = ch_data + num_channels;
985             const int8_t* tb = s->chgroup[i].transform_band;
986             int16_t* sfb;
987
988             /** multichannel decorrelation */
989             for (sfb = s->cur_sfb_offsets;
990                  sfb < s->cur_sfb_offsets + s->num_bands; sfb++) {
991                 int y;
992                 if (*tb++ == 1) {
993                     /** multiply values with the decorrelation_matrix */
994                     for (y = sfb[0]; y < FFMIN(sfb[1], s->subframe_len); y++) {
995                         const float* mat = s->chgroup[i].decorrelation_matrix;
996                         const float* data_end = data + num_channels;
997                         float* data_ptr = data;
998                         float** ch;
999
1000                         for (ch = ch_data; ch < ch_end; ch++)
1001                             *data_ptr++ = (*ch)[y];
1002
1003                         for (ch = ch_data; ch < ch_end; ch++) {
1004                             float sum = 0;
1005                             data_ptr = data;
1006                             while (data_ptr < data_end)
1007                                 sum += *data_ptr++ * *mat++;
1008
1009                             (*ch)[y] = sum;
1010                         }
1011                     }
1012                 } else if (s->avctx->channels == 2) {
1013                     int len = FFMIN(sfb[1], s->subframe_len) - sfb[0];
1014                     s->fdsp.vector_fmul_scalar(ch_data[0] + sfb[0],
1015                                                ch_data[0] + sfb[0],
1016                                                181.0 / 128, len);
1017                     s->fdsp.vector_fmul_scalar(ch_data[1] + sfb[0],
1018                                                ch_data[1] + sfb[0],
1019                                                181.0 / 128, len);
1020                 }
1021             }
1022         }
1023     }
1024 }
1025
1026 /**
1027  *@brief Apply sine window and reconstruct the output buffer.
1028  *@param s codec context
1029  */
1030 static void wmapro_window(WMAProDecodeCtx *s)
1031 {
1032     int i;
1033     for (i = 0; i < s->channels_for_cur_subframe; i++) {
1034         int c = s->channel_indexes_for_cur_subframe[i];
1035         float* window;
1036         int winlen = s->channel[c].prev_block_len;
1037         float* start = s->channel[c].coeffs - (winlen >> 1);
1038
1039         if (s->subframe_len < winlen) {
1040             start += (winlen - s->subframe_len) >> 1;
1041             winlen = s->subframe_len;
1042         }
1043
1044         window = s->windows[av_log2(winlen) - WMAPRO_BLOCK_MIN_BITS];
1045
1046         winlen >>= 1;
1047
1048         s->fdsp.vector_fmul_window(start, start, start + winlen,
1049                                    window, winlen);
1050
1051         s->channel[c].prev_block_len = s->subframe_len;
1052     }
1053 }
1054
1055 /**
1056  *@brief Decode a single subframe (block).
1057  *@param s codec context
1058  *@return 0 on success, < 0 when decoding failed
1059  */
1060 static int decode_subframe(WMAProDecodeCtx *s)
1061 {
1062     int offset = s->samples_per_frame;
1063     int subframe_len = s->samples_per_frame;
1064     int i;
1065     int total_samples   = s->samples_per_frame * s->avctx->channels;
1066     int transmit_coeffs = 0;
1067     int cur_subwoofer_cutoff;
1068
1069     s->subframe_offset = get_bits_count(&s->gb);
1070
1071     /** reset channel context and find the next block offset and size
1072         == the next block of the channel with the smallest number of
1073         decoded samples
1074     */
1075     for (i = 0; i < s->avctx->channels; i++) {
1076         s->channel[i].grouped = 0;
1077         if (offset > s->channel[i].decoded_samples) {
1078             offset = s->channel[i].decoded_samples;
1079             subframe_len =
1080                 s->channel[i].subframe_len[s->channel[i].cur_subframe];
1081         }
1082     }
1083
1084     av_dlog(s->avctx,
1085             "processing subframe with offset %i len %i\n", offset, subframe_len);
1086
1087     /** get a list of all channels that contain the estimated block */
1088     s->channels_for_cur_subframe = 0;
1089     for (i = 0; i < s->avctx->channels; i++) {
1090         const int cur_subframe = s->channel[i].cur_subframe;
1091         /** subtract already processed samples */
1092         total_samples -= s->channel[i].decoded_samples;
1093
1094         /** and count if there are multiple subframes that match our profile */
1095         if (offset == s->channel[i].decoded_samples &&
1096             subframe_len == s->channel[i].subframe_len[cur_subframe]) {
1097             total_samples -= s->channel[i].subframe_len[cur_subframe];
1098             s->channel[i].decoded_samples +=
1099                 s->channel[i].subframe_len[cur_subframe];
1100             s->channel_indexes_for_cur_subframe[s->channels_for_cur_subframe] = i;
1101             ++s->channels_for_cur_subframe;
1102         }
1103     }
1104
1105     /** check if the frame will be complete after processing the
1106         estimated block */
1107     if (!total_samples)
1108         s->parsed_all_subframes = 1;
1109
1110
1111     av_dlog(s->avctx, "subframe is part of %i channels\n",
1112             s->channels_for_cur_subframe);
1113
1114     /** calculate number of scale factor bands and their offsets */
1115     s->table_idx         = av_log2(s->samples_per_frame/subframe_len);
1116     s->num_bands         = s->num_sfb[s->table_idx];
1117     s->cur_sfb_offsets   = s->sfb_offsets[s->table_idx];
1118     cur_subwoofer_cutoff = s->subwoofer_cutoffs[s->table_idx];
1119
1120     /** configure the decoder for the current subframe */
1121     for (i = 0; i < s->channels_for_cur_subframe; i++) {
1122         int c = s->channel_indexes_for_cur_subframe[i];
1123
1124         s->channel[c].coeffs = &s->channel[c].out[(s->samples_per_frame >> 1)
1125                                                   + offset];
1126     }
1127
1128     s->subframe_len = subframe_len;
1129     s->esc_len = av_log2(s->subframe_len - 1) + 1;
1130
1131     /** skip extended header if any */
1132     if (get_bits1(&s->gb)) {
1133         int num_fill_bits;
1134         if (!(num_fill_bits = get_bits(&s->gb, 2))) {
1135             int len = get_bits(&s->gb, 4);
1136             num_fill_bits = get_bits(&s->gb, len) + 1;
1137         }
1138
1139         if (num_fill_bits >= 0) {
1140             if (get_bits_count(&s->gb) + num_fill_bits > s->num_saved_bits) {
1141                 av_log(s->avctx, AV_LOG_ERROR, "invalid number of fill bits\n");
1142                 return AVERROR_INVALIDDATA;
1143             }
1144
1145             skip_bits_long(&s->gb, num_fill_bits);
1146         }
1147     }
1148
1149     /** no idea for what the following bit is used */
1150     if (get_bits1(&s->gb)) {
1151         avpriv_request_sample(s->avctx, "Reserved bit");
1152         return AVERROR_PATCHWELCOME;
1153     }
1154
1155
1156     if (decode_channel_transform(s) < 0)
1157         return AVERROR_INVALIDDATA;
1158
1159
1160     for (i = 0; i < s->channels_for_cur_subframe; i++) {
1161         int c = s->channel_indexes_for_cur_subframe[i];
1162         if ((s->channel[c].transmit_coefs = get_bits1(&s->gb)))
1163             transmit_coeffs = 1;
1164     }
1165
1166     if (transmit_coeffs) {
1167         int step;
1168         int quant_step = 90 * s->bits_per_sample >> 4;
1169
1170         /** decode number of vector coded coefficients */
1171         if ((s->transmit_num_vec_coeffs = get_bits1(&s->gb))) {
1172             int num_bits = av_log2((s->subframe_len + 3)/4) + 1;
1173             for (i = 0; i < s->channels_for_cur_subframe; i++) {
1174                 int c = s->channel_indexes_for_cur_subframe[i];
1175                 int num_vec_coeffs = get_bits(&s->gb, num_bits) << 2;
1176                 if (num_vec_coeffs > WMAPRO_BLOCK_MAX_SIZE) {
1177                     av_log(s->avctx, AV_LOG_ERROR, "num_vec_coeffs %d is too large\n", num_vec_coeffs);
1178                     return AVERROR_INVALIDDATA;
1179                 }
1180                 s->channel[c].num_vec_coeffs = num_vec_coeffs;
1181             }
1182         } else {
1183             for (i = 0; i < s->channels_for_cur_subframe; i++) {
1184                 int c = s->channel_indexes_for_cur_subframe[i];
1185                 s->channel[c].num_vec_coeffs = s->subframe_len;
1186             }
1187         }
1188         /** decode quantization step */
1189         step = get_sbits(&s->gb, 6);
1190         quant_step += step;
1191         if (step == -32 || step == 31) {
1192             const int sign = (step == 31) - 1;
1193             int quant = 0;
1194             while (get_bits_count(&s->gb) + 5 < s->num_saved_bits &&
1195                    (step = get_bits(&s->gb, 5)) == 31) {
1196                 quant += 31;
1197             }
1198             quant_step += ((quant + step) ^ sign) - sign;
1199         }
1200         if (quant_step < 0) {
1201             av_log(s->avctx, AV_LOG_DEBUG, "negative quant step\n");
1202         }
1203
1204         /** decode quantization step modifiers for every channel */
1205
1206         if (s->channels_for_cur_subframe == 1) {
1207             s->channel[s->channel_indexes_for_cur_subframe[0]].quant_step = quant_step;
1208         } else {
1209             int modifier_len = get_bits(&s->gb, 3);
1210             for (i = 0; i < s->channels_for_cur_subframe; i++) {
1211                 int c = s->channel_indexes_for_cur_subframe[i];
1212                 s->channel[c].quant_step = quant_step;
1213                 if (get_bits1(&s->gb)) {
1214                     if (modifier_len) {
1215                         s->channel[c].quant_step += get_bits(&s->gb, modifier_len) + 1;
1216                     } else
1217                         ++s->channel[c].quant_step;
1218                 }
1219             }
1220         }
1221
1222         /** decode scale factors */
1223         if (decode_scale_factors(s) < 0)
1224             return AVERROR_INVALIDDATA;
1225     }
1226
1227     av_dlog(s->avctx, "BITSTREAM: subframe header length was %i\n",
1228             get_bits_count(&s->gb) - s->subframe_offset);
1229
1230     /** parse coefficients */
1231     for (i = 0; i < s->channels_for_cur_subframe; i++) {
1232         int c = s->channel_indexes_for_cur_subframe[i];
1233         if (s->channel[c].transmit_coefs &&
1234             get_bits_count(&s->gb) < s->num_saved_bits) {
1235             decode_coeffs(s, c);
1236         } else
1237             memset(s->channel[c].coeffs, 0,
1238                    sizeof(*s->channel[c].coeffs) * subframe_len);
1239     }
1240
1241     av_dlog(s->avctx, "BITSTREAM: subframe length was %i\n",
1242             get_bits_count(&s->gb) - s->subframe_offset);
1243
1244     if (transmit_coeffs) {
1245         FFTContext *mdct = &s->mdct_ctx[av_log2(subframe_len) - WMAPRO_BLOCK_MIN_BITS];
1246         /** reconstruct the per channel data */
1247         inverse_channel_transform(s);
1248         for (i = 0; i < s->channels_for_cur_subframe; i++) {
1249             int c = s->channel_indexes_for_cur_subframe[i];
1250             const int* sf = s->channel[c].scale_factors;
1251             int b;
1252
1253             if (c == s->lfe_channel)
1254                 memset(&s->tmp[cur_subwoofer_cutoff], 0, sizeof(*s->tmp) *
1255                        (subframe_len - cur_subwoofer_cutoff));
1256
1257             /** inverse quantization and rescaling */
1258             for (b = 0; b < s->num_bands; b++) {
1259                 const int end = FFMIN(s->cur_sfb_offsets[b+1], s->subframe_len);
1260                 const int exp = s->channel[c].quant_step -
1261                             (s->channel[c].max_scale_factor - *sf++) *
1262                             s->channel[c].scale_factor_step;
1263                 const float quant = pow(10.0, exp / 20.0);
1264                 int start = s->cur_sfb_offsets[b];
1265                 s->fdsp.vector_fmul_scalar(s->tmp + start,
1266                                            s->channel[c].coeffs + start,
1267                                            quant, end - start);
1268             }
1269
1270             /** apply imdct (imdct_half == DCTIV with reverse) */
1271             mdct->imdct_half(mdct, s->channel[c].coeffs, s->tmp);
1272         }
1273     }
1274
1275     /** window and overlapp-add */
1276     wmapro_window(s);
1277
1278     /** handled one subframe */
1279     for (i = 0; i < s->channels_for_cur_subframe; i++) {
1280         int c = s->channel_indexes_for_cur_subframe[i];
1281         if (s->channel[c].cur_subframe >= s->channel[c].num_subframes) {
1282             av_log(s->avctx, AV_LOG_ERROR, "broken subframe\n");
1283             return AVERROR_INVALIDDATA;
1284         }
1285         ++s->channel[c].cur_subframe;
1286     }
1287
1288     return 0;
1289 }
1290
1291 /**
1292  *@brief Decode one WMA frame.
1293  *@param s codec context
1294  *@return 0 if the trailer bit indicates that this is the last frame,
1295  *        1 if there are additional frames
1296  */
1297 static int decode_frame(WMAProDecodeCtx *s, AVFrame *frame, int *got_frame_ptr)
1298 {
1299     AVCodecContext *avctx = s->avctx;
1300     GetBitContext* gb = &s->gb;
1301     int more_frames = 0;
1302     int len = 0;
1303     int i, ret;
1304
1305     /** get frame length */
1306     if (s->len_prefix)
1307         len = get_bits(gb, s->log2_frame_size);
1308
1309     av_dlog(s->avctx, "decoding frame with length %x\n", len);
1310
1311     /** decode tile information */
1312     if (decode_tilehdr(s)) {
1313         s->packet_loss = 1;
1314         return 0;
1315     }
1316
1317     /** read postproc transform */
1318     if (s->avctx->channels > 1 && get_bits1(gb)) {
1319         if (get_bits1(gb)) {
1320             for (i = 0; i < avctx->channels * avctx->channels; i++)
1321                 skip_bits(gb, 4);
1322         }
1323     }
1324
1325     /** read drc info */
1326     if (s->dynamic_range_compression) {
1327         s->drc_gain = get_bits(gb, 8);
1328         av_dlog(s->avctx, "drc_gain %i\n", s->drc_gain);
1329     }
1330
1331     /** no idea what these are for, might be the number of samples
1332         that need to be skipped at the beginning or end of a stream */
1333     if (get_bits1(gb)) {
1334         int av_unused skip;
1335
1336         /** usually true for the first frame */
1337         if (get_bits1(gb)) {
1338             skip = get_bits(gb, av_log2(s->samples_per_frame * 2));
1339             av_dlog(s->avctx, "start skip: %i\n", skip);
1340         }
1341
1342         /** sometimes true for the last frame */
1343         if (get_bits1(gb)) {
1344             skip = get_bits(gb, av_log2(s->samples_per_frame * 2));
1345             av_dlog(s->avctx, "end skip: %i\n", skip);
1346         }
1347
1348     }
1349
1350     av_dlog(s->avctx, "BITSTREAM: frame header length was %i\n",
1351             get_bits_count(gb) - s->frame_offset);
1352
1353     /** reset subframe states */
1354     s->parsed_all_subframes = 0;
1355     for (i = 0; i < avctx->channels; i++) {
1356         s->channel[i].decoded_samples = 0;
1357         s->channel[i].cur_subframe    = 0;
1358         s->channel[i].reuse_sf        = 0;
1359     }
1360
1361     /** decode all subframes */
1362     while (!s->parsed_all_subframes) {
1363         if (decode_subframe(s) < 0) {
1364             s->packet_loss = 1;
1365             return 0;
1366         }
1367     }
1368
1369     /* get output buffer */
1370     frame->nb_samples = s->samples_per_frame;
1371     if ((ret = ff_get_buffer(avctx, frame, 0)) < 0) {
1372         av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
1373         s->packet_loss = 1;
1374         return 0;
1375     }
1376
1377     /** copy samples to the output buffer */
1378     for (i = 0; i < avctx->channels; i++)
1379         memcpy(frame->extended_data[i], s->channel[i].out,
1380                s->samples_per_frame * sizeof(*s->channel[i].out));
1381
1382     for (i = 0; i < avctx->channels; i++) {
1383         /** reuse second half of the IMDCT output for the next frame */
1384         memcpy(&s->channel[i].out[0],
1385                &s->channel[i].out[s->samples_per_frame],
1386                s->samples_per_frame * sizeof(*s->channel[i].out) >> 1);
1387     }
1388
1389     if (s->skip_frame) {
1390         s->skip_frame = 0;
1391         *got_frame_ptr = 0;
1392         av_frame_unref(frame);
1393     } else {
1394         *got_frame_ptr = 1;
1395     }
1396
1397     if (s->len_prefix) {
1398         if (len != (get_bits_count(gb) - s->frame_offset) + 2) {
1399             /** FIXME: not sure if this is always an error */
1400             av_log(s->avctx, AV_LOG_ERROR,
1401                    "frame[%i] would have to skip %i bits\n", s->frame_num,
1402                    len - (get_bits_count(gb) - s->frame_offset) - 1);
1403             s->packet_loss = 1;
1404             return 0;
1405         }
1406
1407         /** skip the rest of the frame data */
1408         skip_bits_long(gb, len - (get_bits_count(gb) - s->frame_offset) - 1);
1409     } else {
1410         while (get_bits_count(gb) < s->num_saved_bits && get_bits1(gb) == 0) {
1411         }
1412     }
1413
1414     /** decode trailer bit */
1415     more_frames = get_bits1(gb);
1416
1417     ++s->frame_num;
1418     return more_frames;
1419 }
1420
1421 /**
1422  *@brief Calculate remaining input buffer length.
1423  *@param s codec context
1424  *@param gb bitstream reader context
1425  *@return remaining size in bits
1426  */
1427 static int remaining_bits(WMAProDecodeCtx *s, GetBitContext *gb)
1428 {
1429     return s->buf_bit_size - get_bits_count(gb);
1430 }
1431
1432 /**
1433  *@brief Fill the bit reservoir with a (partial) frame.
1434  *@param s codec context
1435  *@param gb bitstream reader context
1436  *@param len length of the partial frame
1437  *@param append decides whether to reset the buffer or not
1438  */
1439 static void save_bits(WMAProDecodeCtx *s, GetBitContext* gb, int len,
1440                       int append)
1441 {
1442     int buflen;
1443
1444     /** when the frame data does not need to be concatenated, the input buffer
1445         is resetted and additional bits from the previous frame are copyed
1446         and skipped later so that a fast byte copy is possible */
1447
1448     if (!append) {
1449         s->frame_offset = get_bits_count(gb) & 7;
1450         s->num_saved_bits = s->frame_offset;
1451         init_put_bits(&s->pb, s->frame_data, MAX_FRAMESIZE);
1452     }
1453
1454     buflen = (s->num_saved_bits + len + 8) >> 3;
1455
1456     if (len <= 0 || buflen > MAX_FRAMESIZE) {
1457         avpriv_request_sample(s->avctx, "Too small input buffer");
1458         s->packet_loss = 1;
1459         return;
1460     }
1461
1462     s->num_saved_bits += len;
1463     if (!append) {
1464         avpriv_copy_bits(&s->pb, gb->buffer + (get_bits_count(gb) >> 3),
1465                      s->num_saved_bits);
1466     } else {
1467         int align = 8 - (get_bits_count(gb) & 7);
1468         align = FFMIN(align, len);
1469         put_bits(&s->pb, align, get_bits(gb, align));
1470         len -= align;
1471         avpriv_copy_bits(&s->pb, gb->buffer + (get_bits_count(gb) >> 3), len);
1472     }
1473     skip_bits_long(gb, len);
1474
1475     {
1476         PutBitContext tmp = s->pb;
1477         flush_put_bits(&tmp);
1478     }
1479
1480     init_get_bits(&s->gb, s->frame_data, s->num_saved_bits);
1481     skip_bits(&s->gb, s->frame_offset);
1482 }
1483
1484 /**
1485  *@brief Decode a single WMA packet.
1486  *@param avctx codec context
1487  *@param data the output buffer
1488  *@param avpkt input packet
1489  *@return number of bytes that were read from the input buffer
1490  */
1491 static int decode_packet(AVCodecContext *avctx, void *data,
1492                          int *got_frame_ptr, AVPacket* avpkt)
1493 {
1494     WMAProDecodeCtx *s = avctx->priv_data;
1495     GetBitContext* gb  = &s->pgb;
1496     const uint8_t* buf = avpkt->data;
1497     int buf_size       = avpkt->size;
1498     int num_bits_prev_frame;
1499     int packet_sequence_number;
1500
1501     *got_frame_ptr = 0;
1502
1503     if (s->packet_done || s->packet_loss) {
1504         s->packet_done = 0;
1505
1506         /** sanity check for the buffer length */
1507         if (buf_size < avctx->block_align) {
1508             av_log(avctx, AV_LOG_ERROR, "Input packet too small (%d < %d)\n",
1509                    buf_size, avctx->block_align);
1510             return AVERROR_INVALIDDATA;
1511         }
1512
1513         s->next_packet_start = buf_size - avctx->block_align;
1514         buf_size = avctx->block_align;
1515         s->buf_bit_size = buf_size << 3;
1516
1517         /** parse packet header */
1518         init_get_bits(gb, buf, s->buf_bit_size);
1519         packet_sequence_number = get_bits(gb, 4);
1520         skip_bits(gb, 2);
1521
1522         /** get number of bits that need to be added to the previous frame */
1523         num_bits_prev_frame = get_bits(gb, s->log2_frame_size);
1524         av_dlog(avctx, "packet[%d]: nbpf %x\n", avctx->frame_number,
1525                 num_bits_prev_frame);
1526
1527         /** check for packet loss */
1528         if (!s->packet_loss &&
1529             ((s->packet_sequence_number + 1) & 0xF) != packet_sequence_number) {
1530             s->packet_loss = 1;
1531             av_log(avctx, AV_LOG_ERROR, "Packet loss detected! seq %x vs %x\n",
1532                    s->packet_sequence_number, packet_sequence_number);
1533         }
1534         s->packet_sequence_number = packet_sequence_number;
1535
1536         if (num_bits_prev_frame > 0) {
1537             int remaining_packet_bits = s->buf_bit_size - get_bits_count(gb);
1538             if (num_bits_prev_frame >= remaining_packet_bits) {
1539                 num_bits_prev_frame = remaining_packet_bits;
1540                 s->packet_done = 1;
1541             }
1542
1543             /** append the previous frame data to the remaining data from the
1544                 previous packet to create a full frame */
1545             save_bits(s, gb, num_bits_prev_frame, 1);
1546             av_dlog(avctx, "accumulated %x bits of frame data\n",
1547                     s->num_saved_bits - s->frame_offset);
1548
1549             /** decode the cross packet frame if it is valid */
1550             if (!s->packet_loss)
1551                 decode_frame(s, data, got_frame_ptr);
1552         } else if (s->num_saved_bits - s->frame_offset) {
1553             av_dlog(avctx, "ignoring %x previously saved bits\n",
1554                     s->num_saved_bits - s->frame_offset);
1555         }
1556
1557         if (s->packet_loss) {
1558             /** reset number of saved bits so that the decoder
1559                 does not start to decode incomplete frames in the
1560                 s->len_prefix == 0 case */
1561             s->num_saved_bits = 0;
1562             s->packet_loss = 0;
1563         }
1564
1565     } else {
1566         int frame_size;
1567         s->buf_bit_size = (avpkt->size - s->next_packet_start) << 3;
1568         init_get_bits(gb, avpkt->data, s->buf_bit_size);
1569         skip_bits(gb, s->packet_offset);
1570         if (s->len_prefix && remaining_bits(s, gb) > s->log2_frame_size &&
1571             (frame_size = show_bits(gb, s->log2_frame_size)) &&
1572             frame_size <= remaining_bits(s, gb)) {
1573             save_bits(s, gb, frame_size, 0);
1574             s->packet_done = !decode_frame(s, data, got_frame_ptr);
1575         } else if (!s->len_prefix
1576                    && s->num_saved_bits > get_bits_count(&s->gb)) {
1577             /** when the frames do not have a length prefix, we don't know
1578                 the compressed length of the individual frames
1579                 however, we know what part of a new packet belongs to the
1580                 previous frame
1581                 therefore we save the incoming packet first, then we append
1582                 the "previous frame" data from the next packet so that
1583                 we get a buffer that only contains full frames */
1584             s->packet_done = !decode_frame(s, data, got_frame_ptr);
1585         } else
1586             s->packet_done = 1;
1587     }
1588
1589     if (s->packet_done && !s->packet_loss &&
1590         remaining_bits(s, gb) > 0) {
1591         /** save the rest of the data so that it can be decoded
1592             with the next packet */
1593         save_bits(s, gb, remaining_bits(s, gb), 0);
1594     }
1595
1596     s->packet_offset = get_bits_count(gb) & 7;
1597     if (s->packet_loss)
1598         return AVERROR_INVALIDDATA;
1599
1600     return get_bits_count(gb) >> 3;
1601 }
1602
1603 /**
1604  *@brief Clear decoder buffers (for seeking).
1605  *@param avctx codec context
1606  */
1607 static void flush(AVCodecContext *avctx)
1608 {
1609     WMAProDecodeCtx *s = avctx->priv_data;
1610     int i;
1611     /** reset output buffer as a part of it is used during the windowing of a
1612         new frame */
1613     for (i = 0; i < avctx->channels; i++)
1614         memset(s->channel[i].out, 0, s->samples_per_frame *
1615                sizeof(*s->channel[i].out));
1616     s->packet_loss = 1;
1617 }
1618
1619
1620 /**
1621  *@brief wmapro decoder
1622  */
1623 AVCodec ff_wmapro_decoder = {
1624     .name           = "wmapro",
1625     .type           = AVMEDIA_TYPE_AUDIO,
1626     .id             = AV_CODEC_ID_WMAPRO,
1627     .priv_data_size = sizeof(WMAProDecodeCtx),
1628     .init           = decode_init,
1629     .close          = decode_end,
1630     .decode         = decode_packet,
1631     .capabilities   = CODEC_CAP_SUBFRAMES | CODEC_CAP_DR1,
1632     .flush          = flush,
1633     .long_name      = NULL_IF_CONFIG_SMALL("Windows Media Audio 9 Professional"),
1634     .sample_fmts    = (const enum AVSampleFormat[]) { AV_SAMPLE_FMT_FLTP,
1635                                                       AV_SAMPLE_FMT_NONE },
1636 };