]> git.sesse.net Git - ffmpeg/commitdiff
Merge commit '594d4d5df3c70404168701dd5c90b7e6e5587793'
authorMichael Niedermayer <michaelni@gmx.at>
Wed, 5 Dec 2012 14:18:12 +0000 (15:18 +0100)
committerMichael Niedermayer <michaelni@gmx.at>
Wed, 5 Dec 2012 14:18:12 +0000 (15:18 +0100)
* commit '594d4d5df3c70404168701dd5c90b7e6e5587793':
  lavc: add a wrapper for AVCodecContext.get_buffer().

Conflicts:
libavcodec/4xm.c
libavcodec/8svx.c
libavcodec/bmv.c
libavcodec/cljr.c
libavcodec/cscd.c
libavcodec/dnxhddec.c
libavcodec/dpcm.c
libavcodec/dpx.c
libavcodec/eacmv.c
libavcodec/eamad.c
libavcodec/frwu.c
libavcodec/g723_1.c
libavcodec/gifdec.c
libavcodec/idcinvideo.c
libavcodec/iff.c
libavcodec/indeo3.c
libavcodec/internal.h
libavcodec/interplayvideo.c
libavcodec/kmvc.c
libavcodec/mpc7.c
libavcodec/mpegaudiodec.c
libavcodec/pcx.c
libavcodec/pngdec.c
libavcodec/pnmdec.c
libavcodec/rl2.c
libavcodec/snow.c
libavcodec/targa.c
libavcodec/tscc.c
libavcodec/txd.c
libavcodec/utils.c
libavcodec/v210dec.c
libavcodec/vb.c
libavcodec/vmdav.c
libavcodec/vp56.c
libavcodec/vqavideo.c
libavcodec/wavpack.c
libavcodec/wnv1.c
libavcodec/xl.c
libavcodec/yop.c

Merged-by: Michael Niedermayer <michaelni@gmx.at>
165 files changed:
1  2 
libavcodec/4xm.c
libavcodec/8bps.c
libavcodec/8svx.c
libavcodec/aacdec.c
libavcodec/ac3dec.c
libavcodec/adpcm.c
libavcodec/adxdec.c
libavcodec/alac.c
libavcodec/alsdec.c
libavcodec/amrnbdec.c
libavcodec/amrwbdec.c
libavcodec/ansi.c
libavcodec/apedec.c
libavcodec/asvdec.c
libavcodec/atrac1.c
libavcodec/atrac3.c
libavcodec/aura.c
libavcodec/avrndec.c
libavcodec/avuidec.c
libavcodec/bfi.c
libavcodec/bink.c
libavcodec/binkaudio.c
libavcodec/bmp.c
libavcodec/bmv.c
libavcodec/brender_pix.c
libavcodec/cavsdec.c
libavcodec/cdgraphics.c
libavcodec/cdxl.c
libavcodec/cljr.c
libavcodec/cllc.c
libavcodec/cngdec.c
libavcodec/cook.c
libavcodec/crystalhd.c
libavcodec/cscd.c
libavcodec/cyuv.c
libavcodec/dcadec.c
libavcodec/dfa.c
libavcodec/diracdec.c
libavcodec/dnxhddec.c
libavcodec/dpcm.c
libavcodec/dpx.c
libavcodec/dsicinav.c
libavcodec/dvdec.c
libavcodec/dxa.c
libavcodec/eacmv.c
libavcodec/eamad.c
libavcodec/eatgq.c
libavcodec/eatqi.c
libavcodec/escape124.c
libavcodec/escape130.c
libavcodec/ffv1dec.c
libavcodec/ffwavesynth.c
libavcodec/flacdec.c
libavcodec/frame_thread_encoder.c
libavcodec/frwu.c
libavcodec/g722dec.c
libavcodec/g723_1.c
libavcodec/g726.c
libavcodec/g729dec.c
libavcodec/gifdec.c
libavcodec/gsmdec.c
libavcodec/idcinvideo.c
libavcodec/iff.c
libavcodec/imc.c
libavcodec/indeo3.c
libavcodec/internal.h
libavcodec/interplayvideo.c
libavcodec/ivi_common.c
libavcodec/j2kdec.c
libavcodec/kgv1dec.c
libavcodec/kmvc.c
libavcodec/lcldec.c
libavcodec/libcelt_dec.c
libavcodec/libgsm.c
libavcodec/libilbc.c
libavcodec/libopencore-amr.c
libavcodec/libopusdec.c
libavcodec/libschroedingerdec.c
libavcodec/libspeexdec.c
libavcodec/libstagefright.cpp
libavcodec/libvorbisdec.c
libavcodec/loco.c
libavcodec/mace.c
libavcodec/mjpegdec.c
libavcodec/mlpdec.c
libavcodec/mpc7.c
libavcodec/mpc8.c
libavcodec/mpegaudiodec.c
libavcodec/mss2.c
libavcodec/mxpegdec.c
libavcodec/nellymoserdec.c
libavcodec/paf.c
libavcodec/pcm-mpeg.c
libavcodec/pcm.c
libavcodec/pcx.c
libavcodec/pictordec.c
libavcodec/pngdec.c
libavcodec/pnmdec.c
libavcodec/proresdec2.c
libavcodec/proresdec_lgpl.c
libavcodec/pthread.c
libavcodec/ptx.c
libavcodec/qcelpdec.c
libavcodec/qdm2.c
libavcodec/qdrw.c
libavcodec/qpeg.c
libavcodec/r210dec.c
libavcodec/ra144dec.c
libavcodec/ra288.c
libavcodec/rl2.c
libavcodec/roqvideoenc.c
libavcodec/s302m.c
libavcodec/sanm.c
libavcodec/sgidec.c
libavcodec/shorten.c
libavcodec/sipr.c
libavcodec/smacker.c
libavcodec/snow.c
libavcodec/snowdec.c
libavcodec/snowenc.c
libavcodec/sonic.c
libavcodec/sunrast.c
libavcodec/svq1enc.c
libavcodec/takdec.c
libavcodec/targa.c
libavcodec/targa_y216dec.c
libavcodec/thread.h
libavcodec/tiff.c
libavcodec/tmv.c
libavcodec/truespeech.c
libavcodec/tscc.c
libavcodec/tta.c
libavcodec/twinvq.c
libavcodec/txd.c
libavcodec/utils.c
libavcodec/v210dec.c
libavcodec/v210x.c
libavcodec/v308dec.c
libavcodec/v408dec.c
libavcodec/v410dec.c
libavcodec/vb.c
libavcodec/vble.c
libavcodec/vc1dec.c
libavcodec/vcr1.c
libavcodec/vima.c
libavcodec/vmdav.c
libavcodec/vorbisdec.c
libavcodec/vp56.c
libavcodec/vqavideo.c
libavcodec/wavpack.c
libavcodec/wmadec.c
libavcodec/wmalosslessdec.c
libavcodec/wmaprodec.c
libavcodec/wmavoice.c
libavcodec/wnv1.c
libavcodec/ws-snd1.c
libavcodec/xan.c
libavcodec/xbmdec.c
libavcodec/xfacedec.c
libavcodec/xl.c
libavcodec/xwddec.c
libavcodec/y41pdec.c
libavcodec/yop.c
libavcodec/yuv4dec.c
libavcodec/zmbv.c

index 85795f96ee1cd4532ff7249939bca54f70885c74,e3f49b37c48d795ac5e24b4503bf39107cd9378c..3ee41f3907874a35fe68ff14e7a6da165e81ae91
  #include "bytestream.h"
  #include "dsputil.h"
  #include "get_bits.h"
+ #include "internal.h"
  
 -//#undef NDEBUG
 -//#include <assert.h>
 +#include "libavutil/avassert.h"
  
  #define BLOCK_TYPE_VLC_BITS 5
  #define ACDC_VLC_BITS 9
@@@ -882,21 -840,17 +883,21 @@@ static int decode_frame(AVCodecContext 
      }
  
      if (frame_4cc == AV_RL32("ifr2")) {
 -        p->pict_type = AV_PICTURE_TYPE_I;
 -        if (decode_i2_frame(f, buf - 4, frame_size + 4) < 0)
 +        p->pict_type= AV_PICTURE_TYPE_I;
 +        if (decode_i2_frame(f, buf - 4, frame_size + 4) < 0) {
 +            av_log(f->avctx, AV_LOG_ERROR, "decode i2 frame failed\n");
              return -1;
 +        }
      } else if (frame_4cc == AV_RL32("ifrm")) {
 -        p->pict_type = AV_PICTURE_TYPE_I;
 -        if (decode_i_frame(f, buf, frame_size) < 0)
 +        p->pict_type= AV_PICTURE_TYPE_I;
 +        if (decode_i_frame(f, buf, frame_size) < 0) {
 +            av_log(f->avctx, AV_LOG_ERROR, "decode i frame failed\n");
              return -1;
 +        }
      } else if (frame_4cc == AV_RL32("pfrm") || frame_4cc == AV_RL32("pfr2")) {
          if (!f->last_picture.data[0]) {
 -            f->last_picture.reference = 1;
 +            f->last_picture.reference = 3;
-             if (avctx->get_buffer(avctx, &f->last_picture) < 0) {
+             if (ff_get_buffer(avctx, &f->last_picture) < 0) {
                  av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
                  return -1;
              }
Simple merge
index 618ae872cc3801bd54761b83bd7c76763de3b731,dda181b86a94e55a38511a233d06d43fbaaa10fe..4bbbeb139f6be6d0d312b9947bddedc6a68f6a71
   *
   * supports: fibonacci delta encoding
   *         : exponential encoding
 + *
 + * For more information about the 8SVX format:
 + * http://netghost.narod.ru/gff/vendspec/iff/iff.txt
 + * http://sox.sourceforge.net/AudioFormats-11.html
 + * http://aminet.net/package/mus/misc/wavepak
 + * http://amigan.1emu.net/reg/8SVX.txt
 + *
 + * Samples can be found here:
 + * http://aminet.net/mods/smpl/
   */
  
 +#include "libavutil/avassert.h"
  #include "avcodec.h"
+ #include "internal.h"
  #include "libavutil/common.h"
  
  /** decoder context */
@@@ -134,8 -136,8 +135,8 @@@ static int eightsvx_decode_frame(AVCode
      }
  
      /* get output buffer */
 -    esc->frame.nb_samples = buf_size * (is_compr + 1);
 +    esc->frame.nb_samples = buf_size * 2;
-     if ((ret = avctx->get_buffer(avctx, &esc->frame)) < 0) {
+     if ((ret = ff_get_buffer(avctx, &esc->frame)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return ret;
      }
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
index d84b39530144ca32805a0017d363d25179c642b3,bee14b86f1259a45e6d0c90069ebd91b979d0b26..961c57b5f27b8cc5d59cb095fb6839c3e81f984a
  
  #include "libavutil/common.h"
  #include "libavutil/lfg.h"
 +#include "libavutil/xga_font_data.h"
  #include "avcodec.h"
  #include "cga_data.h"
+ #include "internal.h"
  
  #define ATTR_BOLD         0x01  /**< Bold/Bright-foreground (mode 1) */
  #define ATTR_FAINT        0x02  /**< Faint (mode 2) */
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
index 2205a422e2df849f7a279970bc05aac219566c3e,0000000000000000000000000000000000000000..187dad5398e2ee45f1972f0be92a9084138fe3cd
mode 100644,000000..100644
--- /dev/null
@@@ -1,141 -1,0 +1,142 @@@
-     if((ret = avctx->get_buffer(avctx, p)) < 0){
 +/*
 + * AVRn decoder
 + * Copyright (c) 2012 Michael Niedermayer
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
++#include "internal.h"
 +#include "mjpeg.h"
 +#include "mjpegdec.h"
 +#include "libavutil/imgutils.h"
 +
 +typedef struct {
 +    MJpegDecodeContext mjpeg_ctx;
 +    AVFrame frame;
 +    int is_mjpeg;
 +    int interlace; //FIXME use frame.interlaced_frame
 +    int tff;
 +} AVRnContext;
 +
 +static av_cold int init(AVCodecContext *avctx)
 +{
 +    AVRnContext *a = avctx->priv_data;
 +    int ret;
 +
 +    // Support "Resolution 1:1" for Avid AVI Codec
 +    a->is_mjpeg = avctx->extradata_size < 31 || memcmp(&avctx->extradata[28], "1:1", 3);
 +
 +    if(!a->is_mjpeg && avctx->lowres) {
 +        av_log(avctx, AV_LOG_ERROR, "lowres is not possible with rawvideo\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    if(a->is_mjpeg)
 +        return ff_mjpeg_decode_init(avctx);
 +
 +    if ((ret = av_image_check_size(avctx->width, avctx->height, 0, avctx)) < 0)
 +        return ret;
 +
 +    avcodec_get_frame_defaults(&a->frame);
 +    avctx->pix_fmt = AV_PIX_FMT_UYVY422;
 +
 +    if(avctx->extradata_size >= 9 && avctx->extradata[4]+28 < avctx->extradata_size) {
 +        int ndx = avctx->extradata[4] + 4;
 +        a->interlace = !memcmp(avctx->extradata + ndx, "1:1(", 4);
 +        if(a->interlace) {
 +            a->tff = avctx->extradata[ndx + 24] == 1;
 +        }
 +    }
 +
 +    return 0;
 +}
 +
 +static av_cold int end(AVCodecContext *avctx)
 +{
 +    AVRnContext *a = avctx->priv_data;
 +    AVFrame *p = &a->frame;
 +
 +    if(p->data[0])
 +        avctx->release_buffer(avctx, p);
 +
 +    if(a->is_mjpeg)
 +        ff_mjpeg_decode_end(avctx);
 +
 +    return 0;
 +}
 +
 +static int decode_frame(AVCodecContext *avctx, void *data, int *data_size, AVPacket *avpkt)
 +{
 +    AVRnContext *a = avctx->priv_data;
 +    AVFrame *p = &a->frame;
 +    const uint8_t *buf = avpkt->data;
 +    int buf_size       = avpkt->size;
 +    int y, ret, true_height;
 +
 +    if(a->is_mjpeg)
 +        return ff_mjpeg_decode_frame(avctx, data, data_size, avpkt);
 +
 +    true_height    = buf_size / (2*avctx->width);
 +    if(p->data[0])
 +        avctx->release_buffer(avctx, p);
 +
 +    if(buf_size < 2*avctx->width * avctx->height) {
 +        av_log(avctx, AV_LOG_ERROR, "packet too small\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
++    if((ret = ff_get_buffer(avctx, p)) < 0){
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
 +    }
 +    p->pict_type= AV_PICTURE_TYPE_I;
 +    p->key_frame= 1;
 +
 +    if(a->interlace) {
 +        buf += (true_height - avctx->height)*avctx->width;
 +        for(y = 0; y < avctx->height-1; y+=2) {
 +            memcpy(p->data[0] + (y+ a->tff)*p->linesize[0], buf                             , 2*avctx->width);
 +            memcpy(p->data[0] + (y+!a->tff)*p->linesize[0], buf + avctx->width*true_height+4, 2*avctx->width);
 +            buf += 2*avctx->width;
 +        }
 +    } else {
 +        buf += (true_height - avctx->height)*avctx->width*2;
 +        for(y = 0; y < avctx->height; y++) {
 +            memcpy(p->data[0] + y*p->linesize[0], buf, 2*avctx->width);
 +            buf += 2*avctx->width;
 +        }
 +    }
 +
 +    *(AVFrame*)data = a->frame;
 +    *data_size      = sizeof(AVFrame);
 +    return buf_size;
 +}
 +
 +AVCodec ff_avrn_decoder = {
 +    .name           = "avrn",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_AVRN,
 +    .priv_data_size = sizeof(AVRnContext),
 +    .init           = init,
 +    .close          = end,
 +    .decode         = decode_frame,
 +    .long_name      = NULL_IF_CONFIG_SMALL("Avid AVI Codec"),
 +    .capabilities   = CODEC_CAP_DR1,
 +    .max_lowres     = 3,
 +};
 +
index 52d809010924791cb6af0c8afd492710743f8c1f,0000000000000000000000000000000000000000..7aa30ff8ff59a6d8d13530f6b086f2a71bd360fe
mode 100644,000000..100644
--- /dev/null
@@@ -1,155 -1,0 +1,156 @@@
-     if (avctx->get_buffer(avctx, pic) < 0) {
 +/*
 + * AVID Meridien decoder
 + *
 + * Copyright (c) 2012 Carl Eugen Hoyos
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
++#include "internal.h"
 +#include "libavutil/intreadwrite.h"
 +
 +static av_cold int avui_decode_init(AVCodecContext *avctx)
 +{
 +    avctx->pix_fmt = AV_PIX_FMT_YUVA422P;
 +
 +    avctx->coded_frame = avcodec_alloc_frame();
 +
 +    if (!avctx->coded_frame) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate frame.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static int avui_decode_frame(AVCodecContext *avctx, void *data,
 +                             int *data_size, AVPacket *avpkt)
 +{
 +    AVFrame *pic = avctx->coded_frame;
 +    const uint8_t *src = avpkt->data, *extradata = avctx->extradata;
 +    const uint8_t *srca;
 +    uint8_t *y, *u, *v, *a;
 +    int transparent, interlaced = 1, skip, opaque_length, i, j, k;
 +    uint32_t extradata_size = avctx->extradata_size;
 +
 +    if (pic->data[0])
 +        avctx->release_buffer(avctx, pic);
 +
 +    while (extradata_size >= 24) {
 +        uint32_t atom_size = AV_RB32(extradata);
 +        if (!memcmp(&extradata[4], "APRGAPRG0001", 12)) {
 +            interlaced = extradata[19] != 1;
 +            break;
 +        }
 +        if (atom_size && atom_size <= extradata_size) {
 +            extradata      += atom_size;
 +            extradata_size -= atom_size;
 +        } else {
 +            break;
 +        }
 +    }
 +    if (avctx->height == 486) {
 +        skip = 10;
 +    } else {
 +        skip = 16;
 +    }
 +    opaque_length = 2 * avctx->width * (avctx->height + skip) + 4 * interlaced;
 +    if (avpkt->size < opaque_length) {
 +        av_log(avctx, AV_LOG_ERROR, "Insufficient input data.\n");
 +        return AVERROR(EINVAL);
 +    }
 +    transparent = avctx->bits_per_coded_sample == 32 &&
 +                  avpkt->size >= opaque_length * 2 + 4;
 +    srca = src + opaque_length + 5;
 +
 +    pic->reference = 0;
 +
++    if (ff_get_buffer(avctx, pic) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate buffer.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    pic->key_frame = 1;
 +    pic->pict_type = AV_PICTURE_TYPE_I;
 +
 +    if (!interlaced) {
 +        src  += avctx->width * skip;
 +        srca += avctx->width * skip;
 +    }
 +
 +    for (i = 0; i < interlaced + 1; i++) {
 +        src  += avctx->width * skip;
 +        srca += avctx->width * skip;
 +        if (interlaced && avctx->height == 486) {
 +            y = pic->data[0] + (1 - i) * pic->linesize[0];
 +            u = pic->data[1] + (1 - i) * pic->linesize[1];
 +            v = pic->data[2] + (1 - i) * pic->linesize[2];
 +            a = pic->data[3] + (1 - i) * pic->linesize[3];
 +        } else {
 +            y = pic->data[0] + i * pic->linesize[0];
 +            u = pic->data[1] + i * pic->linesize[1];
 +            v = pic->data[2] + i * pic->linesize[2];
 +            a = pic->data[3] + i * pic->linesize[3];
 +        }
 +
 +        for (j = 0; j < avctx->height >> interlaced; j++) {
 +            for (k = 0; k < avctx->width >> 1; k++) {
 +                u[    k    ] = *src++;
 +                y[2 * k    ] = *src++;
 +                a[2 * k    ] = 0xFF - (transparent ? *srca++ : 0);
 +                srca++;
 +                v[    k    ] = *src++;
 +                y[2 * k + 1] = *src++;
 +                a[2 * k + 1] = 0xFF - (transparent ? *srca++ : 0);
 +                srca++;
 +            }
 +
 +            y += (interlaced + 1) * pic->linesize[0];
 +            u += (interlaced + 1) * pic->linesize[1];
 +            v += (interlaced + 1) * pic->linesize[2];
 +            a += (interlaced + 1) * pic->linesize[3];
 +        }
 +        src  += 4;
 +        srca += 4;
 +    }
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame *)data = *pic;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int avui_decode_close(AVCodecContext *avctx)
 +{
 +    if (avctx->coded_frame->data[0])
 +        avctx->release_buffer(avctx, avctx->coded_frame);
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_avui_decoder = {
 +    .name         = "avui",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_AVUI,
 +    .init         = avui_decode_init,
 +    .decode       = avui_decode_frame,
 +    .close        = avui_decode_close,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("Avid Meridien Uncompressed"),
 +};
index f7df68e527c7aad4dcab4bae26b771acc7b1f352,03d06fa489a573e53a7824bb02d2f4f8adf12cad..33f9e419520391cf01dacc804d364e2945253f57
@@@ -61,9 -60,9 +62,9 @@@ static int bfi_decode_frame(AVCodecCont
      if (bfi->frame.data[0])
          avctx->release_buffer(avctx, &bfi->frame);
  
 -    bfi->frame.reference = 1;
 +    bfi->frame.reference = 3;
  
-     if (avctx->get_buffer(avctx, &bfi->frame) < 0) {
+     if (ff_get_buffer(avctx, &bfi->frame) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
Simple merge
Simple merge
Simple merge
index fa44c6ceff8b528261e68569ea5de68df2722bc0,762a7fb2617b2e8dd4aaf1ae95e2c5fd120aaf26..da9b8aaba6e50ab947c5fe3db9ca5f9e555f532a
@@@ -19,6 -19,6 +19,7 @@@
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
++#include "libavutil/avassert.h"
  #include "libavutil/channel_layout.h"
  #include "avcodec.h"
  #include "bytestream.h"
index 886e8fbfe6123ff896ddfc9e45365c194c2075d5,0000000000000000000000000000000000000000..92bc8b4e1b66480e36bfab14ccac4ac59f33fe25
mode 100644,000000..100644
--- /dev/null
@@@ -1,244 -1,0 +1,245 @@@
-     if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0) {
 +/*
 + * BRender PIX (.pix) image decoder
 + * Copyright (c) 2012 Aleksi Nurmi
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/*
 + * Tested against samples from I-War / Independence War and Defiance.
 + * If the PIX file does not contain a palette, the
 + * palette_has_changed property of the AVFrame is set to 0.
 + */
 +
 +#include "libavutil/imgutils.h"
 +#include "avcodec.h"
 +#include "bytestream.h"
++#include "internal.h"
 +
 +typedef struct BRPixContext {
 +    AVFrame frame;
 +} BRPixContext;
 +
 +typedef struct BRPixHeader {
 +    int format;
 +    unsigned int width, height;
 +} BRPixHeader;
 +
 +static av_cold int brpix_init(AVCodecContext *avctx)
 +{
 +    BRPixContext *s = avctx->priv_data;
 +
 +    avcodec_get_frame_defaults(&s->frame);
 +    avctx->coded_frame = &s->frame;
 +
 +    return 0;
 +}
 +
 +static int brpix_decode_header(BRPixHeader *out, GetByteContext *pgb)
 +{
 +    unsigned int header_len = bytestream2_get_be32(pgb);
 +
 +    out->format = bytestream2_get_byte(pgb);
 +    bytestream2_skip(pgb, 2);
 +    out->width = bytestream2_get_be16(pgb);
 +    out->height = bytestream2_get_be16(pgb);
 +
 +    // the header is at least 11 bytes long; we read the first 7
 +    if (header_len < 11) {
 +        return 0;
 +    }
 +
 +    // skip the rest of the header
 +    bytestream2_skip(pgb, header_len-7);
 +
 +    return 1;
 +}
 +
 +static int brpix_decode_frame(AVCodecContext *avctx,
 +                              void *data, int *data_size_out,
 +                              AVPacket *avpkt)
 +{
 +    BRPixContext *s = avctx->priv_data;
 +    AVFrame *frame_out = data;
 +
 +    int ret;
 +    GetByteContext gb;
 +
 +    unsigned int bytes_pp;
 +
 +    unsigned int magic[4];
 +    unsigned int chunk_type;
 +    unsigned int data_len;
 +    BRPixHeader hdr;
 +
 +    bytestream2_init(&gb, avpkt->data, avpkt->size);
 +
 +    magic[0] = bytestream2_get_be32(&gb);
 +    magic[1] = bytestream2_get_be32(&gb);
 +    magic[2] = bytestream2_get_be32(&gb);
 +    magic[3] = bytestream2_get_be32(&gb);
 +
 +    if (magic[0] != 0x12 ||
 +        magic[1] != 0x8 ||
 +        magic[2] != 0x2 ||
 +        magic[3] != 0x2) {
 +        av_log(avctx, AV_LOG_ERROR, "Not a BRender PIX file\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    chunk_type = bytestream2_get_be32(&gb);
 +    if (chunk_type != 0x3 && chunk_type != 0x3d) {
 +        av_log(avctx, AV_LOG_ERROR, "Invalid chunk type %d\n", chunk_type);
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    ret = brpix_decode_header(&hdr, &gb);
 +    if (!ret) {
 +        av_log(avctx, AV_LOG_ERROR, "Invalid header length\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +    switch (hdr.format) {
 +    case 3:
 +        avctx->pix_fmt = AV_PIX_FMT_PAL8;
 +        bytes_pp = 1;
 +        break;
 +    case 4:
 +        avctx->pix_fmt = AV_PIX_FMT_RGB555BE;
 +        bytes_pp = 2;
 +        break;
 +    case 5:
 +        avctx->pix_fmt = AV_PIX_FMT_RGB565BE;
 +        bytes_pp = 2;
 +        break;
 +    case 6:
 +        avctx->pix_fmt = AV_PIX_FMT_RGB24;
 +        bytes_pp = 3;
 +        break;
 +    case 7:
 +        avctx->pix_fmt = AV_PIX_FMT_0RGB;
 +        bytes_pp = 4;
 +        break;
 +    case 18:
 +        avctx->pix_fmt = AV_PIX_FMT_GRAY8A;
 +        bytes_pp = 2;
 +        break;
 +    default:
 +        av_log(avctx, AV_LOG_ERROR, "Format %d is not supported\n",
 +                                    hdr.format);
 +        return AVERROR_PATCHWELCOME;
 +    }
 +
 +    if (s->frame.data[0])
 +        avctx->release_buffer(avctx, &s->frame);
 +
 +    if (av_image_check_size(hdr.width, hdr.height, 0, avctx) < 0)
 +        return AVERROR_INVALIDDATA;
 +
 +    if (hdr.width != avctx->width || hdr.height != avctx->height)
 +        avcodec_set_dimensions(avctx, hdr.width, hdr.height);
 +
++    if ((ret = ff_get_buffer(avctx, &s->frame)) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
 +    }
 +
 +    chunk_type = bytestream2_get_be32(&gb);
 +
 +    if (avctx->pix_fmt == AV_PIX_FMT_PAL8 &&
 +        (chunk_type == 0x3 || chunk_type == 0x3d)) {
 +        BRPixHeader palhdr;
 +        uint32_t *pal_out = (uint32_t *)s->frame.data[1];
 +        int i;
 +
 +        ret = brpix_decode_header(&palhdr, &gb);
 +        if (!ret) {
 +            av_log(avctx, AV_LOG_ERROR, "Invalid palette header length\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +        if (palhdr.format != 7) {
 +            av_log(avctx, AV_LOG_ERROR, "Palette is not in 0RGB format\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +
 +        chunk_type = bytestream2_get_be32(&gb);
 +        data_len = bytestream2_get_be32(&gb);
 +        bytestream2_skip(&gb, 8);
 +        if (chunk_type != 0x21 || data_len != 1032 ||
 +            bytestream2_get_bytes_left(&gb) < 1032) {
 +            av_log(avctx, AV_LOG_ERROR, "Invalid palette data\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +        // convert 0RGB to machine endian format (ARGB32)
 +        for (i = 0; i < 256; ++i) {
 +            bytestream2_skipu(&gb, 1);
 +            *pal_out++ = (0xFFU << 24) | bytestream2_get_be24u(&gb);
 +        }
 +        bytestream2_skip(&gb, 8);
 +
 +        s->frame.palette_has_changed = 1;
 +
 +        chunk_type = bytestream2_get_be32(&gb);
 +    }
 +
 +    data_len = bytestream2_get_be32(&gb);
 +    bytestream2_skip(&gb, 8);
 +
 +    // read the image data to the buffer
 +    {
 +        unsigned int bytes_per_scanline = bytes_pp * hdr.width;
 +        unsigned int bytes_left = bytestream2_get_bytes_left(&gb);
 +
 +        if (chunk_type != 0x21 || data_len != bytes_left ||
 +            bytes_left / bytes_per_scanline < hdr.height)
 +        {
 +            av_log(avctx, AV_LOG_ERROR, "Invalid image data\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +
 +        av_image_copy_plane(s->frame.data[0], s->frame.linesize[0],
 +                            avpkt->data + bytestream2_tell(&gb),
 +                            bytes_per_scanline,
 +                            bytes_per_scanline, hdr.height);
 +    }
 +
 +    *frame_out = s->frame;
 +    *data_size_out = sizeof(AVFrame);
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int brpix_end(AVCodecContext *avctx)
 +{
 +    BRPixContext *s = avctx->priv_data;
 +
 +    if(s->frame.data[0])
 +        avctx->release_buffer(avctx, &s->frame);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_brender_pix_decoder = {
 +    .name           = "brender_pix",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_BRENDER_PIX,
 +    .priv_data_size = sizeof(BRPixContext),
 +    .init           = brpix_init,
 +    .close          = brpix_end,
 +    .decode         = brpix_decode_frame,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("BRender PIX image"),
 +};
Simple merge
Simple merge
index 170826639387ba3c23ec5f17bedb4939fb9ca0d8,b51a2cb00f7126009cd96c89f3921beca6d6dd92..3a41805d99208a9c78691ba7766f632299045a36
  #include "libavutil/imgutils.h"
  #include "avcodec.h"
  #include "get_bits.h"
+ #include "internal.h"
  
  #define BIT_PLANAR   0x00
 -#define BYTE_PLANAR  0x20
 -#define CHUNKY       0x40
 +#define CHUNKY       0x20
 +#define BYTE_PLANAR  0x40
  #define BIT_LINE     0x80
  #define BYTE_LINE    0xC0
  
index 87c8fc24fb87e8bb6e20ac62579083dd0b4451c1,c4b12b1d1f40d74f541c9115153030cd54794268..e24002653685e922bf1b233463937bc911b4fc1f
@@@ -74,9 -70,9 +74,9 @@@ static int decode_frame(AVCodecContext 
      }
  
      p->reference = 0;
-     if ((ret = avctx->get_buffer(avctx, p)) < 0) {
 -    if (ff_get_buffer(avctx, p) < 0) {
++    if ((ret = ff_get_buffer(avctx, p)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +        return ret;
      }
      p->pict_type = AV_PICTURE_TYPE_I;
      p->key_frame = 1;
Simple merge
Simple merge
Simple merge
index bf846d31dd8ea7cdf52cb2958a1657ce2ab65657,0000000000000000000000000000000000000000..d18243c12898ba48d23f3143af7a4897a1bbcd7e
mode 100644,000000..100644
--- /dev/null
@@@ -1,1225 -1,0 +1,1226 @@@
-         if (avctx->get_buffer(avctx, &priv->pic) < 0) {
 +/*
 + * - CrystalHD decoder module -
 + *
 + * Copyright(C) 2010,2011 Philip Langdale <ffmpeg.philipl@overt.org>
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/*
 + * - Principles of Operation -
 + *
 + * The CrystalHD decoder operates at the bitstream level - which is an even
 + * higher level than the decoding hardware you typically see in modern GPUs.
 + * This means it has a very simple interface, in principle. You feed demuxed
 + * packets in one end and get decoded picture (fields/frames) out the other.
 + *
 + * Of course, nothing is ever that simple. Due, at the very least, to b-frame
 + * dependencies in the supported formats, the hardware has a delay between
 + * when a packet goes in, and when a picture comes out. Furthermore, this delay
 + * is not just a function of time, but also one of the dependency on additional
 + * frames being fed into the decoder to satisfy the b-frame dependencies.
 + *
 + * As such, a pipeline will build up that is roughly equivalent to the required
 + * DPB for the file being played. If that was all it took, things would still
 + * be simple - so, of course, it isn't.
 + *
 + * The hardware has a way of indicating that a picture is ready to be copied out,
 + * but this is unreliable - and sometimes the attempt will still fail so, based
 + * on testing, the code will wait until 3 pictures are ready before starting
 + * to copy out - and this has the effect of extending the pipeline.
 + *
 + * Finally, while it is tempting to say that once the decoder starts outputting
 + * frames, the software should never fail to return a frame from a decode(),
 + * this is a hard assertion to make, because the stream may switch between
 + * differently encoded content (number of b-frames, interlacing, etc) which
 + * might require a longer pipeline than before. If that happened, you could
 + * deadlock trying to retrieve a frame that can't be decoded without feeding
 + * in additional packets.
 + *
 + * As such, the code will return in the event that a picture cannot be copied
 + * out, leading to an increase in the length of the pipeline. This in turn,
 + * means we have to be sensitive to the time it takes to decode a picture;
 + * We do not want to give up just because the hardware needed a little more
 + * time to prepare the picture! For this reason, there are delays included
 + * in the decode() path that ensure that, under normal conditions, the hardware
 + * will only fail to return a frame if it really needs additional packets to
 + * complete the decoding.
 + *
 + * Finally, to be explicit, we do not want the pipeline to grow without bound
 + * for two reasons: 1) The hardware can only buffer a finite number of packets,
 + * and 2) The client application may not be able to cope with arbitrarily long
 + * delays in the video path relative to the audio path. For example. MPlayer
 + * can only handle a 20 picture delay (although this is arbitrary, and needs
 + * to be extended to fully support the CrystalHD where the delay could be up
 + * to 32 pictures - consider PAFF H.264 content with 16 b-frames).
 + */
 +
 +/*****************************************************************************
 + * Includes
 + ****************************************************************************/
 +
 +#define _XOPEN_SOURCE 600
 +#include <inttypes.h>
 +#include <stdio.h>
 +#include <stdlib.h>
 +#include <unistd.h>
 +
 +#include <libcrystalhd/bc_dts_types.h>
 +#include <libcrystalhd/bc_dts_defs.h>
 +#include <libcrystalhd/libcrystalhd_if.h>
 +
 +#include "avcodec.h"
 +#include "h264.h"
++#include "internal.h"
 +#include "libavutil/imgutils.h"
 +#include "libavutil/intreadwrite.h"
 +#include "libavutil/opt.h"
 +
 +/** Timeout parameter passed to DtsProcOutput() in us */
 +#define OUTPUT_PROC_TIMEOUT 50
 +/** Step between fake timestamps passed to hardware in units of 100ns */
 +#define TIMESTAMP_UNIT 100000
 +/** Initial value in us of the wait in decode() */
 +#define BASE_WAIT 10000
 +/** Increment in us to adjust wait in decode() */
 +#define WAIT_UNIT 1000
 +
 +
 +/*****************************************************************************
 + * Module private data
 + ****************************************************************************/
 +
 +typedef enum {
 +    RET_ERROR           = -1,
 +    RET_OK              = 0,
 +    RET_COPY_AGAIN      = 1,
 +    RET_SKIP_NEXT_COPY  = 2,
 +    RET_COPY_NEXT_FIELD = 3,
 +} CopyRet;
 +
 +typedef struct OpaqueList {
 +    struct OpaqueList *next;
 +    uint64_t fake_timestamp;
 +    uint64_t reordered_opaque;
 +    uint8_t pic_type;
 +} OpaqueList;
 +
 +typedef struct {
 +    AVClass *av_class;
 +    AVCodecContext *avctx;
 +    AVFrame pic;
 +    HANDLE dev;
 +
 +    uint8_t *orig_extradata;
 +    uint32_t orig_extradata_size;
 +
 +    AVBitStreamFilterContext *bsfc;
 +    AVCodecParserContext *parser;
 +
 +    uint8_t is_70012;
 +    uint8_t *sps_pps_buf;
 +    uint32_t sps_pps_size;
 +    uint8_t is_nal;
 +    uint8_t output_ready;
 +    uint8_t need_second_field;
 +    uint8_t skip_next_output;
 +    uint64_t decode_wait;
 +
 +    uint64_t last_picture;
 +
 +    OpaqueList *head;
 +    OpaqueList *tail;
 +
 +    /* Options */
 +    uint32_t sWidth;
 +    uint8_t bframe_bug;
 +} CHDContext;
 +
 +static const AVOption options[] = {
 +    { "crystalhd_downscale_width",
 +      "Turn on downscaling to the specified width",
 +      offsetof(CHDContext, sWidth),
 +      AV_OPT_TYPE_INT, {.i64 = 0}, 0, UINT32_MAX,
 +      AV_OPT_FLAG_VIDEO_PARAM | AV_OPT_FLAG_DECODING_PARAM, },
 +    { NULL, },
 +};
 +
 +
 +/*****************************************************************************
 + * Helper functions
 + ****************************************************************************/
 +
 +static inline BC_MEDIA_SUBTYPE id2subtype(CHDContext *priv, enum AVCodecID id)
 +{
 +    switch (id) {
 +    case AV_CODEC_ID_MPEG4:
 +        return BC_MSUBTYPE_DIVX;
 +    case AV_CODEC_ID_MSMPEG4V3:
 +        return BC_MSUBTYPE_DIVX311;
 +    case AV_CODEC_ID_MPEG2VIDEO:
 +        return BC_MSUBTYPE_MPEG2VIDEO;
 +    case AV_CODEC_ID_VC1:
 +        return BC_MSUBTYPE_VC1;
 +    case AV_CODEC_ID_WMV3:
 +        return BC_MSUBTYPE_WMV3;
 +    case AV_CODEC_ID_H264:
 +        return priv->is_nal ? BC_MSUBTYPE_AVC1 : BC_MSUBTYPE_H264;
 +    default:
 +        return BC_MSUBTYPE_INVALID;
 +    }
 +}
 +
 +static inline void print_frame_info(CHDContext *priv, BC_DTS_PROC_OUT *output)
 +{
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tYBuffSz: %u\n", output->YbuffSz);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tYBuffDoneSz: %u\n",
 +           output->YBuffDoneSz);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tUVBuffDoneSz: %u\n",
 +           output->UVBuffDoneSz);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tTimestamp: %"PRIu64"\n",
 +           output->PicInfo.timeStamp);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tPicture Number: %u\n",
 +           output->PicInfo.picture_number);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tWidth: %u\n",
 +           output->PicInfo.width);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tHeight: %u\n",
 +           output->PicInfo.height);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tChroma: 0x%03x\n",
 +           output->PicInfo.chroma_format);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tPulldown: %u\n",
 +           output->PicInfo.pulldown);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tFlags: 0x%08x\n",
 +           output->PicInfo.flags);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tFrame Rate/Res: %u\n",
 +           output->PicInfo.frame_rate);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tAspect Ratio: %u\n",
 +           output->PicInfo.aspect_ratio);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tColor Primaries: %u\n",
 +           output->PicInfo.colour_primaries);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tMetaData: %u\n",
 +           output->PicInfo.picture_meta_payload);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tSession Number: %u\n",
 +           output->PicInfo.sess_num);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tycom: %u\n",
 +           output->PicInfo.ycom);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tCustom Aspect: %u\n",
 +           output->PicInfo.custom_aspect_ratio_width_height);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tFrames to Drop: %u\n",
 +           output->PicInfo.n_drop);
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "\tH264 Valid Fields: 0x%08x\n",
 +           output->PicInfo.other.h264.valid);
 +}
 +
 +
 +/*****************************************************************************
 + * OpaqueList functions
 + ****************************************************************************/
 +
 +static uint64_t opaque_list_push(CHDContext *priv, uint64_t reordered_opaque,
 +                                 uint8_t pic_type)
 +{
 +    OpaqueList *newNode = av_mallocz(sizeof (OpaqueList));
 +    if (!newNode) {
 +        av_log(priv->avctx, AV_LOG_ERROR,
 +               "Unable to allocate new node in OpaqueList.\n");
 +        return 0;
 +    }
 +    if (!priv->head) {
 +        newNode->fake_timestamp = TIMESTAMP_UNIT;
 +        priv->head              = newNode;
 +    } else {
 +        newNode->fake_timestamp = priv->tail->fake_timestamp + TIMESTAMP_UNIT;
 +        priv->tail->next        = newNode;
 +    }
 +    priv->tail = newNode;
 +    newNode->reordered_opaque = reordered_opaque;
 +    newNode->pic_type = pic_type;
 +
 +    return newNode->fake_timestamp;
 +}
 +
 +/*
 + * The OpaqueList is built in decode order, while elements will be removed
 + * in presentation order. If frames are reordered, this means we must be
 + * able to remove elements that are not the first element.
 + *
 + * Returned node must be freed by caller.
 + */
 +static OpaqueList *opaque_list_pop(CHDContext *priv, uint64_t fake_timestamp)
 +{
 +    OpaqueList *node = priv->head;
 +
 +    if (!priv->head) {
 +        av_log(priv->avctx, AV_LOG_ERROR,
 +               "CrystalHD: Attempted to query non-existent timestamps.\n");
 +        return NULL;
 +    }
 +
 +    /*
 +     * The first element is special-cased because we have to manipulate
 +     * the head pointer rather than the previous element in the list.
 +     */
 +    if (priv->head->fake_timestamp == fake_timestamp) {
 +        priv->head = node->next;
 +
 +        if (!priv->head->next)
 +            priv->tail = priv->head;
 +
 +        node->next = NULL;
 +        return node;
 +    }
 +
 +    /*
 +     * The list is processed at arm's length so that we have the
 +     * previous element available to rewrite its next pointer.
 +     */
 +    while (node->next) {
 +        OpaqueList *current = node->next;
 +        if (current->fake_timestamp == fake_timestamp) {
 +            node->next = current->next;
 +
 +            if (!node->next)
 +               priv->tail = node;
 +
 +            current->next = NULL;
 +            return current;
 +        } else {
 +            node = current;
 +        }
 +    }
 +
 +    av_log(priv->avctx, AV_LOG_VERBOSE,
 +           "CrystalHD: Couldn't match fake_timestamp.\n");
 +    return NULL;
 +}
 +
 +
 +/*****************************************************************************
 + * Video decoder API function definitions
 + ****************************************************************************/
 +
 +static void flush(AVCodecContext *avctx)
 +{
 +    CHDContext *priv = avctx->priv_data;
 +
 +    avctx->has_b_frames     = 0;
 +    priv->last_picture      = -1;
 +    priv->output_ready      = 0;
 +    priv->need_second_field = 0;
 +    priv->skip_next_output  = 0;
 +    priv->decode_wait       = BASE_WAIT;
 +
 +    if (priv->pic.data[0])
 +        avctx->release_buffer(avctx, &priv->pic);
 +
 +    /* Flush mode 4 flushes all software and hardware buffers. */
 +    DtsFlushInput(priv->dev, 4);
 +}
 +
 +
 +static av_cold int uninit(AVCodecContext *avctx)
 +{
 +    CHDContext *priv = avctx->priv_data;
 +    HANDLE device;
 +
 +    device = priv->dev;
 +    DtsStopDecoder(device);
 +    DtsCloseDecoder(device);
 +    DtsDeviceClose(device);
 +
 +    /*
 +     * Restore original extradata, so that if the decoder is
 +     * reinitialised, the bitstream detection and filtering
 +     * will work as expected.
 +     */
 +    if (priv->orig_extradata) {
 +        av_free(avctx->extradata);
 +        avctx->extradata = priv->orig_extradata;
 +        avctx->extradata_size = priv->orig_extradata_size;
 +        priv->orig_extradata = NULL;
 +        priv->orig_extradata_size = 0;
 +    }
 +
 +    av_parser_close(priv->parser);
 +    if (priv->bsfc) {
 +        av_bitstream_filter_close(priv->bsfc);
 +    }
 +
 +    av_free(priv->sps_pps_buf);
 +
 +    if (priv->pic.data[0])
 +        avctx->release_buffer(avctx, &priv->pic);
 +
 +    if (priv->head) {
 +       OpaqueList *node = priv->head;
 +       while (node) {
 +          OpaqueList *next = node->next;
 +          av_free(node);
 +          node = next;
 +       }
 +    }
 +
 +    return 0;
 +}
 +
 +
 +static av_cold int init(AVCodecContext *avctx)
 +{
 +    CHDContext* priv;
 +    BC_STATUS ret;
 +    BC_INFO_CRYSTAL version;
 +    BC_INPUT_FORMAT format = {
 +        .FGTEnable   = FALSE,
 +        .Progressive = TRUE,
 +        .OptFlags    = 0x80000000 | vdecFrameRate59_94 | 0x40,
 +        .width       = avctx->width,
 +        .height      = avctx->height,
 +    };
 +
 +    BC_MEDIA_SUBTYPE subtype;
 +
 +    uint32_t mode = DTS_PLAYBACK_MODE |
 +                    DTS_LOAD_FILE_PLAY_FW |
 +                    DTS_SKIP_TX_CHK_CPB |
 +                    DTS_PLAYBACK_DROP_RPT_MODE |
 +                    DTS_SINGLE_THREADED_MODE |
 +                    DTS_DFLT_RESOLUTION(vdecRESOLUTION_1080p23_976);
 +
 +    av_log(avctx, AV_LOG_VERBOSE, "CrystalHD Init for %s\n",
 +           avctx->codec->name);
 +
 +    avctx->pix_fmt = AV_PIX_FMT_YUYV422;
 +
 +    /* Initialize the library */
 +    priv               = avctx->priv_data;
 +    priv->avctx        = avctx;
 +    priv->is_nal       = avctx->extradata_size > 0 && *(avctx->extradata) == 1;
 +    priv->last_picture = -1;
 +    priv->decode_wait  = BASE_WAIT;
 +
 +    subtype = id2subtype(priv, avctx->codec->id);
 +    switch (subtype) {
 +    case BC_MSUBTYPE_AVC1:
 +        {
 +            uint8_t *dummy_p;
 +            int dummy_int;
 +
 +            /* Back up the extradata so it can be restored at close time. */
 +            priv->orig_extradata = av_malloc(avctx->extradata_size);
 +            if (!priv->orig_extradata) {
 +                av_log(avctx, AV_LOG_ERROR,
 +                       "Failed to allocate copy of extradata\n");
 +                return AVERROR(ENOMEM);
 +            }
 +            priv->orig_extradata_size = avctx->extradata_size;
 +            memcpy(priv->orig_extradata, avctx->extradata, avctx->extradata_size);
 +
 +            priv->bsfc = av_bitstream_filter_init("h264_mp4toannexb");
 +            if (!priv->bsfc) {
 +                av_log(avctx, AV_LOG_ERROR,
 +                       "Cannot open the h264_mp4toannexb BSF!\n");
 +                return AVERROR_BSF_NOT_FOUND;
 +            }
 +            av_bitstream_filter_filter(priv->bsfc, avctx, NULL, &dummy_p,
 +                                       &dummy_int, NULL, 0, 0);
 +        }
 +        subtype = BC_MSUBTYPE_H264;
 +        // Fall-through
 +    case BC_MSUBTYPE_H264:
 +        format.startCodeSz = 4;
 +        // Fall-through
 +    case BC_MSUBTYPE_VC1:
 +    case BC_MSUBTYPE_WVC1:
 +    case BC_MSUBTYPE_WMV3:
 +    case BC_MSUBTYPE_WMVA:
 +    case BC_MSUBTYPE_MPEG2VIDEO:
 +    case BC_MSUBTYPE_DIVX:
 +    case BC_MSUBTYPE_DIVX311:
 +        format.pMetaData  = avctx->extradata;
 +        format.metaDataSz = avctx->extradata_size;
 +        break;
 +    default:
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: Unknown codec name\n");
 +        return AVERROR(EINVAL);
 +    }
 +    format.mSubtype = subtype;
 +
 +    if (priv->sWidth) {
 +        format.bEnableScaling = 1;
 +        format.ScalingParams.sWidth = priv->sWidth;
 +    }
 +
 +    /* Get a decoder instance */
 +    av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: starting up\n");
 +    // Initialize the Link and Decoder devices
 +    ret = DtsDeviceOpen(&priv->dev, mode);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: DtsDeviceOpen failed\n");
 +        goto fail;
 +    }
 +
 +    ret = DtsCrystalHDVersion(priv->dev, &version);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_VERBOSE,
 +               "CrystalHD: DtsCrystalHDVersion failed\n");
 +        goto fail;
 +    }
 +    priv->is_70012 = version.device == 0;
 +
 +    if (priv->is_70012 &&
 +        (subtype == BC_MSUBTYPE_DIVX || subtype == BC_MSUBTYPE_DIVX311)) {
 +        av_log(avctx, AV_LOG_VERBOSE,
 +               "CrystalHD: BCM70012 doesn't support MPEG4-ASP/DivX/Xvid\n");
 +        goto fail;
 +    }
 +
 +    ret = DtsSetInputFormat(priv->dev, &format);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: SetInputFormat failed\n");
 +        goto fail;
 +    }
 +
 +    ret = DtsOpenDecoder(priv->dev, BC_STREAM_TYPE_ES);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: DtsOpenDecoder failed\n");
 +        goto fail;
 +    }
 +
 +    ret = DtsSetColorSpace(priv->dev, OUTPUT_MODE422_YUY2);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: DtsSetColorSpace failed\n");
 +        goto fail;
 +    }
 +    ret = DtsStartDecoder(priv->dev);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: DtsStartDecoder failed\n");
 +        goto fail;
 +    }
 +    ret = DtsStartCapture(priv->dev);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: DtsStartCapture failed\n");
 +        goto fail;
 +    }
 +
 +    if (avctx->codec->id == AV_CODEC_ID_H264) {
 +        priv->parser = av_parser_init(avctx->codec->id);
 +        if (!priv->parser)
 +            av_log(avctx, AV_LOG_WARNING,
 +                   "Cannot open the h.264 parser! Interlaced h.264 content "
 +                   "will not be detected reliably.\n");
 +        priv->parser->flags = PARSER_FLAG_COMPLETE_FRAMES;
 +    }
 +    av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: Init complete.\n");
 +
 +    return 0;
 +
 + fail:
 +    uninit(avctx);
 +    return -1;
 +}
 +
 +
 +static inline CopyRet copy_frame(AVCodecContext *avctx,
 +                                 BC_DTS_PROC_OUT *output,
 +                                 void *data, int *data_size)
 +{
 +    BC_STATUS ret;
 +    BC_DTS_STATUS decoder_status = { 0, };
 +    uint8_t trust_interlaced;
 +    uint8_t interlaced;
 +
 +    CHDContext *priv = avctx->priv_data;
 +    int64_t pkt_pts  = AV_NOPTS_VALUE;
 +    uint8_t pic_type = 0;
 +
 +    uint8_t bottom_field = (output->PicInfo.flags & VDEC_FLAG_BOTTOMFIELD) ==
 +                           VDEC_FLAG_BOTTOMFIELD;
 +    uint8_t bottom_first = !!(output->PicInfo.flags & VDEC_FLAG_BOTTOM_FIRST);
 +
 +    int width    = output->PicInfo.width;
 +    int height   = output->PicInfo.height;
 +    int bwidth;
 +    uint8_t *src = output->Ybuff;
 +    int sStride;
 +    uint8_t *dst;
 +    int dStride;
 +
 +    if (output->PicInfo.timeStamp != 0) {
 +        OpaqueList *node = opaque_list_pop(priv, output->PicInfo.timeStamp);
 +        if (node) {
 +            pkt_pts = node->reordered_opaque;
 +            pic_type = node->pic_type;
 +            av_free(node);
 +        } else {
 +            /*
 +             * We will encounter a situation where a timestamp cannot be
 +             * popped if a second field is being returned. In this case,
 +             * each field has the same timestamp and the first one will
 +             * cause it to be popped. To keep subsequent calculations
 +             * simple, pic_type should be set a FIELD value - doesn't
 +             * matter which, but I chose BOTTOM.
 +             */
 +            pic_type = PICT_BOTTOM_FIELD;
 +        }
 +        av_log(avctx, AV_LOG_VERBOSE, "output \"pts\": %"PRIu64"\n",
 +               output->PicInfo.timeStamp);
 +        av_log(avctx, AV_LOG_VERBOSE, "output picture type %d\n",
 +               pic_type);
 +    }
 +
 +    ret = DtsGetDriverStatus(priv->dev, &decoder_status);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_ERROR,
 +               "CrystalHD: GetDriverStatus failed: %u\n", ret);
 +       return RET_ERROR;
 +    }
 +
 +    /*
 +     * For most content, we can trust the interlaced flag returned
 +     * by the hardware, but sometimes we can't. These are the
 +     * conditions under which we can trust the flag:
 +     *
 +     * 1) It's not h.264 content
 +     * 2) The UNKNOWN_SRC flag is not set
 +     * 3) We know we're expecting a second field
 +     * 4) The hardware reports this picture and the next picture
 +     *    have the same picture number.
 +     *
 +     * Note that there can still be interlaced content that will
 +     * fail this check, if the hardware hasn't decoded the next
 +     * picture or if there is a corruption in the stream. (In either
 +     * case a 0 will be returned for the next picture number)
 +     */
 +    trust_interlaced = avctx->codec->id != AV_CODEC_ID_H264 ||
 +                       !(output->PicInfo.flags & VDEC_FLAG_UNKNOWN_SRC) ||
 +                       priv->need_second_field ||
 +                       (decoder_status.picNumFlags & ~0x40000000) ==
 +                       output->PicInfo.picture_number;
 +
 +    /*
 +     * If we got a false negative for trust_interlaced on the first field,
 +     * we will realise our mistake here when we see that the picture number is that
 +     * of the previous picture. We cannot recover the frame and should discard the
 +     * second field to keep the correct number of output frames.
 +     */
 +    if (output->PicInfo.picture_number == priv->last_picture && !priv->need_second_field) {
 +        av_log(avctx, AV_LOG_WARNING,
 +               "Incorrectly guessed progressive frame. Discarding second field\n");
 +        /* Returning without providing a picture. */
 +        return RET_OK;
 +    }
 +
 +    interlaced = (output->PicInfo.flags & VDEC_FLAG_INTERLACED_SRC) &&
 +                 trust_interlaced;
 +
 +    if (!trust_interlaced && (decoder_status.picNumFlags & ~0x40000000) == 0) {
 +        av_log(avctx, AV_LOG_VERBOSE,
 +               "Next picture number unknown. Assuming progressive frame.\n");
 +    }
 +
 +    av_log(avctx, AV_LOG_VERBOSE, "Interlaced state: %d | trust_interlaced %d\n",
 +           interlaced, trust_interlaced);
 +
 +    if (priv->pic.data[0] && !priv->need_second_field)
 +        avctx->release_buffer(avctx, &priv->pic);
 +
 +    priv->need_second_field = interlaced && !priv->need_second_field;
 +
 +    priv->pic.buffer_hints = FF_BUFFER_HINTS_VALID | FF_BUFFER_HINTS_PRESERVE |
 +                             FF_BUFFER_HINTS_REUSABLE;
 +    if (!priv->pic.data[0]) {
++        if (ff_get_buffer(avctx, &priv->pic) < 0) {
 +            av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +            return RET_ERROR;
 +        }
 +    }
 +
 +    bwidth = av_image_get_linesize(avctx->pix_fmt, width, 0);
 +    if (priv->is_70012) {
 +        int pStride;
 +
 +        if (width <= 720)
 +            pStride = 720;
 +        else if (width <= 1280)
 +            pStride = 1280;
 +        else pStride = 1920;
 +        sStride = av_image_get_linesize(avctx->pix_fmt, pStride, 0);
 +    } else {
 +        sStride = bwidth;
 +    }
 +
 +    dStride = priv->pic.linesize[0];
 +    dst     = priv->pic.data[0];
 +
 +    av_log(priv->avctx, AV_LOG_VERBOSE, "CrystalHD: Copying out frame\n");
 +
 +    if (interlaced) {
 +        int dY = 0;
 +        int sY = 0;
 +
 +        height /= 2;
 +        if (bottom_field) {
 +            av_log(priv->avctx, AV_LOG_VERBOSE, "Interlaced: bottom field\n");
 +            dY = 1;
 +        } else {
 +            av_log(priv->avctx, AV_LOG_VERBOSE, "Interlaced: top field\n");
 +            dY = 0;
 +        }
 +
 +        for (sY = 0; sY < height; dY++, sY++) {
 +            memcpy(&(dst[dY * dStride]), &(src[sY * sStride]), bwidth);
 +            dY++;
 +        }
 +    } else {
 +        av_image_copy_plane(dst, dStride, src, sStride, bwidth, height);
 +    }
 +
 +    priv->pic.interlaced_frame = interlaced;
 +    if (interlaced)
 +        priv->pic.top_field_first = !bottom_first;
 +
 +    priv->pic.pkt_pts = pkt_pts;
 +
 +    if (!priv->need_second_field) {
 +        *data_size       = sizeof(AVFrame);
 +        *(AVFrame *)data = priv->pic;
 +    }
 +
 +    /*
 +     * Two types of PAFF content have been observed. One form causes the
 +     * hardware to return a field pair and the other individual fields,
 +     * even though the input is always individual fields. We must skip
 +     * copying on the next decode() call to maintain pipeline length in
 +     * the first case.
 +     */
 +    if (!interlaced && (output->PicInfo.flags & VDEC_FLAG_UNKNOWN_SRC) &&
 +        (pic_type == PICT_TOP_FIELD || pic_type == PICT_BOTTOM_FIELD)) {
 +        av_log(priv->avctx, AV_LOG_VERBOSE, "Fieldpair from two packets.\n");
 +        return RET_SKIP_NEXT_COPY;
 +    }
 +
 +    /*
 +     * The logic here is purely based on empirical testing with samples.
 +     * If we need a second field, it could come from a second input packet,
 +     * or it could come from the same field-pair input packet at the current
 +     * field. In the first case, we should return and wait for the next time
 +     * round to get the second field, while in the second case, we should
 +     * ask the decoder for it immediately.
 +     *
 +     * Testing has shown that we are dealing with the fieldpair -> two fields
 +     * case if the VDEC_FLAG_UNKNOWN_SRC is not set or if the input picture
 +     * type was PICT_FRAME (in this second case, the flag might still be set)
 +     */
 +    return priv->need_second_field &&
 +           (!(output->PicInfo.flags & VDEC_FLAG_UNKNOWN_SRC) ||
 +            pic_type == PICT_FRAME) ?
 +           RET_COPY_NEXT_FIELD : RET_OK;
 +}
 +
 +
 +static inline CopyRet receive_frame(AVCodecContext *avctx,
 +                                    void *data, int *data_size)
 +{
 +    BC_STATUS ret;
 +    BC_DTS_PROC_OUT output = {
 +        .PicInfo.width  = avctx->width,
 +        .PicInfo.height = avctx->height,
 +    };
 +    CHDContext *priv = avctx->priv_data;
 +    HANDLE dev       = priv->dev;
 +
 +    *data_size = 0;
 +
 +    // Request decoded data from the driver
 +    ret = DtsProcOutputNoCopy(dev, OUTPUT_PROC_TIMEOUT, &output);
 +    if (ret == BC_STS_FMT_CHANGE) {
 +        av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: Initial format change\n");
 +        avctx->width  = output.PicInfo.width;
 +        avctx->height = output.PicInfo.height;
 +        switch ( output.PicInfo.aspect_ratio ) {
 +        case vdecAspectRatioSquare:
 +            avctx->sample_aspect_ratio = (AVRational) {  1,  1};
 +            break;
 +        case vdecAspectRatio12_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 12, 11};
 +            break;
 +        case vdecAspectRatio10_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 10, 11};
 +            break;
 +        case vdecAspectRatio16_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 16, 11};
 +            break;
 +        case vdecAspectRatio40_33:
 +            avctx->sample_aspect_ratio = (AVRational) { 40, 33};
 +            break;
 +        case vdecAspectRatio24_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 24, 11};
 +            break;
 +        case vdecAspectRatio20_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 20, 11};
 +            break;
 +        case vdecAspectRatio32_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 32, 11};
 +            break;
 +        case vdecAspectRatio80_33:
 +            avctx->sample_aspect_ratio = (AVRational) { 80, 33};
 +            break;
 +        case vdecAspectRatio18_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 18, 11};
 +            break;
 +        case vdecAspectRatio15_11:
 +            avctx->sample_aspect_ratio = (AVRational) { 15, 11};
 +            break;
 +        case vdecAspectRatio64_33:
 +            avctx->sample_aspect_ratio = (AVRational) { 64, 33};
 +            break;
 +        case vdecAspectRatio160_99:
 +            avctx->sample_aspect_ratio = (AVRational) {160, 99};
 +            break;
 +        case vdecAspectRatio4_3:
 +            avctx->sample_aspect_ratio = (AVRational) {  4,  3};
 +            break;
 +        case vdecAspectRatio16_9:
 +            avctx->sample_aspect_ratio = (AVRational) { 16,  9};
 +            break;
 +        case vdecAspectRatio221_1:
 +            avctx->sample_aspect_ratio = (AVRational) {221,  1};
 +            break;
 +        }
 +        return RET_COPY_AGAIN;
 +    } else if (ret == BC_STS_SUCCESS) {
 +        int copy_ret = -1;
 +        if (output.PoutFlags & BC_POUT_FLAGS_PIB_VALID) {
 +            if (priv->last_picture == -1) {
 +                /*
 +                 * Init to one less, so that the incrementing code doesn't
 +                 * need to be special-cased.
 +                 */
 +                priv->last_picture = output.PicInfo.picture_number - 1;
 +            }
 +
 +            if (avctx->codec->id == AV_CODEC_ID_MPEG4 &&
 +                output.PicInfo.timeStamp == 0 && priv->bframe_bug) {
 +                av_log(avctx, AV_LOG_VERBOSE,
 +                       "CrystalHD: Not returning packed frame twice.\n");
 +                priv->last_picture++;
 +                DtsReleaseOutputBuffs(dev, NULL, FALSE);
 +                return RET_COPY_AGAIN;
 +            }
 +
 +            print_frame_info(priv, &output);
 +
 +            if (priv->last_picture + 1 < output.PicInfo.picture_number) {
 +                av_log(avctx, AV_LOG_WARNING,
 +                       "CrystalHD: Picture Number discontinuity\n");
 +                /*
 +                 * Have we lost frames? If so, we need to shrink the
 +                 * pipeline length appropriately.
 +                 *
 +                 * XXX: I have no idea what the semantics of this situation
 +                 * are so I don't even know if we've lost frames or which
 +                 * ones.
 +                 *
 +                 * In any case, only warn the first time.
 +                 */
 +               priv->last_picture = output.PicInfo.picture_number - 1;
 +            }
 +
 +            copy_ret = copy_frame(avctx, &output, data, data_size);
 +            if (*data_size > 0) {
 +                avctx->has_b_frames--;
 +                priv->last_picture++;
 +                av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: Pipeline length: %u\n",
 +                       avctx->has_b_frames);
 +            }
 +        } else {
 +            /*
 +             * An invalid frame has been consumed.
 +             */
 +            av_log(avctx, AV_LOG_ERROR, "CrystalHD: ProcOutput succeeded with "
 +                                        "invalid PIB\n");
 +            avctx->has_b_frames--;
 +            copy_ret = RET_OK;
 +        }
 +        DtsReleaseOutputBuffs(dev, NULL, FALSE);
 +
 +        return copy_ret;
 +    } else if (ret == BC_STS_BUSY) {
 +        return RET_COPY_AGAIN;
 +    } else {
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: ProcOutput failed %d\n", ret);
 +        return RET_ERROR;
 +    }
 +}
 +
 +
 +static int decode(AVCodecContext *avctx, void *data, int *data_size, AVPacket *avpkt)
 +{
 +    BC_STATUS ret;
 +    BC_DTS_STATUS decoder_status = { 0, };
 +    CopyRet rec_ret;
 +    CHDContext *priv   = avctx->priv_data;
 +    HANDLE dev         = priv->dev;
 +    uint8_t *in_data   = avpkt->data;
 +    int len            = avpkt->size;
 +    int free_data      = 0;
 +    uint8_t pic_type   = 0;
 +
 +    av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: decode_frame\n");
 +
 +    if (avpkt->size == 7 && !priv->bframe_bug) {
 +        /*
 +         * The use of a drop frame triggers the bug
 +         */
 +        av_log(avctx, AV_LOG_INFO,
 +               "CrystalHD: Enabling work-around for packed b-frame bug\n");
 +        priv->bframe_bug = 1;
 +    } else if (avpkt->size == 8 && priv->bframe_bug) {
 +        /*
 +         * Delay frames don't trigger the bug
 +         */
 +        av_log(avctx, AV_LOG_INFO,
 +               "CrystalHD: Disabling work-around for packed b-frame bug\n");
 +        priv->bframe_bug = 0;
 +    }
 +
 +    if (len) {
 +        int32_t tx_free = (int32_t)DtsTxFreeSize(dev);
 +
 +        if (priv->parser) {
 +            int ret = 0;
 +
 +            if (priv->bsfc) {
 +                ret = av_bitstream_filter_filter(priv->bsfc, avctx, NULL,
 +                                                 &in_data, &len,
 +                                                 avpkt->data, len, 0);
 +            }
 +            free_data = ret > 0;
 +
 +            if (ret >= 0) {
 +                uint8_t *pout;
 +                int psize;
 +                int index;
 +                H264Context *h = priv->parser->priv_data;
 +
 +                index = av_parser_parse2(priv->parser, avctx, &pout, &psize,
 +                                         in_data, len, avctx->pkt->pts,
 +                                         avctx->pkt->dts, 0);
 +                if (index < 0) {
 +                    av_log(avctx, AV_LOG_WARNING,
 +                           "CrystalHD: Failed to parse h.264 packet to "
 +                           "detect interlacing.\n");
 +                } else if (index != len) {
 +                    av_log(avctx, AV_LOG_WARNING,
 +                           "CrystalHD: Failed to parse h.264 packet "
 +                           "completely. Interlaced frames may be "
 +                           "incorrectly detected.\n");
 +                } else {
 +                    av_log(avctx, AV_LOG_VERBOSE,
 +                           "CrystalHD: parser picture type %d\n",
 +                           h->s.picture_structure);
 +                    pic_type = h->s.picture_structure;
 +                }
 +            } else {
 +                av_log(avctx, AV_LOG_WARNING,
 +                       "CrystalHD: mp4toannexb filter failed to filter "
 +                       "packet. Interlaced frames may be incorrectly "
 +                       "detected.\n");
 +            }
 +        }
 +
 +        if (len < tx_free - 1024) {
 +            /*
 +             * Despite being notionally opaque, either libcrystalhd or
 +             * the hardware itself will mangle pts values that are too
 +             * small or too large. The docs claim it should be in units
 +             * of 100ns. Given that we're nominally dealing with a black
 +             * box on both sides, any transform we do has no guarantee of
 +             * avoiding mangling so we need to build a mapping to values
 +             * we know will not be mangled.
 +             */
 +            uint64_t pts = opaque_list_push(priv, avctx->pkt->pts, pic_type);
 +            if (!pts) {
 +                if (free_data) {
 +                    av_freep(&in_data);
 +                }
 +                return AVERROR(ENOMEM);
 +            }
 +            av_log(priv->avctx, AV_LOG_VERBOSE,
 +                   "input \"pts\": %"PRIu64"\n", pts);
 +            ret = DtsProcInput(dev, in_data, len, pts, 0);
 +            if (free_data) {
 +                av_freep(&in_data);
 +            }
 +            if (ret == BC_STS_BUSY) {
 +                av_log(avctx, AV_LOG_WARNING,
 +                       "CrystalHD: ProcInput returned busy\n");
 +                usleep(BASE_WAIT);
 +                return AVERROR(EBUSY);
 +            } else if (ret != BC_STS_SUCCESS) {
 +                av_log(avctx, AV_LOG_ERROR,
 +                       "CrystalHD: ProcInput failed: %u\n", ret);
 +                return -1;
 +            }
 +            avctx->has_b_frames++;
 +        } else {
 +            av_log(avctx, AV_LOG_WARNING, "CrystalHD: Input buffer full\n");
 +            len = 0; // We didn't consume any bytes.
 +        }
 +    } else {
 +        av_log(avctx, AV_LOG_INFO, "CrystalHD: No more input data\n");
 +    }
 +
 +    if (priv->skip_next_output) {
 +        av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: Skipping next output.\n");
 +        priv->skip_next_output = 0;
 +        avctx->has_b_frames--;
 +        return len;
 +    }
 +
 +    ret = DtsGetDriverStatus(dev, &decoder_status);
 +    if (ret != BC_STS_SUCCESS) {
 +        av_log(avctx, AV_LOG_ERROR, "CrystalHD: GetDriverStatus failed\n");
 +        return -1;
 +    }
 +
 +    /*
 +     * No frames ready. Don't try to extract.
 +     *
 +     * Empirical testing shows that ReadyListCount can be a damn lie,
 +     * and ProcOut still fails when count > 0. The same testing showed
 +     * that two more iterations were needed before ProcOutput would
 +     * succeed.
 +     */
 +    if (priv->output_ready < 2) {
 +        if (decoder_status.ReadyListCount != 0)
 +            priv->output_ready++;
 +        usleep(BASE_WAIT);
 +        av_log(avctx, AV_LOG_INFO, "CrystalHD: Filling pipeline.\n");
 +        return len;
 +    } else if (decoder_status.ReadyListCount == 0) {
 +        /*
 +         * After the pipeline is established, if we encounter a lack of frames
 +         * that probably means we're not giving the hardware enough time to
 +         * decode them, so start increasing the wait time at the end of a
 +         * decode call.
 +         */
 +        usleep(BASE_WAIT);
 +        priv->decode_wait += WAIT_UNIT;
 +        av_log(avctx, AV_LOG_INFO, "CrystalHD: No frames ready. Returning\n");
 +        return len;
 +    }
 +
 +    do {
 +        rec_ret = receive_frame(avctx, data, data_size);
 +        if (rec_ret == RET_OK && *data_size == 0) {
 +            /*
 +             * This case is for when the encoded fields are stored
 +             * separately and we get a separate avpkt for each one. To keep
 +             * the pipeline stable, we should return nothing and wait for
 +             * the next time round to grab the second field.
 +             * H.264 PAFF is an example of this.
 +             */
 +            av_log(avctx, AV_LOG_VERBOSE, "Returning after first field.\n");
 +            avctx->has_b_frames--;
 +        } else if (rec_ret == RET_COPY_NEXT_FIELD) {
 +            /*
 +             * This case is for when the encoded fields are stored in a
 +             * single avpkt but the hardware returns then separately. Unless
 +             * we grab the second field before returning, we'll slip another
 +             * frame in the pipeline and if that happens a lot, we're sunk.
 +             * So we have to get that second field now.
 +             * Interlaced mpeg2 and vc1 are examples of this.
 +             */
 +            av_log(avctx, AV_LOG_VERBOSE, "Trying to get second field.\n");
 +            while (1) {
 +                usleep(priv->decode_wait);
 +                ret = DtsGetDriverStatus(dev, &decoder_status);
 +                if (ret == BC_STS_SUCCESS &&
 +                    decoder_status.ReadyListCount > 0) {
 +                    rec_ret = receive_frame(avctx, data, data_size);
 +                    if ((rec_ret == RET_OK && *data_size > 0) ||
 +                        rec_ret == RET_ERROR)
 +                        break;
 +                }
 +            }
 +            av_log(avctx, AV_LOG_VERBOSE, "CrystalHD: Got second field.\n");
 +        } else if (rec_ret == RET_SKIP_NEXT_COPY) {
 +            /*
 +             * Two input packets got turned into a field pair. Gawd.
 +             */
 +            av_log(avctx, AV_LOG_VERBOSE,
 +                   "Don't output on next decode call.\n");
 +            priv->skip_next_output = 1;
 +        }
 +        /*
 +         * If rec_ret == RET_COPY_AGAIN, that means that either we just handled
 +         * a FMT_CHANGE event and need to go around again for the actual frame,
 +         * we got a busy status and need to try again, or we're dealing with
 +         * packed b-frames, where the hardware strangely returns the packed
 +         * p-frame twice. We choose to keep the second copy as it carries the
 +         * valid pts.
 +         */
 +    } while (rec_ret == RET_COPY_AGAIN);
 +    usleep(priv->decode_wait);
 +    return len;
 +}
 +
 +
 +#if CONFIG_H264_CRYSTALHD_DECODER
 +static AVClass h264_class = {
 +    "h264_crystalhd",
 +    av_default_item_name,
 +    options,
 +    LIBAVUTIL_VERSION_INT,
 +};
 +
 +AVCodec ff_h264_crystalhd_decoder = {
 +    .name           = "h264_crystalhd",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_H264,
 +    .priv_data_size = sizeof(CHDContext),
 +    .init           = init,
 +    .close          = uninit,
 +    .decode         = decode,
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_DELAY,
 +    .flush          = flush,
 +    .long_name      = NULL_IF_CONFIG_SMALL("H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10 (CrystalHD acceleration)"),
 +    .pix_fmts       = (const enum AVPixelFormat[]){AV_PIX_FMT_YUYV422, AV_PIX_FMT_NONE},
 +    .priv_class     = &h264_class,
 +};
 +#endif
 +
 +#if CONFIG_MPEG2_CRYSTALHD_DECODER
 +static AVClass mpeg2_class = {
 +    "mpeg2_crystalhd",
 +    av_default_item_name,
 +    options,
 +    LIBAVUTIL_VERSION_INT,
 +};
 +
 +AVCodec ff_mpeg2_crystalhd_decoder = {
 +    .name           = "mpeg2_crystalhd",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_MPEG2VIDEO,
 +    .priv_data_size = sizeof(CHDContext),
 +    .init           = init,
 +    .close          = uninit,
 +    .decode         = decode,
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_DELAY,
 +    .flush          = flush,
 +    .long_name      = NULL_IF_CONFIG_SMALL("MPEG-2 Video (CrystalHD acceleration)"),
 +    .pix_fmts       = (const enum AVPixelFormat[]){AV_PIX_FMT_YUYV422, AV_PIX_FMT_NONE},
 +    .priv_class     = &mpeg2_class,
 +};
 +#endif
 +
 +#if CONFIG_MPEG4_CRYSTALHD_DECODER
 +static AVClass mpeg4_class = {
 +    "mpeg4_crystalhd",
 +    av_default_item_name,
 +    options,
 +    LIBAVUTIL_VERSION_INT,
 +};
 +
 +AVCodec ff_mpeg4_crystalhd_decoder = {
 +    .name           = "mpeg4_crystalhd",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_MPEG4,
 +    .priv_data_size = sizeof(CHDContext),
 +    .init           = init,
 +    .close          = uninit,
 +    .decode         = decode,
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_DELAY,
 +    .flush          = flush,
 +    .long_name      = NULL_IF_CONFIG_SMALL("MPEG-4 Part 2 (CrystalHD acceleration)"),
 +    .pix_fmts       = (const enum AVPixelFormat[]){AV_PIX_FMT_YUYV422, AV_PIX_FMT_NONE},
 +    .priv_class     = &mpeg4_class,
 +};
 +#endif
 +
 +#if CONFIG_MSMPEG4_CRYSTALHD_DECODER
 +static AVClass msmpeg4_class = {
 +    "msmpeg4_crystalhd",
 +    av_default_item_name,
 +    options,
 +    LIBAVUTIL_VERSION_INT,
 +};
 +
 +AVCodec ff_msmpeg4_crystalhd_decoder = {
 +    .name           = "msmpeg4_crystalhd",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_MSMPEG4V3,
 +    .priv_data_size = sizeof(CHDContext),
 +    .init           = init,
 +    .close          = uninit,
 +    .decode         = decode,
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_DELAY | CODEC_CAP_EXPERIMENTAL,
 +    .flush          = flush,
 +    .long_name      = NULL_IF_CONFIG_SMALL("MPEG-4 Part 2 Microsoft variant version 3 (CrystalHD acceleration)"),
 +    .pix_fmts       = (const enum AVPixelFormat[]){AV_PIX_FMT_YUYV422, AV_PIX_FMT_NONE},
 +    .priv_class     = &msmpeg4_class,
 +};
 +#endif
 +
 +#if CONFIG_VC1_CRYSTALHD_DECODER
 +static AVClass vc1_class = {
 +    "vc1_crystalhd",
 +    av_default_item_name,
 +    options,
 +    LIBAVUTIL_VERSION_INT,
 +};
 +
 +AVCodec ff_vc1_crystalhd_decoder = {
 +    .name           = "vc1_crystalhd",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_VC1,
 +    .priv_data_size = sizeof(CHDContext),
 +    .init           = init,
 +    .close          = uninit,
 +    .decode         = decode,
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_DELAY,
 +    .flush          = flush,
 +    .long_name      = NULL_IF_CONFIG_SMALL("SMPTE VC-1 (CrystalHD acceleration)"),
 +    .pix_fmts       = (const enum AVPixelFormat[]){AV_PIX_FMT_YUYV422, AV_PIX_FMT_NONE},
 +    .priv_class     = &vc1_class,
 +};
 +#endif
 +
 +#if CONFIG_WMV3_CRYSTALHD_DECODER
 +static AVClass wmv3_class = {
 +    "wmv3_crystalhd",
 +    av_default_item_name,
 +    options,
 +    LIBAVUTIL_VERSION_INT,
 +};
 +
 +AVCodec ff_wmv3_crystalhd_decoder = {
 +    .name           = "wmv3_crystalhd",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_WMV3,
 +    .priv_data_size = sizeof(CHDContext),
 +    .init           = init,
 +    .close          = uninit,
 +    .decode         = decode,
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_DELAY,
 +    .flush          = flush,
 +    .long_name      = NULL_IF_CONFIG_SMALL("Windows Media Video 9 (CrystalHD acceleration)"),
 +    .pix_fmts       = (const enum AVPixelFormat[]){AV_PIX_FMT_YUYV422, AV_PIX_FMT_NONE},
 +    .priv_class     = &wmv3_class,
 +};
 +#endif
Simple merge
Simple merge
Simple merge
index 548a649fa11beaf47b7254d59f241c1a74c9da4f,4f148336f470527fd68089ca652c752fcd474e55..133d7639fb74e0c67966ae71359b7d275d2f364b
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
 +#include "libavutil/avassert.h"
  #include "avcodec.h"
  #include "bytestream.h"
+ #include "internal.h"
  
  #include "libavutil/imgutils.h"
  #include "libavutil/mem.h"
index 6e814913d57b89f3ac69a30722edce1fdeb16488,0000000000000000000000000000000000000000..571989aa64cce36612232ea7969e865d906152fa
mode 100644,000000..100644
--- /dev/null
@@@ -1,1932 -1,0 +1,1933 @@@
-                     s->avctx->get_buffer(s->avctx, &s->ref_pics[i]->avframe);
 +/*
 + * Copyright (C) 2007 Marco Gerards <marco@gnu.org>
 + * Copyright (C) 2009 David Conrad
 + * Copyright (C) 2011 Jordi Ortiz
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/**
 + * @file
 + * Dirac Decoder
 + * @author Marco Gerards <marco@gnu.org>, David Conrad, Jordi Ortiz <nenjordi@gmail.com>
 + */
 +
 +#include "avcodec.h"
 +#include "dsputil.h"
 +#include "get_bits.h"
 +#include "bytestream.h"
++#include "internal.h"
 +#include "golomb.h"
 +#include "dirac_arith.h"
 +#include "mpeg12data.h"
 +#include "dwt.h"
 +#include "dirac.h"
 +#include "diracdsp.h"
 +
 +/**
 + * The spec limits the number of wavelet decompositions to 4 for both
 + * level 1 (VC-2) and 128 (long-gop default).
 + * 5 decompositions is the maximum before >16-bit buffers are needed.
 + * Schroedinger allows this for DD 9,7 and 13,7 wavelets only, limiting
 + * the others to 4 decompositions (or 3 for the fidelity filter).
 + *
 + * We use this instead of MAX_DECOMPOSITIONS to save some memory.
 + */
 +#define MAX_DWT_LEVELS 5
 +
 +/**
 + * The spec limits this to 3 for frame coding, but in practice can be as high as 6
 + */
 +#define MAX_REFERENCE_FRAMES 8
 +#define MAX_DELAY 5         /* limit for main profile for frame coding (TODO: field coding) */
 +#define MAX_FRAMES (MAX_REFERENCE_FRAMES + MAX_DELAY + 1)
 +#define MAX_QUANT 68        /* max quant for VC-2 */
 +#define MAX_BLOCKSIZE 32    /* maximum xblen/yblen we support */
 +
 +/**
 + * DiracBlock->ref flags, if set then the block does MC from the given ref
 + */
 +#define DIRAC_REF_MASK_REF1   1
 +#define DIRAC_REF_MASK_REF2   2
 +#define DIRAC_REF_MASK_GLOBAL 4
 +
 +/**
 + * Value of Picture.reference when Picture is not a reference picture, but
 + * is held for delayed output.
 + */
 +#define DELAYED_PIC_REF 4
 +
 +#define ff_emulated_edge_mc ff_emulated_edge_mc_8 /* Fix: change the calls to this function regarding bit depth */
 +
 +#define CALC_PADDING(size, depth)                       \
 +    (((size + (1 << depth) - 1) >> depth) << depth)
 +
 +#define DIVRNDUP(a, b) (((a) + (b) - 1) / (b))
 +
 +typedef struct {
 +    AVFrame avframe;
 +    int interpolated[3];    /* 1 if hpel[] is valid */
 +    uint8_t *hpel[3][4];
 +    uint8_t *hpel_base[3][4];
 +} DiracFrame;
 +
 +typedef struct {
 +    union {
 +        int16_t mv[2][2];
 +        int16_t dc[3];
 +    } u; /* anonymous unions aren't in C99 :( */
 +    uint8_t ref;
 +} DiracBlock;
 +
 +typedef struct SubBand {
 +    int level;
 +    int orientation;
 +    int stride;
 +    int width;
 +    int height;
 +    int quant;
 +    IDWTELEM *ibuf;
 +    struct SubBand *parent;
 +
 +    /* for low delay */
 +    unsigned length;
 +    const uint8_t *coeff_data;
 +} SubBand;
 +
 +typedef struct Plane {
 +    int width;
 +    int height;
 +    int stride;
 +
 +    int idwt_width;
 +    int idwt_height;
 +    int idwt_stride;
 +    IDWTELEM *idwt_buf;
 +    IDWTELEM *idwt_buf_base;
 +    IDWTELEM *idwt_tmp;
 +
 +    /* block length */
 +    uint8_t xblen;
 +    uint8_t yblen;
 +    /* block separation (block n+1 starts after this many pixels in block n) */
 +    uint8_t xbsep;
 +    uint8_t ybsep;
 +    /* amount of overspill on each edge (half of the overlap between blocks) */
 +    uint8_t xoffset;
 +    uint8_t yoffset;
 +
 +    SubBand band[MAX_DWT_LEVELS][4];
 +} Plane;
 +
 +typedef struct DiracContext {
 +    AVCodecContext *avctx;
 +    DSPContext dsp;
 +    DiracDSPContext diracdsp;
 +    GetBitContext gb;
 +    dirac_source_params source;
 +    int seen_sequence_header;
 +    int frame_number;           /* number of the next frame to display       */
 +    Plane plane[3];
 +    int chroma_x_shift;
 +    int chroma_y_shift;
 +
 +    int zero_res;               /* zero residue flag                         */
 +    int is_arith;               /* whether coeffs use arith or golomb coding */
 +    int low_delay;              /* use the low delay syntax                  */
 +    int globalmc_flag;          /* use global motion compensation            */
 +    int num_refs;               /* number of reference pictures              */
 +
 +    /* wavelet decoding */
 +    unsigned wavelet_depth;     /* depth of the IDWT                         */
 +    unsigned wavelet_idx;
 +
 +    /**
 +     * schroedinger older than 1.0.8 doesn't store
 +     * quant delta if only one codebook exists in a band
 +     */
 +    unsigned old_delta_quant;
 +    unsigned codeblock_mode;
 +
 +    struct {
 +        unsigned width;
 +        unsigned height;
 +    } codeblock[MAX_DWT_LEVELS+1];
 +
 +    struct {
 +        unsigned num_x;         /* number of horizontal slices               */
 +        unsigned num_y;         /* number of vertical slices                 */
 +        AVRational bytes;       /* average bytes per slice                   */
 +        uint8_t quant[MAX_DWT_LEVELS][4]; /* [DIRAC_STD] E.1 */
 +    } lowdelay;
 +
 +    struct {
 +        int pan_tilt[2];        /* pan/tilt vector                           */
 +        int zrs[2][2];          /* zoom/rotate/shear matrix                  */
 +        int perspective[2];     /* perspective vector                        */
 +        unsigned zrs_exp;
 +        unsigned perspective_exp;
 +    } globalmc[2];
 +
 +    /* motion compensation */
 +    uint8_t mv_precision;       /* [DIRAC_STD] REFS_WT_PRECISION             */
 +    int16_t weight[2];          /* [DIRAC_STD] REF1_WT and REF2_WT           */
 +    unsigned weight_log2denom;  /* [DIRAC_STD] REFS_WT_PRECISION             */
 +
 +    int blwidth;                /* number of blocks (horizontally)           */
 +    int blheight;               /* number of blocks (vertically)             */
 +    int sbwidth;                /* number of superblocks (horizontally)      */
 +    int sbheight;               /* number of superblocks (vertically)        */
 +
 +    uint8_t *sbsplit;
 +    DiracBlock *blmotion;
 +
 +    uint8_t *edge_emu_buffer[4];
 +    uint8_t *edge_emu_buffer_base;
 +
 +    uint16_t *mctmp;            /* buffer holding the MC data multipled by OBMC weights */
 +    uint8_t *mcscratch;
 +
 +    DECLARE_ALIGNED(16, uint8_t, obmc_weight)[3][MAX_BLOCKSIZE*MAX_BLOCKSIZE];
 +
 +    void (*put_pixels_tab[4])(uint8_t *dst, const uint8_t *src[5], int stride, int h);
 +    void (*avg_pixels_tab[4])(uint8_t *dst, const uint8_t *src[5], int stride, int h);
 +    void (*add_obmc)(uint16_t *dst, const uint8_t *src, int stride, const uint8_t *obmc_weight, int yblen);
 +    dirac_weight_func weight_func;
 +    dirac_biweight_func biweight_func;
 +
 +    DiracFrame *current_picture;
 +    DiracFrame *ref_pics[2];
 +
 +    DiracFrame *ref_frames[MAX_REFERENCE_FRAMES+1];
 +    DiracFrame *delay_frames[MAX_DELAY+1];
 +    DiracFrame all_frames[MAX_FRAMES];
 +} DiracContext;
 +
 +/**
 + * Dirac Specification ->
 + * Parse code values. 9.6.1 Table 9.1
 + */
 +enum dirac_parse_code {
 +    pc_seq_header         = 0x00,
 +    pc_eos                = 0x10,
 +    pc_aux_data           = 0x20,
 +    pc_padding            = 0x30,
 +};
 +
 +enum dirac_subband {
 +    subband_ll = 0,
 +    subband_hl = 1,
 +    subband_lh = 2,
 +    subband_hh = 3
 +};
 +
 +static const uint8_t default_qmat[][4][4] = {
 +    { { 5,  3,  3,  0}, { 0,  4,  4,  1}, { 0,  5,  5,  2}, { 0,  6,  6,  3} },
 +    { { 4,  2,  2,  0}, { 0,  4,  4,  2}, { 0,  5,  5,  3}, { 0,  7,  7,  5} },
 +    { { 5,  3,  3,  0}, { 0,  4,  4,  1}, { 0,  5,  5,  2}, { 0,  6,  6,  3} },
 +    { { 8,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0} },
 +    { { 8,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0} },
 +    { { 0,  4,  4,  8}, { 0,  8,  8, 12}, { 0, 13, 13, 17}, { 0, 17, 17, 21} },
 +    { { 3,  1,  1,  0}, { 0,  4,  4,  2}, { 0,  6,  6,  5}, { 0,  9,  9,  7} },
 +};
 +
 +static const int qscale_tab[MAX_QUANT+1] = {
 +    4,     5,     6,     7,     8,    10,    11,    13,
 +    16,    19,    23,    27,    32,    38,    45,    54,
 +    64,    76,    91,   108,   128,   152,   181,   215,
 +    256,   304,   362,   431,   512,   609,   724,   861,
 +    1024,  1218,  1448,  1722,  2048,  2435,  2896,  3444,
 +    4096,  4871,  5793,  6889,  8192,  9742, 11585, 13777,
 +    16384, 19484, 23170, 27554, 32768, 38968, 46341, 55109,
 +    65536, 77936
 +};
 +
 +static const int qoffset_intra_tab[MAX_QUANT+1] = {
 +    1,     2,     3,     4,     4,     5,     6,     7,
 +    8,    10,    12,    14,    16,    19,    23,    27,
 +    32,    38,    46,    54,    64,    76,    91,   108,
 +    128,   152,   181,   216,   256,   305,   362,   431,
 +    512,   609,   724,   861,  1024,  1218,  1448,  1722,
 +    2048,  2436,  2897,  3445,  4096,  4871,  5793,  6889,
 +    8192,  9742, 11585, 13777, 16384, 19484, 23171, 27555,
 +    32768, 38968
 +};
 +
 +static const int qoffset_inter_tab[MAX_QUANT+1] = {
 +    1,     2,     2,     3,     3,     4,     4,     5,
 +    6,     7,     9,    10,    12,    14,    17,    20,
 +    24,    29,    34,    41,    48,    57,    68,    81,
 +    96,   114,   136,   162,   192,   228,   272,   323,
 +    384,   457,   543,   646,   768,   913,  1086,  1292,
 +    1536,  1827,  2172,  2583,  3072,  3653,  4344,  5166,
 +    6144,  7307,  8689, 10333, 12288, 14613, 17378, 20666,
 +    24576, 29226
 +};
 +
 +/* magic number division by 3 from schroedinger */
 +static inline int divide3(int x)
 +{
 +    return ((x+1)*21845 + 10922) >> 16;
 +}
 +
 +static DiracFrame *remove_frame(DiracFrame *framelist[], int picnum)
 +{
 +    DiracFrame *remove_pic = NULL;
 +    int i, remove_idx = -1;
 +
 +    for (i = 0; framelist[i]; i++)
 +        if (framelist[i]->avframe.display_picture_number == picnum) {
 +            remove_pic = framelist[i];
 +            remove_idx = i;
 +        }
 +
 +    if (remove_pic)
 +        for (i = remove_idx; framelist[i]; i++)
 +            framelist[i] = framelist[i+1];
 +
 +    return remove_pic;
 +}
 +
 +static int add_frame(DiracFrame *framelist[], int maxframes, DiracFrame *frame)
 +{
 +    int i;
 +    for (i = 0; i < maxframes; i++)
 +        if (!framelist[i]) {
 +            framelist[i] = frame;
 +            return 0;
 +        }
 +    return -1;
 +}
 +
 +static int alloc_sequence_buffers(DiracContext *s)
 +{
 +    int sbwidth  = DIVRNDUP(s->source.width,  4);
 +    int sbheight = DIVRNDUP(s->source.height, 4);
 +    int i, w, h, top_padding;
 +
 +    /* todo: think more about this / use or set Plane here */
 +    for (i = 0; i < 3; i++) {
 +        int max_xblen = MAX_BLOCKSIZE >> (i ? s->chroma_x_shift : 0);
 +        int max_yblen = MAX_BLOCKSIZE >> (i ? s->chroma_y_shift : 0);
 +        w = s->source.width  >> (i ? s->chroma_x_shift : 0);
 +        h = s->source.height >> (i ? s->chroma_y_shift : 0);
 +
 +        /* we allocate the max we support here since num decompositions can
 +         * change from frame to frame. Stride is aligned to 16 for SIMD, and
 +         * 1<<MAX_DWT_LEVELS top padding to avoid if(y>0) in arith decoding
 +         * MAX_BLOCKSIZE padding for MC: blocks can spill up to half of that
 +         * on each side */
 +        top_padding = FFMAX(1<<MAX_DWT_LEVELS, max_yblen/2);
 +        w = FFALIGN(CALC_PADDING(w, MAX_DWT_LEVELS), 8); /* FIXME: Should this be 16 for SSE??? */
 +        h = top_padding + CALC_PADDING(h, MAX_DWT_LEVELS) + max_yblen/2;
 +
 +        s->plane[i].idwt_buf_base = av_mallocz((w+max_xblen)*h * sizeof(IDWTELEM));
 +        s->plane[i].idwt_tmp      = av_malloc((w+16) * sizeof(IDWTELEM));
 +        s->plane[i].idwt_buf      = s->plane[i].idwt_buf_base + top_padding*w;
 +        if (!s->plane[i].idwt_buf_base || !s->plane[i].idwt_tmp)
 +            return AVERROR(ENOMEM);
 +    }
 +
 +    w = s->source.width;
 +    h = s->source.height;
 +
 +    /* fixme: allocate using real stride here */
 +    s->sbsplit  = av_malloc(sbwidth * sbheight);
 +    s->blmotion = av_malloc(sbwidth * sbheight * 16 * sizeof(*s->blmotion));
 +    s->edge_emu_buffer_base = av_malloc((w+64)*MAX_BLOCKSIZE);
 +
 +    s->mctmp     = av_malloc((w+64+MAX_BLOCKSIZE) * (h*MAX_BLOCKSIZE) * sizeof(*s->mctmp));
 +    s->mcscratch = av_malloc((w+64)*MAX_BLOCKSIZE);
 +
 +    if (!s->sbsplit || !s->blmotion)
 +        return AVERROR(ENOMEM);
 +    return 0;
 +}
 +
 +static void free_sequence_buffers(DiracContext *s)
 +{
 +    int i, j, k;
 +
 +    for (i = 0; i < MAX_FRAMES; i++) {
 +        if (s->all_frames[i].avframe.data[0]) {
 +            s->avctx->release_buffer(s->avctx, &s->all_frames[i].avframe);
 +            memset(s->all_frames[i].interpolated, 0, sizeof(s->all_frames[i].interpolated));
 +        }
 +
 +        for (j = 0; j < 3; j++)
 +            for (k = 1; k < 4; k++)
 +                av_freep(&s->all_frames[i].hpel_base[j][k]);
 +    }
 +
 +    memset(s->ref_frames, 0, sizeof(s->ref_frames));
 +    memset(s->delay_frames, 0, sizeof(s->delay_frames));
 +
 +    for (i = 0; i < 3; i++) {
 +        av_freep(&s->plane[i].idwt_buf_base);
 +        av_freep(&s->plane[i].idwt_tmp);
 +    }
 +
 +    av_freep(&s->sbsplit);
 +    av_freep(&s->blmotion);
 +    av_freep(&s->edge_emu_buffer_base);
 +
 +    av_freep(&s->mctmp);
 +    av_freep(&s->mcscratch);
 +}
 +
 +static av_cold int dirac_decode_init(AVCodecContext *avctx)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    s->avctx = avctx;
 +    s->frame_number = -1;
 +
 +    if (avctx->flags&CODEC_FLAG_EMU_EDGE) {
 +        av_log(avctx, AV_LOG_ERROR, "Edge emulation not supported!\n");
 +        return AVERROR_PATCHWELCOME;
 +    }
 +
 +    ff_dsputil_init(&s->dsp, avctx);
 +    ff_diracdsp_init(&s->diracdsp);
 +
 +    return 0;
 +}
 +
 +static void dirac_decode_flush(AVCodecContext *avctx)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    free_sequence_buffers(s);
 +    s->seen_sequence_header = 0;
 +    s->frame_number = -1;
 +}
 +
 +static av_cold int dirac_decode_end(AVCodecContext *avctx)
 +{
 +    dirac_decode_flush(avctx);
 +    return 0;
 +}
 +
 +#define SIGN_CTX(x) (CTX_SIGN_ZERO + ((x) > 0) - ((x) < 0))
 +
 +static inline void coeff_unpack_arith(DiracArith *c, int qfactor, int qoffset,
 +                                      SubBand *b, IDWTELEM *buf, int x, int y)
 +{
 +    int coeff, sign;
 +    int sign_pred = 0;
 +    int pred_ctx = CTX_ZPZN_F1;
 +
 +    /* Check if the parent subband has a 0 in the corresponding position */
 +    if (b->parent)
 +        pred_ctx += !!b->parent->ibuf[b->parent->stride * (y>>1) + (x>>1)] << 1;
 +
 +    if (b->orientation == subband_hl)
 +        sign_pred = buf[-b->stride];
 +
 +    /* Determine if the pixel has only zeros in its neighbourhood */
 +    if (x) {
 +        pred_ctx += !(buf[-1] | buf[-b->stride] | buf[-1-b->stride]);
 +        if (b->orientation == subband_lh)
 +            sign_pred = buf[-1];
 +    } else {
 +        pred_ctx += !buf[-b->stride];
 +    }
 +
 +    coeff = dirac_get_arith_uint(c, pred_ctx, CTX_COEFF_DATA);
 +    if (coeff) {
 +        coeff = (coeff * qfactor + qoffset + 2) >> 2;
 +        sign  = dirac_get_arith_bit(c, SIGN_CTX(sign_pred));
 +        coeff = (coeff ^ -sign) + sign;
 +    }
 +    *buf = coeff;
 +}
 +
 +static inline int coeff_unpack_golomb(GetBitContext *gb, int qfactor, int qoffset)
 +{
 +    int sign, coeff;
 +
 +    coeff = svq3_get_ue_golomb(gb);
 +    if (coeff) {
 +        coeff = (coeff * qfactor + qoffset + 2) >> 2;
 +        sign  = get_bits1(gb);
 +        coeff = (coeff ^ -sign) + sign;
 +    }
 +    return coeff;
 +}
 +
 +/**
 + * Decode the coeffs in the rectangle defined by left, right, top, bottom
 + * [DIRAC_STD] 13.4.3.2 Codeblock unpacking loop. codeblock()
 + */
 +static inline void codeblock(DiracContext *s, SubBand *b,
 +                             GetBitContext *gb, DiracArith *c,
 +                             int left, int right, int top, int bottom,
 +                             int blockcnt_one, int is_arith)
 +{
 +    int x, y, zero_block;
 +    int qoffset, qfactor;
 +    IDWTELEM *buf;
 +
 +    /* check for any coded coefficients in this codeblock */
 +    if (!blockcnt_one) {
 +        if (is_arith)
 +            zero_block = dirac_get_arith_bit(c, CTX_ZERO_BLOCK);
 +        else
 +            zero_block = get_bits1(gb);
 +
 +        if (zero_block)
 +            return;
 +    }
 +
 +    if (s->codeblock_mode && !(s->old_delta_quant && blockcnt_one)) {
 +        int quant = b->quant;
 +        if (is_arith)
 +            quant += dirac_get_arith_int(c, CTX_DELTA_Q_F, CTX_DELTA_Q_DATA);
 +        else
 +            quant += dirac_get_se_golomb(gb);
 +        if (quant < 0) {
 +            av_log(s->avctx, AV_LOG_ERROR, "Invalid quant\n");
 +            return;
 +        }
 +        b->quant = quant;
 +    }
 +
 +    b->quant = FFMIN(b->quant, MAX_QUANT);
 +
 +    qfactor = qscale_tab[b->quant];
 +    /* TODO: context pointer? */
 +    if (!s->num_refs)
 +        qoffset = qoffset_intra_tab[b->quant];
 +    else
 +        qoffset = qoffset_inter_tab[b->quant];
 +
 +    buf = b->ibuf + top * b->stride;
 +    for (y = top; y < bottom; y++) {
 +        for (x = left; x < right; x++) {
 +            /* [DIRAC_STD] 13.4.4 Subband coefficients. coeff_unpack() */
 +            if (is_arith)
 +                coeff_unpack_arith(c, qfactor, qoffset, b, buf+x, x, y);
 +            else
 +                buf[x] = coeff_unpack_golomb(gb, qfactor, qoffset);
 +        }
 +        buf += b->stride;
 +    }
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.3 intra_dc_prediction(band)
 + */
 +static inline void intra_dc_prediction(SubBand *b)
 +{
 +    IDWTELEM *buf = b->ibuf;
 +    int x, y;
 +
 +    for (x = 1; x < b->width; x++)
 +        buf[x] += buf[x-1];
 +    buf += b->stride;
 +
 +    for (y = 1; y < b->height; y++) {
 +        buf[0] += buf[-b->stride];
 +
 +        for (x = 1; x < b->width; x++) {
 +            int pred = buf[x - 1] + buf[x - b->stride] + buf[x - b->stride-1];
 +            buf[x]  += divide3(pred);
 +        }
 +        buf += b->stride;
 +    }
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.4.2 Non-skipped subbands.  subband_coeffs()
 + */
 +static av_always_inline void decode_subband_internal(DiracContext *s, SubBand *b, int is_arith)
 +{
 +    int cb_x, cb_y, left, right, top, bottom;
 +    DiracArith c;
 +    GetBitContext gb;
 +    int cb_width  = s->codeblock[b->level + (b->orientation != subband_ll)].width;
 +    int cb_height = s->codeblock[b->level + (b->orientation != subband_ll)].height;
 +    int blockcnt_one = (cb_width + cb_height) == 2;
 +
 +    if (!b->length)
 +        return;
 +
 +    init_get_bits(&gb, b->coeff_data, b->length*8);
 +
 +    if (is_arith)
 +        ff_dirac_init_arith_decoder(&c, &gb, b->length);
 +
 +    top = 0;
 +    for (cb_y = 0; cb_y < cb_height; cb_y++) {
 +        bottom = (b->height * (cb_y+1)) / cb_height;
 +        left = 0;
 +        for (cb_x = 0; cb_x < cb_width; cb_x++) {
 +            right = (b->width * (cb_x+1)) / cb_width;
 +            codeblock(s, b, &gb, &c, left, right, top, bottom, blockcnt_one, is_arith);
 +            left = right;
 +        }
 +        top = bottom;
 +    }
 +
 +    if (b->orientation == subband_ll && s->num_refs == 0)
 +        intra_dc_prediction(b);
 +}
 +
 +static int decode_subband_arith(AVCodecContext *avctx, void *b)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    decode_subband_internal(s, b, 1);
 +    return 0;
 +}
 +
 +static int decode_subband_golomb(AVCodecContext *avctx, void *arg)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    SubBand **b     = arg;
 +    decode_subband_internal(s, *b, 0);
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * [DIRAC_STD] 13.4.1 core_transform_data()
 + */
 +static void decode_component(DiracContext *s, int comp)
 +{
 +    AVCodecContext *avctx = s->avctx;
 +    SubBand *bands[3*MAX_DWT_LEVELS+1];
 +    enum dirac_subband orientation;
 +    int level, num_bands = 0;
 +
 +    /* Unpack all subbands at all levels. */
 +    for (level = 0; level < s->wavelet_depth; level++) {
 +        for (orientation = !!level; orientation < 4; orientation++) {
 +            SubBand *b = &s->plane[comp].band[level][orientation];
 +            bands[num_bands++] = b;
 +
 +            align_get_bits(&s->gb);
 +            /* [DIRAC_STD] 13.4.2 subband() */
 +            b->length = svq3_get_ue_golomb(&s->gb);
 +            if (b->length) {
 +                b->quant = svq3_get_ue_golomb(&s->gb);
 +                align_get_bits(&s->gb);
 +                b->coeff_data = s->gb.buffer + get_bits_count(&s->gb)/8;
 +                b->length = FFMIN(b->length, FFMAX(get_bits_left(&s->gb)/8, 0));
 +                skip_bits_long(&s->gb, b->length*8);
 +            }
 +        }
 +        /* arithmetic coding has inter-level dependencies, so we can only execute one level at a time */
 +        if (s->is_arith)
 +            avctx->execute(avctx, decode_subband_arith, &s->plane[comp].band[level][!!level],
 +                           NULL, 4-!!level, sizeof(SubBand));
 +    }
 +    /* golomb coding has no inter-level dependencies, so we can execute all subbands in parallel */
 +    if (!s->is_arith)
 +        avctx->execute(avctx, decode_subband_golomb, bands, NULL, num_bands, sizeof(SubBand*));
 +}
 +
 +/* [DIRAC_STD] 13.5.5.2 Luma slice subband data. luma_slice_band(level,orient,sx,sy) --> if b2 == NULL */
 +/* [DIRAC_STD] 13.5.5.3 Chroma slice subband data. chroma_slice_band(level,orient,sx,sy) --> if b2 != NULL */
 +static void lowdelay_subband(DiracContext *s, GetBitContext *gb, int quant,
 +                             int slice_x, int slice_y, int bits_end,
 +                             SubBand *b1, SubBand *b2)
 +{
 +    int left   = b1->width  * slice_x    / s->lowdelay.num_x;
 +    int right  = b1->width  *(slice_x+1) / s->lowdelay.num_x;
 +    int top    = b1->height * slice_y    / s->lowdelay.num_y;
 +    int bottom = b1->height *(slice_y+1) / s->lowdelay.num_y;
 +
 +    int qfactor = qscale_tab[FFMIN(quant, MAX_QUANT)];
 +    int qoffset = qoffset_intra_tab[FFMIN(quant, MAX_QUANT)];
 +
 +    IDWTELEM *buf1 =      b1->ibuf + top * b1->stride;
 +    IDWTELEM *buf2 = b2 ? b2->ibuf + top * b2->stride : NULL;
 +    int x, y;
 +    /* we have to constantly check for overread since the spec explictly
 +       requires this, with the meaning that all remaining coeffs are set to 0 */
 +    if (get_bits_count(gb) >= bits_end)
 +        return;
 +
 +    for (y = top; y < bottom; y++) {
 +        for (x = left; x < right; x++) {
 +            buf1[x] = coeff_unpack_golomb(gb, qfactor, qoffset);
 +            if (get_bits_count(gb) >= bits_end)
 +                return;
 +            if (buf2) {
 +                buf2[x] = coeff_unpack_golomb(gb, qfactor, qoffset);
 +                if (get_bits_count(gb) >= bits_end)
 +                    return;
 +            }
 +        }
 +        buf1 += b1->stride;
 +        if (buf2)
 +            buf2 += b2->stride;
 +    }
 +}
 +
 +struct lowdelay_slice {
 +    GetBitContext gb;
 +    int slice_x;
 +    int slice_y;
 +    int bytes;
 +};
 +
 +
 +/**
 + * Dirac Specification ->
 + * 13.5.2 Slices. slice(sx,sy)
 + */
 +static int decode_lowdelay_slice(AVCodecContext *avctx, void *arg)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    struct lowdelay_slice *slice = arg;
 +    GetBitContext *gb = &slice->gb;
 +    enum dirac_subband orientation;
 +    int level, quant, chroma_bits, chroma_end;
 +
 +    int quant_base  = get_bits(gb, 7); /*[DIRAC_STD] qindex */
 +    int length_bits = av_log2(8 * slice->bytes)+1;
 +    int luma_bits   = get_bits_long(gb, length_bits);
 +    int luma_end    = get_bits_count(gb) + FFMIN(luma_bits, get_bits_left(gb));
 +
 +    /* [DIRAC_STD] 13.5.5.2 luma_slice_band */
 +    for (level = 0; level < s->wavelet_depth; level++)
 +        for (orientation = !!level; orientation < 4; orientation++) {
 +            quant = FFMAX(quant_base - s->lowdelay.quant[level][orientation], 0);
 +            lowdelay_subband(s, gb, quant, slice->slice_x, slice->slice_y, luma_end,
 +                             &s->plane[0].band[level][orientation], NULL);
 +        }
 +
 +    /* consume any unused bits from luma */
 +    skip_bits_long(gb, get_bits_count(gb) - luma_end);
 +
 +    chroma_bits = 8*slice->bytes - 7 - length_bits - luma_bits;
 +    chroma_end  = get_bits_count(gb) + FFMIN(chroma_bits, get_bits_left(gb));
 +    /* [DIRAC_STD] 13.5.5.3 chroma_slice_band */
 +    for (level = 0; level < s->wavelet_depth; level++)
 +        for (orientation = !!level; orientation < 4; orientation++) {
 +            quant = FFMAX(quant_base - s->lowdelay.quant[level][orientation], 0);
 +            lowdelay_subband(s, gb, quant, slice->slice_x, slice->slice_y, chroma_end,
 +                             &s->plane[1].band[level][orientation],
 +                             &s->plane[2].band[level][orientation]);
 +        }
 +
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.5.1 low_delay_transform_data()
 + */
 +static void decode_lowdelay(DiracContext *s)
 +{
 +    AVCodecContext *avctx = s->avctx;
 +    int slice_x, slice_y, bytes, bufsize;
 +    const uint8_t *buf;
 +    struct lowdelay_slice *slices;
 +    int slice_num = 0;
 +
 +    slices = av_mallocz(s->lowdelay.num_x * s->lowdelay.num_y * sizeof(struct lowdelay_slice));
 +
 +    align_get_bits(&s->gb);
 +    /*[DIRAC_STD] 13.5.2 Slices. slice(sx,sy) */
 +    buf = s->gb.buffer + get_bits_count(&s->gb)/8;
 +    bufsize = get_bits_left(&s->gb);
 +
 +    for (slice_y = 0; bufsize > 0 && slice_y < s->lowdelay.num_y; slice_y++)
 +        for (slice_x = 0; bufsize > 0 && slice_x < s->lowdelay.num_x; slice_x++) {
 +            bytes = (slice_num+1) * s->lowdelay.bytes.num / s->lowdelay.bytes.den
 +                - slice_num    * s->lowdelay.bytes.num / s->lowdelay.bytes.den;
 +
 +            slices[slice_num].bytes   = bytes;
 +            slices[slice_num].slice_x = slice_x;
 +            slices[slice_num].slice_y = slice_y;
 +            init_get_bits(&slices[slice_num].gb, buf, bufsize);
 +            slice_num++;
 +
 +            buf     += bytes;
 +            bufsize -= bytes*8;
 +        }
 +
 +    avctx->execute(avctx, decode_lowdelay_slice, slices, NULL, slice_num,
 +                   sizeof(struct lowdelay_slice)); /* [DIRAC_STD] 13.5.2 Slices */
 +    intra_dc_prediction(&s->plane[0].band[0][0]);  /* [DIRAC_STD] 13.3 intra_dc_prediction() */
 +    intra_dc_prediction(&s->plane[1].band[0][0]);  /* [DIRAC_STD] 13.3 intra_dc_prediction() */
 +    intra_dc_prediction(&s->plane[2].band[0][0]);  /* [DIRAC_STD] 13.3 intra_dc_prediction() */
 +    av_free(slices);
 +}
 +
 +static void init_planes(DiracContext *s)
 +{
 +    int i, w, h, level, orientation;
 +
 +    for (i = 0; i < 3; i++) {
 +        Plane *p = &s->plane[i];
 +
 +        p->width       = s->source.width  >> (i ? s->chroma_x_shift : 0);
 +        p->height      = s->source.height >> (i ? s->chroma_y_shift : 0);
 +        p->idwt_width  = w = CALC_PADDING(p->width , s->wavelet_depth);
 +        p->idwt_height = h = CALC_PADDING(p->height, s->wavelet_depth);
 +        p->idwt_stride = FFALIGN(p->idwt_width, 8);
 +
 +        for (level = s->wavelet_depth-1; level >= 0; level--) {
 +            w = w>>1;
 +            h = h>>1;
 +            for (orientation = !!level; orientation < 4; orientation++) {
 +                SubBand *b = &p->band[level][orientation];
 +
 +                b->ibuf   = p->idwt_buf;
 +                b->level  = level;
 +                b->stride = p->idwt_stride << (s->wavelet_depth - level);
 +                b->width  = w;
 +                b->height = h;
 +                b->orientation = orientation;
 +
 +                if (orientation & 1)
 +                    b->ibuf += w;
 +                if (orientation > 1)
 +                    b->ibuf += b->stride>>1;
 +
 +                if (level)
 +                    b->parent = &p->band[level-1][orientation];
 +            }
 +        }
 +
 +        if (i > 0) {
 +            p->xblen = s->plane[0].xblen >> s->chroma_x_shift;
 +            p->yblen = s->plane[0].yblen >> s->chroma_y_shift;
 +            p->xbsep = s->plane[0].xbsep >> s->chroma_x_shift;
 +            p->ybsep = s->plane[0].ybsep >> s->chroma_y_shift;
 +        }
 +
 +        p->xoffset = (p->xblen - p->xbsep)/2;
 +        p->yoffset = (p->yblen - p->ybsep)/2;
 +    }
 +}
 +
 +/**
 + * Unpack the motion compensation parameters
 + * Dirac Specification ->
 + * 11.2 Picture prediction data. picture_prediction()
 + */
 +static int dirac_unpack_prediction_parameters(DiracContext *s)
 +{
 +    static const uint8_t default_blen[] = { 4, 12, 16, 24 };
 +    static const uint8_t default_bsep[] = { 4,  8, 12, 16 };
 +
 +    GetBitContext *gb = &s->gb;
 +    unsigned idx, ref;
 +
 +    align_get_bits(gb);
 +    /* [DIRAC_STD] 11.2.2 Block parameters. block_parameters() */
 +    /* Luma and Chroma are equal. 11.2.3 */
 +    idx = svq3_get_ue_golomb(gb); /* [DIRAC_STD] index */
 +
 +    if (idx > 4) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Block prediction index too high\n");
 +        return -1;
 +    }
 +
 +    if (idx == 0) {
 +        s->plane[0].xblen = svq3_get_ue_golomb(gb);
 +        s->plane[0].yblen = svq3_get_ue_golomb(gb);
 +        s->plane[0].xbsep = svq3_get_ue_golomb(gb);
 +        s->plane[0].ybsep = svq3_get_ue_golomb(gb);
 +    } else {
 +        /*[DIRAC_STD] preset_block_params(index). Table 11.1 */
 +        s->plane[0].xblen = default_blen[idx-1];
 +        s->plane[0].yblen = default_blen[idx-1];
 +        s->plane[0].xbsep = default_bsep[idx-1];
 +        s->plane[0].ybsep = default_bsep[idx-1];
 +    }
 +    /*[DIRAC_STD] 11.2.4 motion_data_dimensions()
 +      Calculated in function dirac_unpack_block_motion_data */
 +
 +    if (!s->plane[0].xbsep || !s->plane[0].ybsep || s->plane[0].xbsep < s->plane[0].xblen/2 || s->plane[0].ybsep < s->plane[0].yblen/2) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Block separation too small\n");
 +        return -1;
 +    }
 +    if (s->plane[0].xbsep > s->plane[0].xblen || s->plane[0].ybsep > s->plane[0].yblen) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Block separation greater than size\n");
 +        return -1;
 +    }
 +    if (FFMAX(s->plane[0].xblen, s->plane[0].yblen) > MAX_BLOCKSIZE) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Unsupported large block size\n");
 +        return -1;
 +    }
 +
 +    /*[DIRAC_STD] 11.2.5 Motion vector precision. motion_vector_precision()
 +      Read motion vector precision */
 +    s->mv_precision = svq3_get_ue_golomb(gb);
 +    if (s->mv_precision > 3) {
 +        av_log(s->avctx, AV_LOG_ERROR, "MV precision finer than eighth-pel\n");
 +        return -1;
 +    }
 +
 +    /*[DIRAC_STD] 11.2.6 Global motion. global_motion()
 +      Read the global motion compensation parameters */
 +    s->globalmc_flag = get_bits1(gb);
 +    if (s->globalmc_flag) {
 +        memset(s->globalmc, 0, sizeof(s->globalmc));
 +        /* [DIRAC_STD] pan_tilt(gparams) */
 +        for (ref = 0; ref < s->num_refs; ref++) {
 +            if (get_bits1(gb)) {
 +                s->globalmc[ref].pan_tilt[0] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].pan_tilt[1] = dirac_get_se_golomb(gb);
 +            }
 +            /* [DIRAC_STD] zoom_rotate_shear(gparams)
 +               zoom/rotation/shear parameters */
 +            if (get_bits1(gb)) {
 +                s->globalmc[ref].zrs_exp   = svq3_get_ue_golomb(gb);
 +                s->globalmc[ref].zrs[0][0] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].zrs[0][1] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].zrs[1][0] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].zrs[1][1] = dirac_get_se_golomb(gb);
 +            } else {
 +                s->globalmc[ref].zrs[0][0] = 1;
 +                s->globalmc[ref].zrs[1][1] = 1;
 +            }
 +            /* [DIRAC_STD] perspective(gparams) */
 +            if (get_bits1(gb)) {
 +                s->globalmc[ref].perspective_exp = svq3_get_ue_golomb(gb);
 +                s->globalmc[ref].perspective[0]  = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].perspective[1]  = dirac_get_se_golomb(gb);
 +            }
 +        }
 +    }
 +
 +    /*[DIRAC_STD] 11.2.7 Picture prediction mode. prediction_mode()
 +      Picture prediction mode, not currently used. */
 +    if (svq3_get_ue_golomb(gb)) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Unknown picture prediction mode\n");
 +        return -1;
 +    }
 +
 +    /* [DIRAC_STD] 11.2.8 Reference picture weight. reference_picture_weights()
 +       just data read, weight calculation will be done later on. */
 +    s->weight_log2denom = 1;
 +    s->weight[0]        = 1;
 +    s->weight[1]        = 1;
 +
 +    if (get_bits1(gb)) {
 +        s->weight_log2denom = svq3_get_ue_golomb(gb);
 +        s->weight[0] = dirac_get_se_golomb(gb);
 +        if (s->num_refs == 2)
 +            s->weight[1] = dirac_get_se_golomb(gb);
 +    }
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 11.3 Wavelet transform data. wavelet_transform()
 + */
 +static int dirac_unpack_idwt_params(DiracContext *s)
 +{
 +    GetBitContext *gb = &s->gb;
 +    int i, level;
 +    unsigned tmp;
 +
 +#define CHECKEDREAD(dst, cond, errmsg) \
 +    tmp = svq3_get_ue_golomb(gb); \
 +    if (cond) { \
 +        av_log(s->avctx, AV_LOG_ERROR, errmsg); \
 +        return -1; \
 +    }\
 +    dst = tmp;
 +
 +    align_get_bits(gb);
 +
 +    s->zero_res = s->num_refs ? get_bits1(gb) : 0;
 +    if (s->zero_res)
 +        return 0;
 +
 +    /*[DIRAC_STD] 11.3.1 Transform parameters. transform_parameters() */
 +    CHECKEDREAD(s->wavelet_idx, tmp > 6, "wavelet_idx is too big\n")
 +
 +    CHECKEDREAD(s->wavelet_depth, tmp > MAX_DWT_LEVELS || tmp < 1, "invalid number of DWT decompositions\n")
 +
 +    if (!s->low_delay) {
 +        /* Codeblock parameters (core syntax only) */
 +        if (get_bits1(gb)) {
 +            for (i = 0; i <= s->wavelet_depth; i++) {
 +                CHECKEDREAD(s->codeblock[i].width , tmp < 1, "codeblock width invalid\n")
 +                CHECKEDREAD(s->codeblock[i].height, tmp < 1, "codeblock height invalid\n")
 +            }
 +
 +            CHECKEDREAD(s->codeblock_mode, tmp > 1, "unknown codeblock mode\n")
 +        } else
 +            for (i = 0; i <= s->wavelet_depth; i++)
 +                s->codeblock[i].width = s->codeblock[i].height = 1;
 +    } else {
 +        /* Slice parameters + quantization matrix*/
 +        /*[DIRAC_STD] 11.3.4 Slice coding Parameters (low delay syntax only). slice_parameters() */
 +        s->lowdelay.num_x     = svq3_get_ue_golomb(gb);
 +        s->lowdelay.num_y     = svq3_get_ue_golomb(gb);
 +        s->lowdelay.bytes.num = svq3_get_ue_golomb(gb);
 +        s->lowdelay.bytes.den = svq3_get_ue_golomb(gb);
 +
 +        if (s->lowdelay.bytes.den <= 0) {
 +            av_log(s->avctx,AV_LOG_ERROR,"Invalid lowdelay.bytes.den\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +
 +        /* [DIRAC_STD] 11.3.5 Quantisation matrices (low-delay syntax). quant_matrix() */
 +        if (get_bits1(gb)) {
 +            av_log(s->avctx,AV_LOG_DEBUG,"Low Delay: Has Custom Quantization Matrix!\n");
 +            /* custom quantization matrix */
 +            s->lowdelay.quant[0][0] = svq3_get_ue_golomb(gb);
 +            for (level = 0; level < s->wavelet_depth; level++) {
 +                s->lowdelay.quant[level][1] = svq3_get_ue_golomb(gb);
 +                s->lowdelay.quant[level][2] = svq3_get_ue_golomb(gb);
 +                s->lowdelay.quant[level][3] = svq3_get_ue_golomb(gb);
 +            }
 +        } else {
 +            if (s->wavelet_depth > 4) {
 +                av_log(s->avctx,AV_LOG_ERROR,"Mandatory custom low delay matrix missing for depth %d\n", s->wavelet_depth);
 +                return AVERROR_INVALIDDATA;
 +            }
 +            /* default quantization matrix */
 +            for (level = 0; level < s->wavelet_depth; level++)
 +                for (i = 0; i < 4; i++) {
 +                    s->lowdelay.quant[level][i] = default_qmat[s->wavelet_idx][level][i];
 +                    /* haar with no shift differs for different depths */
 +                    if (s->wavelet_idx == 3)
 +                        s->lowdelay.quant[level][i] += 4*(s->wavelet_depth-1 - level);
 +                }
 +        }
 +    }
 +    return 0;
 +}
 +
 +static inline int pred_sbsplit(uint8_t *sbsplit, int stride, int x, int y)
 +{
 +    static const uint8_t avgsplit[7] = { 0, 0, 1, 1, 1, 2, 2 };
 +
 +    if (!(x|y))
 +        return 0;
 +    else if (!y)
 +        return sbsplit[-1];
 +    else if (!x)
 +        return sbsplit[-stride];
 +
 +    return avgsplit[sbsplit[-1] + sbsplit[-stride] + sbsplit[-stride-1]];
 +}
 +
 +static inline int pred_block_mode(DiracBlock *block, int stride, int x, int y, int refmask)
 +{
 +    int pred;
 +
 +    if (!(x|y))
 +        return 0;
 +    else if (!y)
 +        return block[-1].ref & refmask;
 +    else if (!x)
 +        return block[-stride].ref & refmask;
 +
 +    /* return the majority */
 +    pred = (block[-1].ref & refmask) + (block[-stride].ref & refmask) + (block[-stride-1].ref & refmask);
 +    return (pred >> 1) & refmask;
 +}
 +
 +static inline void pred_block_dc(DiracBlock *block, int stride, int x, int y)
 +{
 +    int i, n = 0;
 +
 +    memset(block->u.dc, 0, sizeof(block->u.dc));
 +
 +    if (x && !(block[-1].ref & 3)) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += block[-1].u.dc[i];
 +        n++;
 +    }
 +
 +    if (y && !(block[-stride].ref & 3)) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += block[-stride].u.dc[i];
 +        n++;
 +    }
 +
 +    if (x && y && !(block[-1-stride].ref & 3)) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += block[-1-stride].u.dc[i];
 +        n++;
 +    }
 +
 +    if (n == 2) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] = (block->u.dc[i]+1)>>1;
 +    } else if (n == 3) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] = divide3(block->u.dc[i]);
 +    }
 +}
 +
 +static inline void pred_mv(DiracBlock *block, int stride, int x, int y, int ref)
 +{
 +    int16_t *pred[3];
 +    int refmask = ref+1;
 +    int mask = refmask | DIRAC_REF_MASK_GLOBAL; /*  exclude gmc blocks */
 +    int n = 0;
 +
 +    if (x && (block[-1].ref & mask) == refmask)
 +        pred[n++] = block[-1].u.mv[ref];
 +
 +    if (y && (block[-stride].ref & mask) == refmask)
 +        pred[n++] = block[-stride].u.mv[ref];
 +
 +    if (x && y && (block[-stride-1].ref & mask) == refmask)
 +        pred[n++] = block[-stride-1].u.mv[ref];
 +
 +    switch (n) {
 +    case 0:
 +        block->u.mv[ref][0] = 0;
 +        block->u.mv[ref][1] = 0;
 +        break;
 +    case 1:
 +        block->u.mv[ref][0] = pred[0][0];
 +        block->u.mv[ref][1] = pred[0][1];
 +        break;
 +    case 2:
 +        block->u.mv[ref][0] = (pred[0][0] + pred[1][0] + 1) >> 1;
 +        block->u.mv[ref][1] = (pred[0][1] + pred[1][1] + 1) >> 1;
 +        break;
 +    case 3:
 +        block->u.mv[ref][0] = mid_pred(pred[0][0], pred[1][0], pred[2][0]);
 +        block->u.mv[ref][1] = mid_pred(pred[0][1], pred[1][1], pred[2][1]);
 +        break;
 +    }
 +}
 +
 +static void global_mv(DiracContext *s, DiracBlock *block, int x, int y, int ref)
 +{
 +    int ez      = s->globalmc[ref].zrs_exp;
 +    int ep      = s->globalmc[ref].perspective_exp;
 +    int (*A)[2] = s->globalmc[ref].zrs;
 +    int *b      = s->globalmc[ref].pan_tilt;
 +    int *c      = s->globalmc[ref].perspective;
 +
 +    int m       = (1<<ep) - (c[0]*x + c[1]*y);
 +    int mx      = m * ((A[0][0] * x + A[0][1]*y) + (1<<ez) * b[0]);
 +    int my      = m * ((A[1][0] * x + A[1][1]*y) + (1<<ez) * b[1]);
 +
 +    block->u.mv[ref][0] = (mx + (1<<(ez+ep))) >> (ez+ep);
 +    block->u.mv[ref][1] = (my + (1<<(ez+ep))) >> (ez+ep);
 +}
 +
 +static void decode_block_params(DiracContext *s, DiracArith arith[8], DiracBlock *block,
 +                                int stride, int x, int y)
 +{
 +    int i;
 +
 +    block->ref  = pred_block_mode(block, stride, x, y, DIRAC_REF_MASK_REF1);
 +    block->ref ^= dirac_get_arith_bit(arith, CTX_PMODE_REF1);
 +
 +    if (s->num_refs == 2) {
 +        block->ref |= pred_block_mode(block, stride, x, y, DIRAC_REF_MASK_REF2);
 +        block->ref ^= dirac_get_arith_bit(arith, CTX_PMODE_REF2) << 1;
 +    }
 +
 +    if (!block->ref) {
 +        pred_block_dc(block, stride, x, y);
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += dirac_get_arith_int(arith+1+i, CTX_DC_F1, CTX_DC_DATA);
 +        return;
 +    }
 +
 +    if (s->globalmc_flag) {
 +        block->ref |= pred_block_mode(block, stride, x, y, DIRAC_REF_MASK_GLOBAL);
 +        block->ref ^= dirac_get_arith_bit(arith, CTX_GLOBAL_BLOCK) << 2;
 +    }
 +
 +    for (i = 0; i < s->num_refs; i++)
 +        if (block->ref & (i+1)) {
 +            if (block->ref & DIRAC_REF_MASK_GLOBAL) {
 +                global_mv(s, block, x, y, i);
 +            } else {
 +                pred_mv(block, stride, x, y, i);
 +                block->u.mv[i][0] += dirac_get_arith_int(arith + 4 + 2 * i, CTX_MV_F1, CTX_MV_DATA);
 +                block->u.mv[i][1] += dirac_get_arith_int(arith + 5 + 2 * i, CTX_MV_F1, CTX_MV_DATA);
 +            }
 +        }
 +}
 +
 +/**
 + * Copies the current block to the other blocks covered by the current superblock split mode
 + */
 +static void propagate_block_data(DiracBlock *block, int stride, int size)
 +{
 +    int x, y;
 +    DiracBlock *dst = block;
 +
 +    for (x = 1; x < size; x++)
 +        dst[x] = *block;
 +
 +    for (y = 1; y < size; y++) {
 +        dst += stride;
 +        for (x = 0; x < size; x++)
 +            dst[x] = *block;
 +    }
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 12. Block motion data syntax
 + */
 +static int dirac_unpack_block_motion_data(DiracContext *s)
 +{
 +    GetBitContext *gb = &s->gb;
 +    uint8_t *sbsplit = s->sbsplit;
 +    int i, x, y, q, p;
 +    DiracArith arith[8];
 +
 +    align_get_bits(gb);
 +
 +    /* [DIRAC_STD] 11.2.4 and 12.2.1 Number of blocks and superblocks */
 +    s->sbwidth  = DIVRNDUP(s->source.width,  4*s->plane[0].xbsep);
 +    s->sbheight = DIVRNDUP(s->source.height, 4*s->plane[0].ybsep);
 +    s->blwidth  = 4 * s->sbwidth;
 +    s->blheight = 4 * s->sbheight;
 +
 +    /* [DIRAC_STD] 12.3.1 Superblock splitting modes. superblock_split_modes()
 +       decode superblock split modes */
 +    ff_dirac_init_arith_decoder(arith, gb, svq3_get_ue_golomb(gb));     /* svq3_get_ue_golomb(gb) is the length */
 +    for (y = 0; y < s->sbheight; y++) {
 +        for (x = 0; x < s->sbwidth; x++) {
 +            unsigned int split  = dirac_get_arith_uint(arith, CTX_SB_F1, CTX_SB_DATA);
 +            if (split > 2)
 +                return -1;
 +            sbsplit[x] = (split + pred_sbsplit(sbsplit+x, s->sbwidth, x, y)) % 3;
 +        }
 +        sbsplit += s->sbwidth;
 +    }
 +
 +    /* setup arith decoding */
 +    ff_dirac_init_arith_decoder(arith, gb, svq3_get_ue_golomb(gb));
 +    for (i = 0; i < s->num_refs; i++) {
 +        ff_dirac_init_arith_decoder(arith + 4 + 2 * i, gb, svq3_get_ue_golomb(gb));
 +        ff_dirac_init_arith_decoder(arith + 5 + 2 * i, gb, svq3_get_ue_golomb(gb));
 +    }
 +    for (i = 0; i < 3; i++)
 +        ff_dirac_init_arith_decoder(arith+1+i, gb, svq3_get_ue_golomb(gb));
 +
 +    for (y = 0; y < s->sbheight; y++)
 +        for (x = 0; x < s->sbwidth; x++) {
 +            int blkcnt = 1 << s->sbsplit[y * s->sbwidth + x];
 +            int step   = 4 >> s->sbsplit[y * s->sbwidth + x];
 +
 +            for (q = 0; q < blkcnt; q++)
 +                for (p = 0; p < blkcnt; p++) {
 +                    int bx = 4 * x + p*step;
 +                    int by = 4 * y + q*step;
 +                    DiracBlock *block = &s->blmotion[by*s->blwidth + bx];
 +                    decode_block_params(s, arith, block, s->blwidth, bx, by);
 +                    propagate_block_data(block, s->blwidth, step);
 +                }
 +        }
 +
 +    return 0;
 +}
 +
 +static int weight(int i, int blen, int offset)
 +{
 +#define ROLLOFF(i) offset == 1 ? ((i) ? 5 : 3) :        \
 +    (1 + (6*(i) + offset - 1) / (2*offset - 1))
 +
 +    if (i < 2*offset)
 +        return ROLLOFF(i);
 +    else if (i > blen-1 - 2*offset)
 +        return ROLLOFF(blen-1 - i);
 +    return 8;
 +}
 +
 +static void init_obmc_weight_row(Plane *p, uint8_t *obmc_weight, int stride,
 +                                 int left, int right, int wy)
 +{
 +    int x;
 +    for (x = 0; left && x < p->xblen >> 1; x++)
 +        obmc_weight[x] = wy*8;
 +    for (; x < p->xblen >> right; x++)
 +        obmc_weight[x] = wy*weight(x, p->xblen, p->xoffset);
 +    for (; x < p->xblen; x++)
 +        obmc_weight[x] = wy*8;
 +    for (; x < stride; x++)
 +        obmc_weight[x] = 0;
 +}
 +
 +static void init_obmc_weight(Plane *p, uint8_t *obmc_weight, int stride,
 +                             int left, int right, int top, int bottom)
 +{
 +    int y;
 +    for (y = 0; top && y < p->yblen >> 1; y++) {
 +        init_obmc_weight_row(p, obmc_weight, stride, left, right, 8);
 +        obmc_weight += stride;
 +    }
 +    for (; y < p->yblen >> bottom; y++) {
 +        int wy = weight(y, p->yblen, p->yoffset);
 +        init_obmc_weight_row(p, obmc_weight, stride, left, right, wy);
 +        obmc_weight += stride;
 +    }
 +    for (; y < p->yblen; y++) {
 +        init_obmc_weight_row(p, obmc_weight, stride, left, right, 8);
 +        obmc_weight += stride;
 +    }
 +}
 +
 +static void init_obmc_weights(DiracContext *s, Plane *p, int by)
 +{
 +    int top = !by;
 +    int bottom = by == s->blheight-1;
 +
 +    /* don't bother re-initing for rows 2 to blheight-2, the weights don't change */
 +    if (top || bottom || by == 1) {
 +        init_obmc_weight(p, s->obmc_weight[0], MAX_BLOCKSIZE, 1, 0, top, bottom);
 +        init_obmc_weight(p, s->obmc_weight[1], MAX_BLOCKSIZE, 0, 0, top, bottom);
 +        init_obmc_weight(p, s->obmc_weight[2], MAX_BLOCKSIZE, 0, 1, top, bottom);
 +    }
 +}
 +
 +static const uint8_t epel_weights[4][4][4] = {
 +    {{ 16,  0,  0,  0 },
 +     { 12,  4,  0,  0 },
 +     {  8,  8,  0,  0 },
 +     {  4, 12,  0,  0 }},
 +    {{ 12,  0,  4,  0 },
 +     {  9,  3,  3,  1 },
 +     {  6,  6,  2,  2 },
 +     {  3,  9,  1,  3 }},
 +    {{  8,  0,  8,  0 },
 +     {  6,  2,  6,  2 },
 +     {  4,  4,  4,  4 },
 +     {  2,  6,  2,  6 }},
 +    {{  4,  0, 12,  0 },
 +     {  3,  1,  9,  3 },
 +     {  2,  2,  6,  6 },
 +     {  1,  3,  3,  9 }}
 +};
 +
 +/**
 + * For block x,y, determine which of the hpel planes to do bilinear
 + * interpolation from and set src[] to the location in each hpel plane
 + * to MC from.
 + *
 + * @return the index of the put_dirac_pixels_tab function to use
 + *  0 for 1 plane (fpel,hpel), 1 for 2 planes (qpel), 2 for 4 planes (qpel), and 3 for epel
 + */
 +static int mc_subpel(DiracContext *s, DiracBlock *block, const uint8_t *src[5],
 +                     int x, int y, int ref, int plane)
 +{
 +    Plane *p = &s->plane[plane];
 +    uint8_t **ref_hpel = s->ref_pics[ref]->hpel[plane];
 +    int motion_x = block->u.mv[ref][0];
 +    int motion_y = block->u.mv[ref][1];
 +    int mx, my, i, epel, nplanes = 0;
 +
 +    if (plane) {
 +        motion_x >>= s->chroma_x_shift;
 +        motion_y >>= s->chroma_y_shift;
 +    }
 +
 +    mx         = motion_x & ~(-1 << s->mv_precision);
 +    my         = motion_y & ~(-1 << s->mv_precision);
 +    motion_x >>= s->mv_precision;
 +    motion_y >>= s->mv_precision;
 +    /* normalize subpel coordinates to epel */
 +    /* TODO: template this function? */
 +    mx      <<= 3 - s->mv_precision;
 +    my      <<= 3 - s->mv_precision;
 +
 +    x += motion_x;
 +    y += motion_y;
 +    epel = (mx|my)&1;
 +
 +    /* hpel position */
 +    if (!((mx|my)&3)) {
 +        nplanes = 1;
 +        src[0] = ref_hpel[(my>>1)+(mx>>2)] + y*p->stride + x;
 +    } else {
 +        /* qpel or epel */
 +        nplanes = 4;
 +        for (i = 0; i < 4; i++)
 +            src[i] = ref_hpel[i] + y*p->stride + x;
 +
 +        /* if we're interpolating in the right/bottom halves, adjust the planes as needed
 +           we increment x/y because the edge changes for half of the pixels */
 +        if (mx > 4) {
 +            src[0] += 1;
 +            src[2] += 1;
 +            x++;
 +        }
 +        if (my > 4) {
 +            src[0] += p->stride;
 +            src[1] += p->stride;
 +            y++;
 +        }
 +
 +        /* hpel planes are:
 +           [0]: F  [1]: H
 +           [2]: V  [3]: C */
 +        if (!epel) {
 +            /* check if we really only need 2 planes since either mx or my is
 +               a hpel position. (epel weights of 0 handle this there) */
 +            if (!(mx&3)) {
 +                /* mx == 0: average [0] and [2]
 +                   mx == 4: average [1] and [3] */
 +                src[!mx] = src[2 + !!mx];
 +                nplanes = 2;
 +            } else if (!(my&3)) {
 +                src[0] = src[(my>>1)  ];
 +                src[1] = src[(my>>1)+1];
 +                nplanes = 2;
 +            }
 +        } else {
 +            /* adjust the ordering if needed so the weights work */
 +            if (mx > 4) {
 +                FFSWAP(const uint8_t *, src[0], src[1]);
 +                FFSWAP(const uint8_t *, src[2], src[3]);
 +            }
 +            if (my > 4) {
 +                FFSWAP(const uint8_t *, src[0], src[2]);
 +                FFSWAP(const uint8_t *, src[1], src[3]);
 +            }
 +            src[4] = epel_weights[my&3][mx&3];
 +        }
 +    }
 +
 +    /* fixme: v/h _edge_pos */
 +    if ((unsigned)x > FFMAX(p->width +EDGE_WIDTH/2 - p->xblen, 0) ||
 +        (unsigned)y > FFMAX(p->height+EDGE_WIDTH/2 - p->yblen, 0)) {
 +        for (i = 0; i < nplanes; i++) {
 +            ff_emulated_edge_mc(s->edge_emu_buffer[i], src[i], p->stride,
 +                                p->xblen, p->yblen, x, y,
 +                                p->width+EDGE_WIDTH/2, p->height+EDGE_WIDTH/2);
 +            src[i] = s->edge_emu_buffer[i];
 +        }
 +    }
 +    return (nplanes>>1) + epel;
 +}
 +
 +static void add_dc(uint16_t *dst, int dc, int stride,
 +                   uint8_t *obmc_weight, int xblen, int yblen)
 +{
 +    int x, y;
 +    dc += 128;
 +
 +    for (y = 0; y < yblen; y++) {
 +        for (x = 0; x < xblen; x += 2) {
 +            dst[x  ] += dc * obmc_weight[x  ];
 +            dst[x+1] += dc * obmc_weight[x+1];
 +        }
 +        dst          += stride;
 +        obmc_weight  += MAX_BLOCKSIZE;
 +    }
 +}
 +
 +static void block_mc(DiracContext *s, DiracBlock *block,
 +                     uint16_t *mctmp, uint8_t *obmc_weight,
 +                     int plane, int dstx, int dsty)
 +{
 +    Plane *p = &s->plane[plane];
 +    const uint8_t *src[5];
 +    int idx;
 +
 +    switch (block->ref&3) {
 +    case 0: /* DC */
 +        add_dc(mctmp, block->u.dc[plane], p->stride, obmc_weight, p->xblen, p->yblen);
 +        return;
 +    case 1:
 +    case 2:
 +        idx = mc_subpel(s, block, src, dstx, dsty, (block->ref&3)-1, plane);
 +        s->put_pixels_tab[idx](s->mcscratch, src, p->stride, p->yblen);
 +        if (s->weight_func)
 +            s->weight_func(s->mcscratch, p->stride, s->weight_log2denom,
 +                           s->weight[0] + s->weight[1], p->yblen);
 +        break;
 +    case 3:
 +        idx = mc_subpel(s, block, src, dstx, dsty, 0, plane);
 +        s->put_pixels_tab[idx](s->mcscratch, src, p->stride, p->yblen);
 +        idx = mc_subpel(s, block, src, dstx, dsty, 1, plane);
 +        if (s->biweight_func) {
 +            /* fixme: +32 is a quick hack */
 +            s->put_pixels_tab[idx](s->mcscratch + 32, src, p->stride, p->yblen);
 +            s->biweight_func(s->mcscratch, s->mcscratch+32, p->stride, s->weight_log2denom,
 +                             s->weight[0], s->weight[1], p->yblen);
 +        } else
 +            s->avg_pixels_tab[idx](s->mcscratch, src, p->stride, p->yblen);
 +        break;
 +    }
 +    s->add_obmc(mctmp, s->mcscratch, p->stride, obmc_weight, p->yblen);
 +}
 +
 +static void mc_row(DiracContext *s, DiracBlock *block, uint16_t *mctmp, int plane, int dsty)
 +{
 +    Plane *p = &s->plane[plane];
 +    int x, dstx = p->xbsep - p->xoffset;
 +
 +    block_mc(s, block, mctmp, s->obmc_weight[0], plane, -p->xoffset, dsty);
 +    mctmp += p->xbsep;
 +
 +    for (x = 1; x < s->blwidth-1; x++) {
 +        block_mc(s, block+x, mctmp, s->obmc_weight[1], plane, dstx, dsty);
 +        dstx  += p->xbsep;
 +        mctmp += p->xbsep;
 +    }
 +    block_mc(s, block+x, mctmp, s->obmc_weight[2], plane, dstx, dsty);
 +}
 +
 +static void select_dsp_funcs(DiracContext *s, int width, int height, int xblen, int yblen)
 +{
 +    int idx = 0;
 +    if (xblen > 8)
 +        idx = 1;
 +    if (xblen > 16)
 +        idx = 2;
 +
 +    memcpy(s->put_pixels_tab, s->diracdsp.put_dirac_pixels_tab[idx], sizeof(s->put_pixels_tab));
 +    memcpy(s->avg_pixels_tab, s->diracdsp.avg_dirac_pixels_tab[idx], sizeof(s->avg_pixels_tab));
 +    s->add_obmc = s->diracdsp.add_dirac_obmc[idx];
 +    if (s->weight_log2denom > 1 || s->weight[0] != 1 || s->weight[1] != 1) {
 +        s->weight_func   = s->diracdsp.weight_dirac_pixels_tab[idx];
 +        s->biweight_func = s->diracdsp.biweight_dirac_pixels_tab[idx];
 +    } else {
 +        s->weight_func   = NULL;
 +        s->biweight_func = NULL;
 +    }
 +}
 +
 +static void interpolate_refplane(DiracContext *s, DiracFrame *ref, int plane, int width, int height)
 +{
 +    /* chroma allocates an edge of 8 when subsampled
 +       which for 4:2:2 means an h edge of 16 and v edge of 8
 +       just use 8 for everything for the moment */
 +    int i, edge = EDGE_WIDTH/2;
 +
 +    ref->hpel[plane][0] = ref->avframe.data[plane];
 +    s->dsp.draw_edges(ref->hpel[plane][0], ref->avframe.linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM); /* EDGE_TOP | EDGE_BOTTOM values just copied to make it build, this needs to be ensured */
 +
 +    /* no need for hpel if we only have fpel vectors */
 +    if (!s->mv_precision)
 +        return;
 +
 +    for (i = 1; i < 4; i++) {
 +        if (!ref->hpel_base[plane][i])
 +            ref->hpel_base[plane][i] = av_malloc((height+2*edge) * ref->avframe.linesize[plane] + 32);
 +        /* we need to be 16-byte aligned even for chroma */
 +        ref->hpel[plane][i] = ref->hpel_base[plane][i] + edge*ref->avframe.linesize[plane] + 16;
 +    }
 +
 +    if (!ref->interpolated[plane]) {
 +        s->diracdsp.dirac_hpel_filter(ref->hpel[plane][1], ref->hpel[plane][2],
 +                                      ref->hpel[plane][3], ref->hpel[plane][0],
 +                                      ref->avframe.linesize[plane], width, height);
 +        s->dsp.draw_edges(ref->hpel[plane][1], ref->avframe.linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
 +        s->dsp.draw_edges(ref->hpel[plane][2], ref->avframe.linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
 +        s->dsp.draw_edges(ref->hpel[plane][3], ref->avframe.linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
 +    }
 +    ref->interpolated[plane] = 1;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.0 Transform data syntax. transform_data()
 + */
 +static int dirac_decode_frame_internal(DiracContext *s)
 +{
 +    DWTContext d;
 +    int y, i, comp, dsty;
 +
 +    if (s->low_delay) {
 +        /* [DIRAC_STD] 13.5.1 low_delay_transform_data() */
 +        for (comp = 0; comp < 3; comp++) {
 +            Plane *p = &s->plane[comp];
 +            memset(p->idwt_buf, 0, p->idwt_stride * p->idwt_height * sizeof(IDWTELEM));
 +        }
 +        if (!s->zero_res)
 +            decode_lowdelay(s);
 +    }
 +
 +    for (comp = 0; comp < 3; comp++) {
 +        Plane *p       = &s->plane[comp];
 +        uint8_t *frame = s->current_picture->avframe.data[comp];
 +
 +        /* FIXME: small resolutions */
 +        for (i = 0; i < 4; i++)
 +            s->edge_emu_buffer[i] = s->edge_emu_buffer_base + i*FFALIGN(p->width, 16);
 +
 +        if (!s->zero_res && !s->low_delay)
 +        {
 +            memset(p->idwt_buf, 0, p->idwt_stride * p->idwt_height * sizeof(IDWTELEM));
 +            decode_component(s, comp); /* [DIRAC_STD] 13.4.1 core_transform_data() */
 +        }
 +        if (ff_spatial_idwt_init2(&d, p->idwt_buf, p->idwt_width, p->idwt_height, p->idwt_stride,
 +                                  s->wavelet_idx+2, s->wavelet_depth, p->idwt_tmp))
 +            return -1;
 +
 +        if (!s->num_refs) { /* intra */
 +            for (y = 0; y < p->height; y += 16) {
 +                ff_spatial_idwt_slice2(&d, y+16); /* decode */
 +                s->diracdsp.put_signed_rect_clamped(frame + y*p->stride, p->stride,
 +                                                    p->idwt_buf + y*p->idwt_stride, p->idwt_stride, p->width, 16);
 +            }
 +        } else { /* inter */
 +            int rowheight = p->ybsep*p->stride;
 +
 +            select_dsp_funcs(s, p->width, p->height, p->xblen, p->yblen);
 +
 +            for (i = 0; i < s->num_refs; i++)
 +                interpolate_refplane(s, s->ref_pics[i], comp, p->width, p->height);
 +
 +            memset(s->mctmp, 0, 4*p->yoffset*p->stride);
 +
 +            dsty = -p->yoffset;
 +            for (y = 0; y < s->blheight; y++) {
 +                int h     = 0,
 +                    start = FFMAX(dsty, 0);
 +                uint16_t *mctmp    = s->mctmp + y*rowheight;
 +                DiracBlock *blocks = s->blmotion + y*s->blwidth;
 +
 +                init_obmc_weights(s, p, y);
 +
 +                if (y == s->blheight-1 || start+p->ybsep > p->height)
 +                    h = p->height - start;
 +                else
 +                    h = p->ybsep - (start - dsty);
 +                if (h < 0)
 +                    break;
 +
 +                memset(mctmp+2*p->yoffset*p->stride, 0, 2*rowheight);
 +                mc_row(s, blocks, mctmp, comp, dsty);
 +
 +                mctmp += (start - dsty)*p->stride + p->xoffset;
 +                ff_spatial_idwt_slice2(&d, start + h); /* decode */
 +                s->diracdsp.add_rect_clamped(frame + start*p->stride, mctmp, p->stride,
 +                                             p->idwt_buf + start*p->idwt_stride, p->idwt_stride, p->width, h);
 +
 +                dsty += p->ybsep;
 +            }
 +        }
 +    }
 +
 +
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 11.1.1 Picture Header. picture_header()
 + */
 +static int dirac_decode_picture_header(DiracContext *s)
 +{
 +    int retire, picnum;
 +    int i, j, refnum, refdist;
 +    GetBitContext *gb = &s->gb;
 +
 +    /* [DIRAC_STD] 11.1.1 Picture Header. picture_header() PICTURE_NUM */
 +    picnum = s->current_picture->avframe.display_picture_number = get_bits_long(gb, 32);
 +
 +
 +    av_log(s->avctx,AV_LOG_DEBUG,"PICTURE_NUM: %d\n",picnum);
 +
 +    /* if this is the first keyframe after a sequence header, start our
 +       reordering from here */
 +    if (s->frame_number < 0)
 +        s->frame_number = picnum;
 +
 +    s->ref_pics[0] = s->ref_pics[1] = NULL;
 +    for (i = 0; i < s->num_refs; i++) {
 +        refnum = picnum + dirac_get_se_golomb(gb);
 +        refdist = INT_MAX;
 +
 +        /* find the closest reference to the one we want */
 +        /* Jordi: this is needed if the referenced picture hasn't yet arrived */
 +        for (j = 0; j < MAX_REFERENCE_FRAMES && refdist; j++)
 +            if (s->ref_frames[j]
 +                && FFABS(s->ref_frames[j]->avframe.display_picture_number - refnum) < refdist) {
 +                s->ref_pics[i] = s->ref_frames[j];
 +                refdist = FFABS(s->ref_frames[j]->avframe.display_picture_number - refnum);
 +            }
 +
 +        if (!s->ref_pics[i] || refdist)
 +            av_log(s->avctx, AV_LOG_DEBUG, "Reference not found\n");
 +
 +        /* if there were no references at all, allocate one */
 +        if (!s->ref_pics[i])
 +            for (j = 0; j < MAX_FRAMES; j++)
 +                if (!s->all_frames[j].avframe.data[0]) {
 +                    s->ref_pics[i] = &s->all_frames[j];
-         if (avctx->get_buffer(avctx, &pic->avframe) < 0) {
++                    ff_get_buffer(s->avctx, &s->ref_pics[i]->avframe);
 +                    break;
 +                }
 +    }
 +
 +    /* retire the reference frames that are not used anymore */
 +    if (s->current_picture->avframe.reference) {
 +        retire = picnum + dirac_get_se_golomb(gb);
 +        if (retire != picnum) {
 +            DiracFrame *retire_pic = remove_frame(s->ref_frames, retire);
 +
 +            if (retire_pic)
 +                retire_pic->avframe.reference &= DELAYED_PIC_REF;
 +            else
 +                av_log(s->avctx, AV_LOG_DEBUG, "Frame to retire not found\n");
 +        }
 +
 +        /* if reference array is full, remove the oldest as per the spec */
 +        while (add_frame(s->ref_frames, MAX_REFERENCE_FRAMES, s->current_picture)) {
 +            av_log(s->avctx, AV_LOG_ERROR, "Reference frame overflow\n");
 +            remove_frame(s->ref_frames, s->ref_frames[0]->avframe.display_picture_number)->avframe.reference &= DELAYED_PIC_REF;
 +        }
 +    }
 +
 +    if (s->num_refs) {
 +        if (dirac_unpack_prediction_parameters(s))  /* [DIRAC_STD] 11.2 Picture Prediction Data. picture_prediction() */
 +            return -1;
 +        if (dirac_unpack_block_motion_data(s))      /* [DIRAC_STD] 12. Block motion data syntax                       */
 +            return -1;
 +    }
 +    if (dirac_unpack_idwt_params(s))                /* [DIRAC_STD] 11.3 Wavelet transform data                        */
 +        return -1;
 +
 +    init_planes(s);
 +    return 0;
 +}
 +
 +static int get_delayed_pic(DiracContext *s, AVFrame *picture, int *data_size)
 +{
 +    DiracFrame *out = s->delay_frames[0];
 +    int i, out_idx  = 0;
 +
 +    /* find frame with lowest picture number */
 +    for (i = 1; s->delay_frames[i]; i++)
 +        if (s->delay_frames[i]->avframe.display_picture_number < out->avframe.display_picture_number) {
 +            out     = s->delay_frames[i];
 +            out_idx = i;
 +        }
 +
 +    for (i = out_idx; s->delay_frames[i]; i++)
 +        s->delay_frames[i] = s->delay_frames[i+1];
 +
 +    if (out) {
 +        out->avframe.reference ^= DELAYED_PIC_REF;
 +        *data_size = sizeof(AVFrame);
 +        *(AVFrame *)picture = out->avframe;
 +    }
 +
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 9.6 Parse Info Header Syntax. parse_info()
 + * 4 byte start code + byte parse code + 4 byte size + 4 byte previous size
 + */
 +#define DATA_UNIT_HEADER_SIZE 13
 +
 +/* [DIRAC_STD] dirac_decode_data_unit makes reference to the while defined in 9.3
 +   inside the function parse_sequence() */
 +static int dirac_decode_data_unit(AVCodecContext *avctx, const uint8_t *buf, int size)
 +{
 +    DiracContext *s   = avctx->priv_data;
 +    DiracFrame *pic   = NULL;
 +    int i, parse_code = buf[4];
 +    unsigned tmp;
 +
 +    if (size < DATA_UNIT_HEADER_SIZE)
 +        return -1;
 +
 +    init_get_bits(&s->gb, &buf[13], 8*(size - DATA_UNIT_HEADER_SIZE));
 +
 +    if (parse_code == pc_seq_header) {
 +        if (s->seen_sequence_header)
 +            return 0;
 +
 +        /* [DIRAC_STD] 10. Sequence header */
 +        if (avpriv_dirac_parse_sequence_header(avctx, &s->gb, &s->source))
 +            return -1;
 +
 +        avcodec_get_chroma_sub_sample(avctx->pix_fmt, &s->chroma_x_shift, &s->chroma_y_shift);
 +
 +        if (alloc_sequence_buffers(s))
 +            return -1;
 +
 +        s->seen_sequence_header = 1;
 +    } else if (parse_code == pc_eos) { /* [DIRAC_STD] End of Sequence */
 +        free_sequence_buffers(s);
 +        s->seen_sequence_header = 0;
 +    } else if (parse_code == pc_aux_data) {
 +        if (buf[13] == 1) {     /* encoder implementation/version */
 +            int ver[3];
 +            /* versions older than 1.0.8 don't store quant delta for
 +               subbands with only one codeblock */
 +            if (sscanf(buf+14, "Schroedinger %d.%d.%d", ver, ver+1, ver+2) == 3)
 +                if (ver[0] == 1 && ver[1] == 0 && ver[2] <= 7)
 +                    s->old_delta_quant = 1;
 +        }
 +    } else if (parse_code & 0x8) {  /* picture data unit */
 +        if (!s->seen_sequence_header) {
 +            av_log(avctx, AV_LOG_DEBUG, "Dropping frame without sequence header\n");
 +            return -1;
 +        }
 +
 +        /* find an unused frame */
 +        for (i = 0; i < MAX_FRAMES; i++)
 +            if (s->all_frames[i].avframe.data[0] == NULL)
 +                pic = &s->all_frames[i];
 +        if (!pic) {
 +            av_log(avctx, AV_LOG_ERROR, "framelist full\n");
 +            return -1;
 +        }
 +
 +        avcodec_get_frame_defaults(&pic->avframe);
 +
 +        /* [DIRAC_STD] Defined in 9.6.1 ... */
 +        tmp            =  parse_code & 0x03;                   /* [DIRAC_STD] num_refs()      */
 +        if (tmp > 2) {
 +            av_log(avctx, AV_LOG_ERROR, "num_refs of 3\n");
 +            return -1;
 +        }
 +        s->num_refs    = tmp;
 +        s->is_arith    = (parse_code & 0x48) == 0x08;          /* [DIRAC_STD] using_ac()      */
 +        s->low_delay   = (parse_code & 0x88) == 0x88;          /* [DIRAC_STD] is_low_delay()  */
 +        pic->avframe.reference = (parse_code & 0x0C) == 0x0C;  /* [DIRAC_STD]  is_reference() */
 +        pic->avframe.key_frame = s->num_refs == 0;             /* [DIRAC_STD] is_intra()      */
 +        pic->avframe.pict_type = s->num_refs + 1;              /* Definition of AVPictureType in avutil.h */
 +
++        if (ff_get_buffer(avctx, &pic->avframe) < 0) {
 +            av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +            return -1;
 +        }
 +        s->current_picture = pic;
 +        s->plane[0].stride = pic->avframe.linesize[0];
 +        s->plane[1].stride = pic->avframe.linesize[1];
 +        s->plane[2].stride = pic->avframe.linesize[2];
 +
 +        /* [DIRAC_STD] 11.1 Picture parse. picture_parse() */
 +        if (dirac_decode_picture_header(s))
 +            return -1;
 +
 +        /* [DIRAC_STD] 13.0 Transform data syntax. transform_data() */
 +        if (dirac_decode_frame_internal(s))
 +            return -1;
 +    }
 +    return 0;
 +}
 +
 +static int dirac_decode_frame(AVCodecContext *avctx, void *data, int *data_size, AVPacket *pkt)
 +{
 +    DiracContext *s     = avctx->priv_data;
 +    DiracFrame *picture = data;
 +    uint8_t *buf        = pkt->data;
 +    int buf_size        = pkt->size;
 +    int i, data_unit_size, buf_idx = 0;
 +
 +    /* release unused frames */
 +    for (i = 0; i < MAX_FRAMES; i++)
 +        if (s->all_frames[i].avframe.data[0] && !s->all_frames[i].avframe.reference) {
 +            avctx->release_buffer(avctx, &s->all_frames[i].avframe);
 +            memset(s->all_frames[i].interpolated, 0, sizeof(s->all_frames[i].interpolated));
 +        }
 +
 +    s->current_picture = NULL;
 +    *data_size = 0;
 +
 +    /* end of stream, so flush delayed pics */
 +    if (buf_size == 0)
 +        return get_delayed_pic(s, (AVFrame *)data, data_size);
 +
 +    for (;;) {
 +        /*[DIRAC_STD] Here starts the code from parse_info() defined in 9.6
 +          [DIRAC_STD] PARSE_INFO_PREFIX = "BBCD" as defined in ISO/IEC 646
 +          BBCD start code search */
 +        for (; buf_idx + DATA_UNIT_HEADER_SIZE < buf_size; buf_idx++) {
 +            if (buf[buf_idx  ] == 'B' && buf[buf_idx+1] == 'B' &&
 +                buf[buf_idx+2] == 'C' && buf[buf_idx+3] == 'D')
 +                break;
 +        }
 +        /* BBCD found or end of data */
 +        if (buf_idx + DATA_UNIT_HEADER_SIZE >= buf_size)
 +            break;
 +
 +        data_unit_size = AV_RB32(buf+buf_idx+5);
 +        if (buf_idx + data_unit_size > buf_size || !data_unit_size) {
 +            if(buf_idx + data_unit_size > buf_size)
 +            av_log(s->avctx, AV_LOG_ERROR,
 +                   "Data unit with size %d is larger than input buffer, discarding\n",
 +                   data_unit_size);
 +            buf_idx += 4;
 +            continue;
 +        }
 +        /* [DIRAC_STD] dirac_decode_data_unit makes reference to the while defined in 9.3 inside the function parse_sequence() */
 +        if (dirac_decode_data_unit(avctx, buf+buf_idx, data_unit_size))
 +        {
 +            av_log(s->avctx, AV_LOG_ERROR,"Error in dirac_decode_data_unit\n");
 +            return -1;
 +        }
 +        buf_idx += data_unit_size;
 +    }
 +
 +    if (!s->current_picture)
 +        return buf_size;
 +
 +    if (s->current_picture->avframe.display_picture_number > s->frame_number) {
 +        DiracFrame *delayed_frame = remove_frame(s->delay_frames, s->frame_number);
 +
 +        s->current_picture->avframe.reference |= DELAYED_PIC_REF;
 +
 +        if (add_frame(s->delay_frames, MAX_DELAY, s->current_picture)) {
 +            int min_num = s->delay_frames[0]->avframe.display_picture_number;
 +            /* Too many delayed frames, so we display the frame with the lowest pts */
 +            av_log(avctx, AV_LOG_ERROR, "Delay frame overflow\n");
 +            delayed_frame = s->delay_frames[0];
 +
 +            for (i = 1; s->delay_frames[i]; i++)
 +                if (s->delay_frames[i]->avframe.display_picture_number < min_num)
 +                    min_num = s->delay_frames[i]->avframe.display_picture_number;
 +
 +            delayed_frame = remove_frame(s->delay_frames, min_num);
 +            add_frame(s->delay_frames, MAX_DELAY, s->current_picture);
 +        }
 +
 +        if (delayed_frame) {
 +            delayed_frame->avframe.reference ^= DELAYED_PIC_REF;
 +            *(AVFrame*)data = delayed_frame->avframe;
 +            *data_size = sizeof(AVFrame);
 +        }
 +    } else if (s->current_picture->avframe.display_picture_number == s->frame_number) {
 +        /* The right frame at the right time :-) */
 +        *(AVFrame*)data = s->current_picture->avframe;
 +        *data_size = sizeof(AVFrame);
 +    }
 +
 +    if (*data_size)
 +        s->frame_number = picture->avframe.display_picture_number + 1;
 +
 +    return buf_idx;
 +}
 +
 +AVCodec ff_dirac_decoder = {
 +    .name           = "dirac",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_DIRAC,
 +    .priv_data_size = sizeof(DiracContext),
 +    .init           = dirac_decode_init,
 +    .close          = dirac_decode_end,
 +    .decode         = dirac_decode_frame,
 +    .capabilities   = CODEC_CAP_DELAY,
 +    .flush          = dirac_decode_flush,
 +    .long_name      = NULL_IF_CONFIG_SMALL("BBC Dirac VC-2"),
 +};
index 4f3968aaa78a696c6fe75ca06c7202a796f158ae,e988d68036a81308dc5d8b7892f211e46ebfda62..50aa303a170c0927a8ab8ac8be61270b07360f7a
@@@ -30,7 -30,7 +30,8 @@@
  #include "get_bits.h"
  #include "dnxhddata.h"
  #include "dsputil.h"
+ #include "internal.h"
 +#include "thread.h"
  
  typedef struct DNXHDContext {
      AVCodecContext *avctx;
index c9c45c61b82fd5db93e7b4fbb5b4ce1c22627411,2726d35c8a4cc4a6178fed4487821a0fcc9d8f4c..5fa9778ff698efea497dc8f051b113b910f6d44b
@@@ -207,13 -208,10 +208,13 @@@ static int dpcm_decode_frame(AVCodecCon
          av_log(avctx, AV_LOG_ERROR, "packet is too small\n");
          return AVERROR(EINVAL);
      }
 +    if (out % avctx->channels) {
 +        av_log(avctx, AV_LOG_WARNING, "channels have differing number of samples\n");
 +    }
  
      /* get output buffer */
 -    s->frame.nb_samples = out / avctx->channels;
 +    s->frame.nb_samples = (out + avctx->channels - 1) / avctx->channels;
-     if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0) {
+     if ((ret = ff_get_buffer(avctx, &s->frame)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return ret;
      }
index 4d09efe543c9e5676195b8cb606736c240f7359b,2b1c7f8b647e284cfbcd3443d54ee6ef7a22ec2c..c2b307670c1546f2b50fa344e92e148b0cb3c77b
@@@ -187,7 -156,11 +188,7 @@@ static int decode_frame(AVCodecContext 
  
      if (s->picture.data[0])
          avctx->release_buffer(avctx, &s->picture);
-     if (avctx->get_buffer(avctx, p) < 0) {
 -    if (av_image_check_size(w, h, 0, avctx))
 -        return -1;
 -    if (w != avctx->width || h != avctx->height)
 -        avcodec_set_dimensions(avctx, w, h);
+     if (ff_get_buffer(avctx, p) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
Simple merge
Simple merge
Simple merge
index d3de7cac2934e5701b3d6d1a65ded7740de73539,d3233bb96d058a078afc14d907b6ca80cff3b5ae..c537e95be0ceefc23bedc24a1c6dc62ea35c6cd4
@@@ -179,11 -172,9 +180,11 @@@ static int cmv_decode_frame(AVCodecCont
      FFSWAP(AVFrame, s->last_frame, s->last2_frame);
      FFSWAP(AVFrame, s->frame, s->last_frame);
  
 -    s->frame.reference = 1;
 -    s->frame.buffer_hints = FF_BUFFER_HINTS_VALID;
 +    s->frame.reference = 3;
 +    s->frame.buffer_hints = FF_BUFFER_HINTS_VALID |
 +                            FF_BUFFER_HINTS_READABLE |
 +                            FF_BUFFER_HINTS_PRESERVE;
-     if (avctx->get_buffer(avctx, &s->frame)<0) {
+     if (ff_get_buffer(avctx, &s->frame)<0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
index 0dad58b54a73978c124ec603af73c5f364a9c4d2,ec74051b2fab15417e9166b7d108b8d80125d5ec..25316172a1963f50bded7209b501ae5631fbcad2
@@@ -263,15 -254,13 +264,15 @@@ static int decode_frame(AVCodecContext 
          avcodec_set_dimensions(avctx, width, height);
          if (s->frame.data[0])
              avctx->release_buffer(avctx, &s->frame);
 +        if (s->last_frame.data[0])
 +            avctx->release_buffer(avctx, &s->last_frame);
      }
  
 -    s->frame.reference = 1;
 +    s->frame.reference = 3;
      if (!s->frame.data[0]) {
-         if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0) {
 -        if (ff_get_buffer(avctx, &s->frame) < 0) {
++        if ((ret = ff_get_buffer(avctx, &s->frame)) < 0) {
              av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -            return -1;
 +            return ret;
          }
      }
  
Simple merge
Simple merge
Simple merge
index 97547bb102e9330e5048aab1e29fda71a39310cc,0000000000000000000000000000000000000000..b56bb4463d195d78639472b614dc0579cd323c2d
mode 100644,000000..100644
--- /dev/null
@@@ -1,319 -1,0 +1,321 @@@
-     if (avctx->get_buffer(avctx, &new_frame)) {
 +/*
 + * Escape 130 Video Decoder
 + * Copyright (C) 2008 Eli Friedman (eli.friedman <at> gmail.com)
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
 +
 +#define BITSTREAM_READER_LE
 +#include "get_bits.h"
++#include "internal.h"
++
 +
 +typedef struct Escape130Context {
 +    AVFrame frame;
 +    uint8_t *bases;
 +} Escape130Context;
 +
 +/**
 + * Initialize the decoder
 + * @param avctx decoder context
 + * @return 0 success, negative on error
 + */
 +static av_cold int escape130_decode_init(AVCodecContext *avctx)
 +{
 +    Escape130Context *s = avctx->priv_data;
 +    avctx->pix_fmt = AV_PIX_FMT_YUV420P;
 +
 +    if((avctx->width&1) || (avctx->height&1)){
 +        av_log(avctx, AV_LOG_ERROR, "Dimensions are not a multiple of the block size\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    s->bases= av_malloc(avctx->width * avctx->height /4);
 +
 +    return 0;
 +}
 +
 +static av_cold int escape130_decode_close(AVCodecContext *avctx)
 +{
 +    Escape130Context *s = avctx->priv_data;
 +
 +    if (s->frame.data[0])
 +        avctx->release_buffer(avctx, &s->frame);
 +
 +    av_freep(&s->bases);
 +
 +    return 0;
 +}
 +
 +static unsigned decode_skip_count(GetBitContext* gb) {
 +    unsigned value;
 +    // This function reads a maximum of 27 bits,
 +    // which is within the padding space
 +    if (get_bits_left(gb) < 1+3)
 +        return -1;
 +
 +    value = get_bits1(gb);
 +    if (value)
 +        return 0;
 +
 +    value = get_bits(gb, 3);
 +    if (value)
 +        return value;
 +
 +    value = get_bits(gb, 8);
 +    if (value)
 +        return value + 7;
 +
 +    value = get_bits(gb, 15);
 +    if (value)
 +        return value + 262;
 +
 +    return -1;
 +}
 +
 +/**
 + * Decode a single frame
 + * @param avctx decoder context
 + * @param data decoded frame
 + * @param data_size size of the decoded frame
 + * @param buf input buffer
 + * @param buf_size input buffer size
 + * @return 0 success, -1 on error
 + */
 +static int escape130_decode_frame(AVCodecContext *avctx,
 +                                  void *data, int *data_size,
 +                                  AVPacket *avpkt)
 +{
 +    const uint8_t *buf = avpkt->data;
 +    int buf_size = avpkt->size;
 +    Escape130Context *s = avctx->priv_data;
 +
 +    GetBitContext gb;
 +    unsigned i;
 +
 +    uint8_t *old_y, *old_cb, *old_cr,
 +            *new_y, *new_cb, *new_cr;
 +    unsigned old_y_stride, old_cb_stride, old_cr_stride,
 +             new_y_stride, new_cb_stride, new_cr_stride;
 +    unsigned total_blocks = avctx->width * avctx->height / 4,
 +             block_index, row_index = 0;
 +    unsigned y[4] = {0}, cb = 16, cr = 16;
 +    unsigned skip = -1;
 +    unsigned y_base = 0;
 +    uint8_t *yb= s->bases;
 +
 +    AVFrame new_frame = { { 0 } };
 +
 +    init_get_bits(&gb, buf, buf_size * 8);
 +
 +    if (get_bits_left(&gb) < 128)
 +        return -1;
 +
 +    // Header; no useful information in here
 +    skip_bits_long(&gb, 128);
 +
 +    new_frame.reference = 3;
++    if (ff_get_buffer(avctx, &new_frame)) {
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return -1;
 +    }
 +
 +    new_y = new_frame.data[0];
 +    new_cb = new_frame.data[1];
 +    new_cr = new_frame.data[2];
 +    new_y_stride = new_frame.linesize[0];
 +    new_cb_stride = new_frame.linesize[1];
 +    new_cr_stride = new_frame.linesize[2];
 +    old_y = s->frame.data[0];
 +    old_cb = s->frame.data[1];
 +    old_cr = s->frame.data[2];
 +    old_y_stride = s->frame.linesize[0];
 +    old_cb_stride = s->frame.linesize[1];
 +    old_cr_stride = s->frame.linesize[2];
 +
 +    av_log(avctx, AV_LOG_DEBUG,
 +           "Strides: %i, %i\n",
 +           new_y_stride, new_cb_stride);
 +
 +    for (block_index = 0; block_index < total_blocks; block_index++) {
 +        // Note that this call will make us skip the rest of the blocks
 +        // if the frame prematurely ends
 +        if (skip == -1)
 +            skip = decode_skip_count(&gb);
 +
 +        if (skip) {
 +            if (old_y) {
 +                y[0] = old_y[0] / 4;
 +                y[1] = old_y[1] / 4;
 +                y[2] = old_y[old_y_stride] / 4;
 +                y[3] = old_y[old_y_stride+1] / 4;
 +                y_base= yb[0];
 +                cb = old_cb[0] / 8;
 +                cr = old_cr[0] / 8;
 +            } else {
 +                y_base=y[0] = y[1] = y[2] = y[3] = 0;
 +                cb = cr = 16;
 +            }
 +        } else {
 +            if (get_bits1(&gb)) {
 +                static const uint8_t offset_table[] = {2, 4, 10, 20};
 +                static const int8_t sign_table[64][4] =
 +                    { {0, 0, 0, 0},
 +                      {-1, 1, 0, 0},
 +                      {1, -1, 0, 0},
 +                      {-1, 0, 1, 0},
 +                      {-1, 1, 1, 0},
 +                      {0, -1, 1, 0},
 +                      {1, -1, 1, 0},
 +                      {-1, -1, 1, 0},
 +                      {1, 0, -1, 0},
 +                      {0, 1, -1, 0},
 +                      {1, 1, -1, 0},
 +                      {-1, 1, -1, 0},
 +                      {1, -1, -1, 0},
 +                      {-1, 0, 0, 1},
 +                      {-1, 1, 0, 1},
 +                      {0, -1, 0, 1},
 +
 +                      {0, 0, 0, 0},
 +                      {1, -1, 0, 1},
 +                      {-1, -1, 0, 1},
 +                      {-1, 0, 1, 1},
 +                      {-1, 1, 1, 1},
 +                      {0, -1, 1, 1},
 +                      {1, -1, 1, 1},
 +                      {-1, -1, 1, 1},
 +                      {0, 0, -1, 1},
 +                      {1, 0, -1, 1},
 +                      {-1, 0, -1, 1},
 +                      {0, 1, -1, 1},
 +                      {1, 1, -1, 1},
 +                      {-1, 1, -1, 1},
 +                      {0, -1, -1, 1},
 +                      {1, -1, -1, 1},
 +
 +                      {0, 0, 0, 0},
 +                      {-1, -1, -1, 1},
 +                      {1, 0, 0, -1},
 +                      {0, 1, 0, -1},
 +                      {1, 1, 0, -1},
 +                      {-1, 1, 0, -1},
 +                      {1, -1, 0, -1},
 +                      {0, 0, 1, -1},
 +                      {1, 0, 1, -1},
 +                      {-1, 0, 1, -1},
 +                      {0, 1, 1, -1},
 +                      {1, 1, 1, -1},
 +                      {-1, 1, 1, -1},
 +                      {0, -1, 1, -1},
 +                      {1, -1, 1, -1},
 +                      {-1, -1, 1, -1},
 +
 +                      {0, 0, 0, 0},
 +                      {1, 0, -1, -1},
 +                      {0, 1, -1, -1},
 +                      {1, 1, -1, -1},
 +                      {-1, 1, -1, -1},
 +                      {1, -1, -1, -1} };
 +                unsigned sign_selector = get_bits(&gb, 6);
 +                unsigned difference_selector = get_bits(&gb, 2);
 +                y_base = 2 * get_bits(&gb, 5);
 +                for (i = 0; i < 4; i++) {
 +                    y[i] = av_clip((int)y_base + offset_table[difference_selector] *
 +                                            sign_table[sign_selector][i], 0, 63);
 +                }
 +            } else if (get_bits1(&gb)) {
 +                if (get_bits1(&gb)) {
 +                    y_base = get_bits(&gb, 6);
 +                } else {
 +                    unsigned adjust_index = get_bits(&gb, 3);
 +                    static const int8_t adjust[] = {-4, -3, -2, -1, 1, 2, 3, 4};
 +                    y_base = (y_base + adjust[adjust_index]) & 63;
 +                }
 +                for (i = 0; i < 4; i++)
 +                    y[i] = y_base;
 +            }
 +
 +            if (get_bits1(&gb)) {
 +                if (get_bits1(&gb)) {
 +                    cb = get_bits(&gb, 5);
 +                    cr = get_bits(&gb, 5);
 +                } else {
 +                    unsigned adjust_index = get_bits(&gb, 3);
 +                    static const int8_t adjust[2][8] =
 +                        {  { 1, 1, 0, -1, -1, -1,  0,  1 },
 +                           { 0, 1, 1,  1,  0, -1, -1, -1 } };
 +                    cb = (cb + adjust[0][adjust_index]) & 31;
 +                    cr = (cr + adjust[1][adjust_index]) & 31;
 +                }
 +            }
 +        }
 +        *yb++= y_base;
 +
 +        new_y[0] = y[0] * 4;
 +        new_y[1] = y[1] * 4;
 +        new_y[new_y_stride] = y[2] * 4;
 +        new_y[new_y_stride + 1] = y[3] * 4;
 +        *new_cb = cb * 8;
 +        *new_cr = cr * 8;
 +
 +        if (old_y)
 +            old_y += 2, old_cb++, old_cr++;
 +        new_y += 2, new_cb++, new_cr++;
 +        row_index++;
 +        if (avctx->width / 2 == row_index) {
 +            row_index = 0;
 +            if (old_y) {
 +                old_y  += old_y_stride * 2  - avctx->width;
 +                old_cb += old_cb_stride - avctx->width / 2;
 +                old_cr += old_cr_stride - avctx->width / 2;
 +            }
 +            new_y  += new_y_stride * 2  - avctx->width;
 +            new_cb += new_cb_stride - avctx->width / 2;
 +            new_cr += new_cr_stride - avctx->width / 2;
 +        }
 +
 +        skip--;
 +    }
 +
 +    av_log(avctx, AV_LOG_DEBUG,
 +           "Escape sizes: %i, %i\n",
 +           buf_size, get_bits_count(&gb) / 8);
 +
 +    if (s->frame.data[0])
 +        avctx->release_buffer(avctx, &s->frame);
 +
 +    *(AVFrame*)data = s->frame = new_frame;
 +    *data_size = sizeof(AVFrame);
 +
 +    return buf_size;
 +}
 +
 +
 +AVCodec ff_escape130_decoder = {
 +    .name           = "escape130",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_ESCAPE130,
 +    .priv_data_size = sizeof(Escape130Context),
 +    .init           = escape130_decode_init,
 +    .close          = escape130_decode_close,
 +    .decode         = escape130_decode_frame,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("Escape 130"),
 +};
Simple merge
index c63b90ff29a990296bcf8562565844e0e5588b17,0000000000000000000000000000000000000000..eb3b4551c0f5c442415c72052717944ca07869fb
mode 100644,000000..100644
--- /dev/null
@@@ -1,482 -1,0 +1,484 @@@
-     r = avc->get_buffer(avc, &ws->frame);
 +/*
 + * Wavesynth pseudo-codec
 + * Copyright (c) 2011 Nicolas George
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "libavutil/intreadwrite.h"
 +#include "libavutil/log.h"
 +#include "avcodec.h"
++#include "internal.h"
++
 +
 +#define SIN_BITS 14
 +#define WS_MAX_CHANNELS 32
 +#define INF_TS 0x7FFFFFFFFFFFFFFF
 +
 +#define PINK_UNIT 128
 +
 +/*
 +   Format of the extradata and packets
 +
 +   THIS INFORMATION IS NOT PART OF THE PUBLIC API OR ABI.
 +   IT CAN CHANGE WITHOUT NOTIFICATION.
 +
 +   All numbers are in little endian.
 +
 +   The codec extradata define a set of intervals with uniform content.
 +   Overlapping intervals are added together.
 +
 +   extradata:
 +       uint32      number of intervals
 +       ...         intervals
 +
 +   interval:
 +       int64       start timestamp; time_base must be 1/sample_rate;
 +                   start timestamps must be in ascending order
 +       int64       end timestamp
 +       uint32      type
 +       uint32      channels mask
 +       ...         additional information, depends on type
 +
 +   sine interval (type fourcc "SINE"):
 +       int32       start frequency, in 1/(1<<16) Hz
 +       int32       end frequency
 +       int32       start amplitude, 1<<16 is the full amplitude
 +       int32       end amplitude
 +       uint32      start phase, 0 is sin(0), 0x20000000 is sin(pi/2), etc.;
 +                   n | (1<<31) means to match the phase of previous channel #n
 +
 +   pink noise interval (type fourcc "NOIS"):
 +       int32       start amplitude
 +       int32       end amplitude
 +
 +   The input packets encode the time and duration of the requested segment.
 +
 +   packet:
 +       int64       start timestamp
 +       int32       duration
 +
 +*/
 +
 +enum ws_interval_type {
 +    WS_SINE  = MKTAG('S','I','N','E'),
 +    WS_NOISE = MKTAG('N','O','I','S'),
 +};
 +
 +struct ws_interval {
 +    int64_t ts_start, ts_end;
 +    uint64_t phi0, dphi0, ddphi;
 +    uint64_t amp0, damp;
 +    uint64_t phi, dphi, amp;
 +    uint32_t channels;
 +    enum ws_interval_type type;
 +    int next;
 +};
 +
 +struct wavesynth_context {
 +    int64_t cur_ts;
 +    int64_t next_ts;
 +    int32_t *sin;
 +    AVFrame frame;
 +    struct ws_interval *inter;
 +    uint32_t dither_state;
 +    uint32_t pink_state;
 +    int32_t pink_pool[PINK_UNIT];
 +    unsigned pink_need, pink_pos;
 +    int nb_inter;
 +    int cur_inter;
 +    int next_inter;
 +};
 +
 +#define LCG_A 1284865837
 +#define LCG_C 4150755663
 +#define LCG_AI 849225893 /* A*AI = 1 [mod 1<<32] */
 +
 +static uint32_t lcg_next(uint32_t *s)
 +{
 +    *s = *s * LCG_A + LCG_C;
 +    return *s;
 +}
 +
 +static void lcg_seek(uint32_t *s, int64_t dt)
 +{
 +    uint32_t a, c, t = *s;
 +
 +    if (dt >= 0) {
 +        a = LCG_A;
 +        c = LCG_C;
 +    } else { /* coefficients for a step backward */
 +        a = LCG_AI;
 +        c = (uint32_t)(LCG_AI * LCG_C);
 +        dt = -dt;
 +    }
 +    while (dt) {
 +        if (dt & 1)
 +            t = a * t + c;
 +        c *= a + 1; /* coefficients for a double step */
 +        a *= a;
 +        dt >>= 1;
 +    }
 +    *s = t;
 +}
 +
 +/* Emulate pink noise by summing white noise at the sampling frequency,
 + * white noise at half the sampling frequency (each value taken twice),
 + * etc., with a total of 8 octaves.
 + * This is known as the Voss-McCartney algorithm. */
 +
 +static void pink_fill(struct wavesynth_context *ws)
 +{
 +    int32_t vt[7] = { 0 }, v = 0;
 +    int i, j;
 +
 +    ws->pink_pos = 0;
 +    if (!ws->pink_need)
 +        return;
 +    for (i = 0; i < PINK_UNIT; i++) {
 +        for (j = 0; j < 7; j++) {
 +            if ((i >> j) & 1)
 +                break;
 +            v -= vt[j];
 +            vt[j] = (int32_t)lcg_next(&ws->pink_state) >> 3;
 +            v += vt[j];
 +        }
 +        ws->pink_pool[i] = v + ((int32_t)lcg_next(&ws->pink_state) >> 3);
 +    }
 +    lcg_next(&ws->pink_state); /* so we use exactly 256 steps */
 +}
 +
 +/**
 + * @return  (1<<64) * a / b, without overflow, if a < b
 + */
 +static uint64_t frac64(uint64_t a, uint64_t b)
 +{
 +    uint64_t r = 0;
 +    int i;
 +
 +    if (b < (uint64_t)1 << 32) { /* b small, use two 32-bits steps */
 +        a <<= 32;
 +        return ((a / b) << 32) | ((a % b) << 32) / b;
 +    }
 +    if (b < (uint64_t)1 << 48) { /* b medium, use four 16-bits steps */
 +        for (i = 0; i < 4; i++) {
 +            a <<= 16;
 +            r = (r << 16) | (a / b);
 +            a %= b;
 +        }
 +        return r;
 +    }
 +    for (i = 63; i >= 0; i--) {
 +        if (a >= (uint64_t)1 << 63 || a << 1 >= b) {
 +            r |= (uint64_t)1 << i;
 +            a = (a << 1) - b;
 +        } else {
 +            a <<= 1;
 +        }
 +    }
 +    return r;
 +}
 +
 +static uint64_t phi_at(struct ws_interval *in, int64_t ts)
 +{
 +    uint64_t dt = ts - in->ts_start;
 +    uint64_t dt2 = dt & 1 ? /* dt * (dt - 1) / 2 without overflow */
 +                   dt * ((dt - 1) >> 1) : (dt >> 1) * (dt - 1);
 +    return in->phi0 + dt * in->dphi0 + dt2 * in->ddphi;
 +}
 +
 +static void wavesynth_seek(struct wavesynth_context *ws, int64_t ts)
 +{
 +    int *last, i;
 +    struct ws_interval *in;
 +
 +    last = &ws->cur_inter;
 +    for (i = 0; i < ws->nb_inter; i++) {
 +        in = &ws->inter[i];
 +        if (ts < in->ts_start)
 +            break;
 +        if (ts >= in->ts_end)
 +            continue;
 +        *last = i;
 +        last = &in->next;
 +        in->phi  = phi_at(in, ts);
 +        in->dphi = in->dphi0 + (ts - in->ts_start) * in->ddphi;
 +        in->amp  = in->amp0  + (ts - in->ts_start) * in->damp;
 +    }
 +    ws->next_inter = i;
 +    ws->next_ts = i < ws->nb_inter ? ws->inter[i].ts_start : INF_TS;
 +    *last = -1;
 +    lcg_seek(&ws->dither_state, ts - ws->cur_ts);
 +    if (ws->pink_need) {
 +        int64_t pink_ts_cur  = (ws->cur_ts + PINK_UNIT - 1) & ~(PINK_UNIT - 1);
 +        int64_t pink_ts_next = ts & ~(PINK_UNIT - 1);
 +        int pos = ts & (PINK_UNIT - 1);
 +        lcg_seek(&ws->pink_state, (pink_ts_next - pink_ts_cur) << 1);
 +        if (pos) {
 +            pink_fill(ws);
 +            ws->pink_pos = pos;
 +        } else {
 +            ws->pink_pos = PINK_UNIT;
 +        }
 +    }
 +    ws->cur_ts = ts;
 +}
 +
 +static int wavesynth_parse_extradata(AVCodecContext *avc)
 +{
 +    struct wavesynth_context *ws = avc->priv_data;
 +    struct ws_interval *in;
 +    uint8_t *edata, *edata_end;
 +    int32_t f1, f2, a1, a2;
 +    uint32_t phi;
 +    int64_t dphi1, dphi2, dt, cur_ts = -0x8000000000000000;
 +    int i;
 +
 +    if (avc->extradata_size < 4)
 +        return AVERROR(EINVAL);
 +    edata = avc->extradata;
 +    edata_end = edata + avc->extradata_size;
 +    ws->nb_inter = AV_RL32(edata);
 +    edata += 4;
 +    if (ws->nb_inter < 0)
 +        return AVERROR(EINVAL);
 +    ws->inter = av_calloc(ws->nb_inter, sizeof(*ws->inter));
 +    if (!ws->inter)
 +        return AVERROR(ENOMEM);
 +    for (i = 0; i < ws->nb_inter; i++) {
 +        in = &ws->inter[i];
 +        if (edata_end - edata < 24)
 +            return AVERROR(EINVAL);
 +        in->ts_start = AV_RL64(edata +  0);
 +        in->ts_end   = AV_RL64(edata +  8);
 +        in->type     = AV_RL32(edata + 16);
 +        in->channels = AV_RL32(edata + 20);
 +        edata += 24;
 +        if (in->ts_start < cur_ts || in->ts_end <= in->ts_start)
 +            return AVERROR(EINVAL);
 +        cur_ts = in->ts_start;
 +        dt = in->ts_end - in->ts_start;
 +        switch (in->type) {
 +            case WS_SINE:
 +                if (edata_end - edata < 20)
 +                    return AVERROR(EINVAL);
 +                f1  = AV_RL32(edata +  0);
 +                f2  = AV_RL32(edata +  4);
 +                a1  = AV_RL32(edata +  8);
 +                a2  = AV_RL32(edata + 12);
 +                phi = AV_RL32(edata + 16);
 +                edata += 20;
 +                dphi1 = frac64(f1, (int64_t)avc->sample_rate << 16);
 +                dphi2 = frac64(f2, (int64_t)avc->sample_rate << 16);
 +                in->dphi0 = dphi1;
 +                in->ddphi = (dphi2 - dphi1) / dt;
 +                if (phi & 0x80000000) {
 +                    phi &= ~0x80000000;
 +                    if (phi >= i)
 +                        return AVERROR(EINVAL);
 +                    in->phi0 = phi_at(&ws->inter[phi], in->ts_start);
 +                } else {
 +                    in->phi0 = (uint64_t)phi << 33;
 +                }
 +                break;
 +            case WS_NOISE:
 +                if (edata_end - edata < 8)
 +                    return AVERROR(EINVAL);
 +                a1  = AV_RL32(edata +  0);
 +                a2  = AV_RL32(edata +  4);
 +                edata += 8;
 +                break;
 +            default:
 +                return AVERROR(EINVAL);
 +        }
 +        in->amp0 = (int64_t)a1 << 32;
 +        in->damp = (((int64_t)a2 << 32) - ((int64_t)a1 << 32)) / dt;
 +    }
 +    if (edata != edata_end)
 +        return AVERROR(EINVAL);
 +    return 0;
 +}
 +
 +static av_cold int wavesynth_init(AVCodecContext *avc)
 +{
 +    struct wavesynth_context *ws = avc->priv_data;
 +    int i, r;
 +
 +    if (avc->channels > WS_MAX_CHANNELS) {
 +        av_log(avc, AV_LOG_ERROR,
 +               "This implementation is limited to %d channels.\n",
 +               WS_MAX_CHANNELS);
 +        return AVERROR(EINVAL);
 +    }
 +    r = wavesynth_parse_extradata(avc);
 +    if (r < 0) {
 +        av_log(avc, AV_LOG_ERROR, "Invalid intervals definitions.\n");
 +        goto fail;
 +    }
 +    ws->sin = av_malloc(sizeof(*ws->sin) << SIN_BITS);
 +    if (!ws->sin) {
 +        r = AVERROR(ENOMEM);
 +        goto fail;
 +    }
 +    for (i = 0; i < 1 << SIN_BITS; i++)
 +        ws->sin[i] = floor(32767 * sin(2 * M_PI * i / (1 << SIN_BITS)));
 +    ws->dither_state = MKTAG('D','I','T','H');
 +    for (i = 0; i < ws->nb_inter; i++)
 +        ws->pink_need += ws->inter[i].type == WS_NOISE;
 +    ws->pink_state = MKTAG('P','I','N','K');
 +    ws->pink_pos = PINK_UNIT;
 +    avcodec_get_frame_defaults(&ws->frame);
 +    avc->coded_frame = &ws->frame;
 +    wavesynth_seek(ws, 0);
 +    avc->sample_fmt = AV_SAMPLE_FMT_S16;
 +    return 0;
 +
 +fail:
 +    av_free(ws->inter);
 +    av_free(ws->sin);
 +    return r;
 +}
 +
 +static void wavesynth_synth_sample(struct wavesynth_context *ws, int64_t ts,
 +                                   int32_t *channels)
 +{
 +    int32_t amp, val, *cv;
 +    struct ws_interval *in;
 +    int i, *last, pink;
 +    uint32_t c, all_ch = 0;
 +
 +    i = ws->cur_inter;
 +    last = &ws->cur_inter;
 +    if (ws->pink_pos == PINK_UNIT)
 +        pink_fill(ws);
 +    pink = ws->pink_pool[ws->pink_pos++] >> 16;
 +    while (i >= 0) {
 +        in = &ws->inter[i];
 +        i = in->next;
 +        if (ts >= in->ts_end) {
 +            *last = i;
 +            continue;
 +        }
 +        last = &in->next;
 +        amp = in->amp >> 32;
 +        in->amp  += in->damp;
 +        switch (in->type) {
 +            case WS_SINE:
 +                val = amp * ws->sin[in->phi >> (64 - SIN_BITS)];
 +                in->phi  += in->dphi;
 +                in->dphi += in->ddphi;
 +                break;
 +            case WS_NOISE:
 +                val = amp * pink;
 +                break;
 +            default:
 +                val = 0;
 +        }
 +        all_ch |= in->channels;
 +        for (c = in->channels, cv = channels; c; c >>= 1, cv++)
 +            if (c & 1)
 +                *cv += val;
 +    }
 +    val = (int32_t)lcg_next(&ws->dither_state) >> 16;
 +    for (c = all_ch, cv = channels; c; c >>= 1, cv++)
 +        if (c & 1)
 +            *cv += val;
 +}
 +
 +static void wavesynth_enter_intervals(struct wavesynth_context *ws, int64_t ts)
 +{
 +    int *last, i;
 +    struct ws_interval *in;
 +
 +    last = &ws->cur_inter;
 +    for (i = ws->cur_inter; i >= 0; i = ws->inter[i].next)
 +        last = &ws->inter[i].next;
 +    for (i = ws->next_inter; i < ws->nb_inter; i++) {
 +        in = &ws->inter[i];
 +        if (ts < in->ts_start)
 +            break;
 +        if (ts >= in->ts_end)
 +            continue;
 +        *last = i;
 +        last = &in->next;
 +        in->phi = in->phi0;
 +        in->dphi = in->dphi0;
 +        in->amp = in->amp0;
 +    }
 +    ws->next_inter = i;
 +    ws->next_ts = i < ws->nb_inter ? ws->inter[i].ts_start : INF_TS;
 +    *last = -1;
 +}
 +
 +static int wavesynth_decode(AVCodecContext *avc, void *rframe, int *rgot_frame,
 +                            AVPacket *packet)
 +{
 +    struct wavesynth_context *ws = avc->priv_data;
 +    int64_t ts;
 +    int duration;
 +    int s, c, r;
 +    int16_t *pcm;
 +    int32_t channels[WS_MAX_CHANNELS];
 +
 +    *rgot_frame = 0;
 +    if (packet->size != 12)
 +        return AVERROR_INVALIDDATA;
 +    ts = AV_RL64(packet->data);
 +    if (ts != ws->cur_ts)
 +        wavesynth_seek(ws, ts);
 +    duration = AV_RL32(packet->data + 8);
 +    if (duration <= 0)
 +        return AVERROR(EINVAL);
 +    ws->frame.nb_samples = duration;
++    r = ff_get_buffer(avc, &ws->frame);
 +    if (r < 0)
 +        return r;
 +    pcm = (int16_t *)ws->frame.data[0];
 +    for (s = 0; s < duration; s++, ts++) {
 +        memset(channels, 0, avc->channels * sizeof(*channels));
 +        if (ts >= ws->next_ts)
 +            wavesynth_enter_intervals(ws, ts);
 +        wavesynth_synth_sample(ws, ts, channels);
 +        for (c = 0; c < avc->channels; c++)
 +            *(pcm++) = channels[c] >> 16;
 +    }
 +    ws->cur_ts += duration;
 +    *rgot_frame = 1;
 +    *(AVFrame *)rframe = ws->frame;
 +    return packet->size;
 +}
 +
 +static av_cold int wavesynth_close(AVCodecContext *avc)
 +{
 +    struct wavesynth_context *ws = avc->priv_data;
 +
 +    av_free(ws->sin);
 +    av_free(ws->inter);
 +    return 0;
 +}
 +
 +AVCodec ff_ffwavesynth_decoder = {
 +    .name           = "wavesynth",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_FFWAVESYNTH,
 +    .priv_data_size = sizeof(struct wavesynth_context),
 +    .init           = wavesynth_init,
 +    .close          = wavesynth_close,
 +    .decode         = wavesynth_decode,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("Wave synthesis pseudo-codec"),
 +};
Simple merge
index ab095dc98e433f9c0d30b3f3fc851e99c026a690,0000000000000000000000000000000000000000..0ac018b35e7a2ef419429329e8143e4a1f5b21a5
mode 100644,000000..100644
--- /dev/null
@@@ -1,270 -1,0 +1,270 @@@
-             ret = c->parent_avctx->get_buffer(c->parent_avctx, new);
 +/*
 + * Copyright (c) 2012 Michael Niedermayer <michaelni@gmx.at>
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "frame_thread_encoder.h"
 +
 +#include "libavutil/fifo.h"
 +#include "libavutil/avassert.h"
 +#include "libavutil/imgutils.h"
 +#include "avcodec.h"
 +#include "internal.h"
 +#include "thread.h"
 +
 +#if HAVE_PTHREADS
 +#include <pthread.h>
 +#elif HAVE_W32THREADS
 +#include "w32pthreads.h"
 +#elif HAVE_OS2THREADS
 +#include "os2threads.h"
 +#endif
 +
 +#define MAX_THREADS 64
 +#define BUFFER_SIZE (2*MAX_THREADS)
 +
 +typedef struct{
 +    void *indata;
 +    void *outdata;
 +    int64_t return_code;
 +    unsigned index;
 +} Task;
 +
 +typedef struct{
 +    AVCodecContext *parent_avctx;
 +    pthread_mutex_t buffer_mutex;
 +
 +    AVFifoBuffer *task_fifo;
 +    pthread_mutex_t task_fifo_mutex;
 +    pthread_cond_t task_fifo_cond;
 +
 +    Task finished_tasks[BUFFER_SIZE];
 +    pthread_mutex_t finished_task_mutex;
 +    pthread_cond_t finished_task_cond;
 +
 +    unsigned task_index;
 +    unsigned finished_task_index;
 +
 +    pthread_t worker[MAX_THREADS];
 +    int exit;
 +} ThreadContext;
 +
 +static void * attribute_align_arg worker(void *v){
 +    AVCodecContext *avctx = v;
 +    ThreadContext *c = avctx->internal->frame_thread_encoder;
 +    AVPacket *pkt = NULL;
 +
 +    while(!c->exit){
 +        int got_packet, ret;
 +        AVFrame *frame;
 +        Task task;
 +
 +        if(!pkt) pkt= av_mallocz(sizeof(*pkt));
 +        if(!pkt) continue;
 +        av_init_packet(pkt);
 +
 +        pthread_mutex_lock(&c->task_fifo_mutex);
 +        while (av_fifo_size(c->task_fifo) <= 0 || c->exit) {
 +            if(c->exit){
 +                pthread_mutex_unlock(&c->task_fifo_mutex);
 +                goto end;
 +            }
 +            pthread_cond_wait(&c->task_fifo_cond, &c->task_fifo_mutex);
 +        }
 +        av_fifo_generic_read(c->task_fifo, &task, sizeof(task), NULL);
 +        pthread_mutex_unlock(&c->task_fifo_mutex);
 +        frame = task.indata;
 +
 +        ret = avcodec_encode_video2(avctx, pkt, frame, &got_packet);
 +        pthread_mutex_lock(&c->buffer_mutex);
 +        c->parent_avctx->release_buffer(c->parent_avctx, frame);
 +        pthread_mutex_unlock(&c->buffer_mutex);
 +        av_freep(&frame);
 +        if(got_packet) {
 +            av_dup_packet(pkt);
 +        } else {
 +            pkt->data = NULL;
 +            pkt->size = 0;
 +        }
 +        pthread_mutex_lock(&c->finished_task_mutex);
 +        c->finished_tasks[task.index].outdata = pkt; pkt = NULL;
 +        c->finished_tasks[task.index].return_code = ret;
 +        pthread_cond_signal(&c->finished_task_cond);
 +        pthread_mutex_unlock(&c->finished_task_mutex);
 +    }
 +end:
 +    av_free(pkt);
 +    pthread_mutex_lock(&c->buffer_mutex);
 +    avcodec_close(avctx);
 +    pthread_mutex_unlock(&c->buffer_mutex);
 +    av_freep(&avctx);
 +    return NULL;
 +}
 +
 +int ff_frame_thread_encoder_init(AVCodecContext *avctx, AVDictionary *options){
 +    int i=0;
 +    ThreadContext *c;
 +
 +
 +    if(   !(avctx->thread_type & FF_THREAD_FRAME)
 +       || !(avctx->codec->capabilities & CODEC_CAP_INTRA_ONLY))
 +        return 0;
 +
 +    if(!avctx->thread_count) {
 +        avctx->thread_count = ff_get_logical_cpus(avctx);
 +        avctx->thread_count = FFMIN(avctx->thread_count, MAX_THREADS);
 +    }
 +
 +    if(avctx->thread_count <= 1)
 +        return 0;
 +
 +    if(avctx->thread_count > MAX_THREADS)
 +        return AVERROR(EINVAL);
 +
 +    av_assert0(!avctx->internal->frame_thread_encoder);
 +    c = avctx->internal->frame_thread_encoder = av_mallocz(sizeof(ThreadContext));
 +    if(!c)
 +        return AVERROR(ENOMEM);
 +
 +    c->parent_avctx = avctx;
 +
 +    c->task_fifo = av_fifo_alloc(sizeof(Task) * BUFFER_SIZE);
 +    if(!c->task_fifo)
 +        goto fail;
 +
 +    pthread_mutex_init(&c->task_fifo_mutex, NULL);
 +    pthread_mutex_init(&c->finished_task_mutex, NULL);
 +    pthread_mutex_init(&c->buffer_mutex, NULL);
 +    pthread_cond_init(&c->task_fifo_cond, NULL);
 +    pthread_cond_init(&c->finished_task_cond, NULL);
 +
 +    for(i=0; i<avctx->thread_count ; i++){
 +        AVDictionary *tmp = NULL;
 +        void *tmpv;
 +        AVCodecContext *thread_avctx = avcodec_alloc_context3(avctx->codec);
 +        if(!thread_avctx)
 +            goto fail;
 +        tmpv = thread_avctx->priv_data;
 +        *thread_avctx = *avctx;
 +        thread_avctx->priv_data = tmpv;
 +        thread_avctx->internal = NULL;
 +        memcpy(thread_avctx->priv_data, avctx->priv_data, avctx->codec->priv_data_size);
 +        thread_avctx->thread_count = 1;
 +        thread_avctx->active_thread_type &= ~FF_THREAD_FRAME;
 +
 +        av_dict_copy(&tmp, options, 0);
 +        av_dict_set(&tmp, "threads", "1", 0);
 +        if(avcodec_open2(thread_avctx, avctx->codec, &tmp) < 0) {
 +            av_dict_free(&tmp);
 +            goto fail;
 +        }
 +        av_dict_free(&tmp);
 +        av_assert0(!thread_avctx->internal->frame_thread_encoder);
 +        thread_avctx->internal->frame_thread_encoder = c;
 +        if(pthread_create(&c->worker[i], NULL, worker, thread_avctx)) {
 +            goto fail;
 +        }
 +    }
 +
 +    avctx->active_thread_type = FF_THREAD_FRAME;
 +
 +    return 0;
 +fail:
 +    avctx->thread_count = i;
 +    av_log(avctx, AV_LOG_ERROR, "ff_frame_thread_encoder_init failed\n");
 +    ff_frame_thread_encoder_free(avctx);
 +    return -1;
 +}
 +
 +void ff_frame_thread_encoder_free(AVCodecContext *avctx){
 +    int i;
 +    ThreadContext *c= avctx->internal->frame_thread_encoder;
 +
 +    pthread_mutex_lock(&c->task_fifo_mutex);
 +    c->exit = 1;
 +    pthread_cond_broadcast(&c->task_fifo_cond);
 +    pthread_mutex_unlock(&c->task_fifo_mutex);
 +
 +    for (i=0; i<avctx->thread_count; i++) {
 +         pthread_join(c->worker[i], NULL);
 +    }
 +
 +    pthread_mutex_destroy(&c->task_fifo_mutex);
 +    pthread_mutex_destroy(&c->finished_task_mutex);
 +    pthread_mutex_destroy(&c->buffer_mutex);
 +    pthread_cond_destroy(&c->task_fifo_cond);
 +    pthread_cond_destroy(&c->finished_task_cond);
 +    av_fifo_free(c->task_fifo); c->task_fifo = NULL;
 +    av_freep(&avctx->internal->frame_thread_encoder);
 +}
 +
 +int ff_thread_video_encode_frame(AVCodecContext *avctx, AVPacket *pkt, const AVFrame *frame, int *got_packet_ptr){
 +    ThreadContext *c = avctx->internal->frame_thread_encoder;
 +    Task task;
 +    int ret;
 +
 +    av_assert1(!*got_packet_ptr);
 +
 +    if(frame){
 +        if(!(avctx->flags & CODEC_FLAG_INPUT_PRESERVED)){
 +            AVFrame *new = avcodec_alloc_frame();
 +            if(!new)
 +                return AVERROR(ENOMEM);
 +            pthread_mutex_lock(&c->buffer_mutex);
++            ret = ff_get_buffer(c->parent_avctx, new);
 +            pthread_mutex_unlock(&c->buffer_mutex);
 +            if(ret<0)
 +                return ret;
 +            new->pts = frame->pts;
 +            new->quality = frame->quality;
 +            new->pict_type = frame->pict_type;
 +            av_image_copy(new->data, new->linesize, (const uint8_t **)frame->data, frame->linesize,
 +                          avctx->pix_fmt, avctx->width, avctx->height);
 +            frame = new;
 +        }
 +
 +        task.index = c->task_index;
 +        task.indata = (void*)frame;
 +        pthread_mutex_lock(&c->task_fifo_mutex);
 +        av_fifo_generic_write(c->task_fifo, &task, sizeof(task), NULL);
 +        pthread_cond_signal(&c->task_fifo_cond);
 +        pthread_mutex_unlock(&c->task_fifo_mutex);
 +
 +        c->task_index = (c->task_index+1) % BUFFER_SIZE;
 +
 +        if(!c->finished_tasks[c->finished_task_index].outdata && (c->task_index - c->finished_task_index) % BUFFER_SIZE <= avctx->thread_count)
 +            return 0;
 +    }
 +
 +    if(c->task_index == c->finished_task_index)
 +        return 0;
 +
 +    pthread_mutex_lock(&c->finished_task_mutex);
 +    while (!c->finished_tasks[c->finished_task_index].outdata) {
 +        pthread_cond_wait(&c->finished_task_cond, &c->finished_task_mutex);
 +    }
 +    task = c->finished_tasks[c->finished_task_index];
 +    *pkt = *(AVPacket*)(task.outdata);
 +    if(pkt->data)
 +        *got_packet_ptr = 1;
 +    av_freep(&c->finished_tasks[c->finished_task_index].outdata);
 +    c->finished_task_index = (c->finished_task_index+1) % BUFFER_SIZE;
 +    pthread_mutex_unlock(&c->finished_task_mutex);
 +
 +    return task.return_code;
 +}
index a0484d3cbf3c9d93f785aa20fdd7a23bfc9802b7,f4d1cc1967609695c2f9594a01d8518699b23178..78c6dbd948502d3b0709960900dadc94dc59165f
  
  #include "avcodec.h"
  #include "bytestream.h"
+ #include "internal.h"
 +#include "libavutil/opt.h"
 +
 +typedef struct {
 +    AVClass *av_class;
 +    int change_field_order;
 +} FRWUContext;
  
  static av_cold int decode_init(AVCodecContext *avctx)
  {
Simple merge
index fd6b558ef3073e87a423aa7afc21c3f0777b8671,b1fbe9869a97a53efda4854dca12f9fd3882e34f..c2e86d96d3665b5780ddde3e397d081f9014959d
@@@ -34,8 -33,8 +34,9 @@@
  #include "get_bits.h"
  #include "acelp_vectors.h"
  #include "celp_filters.h"
 +#include "celp_math.h"
  #include "g723_1_data.h"
+ #include "internal.h"
  
  #define CNG_RANDOM_SEED 12345
  
@@@ -1187,9 -1221,9 +1188,9 @@@ static int g723_1_decode_frame(AVCodecC
      }
  
      p->frame.nb_samples = FRAME_LEN;
-     if ((ret = avctx->get_buffer(avctx, &p->frame)) < 0) {
+     if ((ret = ff_get_buffer(avctx, &p->frame)) < 0) {
 -         av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -         return ret;
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
      }
  
      out = (int16_t *)p->frame.data[0];
Simple merge
index 036614d606f52eb3ff3f757e377db4954d018b3b,0000000000000000000000000000000000000000..b44120fd859e50902875fa5ec319185025ce02ce
mode 100644,000000..100644
--- /dev/null
@@@ -1,726 -1,0 +1,728 @@@
-     if ((ret = avctx->get_buffer(avctx, &ctx->frame)) < 0) {
 +/*
 + * G.729, G729 Annex D decoders
 + * Copyright (c) 2008 Vladimir Voroshilov
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include <inttypes.h>
 +#include <string.h>
 +
 +#include "avcodec.h"
 +#include "libavutil/avutil.h"
 +#include "get_bits.h"
 +#include "dsputil.h"
++#include "internal.h"
++
 +
 +#include "g729.h"
 +#include "lsp.h"
 +#include "celp_math.h"
 +#include "celp_filters.h"
 +#include "acelp_filters.h"
 +#include "acelp_pitch_delay.h"
 +#include "acelp_vectors.h"
 +#include "g729data.h"
 +#include "g729postfilter.h"
 +
 +/**
 + * minimum quantized LSF value (3.2.4)
 + * 0.005 in Q13
 + */
 +#define LSFQ_MIN                   40
 +
 +/**
 + * maximum quantized LSF value (3.2.4)
 + * 3.135 in Q13
 + */
 +#define LSFQ_MAX                   25681
 +
 +/**
 + * minimum LSF distance (3.2.4)
 + * 0.0391 in Q13
 + */
 +#define LSFQ_DIFF_MIN              321
 +
 +/// interpolation filter length
 +#define INTERPOL_LEN              11
 +
 +/**
 + * minimum gain pitch value (3.8, Equation 47)
 + * 0.2 in (1.14)
 + */
 +#define SHARP_MIN                  3277
 +
 +/**
 + * maximum gain pitch value (3.8, Equation 47)
 + * (EE) This does not comply with the specification.
 + * Specification says about 0.8, which should be
 + * 13107 in (1.14), but reference C code uses
 + * 13017 (equals to 0.7945) instead of it.
 + */
 +#define SHARP_MAX                  13017
 +
 +/**
 + * MR_ENERGY (mean removed energy) = mean_energy + 10 * log10(2^26  * subframe_size) in (7.13)
 + */
 +#define MR_ENERGY 1018156
 +
 +#define DECISION_NOISE        0
 +#define DECISION_INTERMEDIATE 1
 +#define DECISION_VOICE        2
 +
 +typedef enum {
 +    FORMAT_G729_8K = 0,
 +    FORMAT_G729D_6K4,
 +    FORMAT_COUNT,
 +} G729Formats;
 +
 +typedef struct {
 +    uint8_t ac_index_bits[2];   ///< adaptive codebook index for second subframe (size in bits)
 +    uint8_t parity_bit;         ///< parity bit for pitch delay
 +    uint8_t gc_1st_index_bits;  ///< gain codebook (first stage) index (size in bits)
 +    uint8_t gc_2nd_index_bits;  ///< gain codebook (second stage) index (size in bits)
 +    uint8_t fc_signs_bits;      ///< number of pulses in fixed-codebook vector
 +    uint8_t fc_indexes_bits;    ///< size (in bits) of fixed-codebook index entry
 +} G729FormatDescription;
 +
 +typedef struct {
 +    DSPContext dsp;
 +    AVFrame frame;
 +
 +    /// past excitation signal buffer
 +    int16_t exc_base[2*SUBFRAME_SIZE+PITCH_DELAY_MAX+INTERPOL_LEN];
 +
 +    int16_t* exc;               ///< start of past excitation data in buffer
 +    int pitch_delay_int_prev;   ///< integer part of previous subframe's pitch delay (4.1.3)
 +
 +    /// (2.13) LSP quantizer outputs
 +    int16_t  past_quantizer_output_buf[MA_NP + 1][10];
 +    int16_t* past_quantizer_outputs[MA_NP + 1];
 +
 +    int16_t lsfq[10];           ///< (2.13) quantized LSF coefficients from previous frame
 +    int16_t lsp_buf[2][10];     ///< (0.15) LSP coefficients (previous and current frames) (3.2.5)
 +    int16_t *lsp[2];            ///< pointers to lsp_buf
 +
 +    int16_t quant_energy[4];    ///< (5.10) past quantized energy
 +
 +    /// previous speech data for LP synthesis filter
 +    int16_t syn_filter_data[10];
 +
 +
 +    /// residual signal buffer (used in long-term postfilter)
 +    int16_t residual[SUBFRAME_SIZE + RES_PREV_DATA_SIZE];
 +
 +    /// previous speech data for residual calculation filter
 +    int16_t res_filter_data[SUBFRAME_SIZE+10];
 +
 +    /// previous speech data for short-term postfilter
 +    int16_t pos_filter_data[SUBFRAME_SIZE+10];
 +
 +    /// (1.14) pitch gain of current and five previous subframes
 +    int16_t past_gain_pitch[6];
 +
 +    /// (14.1) gain code from current and previous subframe
 +    int16_t past_gain_code[2];
 +
 +    /// voice decision on previous subframe (0-noise, 1-intermediate, 2-voice), G.729D
 +    int16_t voice_decision;
 +
 +    int16_t onset;              ///< detected onset level (0-2)
 +    int16_t was_periodic;       ///< whether previous frame was declared as periodic or not (4.4)
 +    int16_t ht_prev_data;       ///< previous data for 4.2.3, equation 86
 +    int gain_coeff;             ///< (1.14) gain coefficient (4.2.4)
 +    uint16_t rand_value;        ///< random number generator value (4.4.4)
 +    int ma_predictor_prev;      ///< switched MA predictor of LSP quantizer from last good frame
 +
 +    /// (14.14) high-pass filter data (past input)
 +    int hpf_f[2];
 +
 +    /// high-pass filter data (past output)
 +    int16_t hpf_z[2];
 +}  G729Context;
 +
 +static const G729FormatDescription format_g729_8k = {
 +    .ac_index_bits     = {8,5},
 +    .parity_bit        = 1,
 +    .gc_1st_index_bits = GC_1ST_IDX_BITS_8K,
 +    .gc_2nd_index_bits = GC_2ND_IDX_BITS_8K,
 +    .fc_signs_bits     = 4,
 +    .fc_indexes_bits   = 13,
 +};
 +
 +static const G729FormatDescription format_g729d_6k4 = {
 +    .ac_index_bits     = {8,4},
 +    .parity_bit        = 0,
 +    .gc_1st_index_bits = GC_1ST_IDX_BITS_6K4,
 +    .gc_2nd_index_bits = GC_2ND_IDX_BITS_6K4,
 +    .fc_signs_bits     = 2,
 +    .fc_indexes_bits   = 9,
 +};
 +
 +/**
 + * @brief pseudo random number generator
 + */
 +static inline uint16_t g729_prng(uint16_t value)
 +{
 +    return 31821 * value + 13849;
 +}
 +
 +/**
 + * Get parity bit of bit 2..7
 + */
 +static inline int get_parity(uint8_t value)
 +{
 +   return (0x6996966996696996ULL >> (value >> 2)) & 1;
 +}
 +
 +/**
 + * Decodes LSF (Line Spectral Frequencies) from L0-L3 (3.2.4).
 + * @param[out] lsfq (2.13) quantized LSF coefficients
 + * @param[in,out] past_quantizer_outputs (2.13) quantizer outputs from previous frames
 + * @param ma_predictor switched MA predictor of LSP quantizer
 + * @param vq_1st first stage vector of quantizer
 + * @param vq_2nd_low second stage lower vector of LSP quantizer
 + * @param vq_2nd_high second stage higher vector of LSP quantizer
 + */
 +static void lsf_decode(int16_t* lsfq, int16_t* past_quantizer_outputs[MA_NP + 1],
 +                       int16_t ma_predictor,
 +                       int16_t vq_1st, int16_t vq_2nd_low, int16_t vq_2nd_high)
 +{
 +    int i,j;
 +    static const uint8_t min_distance[2]={10, 5}; //(2.13)
 +    int16_t* quantizer_output = past_quantizer_outputs[MA_NP];
 +
 +    for (i = 0; i < 5; i++) {
 +        quantizer_output[i]     = cb_lsp_1st[vq_1st][i    ] + cb_lsp_2nd[vq_2nd_low ][i    ];
 +        quantizer_output[i + 5] = cb_lsp_1st[vq_1st][i + 5] + cb_lsp_2nd[vq_2nd_high][i + 5];
 +    }
 +
 +    for (j = 0; j < 2; j++) {
 +        for (i = 1; i < 10; i++) {
 +            int diff = (quantizer_output[i - 1] - quantizer_output[i] + min_distance[j]) >> 1;
 +            if (diff > 0) {
 +                quantizer_output[i - 1] -= diff;
 +                quantizer_output[i    ] += diff;
 +            }
 +        }
 +    }
 +
 +    for (i = 0; i < 10; i++) {
 +        int sum = quantizer_output[i] * cb_ma_predictor_sum[ma_predictor][i];
 +        for (j = 0; j < MA_NP; j++)
 +            sum += past_quantizer_outputs[j][i] * cb_ma_predictor[ma_predictor][j][i];
 +
 +        lsfq[i] = sum >> 15;
 +    }
 +
 +    ff_acelp_reorder_lsf(lsfq, LSFQ_DIFF_MIN, LSFQ_MIN, LSFQ_MAX, 10);
 +}
 +
 +/**
 + * Restores past LSP quantizer output using LSF from previous frame
 + * @param[in,out] lsfq (2.13) quantized LSF coefficients
 + * @param[in,out] past_quantizer_outputs (2.13) quantizer outputs from previous frames
 + * @param ma_predictor_prev MA predictor from previous frame
 + * @param lsfq_prev (2.13) quantized LSF coefficients from previous frame
 + */
 +static void lsf_restore_from_previous(int16_t* lsfq,
 +                                      int16_t* past_quantizer_outputs[MA_NP + 1],
 +                                      int ma_predictor_prev)
 +{
 +    int16_t* quantizer_output = past_quantizer_outputs[MA_NP];
 +    int i,k;
 +
 +    for (i = 0; i < 10; i++) {
 +        int tmp = lsfq[i] << 15;
 +
 +        for (k = 0; k < MA_NP; k++)
 +            tmp -= past_quantizer_outputs[k][i] * cb_ma_predictor[ma_predictor_prev][k][i];
 +
 +        quantizer_output[i] = ((tmp >> 15) * cb_ma_predictor_sum_inv[ma_predictor_prev][i]) >> 12;
 +    }
 +}
 +
 +/**
 + * Constructs new excitation signal and applies phase filter to it
 + * @param[out] out constructed speech signal
 + * @param in original excitation signal
 + * @param fc_cur (2.13) original fixed-codebook vector
 + * @param gain_code (14.1) gain code
 + * @param subframe_size length of the subframe
 + */
 +static void g729d_get_new_exc(
 +        int16_t* out,
 +        const int16_t* in,
 +        const int16_t* fc_cur,
 +        int dstate,
 +        int gain_code,
 +        int subframe_size)
 +{
 +    int i;
 +    int16_t fc_new[SUBFRAME_SIZE];
 +
 +    ff_celp_convolve_circ(fc_new, fc_cur, phase_filter[dstate], subframe_size);
 +
 +    for(i=0; i<subframe_size; i++)
 +    {
 +        out[i]  = in[i];
 +        out[i] -= (gain_code * fc_cur[i] + 0x2000) >> 14;
 +        out[i] += (gain_code * fc_new[i] + 0x2000) >> 14;
 +    }
 +}
 +
 +/**
 + * Makes decision about onset in current subframe
 + * @param past_onset decision result of previous subframe
 + * @param past_gain_code gain code of current and previous subframe
 + *
 + * @return onset decision result for current subframe
 + */
 +static int g729d_onset_decision(int past_onset, const int16_t* past_gain_code)
 +{
 +    if((past_gain_code[0] >> 1) > past_gain_code[1])
 +        return 2;
 +    else
 +        return FFMAX(past_onset-1, 0);
 +}
 +
 +/**
 + * Makes decision about voice presence in current subframe
 + * @param onset onset level
 + * @param prev_voice_decision voice decision result from previous subframe
 + * @param past_gain_pitch pitch gain of current and previous subframes
 + *
 + * @return voice decision result for current subframe
 + */
 +static int16_t g729d_voice_decision(int onset, int prev_voice_decision, const int16_t* past_gain_pitch)
 +{
 +    int i, low_gain_pitch_cnt, voice_decision;
 +
 +    if(past_gain_pitch[0] >= 14745)      // 0.9
 +        voice_decision = DECISION_VOICE;
 +    else if (past_gain_pitch[0] <= 9830) // 0.6
 +        voice_decision = DECISION_NOISE;
 +    else
 +        voice_decision = DECISION_INTERMEDIATE;
 +
 +    for(i=0, low_gain_pitch_cnt=0; i<6; i++)
 +        if(past_gain_pitch[i] < 9830)
 +            low_gain_pitch_cnt++;
 +
 +    if(low_gain_pitch_cnt > 2 && !onset)
 +        voice_decision = DECISION_NOISE;
 +
 +    if(!onset && voice_decision > prev_voice_decision + 1)
 +        voice_decision--;
 +
 +    if(onset && voice_decision < DECISION_VOICE)
 +        voice_decision++;
 +
 +    return voice_decision;
 +}
 +
 +static int32_t scalarproduct_int16_c(const int16_t * v1, const int16_t * v2, int order)
 +{
 +    int res = 0;
 +
 +    while (order--)
 +        res += *v1++ * *v2++;
 +
 +    return res;
 +}
 +
 +static av_cold int decoder_init(AVCodecContext * avctx)
 +{
 +    G729Context* ctx = avctx->priv_data;
 +    int i,k;
 +
 +    if (avctx->channels != 1) {
 +        av_log(avctx, AV_LOG_ERROR, "Only mono sound is supported (requested channels: %d).\n", avctx->channels);
 +        return AVERROR(EINVAL);
 +    }
 +    avctx->sample_fmt = AV_SAMPLE_FMT_S16;
 +
 +    /* Both 8kbit/s and 6.4kbit/s modes uses two subframes per frame. */
 +    avctx->frame_size = SUBFRAME_SIZE << 1;
 +
 +    ctx->gain_coeff = 16384; // 1.0 in (1.14)
 +
 +    for (k = 0; k < MA_NP + 1; k++) {
 +        ctx->past_quantizer_outputs[k] = ctx->past_quantizer_output_buf[k];
 +        for (i = 1; i < 11; i++)
 +            ctx->past_quantizer_outputs[k][i - 1] = (18717 * i) >> 3;
 +    }
 +
 +    ctx->lsp[0] = ctx->lsp_buf[0];
 +    ctx->lsp[1] = ctx->lsp_buf[1];
 +    memcpy(ctx->lsp[0], lsp_init, 10 * sizeof(int16_t));
 +
 +    ctx->exc = &ctx->exc_base[PITCH_DELAY_MAX+INTERPOL_LEN];
 +
 +    ctx->pitch_delay_int_prev = PITCH_DELAY_MIN;
 +
 +    /* random seed initialization */
 +    ctx->rand_value = 21845;
 +
 +    /* quantized prediction error */
 +    for(i=0; i<4; i++)
 +        ctx->quant_energy[i] = -14336; // -14 in (5.10)
 +
 +    ff_dsputil_init(&ctx->dsp, avctx);
 +    ctx->dsp.scalarproduct_int16 = scalarproduct_int16_c;
 +
 +    avcodec_get_frame_defaults(&ctx->frame);
 +    avctx->coded_frame = &ctx->frame;
 +
 +    return 0;
 +}
 +
 +static int decode_frame(AVCodecContext *avctx, void *data, int *got_frame_ptr,
 +                        AVPacket *avpkt)
 +{
 +    const uint8_t *buf = avpkt->data;
 +    int buf_size       = avpkt->size;
 +    int16_t *out_frame;
 +    GetBitContext gb;
 +    const G729FormatDescription *format;
 +    int frame_erasure = 0;    ///< frame erasure detected during decoding
 +    int bad_pitch = 0;        ///< parity check failed
 +    int i;
 +    int16_t *tmp;
 +    G729Formats packet_type;
 +    G729Context *ctx = avctx->priv_data;
 +    int16_t lp[2][11];           // (3.12)
 +    uint8_t ma_predictor;     ///< switched MA predictor of LSP quantizer
 +    uint8_t quantizer_1st;    ///< first stage vector of quantizer
 +    uint8_t quantizer_2nd_lo; ///< second stage lower vector of quantizer (size in bits)
 +    uint8_t quantizer_2nd_hi; ///< second stage higher vector of quantizer (size in bits)
 +
 +    int pitch_delay_int[2];      // pitch delay, integer part
 +    int pitch_delay_3x;          // pitch delay, multiplied by 3
 +    int16_t fc[SUBFRAME_SIZE];   // fixed-codebook vector
 +    int16_t synth[SUBFRAME_SIZE+10]; // fixed-codebook vector
 +    int j, ret;
 +    int gain_before, gain_after;
 +    int is_periodic = 0;         // whether one of the subframes is declared as periodic or not
 +
 +    ctx->frame.nb_samples = SUBFRAME_SIZE<<1;
++    if ((ret = ff_get_buffer(avctx, &ctx->frame)) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
 +    }
 +    out_frame = (int16_t*) ctx->frame.data[0];
 +
 +    if (buf_size == 10) {
 +        packet_type = FORMAT_G729_8K;
 +        format = &format_g729_8k;
 +        //Reset voice decision
 +        ctx->onset = 0;
 +        ctx->voice_decision = DECISION_VOICE;
 +        av_log(avctx, AV_LOG_DEBUG, "Packet type: %s\n", "G.729 @ 8kbit/s");
 +    } else if (buf_size == 8) {
 +        packet_type = FORMAT_G729D_6K4;
 +        format = &format_g729d_6k4;
 +        av_log(avctx, AV_LOG_DEBUG, "Packet type: %s\n", "G.729D @ 6.4kbit/s");
 +    } else {
 +        av_log(avctx, AV_LOG_ERROR, "Packet size %d is unknown.\n", buf_size);
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    for (i=0; i < buf_size; i++)
 +        frame_erasure |= buf[i];
 +    frame_erasure = !frame_erasure;
 +
 +    init_get_bits(&gb, buf, 8*buf_size);
 +
 +    ma_predictor     = get_bits(&gb, 1);
 +    quantizer_1st    = get_bits(&gb, VQ_1ST_BITS);
 +    quantizer_2nd_lo = get_bits(&gb, VQ_2ND_BITS);
 +    quantizer_2nd_hi = get_bits(&gb, VQ_2ND_BITS);
 +
 +    if(frame_erasure)
 +        lsf_restore_from_previous(ctx->lsfq, ctx->past_quantizer_outputs,
 +                                  ctx->ma_predictor_prev);
 +    else {
 +        lsf_decode(ctx->lsfq, ctx->past_quantizer_outputs,
 +                   ma_predictor,
 +                   quantizer_1st, quantizer_2nd_lo, quantizer_2nd_hi);
 +        ctx->ma_predictor_prev = ma_predictor;
 +    }
 +
 +    tmp = ctx->past_quantizer_outputs[MA_NP];
 +    memmove(ctx->past_quantizer_outputs + 1, ctx->past_quantizer_outputs,
 +            MA_NP * sizeof(int16_t*));
 +    ctx->past_quantizer_outputs[0] = tmp;
 +
 +    ff_acelp_lsf2lsp(ctx->lsp[1], ctx->lsfq, 10);
 +
 +    ff_acelp_lp_decode(&lp[0][0], &lp[1][0], ctx->lsp[1], ctx->lsp[0], 10);
 +
 +    FFSWAP(int16_t*, ctx->lsp[1], ctx->lsp[0]);
 +
 +    for (i = 0; i < 2; i++) {
 +        int gain_corr_factor;
 +
 +        uint8_t ac_index;      ///< adaptive codebook index
 +        uint8_t pulses_signs;  ///< fixed-codebook vector pulse signs
 +        int fc_indexes;        ///< fixed-codebook indexes
 +        uint8_t gc_1st_index;  ///< gain codebook (first stage) index
 +        uint8_t gc_2nd_index;  ///< gain codebook (second stage) index
 +
 +        ac_index      = get_bits(&gb, format->ac_index_bits[i]);
 +        if(!i && format->parity_bit)
 +            bad_pitch = get_parity(ac_index) == get_bits1(&gb);
 +        fc_indexes    = get_bits(&gb, format->fc_indexes_bits);
 +        pulses_signs  = get_bits(&gb, format->fc_signs_bits);
 +        gc_1st_index  = get_bits(&gb, format->gc_1st_index_bits);
 +        gc_2nd_index  = get_bits(&gb, format->gc_2nd_index_bits);
 +
 +        if (frame_erasure)
 +            pitch_delay_3x   = 3 * ctx->pitch_delay_int_prev;
 +        else if(!i) {
 +            if (bad_pitch)
 +                pitch_delay_3x   = 3 * ctx->pitch_delay_int_prev;
 +            else
 +                pitch_delay_3x = ff_acelp_decode_8bit_to_1st_delay3(ac_index);
 +        } else {
 +            int pitch_delay_min = av_clip(ctx->pitch_delay_int_prev - 5,
 +                                          PITCH_DELAY_MIN, PITCH_DELAY_MAX - 9);
 +
 +            if(packet_type == FORMAT_G729D_6K4)
 +                pitch_delay_3x = ff_acelp_decode_4bit_to_2nd_delay3(ac_index, pitch_delay_min);
 +            else
 +                pitch_delay_3x = ff_acelp_decode_5_6_bit_to_2nd_delay3(ac_index, pitch_delay_min);
 +        }
 +
 +        /* Round pitch delay to nearest (used everywhere except ff_acelp_interpolate). */
 +        pitch_delay_int[i]  = (pitch_delay_3x + 1) / 3;
 +
 +        if (frame_erasure) {
 +            ctx->rand_value = g729_prng(ctx->rand_value);
 +            fc_indexes   = ctx->rand_value & ((1 << format->fc_indexes_bits) - 1);
 +
 +            ctx->rand_value = g729_prng(ctx->rand_value);
 +            pulses_signs = ctx->rand_value;
 +        }
 +
 +
 +        memset(fc, 0, sizeof(int16_t) * SUBFRAME_SIZE);
 +        switch (packet_type) {
 +            case FORMAT_G729_8K:
 +                ff_acelp_fc_pulse_per_track(fc, ff_fc_4pulses_8bits_tracks_13,
 +                                            ff_fc_4pulses_8bits_track_4,
 +                                            fc_indexes, pulses_signs, 3, 3);
 +                break;
 +            case FORMAT_G729D_6K4:
 +                ff_acelp_fc_pulse_per_track(fc, ff_fc_2pulses_9bits_track1_gray,
 +                                            ff_fc_2pulses_9bits_track2_gray,
 +                                            fc_indexes, pulses_signs, 1, 4);
 +                break;
 +        }
 +
 +        /*
 +          This filter enhances harmonic components of the fixed-codebook vector to
 +          improve the quality of the reconstructed speech.
 +
 +                     / fc_v[i],                                    i < pitch_delay
 +          fc_v[i] = <
 +                     \ fc_v[i] + gain_pitch * fc_v[i-pitch_delay], i >= pitch_delay
 +        */
 +        ff_acelp_weighted_vector_sum(fc + pitch_delay_int[i],
 +                                     fc + pitch_delay_int[i],
 +                                     fc, 1 << 14,
 +                                     av_clip(ctx->past_gain_pitch[0], SHARP_MIN, SHARP_MAX),
 +                                     0, 14,
 +                                     SUBFRAME_SIZE - pitch_delay_int[i]);
 +
 +        memmove(ctx->past_gain_pitch+1, ctx->past_gain_pitch, 5 * sizeof(int16_t));
 +        ctx->past_gain_code[1] = ctx->past_gain_code[0];
 +
 +        if (frame_erasure) {
 +            ctx->past_gain_pitch[0] = (29491 * ctx->past_gain_pitch[0]) >> 15; // 0.90 (0.15)
 +            ctx->past_gain_code[0]  = ( 2007 * ctx->past_gain_code[0] ) >> 11; // 0.98 (0.11)
 +
 +            gain_corr_factor = 0;
 +        } else {
 +            if (packet_type == FORMAT_G729D_6K4) {
 +                ctx->past_gain_pitch[0]  = cb_gain_1st_6k4[gc_1st_index][0] +
 +                                           cb_gain_2nd_6k4[gc_2nd_index][0];
 +                gain_corr_factor = cb_gain_1st_6k4[gc_1st_index][1] +
 +                                   cb_gain_2nd_6k4[gc_2nd_index][1];
 +
 +                /* Without check below overflow can occur in ff_acelp_update_past_gain.
 +                   It is not issue for G.729, because gain_corr_factor in it's case is always
 +                   greater than 1024, while in G.729D it can be even zero. */
 +                gain_corr_factor = FFMAX(gain_corr_factor, 1024);
 +#ifndef G729_BITEXACT
 +                gain_corr_factor >>= 1;
 +#endif
 +            } else {
 +                ctx->past_gain_pitch[0]  = cb_gain_1st_8k[gc_1st_index][0] +
 +                                           cb_gain_2nd_8k[gc_2nd_index][0];
 +                gain_corr_factor = cb_gain_1st_8k[gc_1st_index][1] +
 +                                   cb_gain_2nd_8k[gc_2nd_index][1];
 +            }
 +
 +            /* Decode the fixed-codebook gain. */
 +            ctx->past_gain_code[0] = ff_acelp_decode_gain_code(&ctx->dsp, gain_corr_factor,
 +                                                               fc, MR_ENERGY,
 +                                                               ctx->quant_energy,
 +                                                               ma_prediction_coeff,
 +                                                               SUBFRAME_SIZE, 4);
 +#ifdef G729_BITEXACT
 +            /*
 +              This correction required to get bit-exact result with
 +              reference code, because gain_corr_factor in G.729D is
 +              two times larger than in original G.729.
 +
 +              If bit-exact result is not issue then gain_corr_factor
 +              can be simpler divided by 2 before call to g729_get_gain_code
 +              instead of using correction below.
 +            */
 +            if (packet_type == FORMAT_G729D_6K4) {
 +                gain_corr_factor >>= 1;
 +                ctx->past_gain_code[0] >>= 1;
 +            }
 +#endif
 +        }
 +        ff_acelp_update_past_gain(ctx->quant_energy, gain_corr_factor, 2, frame_erasure);
 +
 +        /* Routine requires rounding to lowest. */
 +        ff_acelp_interpolate(ctx->exc + i * SUBFRAME_SIZE,
 +                             ctx->exc + i * SUBFRAME_SIZE - pitch_delay_3x / 3,
 +                             ff_acelp_interp_filter, 6,
 +                             (pitch_delay_3x % 3) << 1,
 +                             10, SUBFRAME_SIZE);
 +
 +        ff_acelp_weighted_vector_sum(ctx->exc + i * SUBFRAME_SIZE,
 +                                     ctx->exc + i * SUBFRAME_SIZE, fc,
 +                                     (!ctx->was_periodic && frame_erasure) ? 0 : ctx->past_gain_pitch[0],
 +                                     ( ctx->was_periodic && frame_erasure) ? 0 : ctx->past_gain_code[0],
 +                                     1 << 13, 14, SUBFRAME_SIZE);
 +
 +        memcpy(synth, ctx->syn_filter_data, 10 * sizeof(int16_t));
 +
 +        if (ff_celp_lp_synthesis_filter(
 +            synth+10,
 +            &lp[i][1],
 +            ctx->exc  + i * SUBFRAME_SIZE,
 +            SUBFRAME_SIZE,
 +            10,
 +            1,
 +            0,
 +            0x800))
 +            /* Overflow occurred, downscale excitation signal... */
 +            for (j = 0; j < 2 * SUBFRAME_SIZE + PITCH_DELAY_MAX + INTERPOL_LEN; j++)
 +                ctx->exc_base[j] >>= 2;
 +
 +        /* ... and make synthesis again. */
 +        if (packet_type == FORMAT_G729D_6K4) {
 +            int16_t exc_new[SUBFRAME_SIZE];
 +
 +            ctx->onset = g729d_onset_decision(ctx->onset, ctx->past_gain_code);
 +            ctx->voice_decision = g729d_voice_decision(ctx->onset, ctx->voice_decision, ctx->past_gain_pitch);
 +
 +            g729d_get_new_exc(exc_new, ctx->exc  + i * SUBFRAME_SIZE, fc, ctx->voice_decision, ctx->past_gain_code[0], SUBFRAME_SIZE);
 +
 +            ff_celp_lp_synthesis_filter(
 +                    synth+10,
 +                    &lp[i][1],
 +                    exc_new,
 +                    SUBFRAME_SIZE,
 +                    10,
 +                    0,
 +                    0,
 +                    0x800);
 +        } else {
 +            ff_celp_lp_synthesis_filter(
 +                    synth+10,
 +                    &lp[i][1],
 +                    ctx->exc  + i * SUBFRAME_SIZE,
 +                    SUBFRAME_SIZE,
 +                    10,
 +                    0,
 +                    0,
 +                    0x800);
 +        }
 +        /* Save data (without postfilter) for use in next subframe. */
 +        memcpy(ctx->syn_filter_data, synth+SUBFRAME_SIZE, 10 * sizeof(int16_t));
 +
 +        /* Calculate gain of unfiltered signal for use in AGC. */
 +        gain_before = 0;
 +        for (j = 0; j < SUBFRAME_SIZE; j++)
 +            gain_before += FFABS(synth[j+10]);
 +
 +        /* Call postfilter and also update voicing decision for use in next frame. */
 +        ff_g729_postfilter(
 +                &ctx->dsp,
 +                &ctx->ht_prev_data,
 +                &is_periodic,
 +                &lp[i][0],
 +                pitch_delay_int[0],
 +                ctx->residual,
 +                ctx->res_filter_data,
 +                ctx->pos_filter_data,
 +                synth+10,
 +                SUBFRAME_SIZE);
 +
 +        /* Calculate gain of filtered signal for use in AGC. */
 +        gain_after = 0;
 +        for(j=0; j<SUBFRAME_SIZE; j++)
 +            gain_after += FFABS(synth[j+10]);
 +
 +        ctx->gain_coeff = ff_g729_adaptive_gain_control(
 +                gain_before,
 +                gain_after,
 +                synth+10,
 +                SUBFRAME_SIZE,
 +                ctx->gain_coeff);
 +
 +        if (frame_erasure)
 +            ctx->pitch_delay_int_prev = FFMIN(ctx->pitch_delay_int_prev + 1, PITCH_DELAY_MAX);
 +        else
 +            ctx->pitch_delay_int_prev = pitch_delay_int[i];
 +
 +        memcpy(synth+8, ctx->hpf_z, 2*sizeof(int16_t));
 +        ff_acelp_high_pass_filter(
 +                out_frame + i*SUBFRAME_SIZE,
 +                ctx->hpf_f,
 +                synth+10,
 +                SUBFRAME_SIZE);
 +        memcpy(ctx->hpf_z, synth+8+SUBFRAME_SIZE, 2*sizeof(int16_t));
 +    }
 +
 +    ctx->was_periodic = is_periodic;
 +
 +    /* Save signal for use in next frame. */
 +    memmove(ctx->exc_base, ctx->exc_base + 2 * SUBFRAME_SIZE, (PITCH_DELAY_MAX+INTERPOL_LEN)*sizeof(int16_t));
 +
 +    *got_frame_ptr = 1;
 +    *(AVFrame*)data = ctx->frame;
 +    return buf_size;
 +}
 +
 +AVCodec ff_g729_decoder = {
 +    .name           = "g729",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_G729,
 +    .priv_data_size = sizeof(G729Context),
 +    .init           = decoder_init,
 +    .decode         = decode_frame,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("G.729"),
 +};
index 3e3c9a53940ecdd0ba95d341bee637ab2129a9b8,d5f1c42255e13067fb14815f09d840ec9fa63551..acd9b291461282c0bc0e146402a8378667af3ba3
  //#define DEBUG
  
  #include "libavutil/imgutils.h"
 +#include "libavutil/opt.h"
  #include "avcodec.h"
  #include "bytestream.h"
+ #include "internal.h"
  #include "lzw.h"
 +#include "gif.h"
  
 -#define GCE_DISPOSAL_NONE       0
 -#define GCE_DISPOSAL_INPLACE    1
 -#define GCE_DISPOSAL_BACKGROUND 2
 -#define GCE_DISPOSAL_RESTORE    3
 +/* This value is intentionally set to "transparent white" color.
 + * It is much better to have white background instead of black
 + * when gif image converted to format which not support transparency.
 + */
 +#define GIF_TRANSPARENT_COLOR    0x00ffffff
  
  typedef struct GifState {
 +    const AVClass *class;
      AVFrame picture;
      int screen_width;
      int screen_height;
@@@ -461,55 -290,29 +462,55 @@@ static int gif_decode_frame(AVCodecCont
      AVFrame *picture = data;
      int ret;
  
 +    s->picture.pts          = avpkt->pts;
 +    s->picture.pkt_pts      = avpkt->pts;
 +    s->picture.pkt_dts      = avpkt->dts;
 +    s->picture.pkt_duration = avpkt->duration;
 +
      s->bytestream = buf;
      s->bytestream_end = buf + buf_size;
 -    if (gif_read_header1(s) < 0)
 -        return -1;
  
 -    avctx->pix_fmt = AV_PIX_FMT_PAL8;
 -    if (av_image_check_size(s->screen_width, s->screen_height, 0, avctx))
 -        return -1;
 -    avcodec_set_dimensions(avctx, s->screen_width, s->screen_height);
 +    if (buf_size >= 6) {
 +        s->keyframe = memcmp(s->bytestream, gif87a_sig, 6) == 0 ||
 +                      memcmp(s->bytestream, gif89a_sig, 6) == 0;
 +    } else {
 +        s->keyframe = 0;
 +    }
  
 -    if (s->picture.data[0])
 -        avctx->release_buffer(avctx, &s->picture);
 -    if (ff_get_buffer(avctx, &s->picture) < 0) {
 -        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +    if (s->keyframe) {
 +        if ((ret = gif_read_header1(s)) < 0)
 +            return ret;
 +
 +        if ((ret = av_image_check_size(s->screen_width, s->screen_height, 0, avctx)) < 0)
 +            return ret;
 +        avcodec_set_dimensions(avctx, s->screen_width, s->screen_height);
 +
 +        if (s->picture.data[0])
 +            avctx->release_buffer(avctx, &s->picture);
 +
-         if ((ret = avctx->get_buffer(avctx, &s->picture)) < 0) {
++        if ((ret = ff_get_buffer(avctx, &s->picture)) < 0) {
 +            av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +            return ret;
 +        }
 +
 +        s->picture.pict_type = AV_PICTURE_TYPE_I;
 +        s->picture.key_frame = 1;
 +    } else {
 +        if ((ret = avctx->reget_buffer(avctx, &s->picture)) < 0) {
 +            av_log(avctx, AV_LOG_ERROR, "reget_buffer() failed\n");
 +            return ret;
 +        }
 +
 +        s->picture.pict_type = AV_PICTURE_TYPE_P;
 +        s->picture.key_frame = 0;
      }
 -    s->image_palette = (uint32_t *)s->picture.data[1];
 -    ret = gif_parse_next_image(s);
 +
 +    ret = gif_parse_next_image(s, got_picture);
      if (ret < 0)
          return ret;
 +    else if (*got_picture)
 +        *picture = s->picture;
  
 -    *picture = s->picture;
 -    *data_size = sizeof(AVPicture);
      return s->bytestream - buf;
  }
  
Simple merge
index a517d9da5ef1e026ad734afa38d438c780598f38,8ce045dc0f814d8150480afbc8be96a1f5e23828..6e7bcb2484a1e5c6e6c3361d979dc449d4ac2ba4
@@@ -227,13 -224,12 +228,13 @@@ static int idcin_decode_frame(AVCodecCo
      if (s->frame.data[0])
          avctx->release_buffer(avctx, &s->frame);
  
-     if ((ret = avctx->get_buffer(avctx, &s->frame))) {
 -    if (ff_get_buffer(avctx, &s->frame)) {
 -        av_log(avctx, AV_LOG_ERROR, "  id CIN Video: get_buffer() failed\n");
 -        return -1;
++    if ((ret = ff_get_buffer(avctx, &s->frame))) {
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
      }
  
 -    idcin_decode_vlcs(s);
 +    if (idcin_decode_vlcs(s))
 +        return AVERROR_INVALIDDATA;
  
      if (pal) {
          s->frame.palette_has_changed = 1;
index 278119550c82cfa9c44cea3fe51cc11d236ddcd5,4bbb5dda1f698300afab39aeaf191f290d15612a..1f07492c22c7dd9fdf7f228e08bb6142e43acffb
  #include "bytestream.h"
  #include "avcodec.h"
  #include "get_bits.h"
+ #include "internal.h"
  
 +// TODO: masking bits
 +typedef enum {
 +    MASK_NONE,
 +    MASK_HAS_MASK,
 +    MASK_HAS_TRANSPARENT_COLOR,
 +    MASK_LASSO
 +} mask_type;
 +
  typedef struct {
      AVFrame frame;
      int planesize;
@@@ -606,15 -318,12 +607,15 @@@ static int decode_frame(AVCodecContext 
              av_log(avctx, AV_LOG_ERROR, "reget_buffer() failed\n");
              return res;
          }
-     } else if ((res = avctx->get_buffer(avctx, &s->frame)) < 0) {
+     } else if ((res = ff_get_buffer(avctx, &s->frame)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return res;
 -    } else if (avctx->bits_per_coded_sample <= 8 && avctx->pix_fmt != AV_PIX_FMT_GRAY8) {
 +    } else if (avctx->bits_per_coded_sample <= 8 && avctx->pix_fmt == AV_PIX_FMT_PAL8) {
          if ((res = ff_cmap_read_palette(avctx, (uint32_t*)s->frame.data[1])) < 0)
              return res;
 +    } else if (avctx->pix_fmt == AV_PIX_FMT_RGB32 && avctx->bits_per_coded_sample <= 8) {
 +        if ((res = ff_cmap_read_palette(avctx, s->mask_palbuf)) < 0)
 +            return res;
      }
      s->init = 1;
  
Simple merge
index 013d6107cf635401dad6160835c645c738f2ddfb,fe2ee935bb808105363a635415363ff4e397ef3c..c15463ddbb031ee0ff48fbcf577552785aa23bd1
@@@ -1084,15 -1056,6 +1085,15 @@@ static int decode_frame(AVCodecContext 
      /* use BS_BUFFER flag for buffer switching */
      ctx->buf_sel = (ctx->frame_flags >> BS_BUFFER) & 1;
  
-     if ((res = avctx->get_buffer(avctx, &ctx->frame)) < 0) {
 +    if (ctx->frame.data[0])
 +        avctx->release_buffer(avctx, &ctx->frame);
 +
 +    ctx->frame.reference = 0;
++    if ((res = ff_get_buffer(avctx, &ctx->frame)) < 0) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return res;
 +    }
 +
      /* decode luma plane */
      if ((res = decode_plane(ctx, avctx, ctx->planes, ctx->y_data_ptr, ctx->y_data_size, 40)))
          return res;
index 17ca8bb8c2dd59dc1674e702f2b1a9ef730b5ae9,9dde654528f4514f7cb3c35078388afa63019f7a..30a8e4c40dd1d422d83783a86bd0cb6af834f09d
@@@ -169,22 -141,11 +169,29 @@@ static av_always_inline int64_t ff_samp
                          avctx->time_base);
  }
  
+ /**
+  * Get a buffer for a frame. This is a wrapper around
+  * AVCodecContext.get_buffer() and should be used instead calling get_buffer()
+  * directly.
+  */
+ int ff_get_buffer(AVCodecContext *avctx, AVFrame *frame);
 +int ff_thread_can_start_frame(AVCodecContext *avctx);
 +
 +int ff_get_logical_cpus(AVCodecContext *avctx);
 +
 +int avpriv_h264_has_num_reorder_frames(AVCodecContext *avctx);
 +
 +/**
 + * Call avcodec_open2 recursively by decrementing counter, unlocking mutex,
 + * calling the function and then restoring again. Assumes the mutex is
 + * already locked
 + */
 +int ff_codec_open2_recursive(AVCodecContext *avctx, const AVCodec *codec, AVDictionary **options);
 +
 +/**
 + * Call avcodec_close recursively, counterpart to avcodec_open2_recursive.
 + */
 +int ff_codec_close_recursive(AVCodecContext *avctx);
 +
  #endif /* AVCODEC_INTERNAL_H */
index 6892936c3d40c9dca87efbf6432829f50ed60a85,49db10df2aeee64e1b6b669c1923700dd24ea644..82bcf85065bf9da226acdadb2ec8ec11640224ef
@@@ -976,8 -973,8 +977,8 @@@ static int ipvideo_decode_frame(AVCodec
                       buf_size - s->decoding_map_size);
  
      s->current_frame.reference = 3;
-     if (avctx->get_buffer(avctx, &s->current_frame)) {
+     if (ff_get_buffer(avctx, &s->current_frame)) {
 -        av_log(avctx, AV_LOG_ERROR, "  Interplay Video: get_buffer() failed\n");
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
  
Simple merge
index de94f511971628c39334cf2ae8084ce9065e688e,0000000000000000000000000000000000000000..a9b4ccf3d6ff0697aa1c468c638901ddcb335f73
mode 100644,000000..100644
--- /dev/null
@@@ -1,1106 -1,0 +1,1107 @@@
-     if ((ret = s->avctx->get_buffer(s->avctx, &s->picture)) < 0)
 +/*
 + * JPEG2000 image decoder
 + * Copyright (c) 2007 Kamil Nowosad
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/**
 + * JPEG2000 image decoder
 + * @file
 + * @author Kamil Nowosad
 + */
 +
 +// #define DEBUG
 +
 +#include "avcodec.h"
 +#include "bytestream.h"
++#include "internal.h"
 +#include "j2k.h"
 +#include "libavutil/common.h"
 +
 +#define JP2_SIG_TYPE    0x6A502020
 +#define JP2_SIG_VALUE   0x0D0A870A
 +#define JP2_CODESTREAM  0x6A703263
 +
 +#define HAD_COC 0x01
 +#define HAD_QCC 0x02
 +
 +typedef struct {
 +   J2kComponent *comp;
 +   uint8_t properties[4];
 +   J2kCodingStyle codsty[4];
 +   J2kQuantStyle  qntsty[4];
 +} J2kTile;
 +
 +typedef struct {
 +    AVCodecContext *avctx;
 +    AVFrame picture;
 +    GetByteContext g;
 +
 +    int width, height; ///< image width and height
 +    int image_offset_x, image_offset_y;
 +    int tile_offset_x, tile_offset_y;
 +    uint8_t cbps[4]; ///< bits per sample in particular components
 +    uint8_t sgnd[4]; ///< if a component is signed
 +    uint8_t properties[4];
 +    int cdx[4], cdy[4];
 +    int precision;
 +    int ncomponents;
 +    int tile_width, tile_height; ///< tile size
 +    int numXtiles, numYtiles;
 +    int maxtilelen;
 +
 +    J2kCodingStyle codsty[4];
 +    J2kQuantStyle  qntsty[4];
 +
 +    int bit_index;
 +
 +    int curtileno;
 +
 +    J2kTile *tile;
 +} J2kDecoderContext;
 +
 +static int get_bits(J2kDecoderContext *s, int n)
 +{
 +    int res = 0;
 +
 +    while (--n >= 0){
 +        res <<= 1;
 +        if (s->bit_index == 0) {
 +            s->bit_index = 7 + (bytestream2_get_byte(&s->g) != 0xFFu);
 +        }
 +        s->bit_index--;
 +        res |= (bytestream2_peek_byte(&s->g) >> s->bit_index) & 1;
 +    }
 +    return res;
 +}
 +
 +static void j2k_flush(J2kDecoderContext *s)
 +{
 +    if (bytestream2_get_byte(&s->g) == 0xff)
 +        bytestream2_skip(&s->g, 1);
 +    s->bit_index = 8;
 +}
 +#if 0
 +void printcomp(J2kComponent *comp)
 +{
 +    int i;
 +    for (i = 0; i < comp->y1 - comp->y0; i++)
 +        ff_j2k_printv(comp->data + i * (comp->x1 - comp->x0), comp->x1 - comp->x0);
 +}
 +
 +static void nspaces(FILE *fd, int n)
 +{
 +    while(n--) putc(' ', fd);
 +}
 +
 +static void dump(J2kDecoderContext *s, FILE *fd)
 +{
 +    int tileno, compno, reslevelno, bandno, precno;
 +    fprintf(fd, "XSiz = %d, YSiz = %d, tile_width = %d, tile_height = %d\n"
 +                "numXtiles = %d, numYtiles = %d, ncomponents = %d\n"
 +                "tiles:\n",
 +            s->width, s->height, s->tile_width, s->tile_height,
 +            s->numXtiles, s->numYtiles, s->ncomponents);
 +    for (tileno = 0; tileno < s->numXtiles * s->numYtiles; tileno++){
 +        J2kTile *tile = s->tile + tileno;
 +        nspaces(fd, 2);
 +        fprintf(fd, "tile %d:\n", tileno);
 +        for(compno = 0; compno < s->ncomponents; compno++){
 +            J2kComponent *comp = tile->comp + compno;
 +            nspaces(fd, 4);
 +            fprintf(fd, "component %d:\n", compno);
 +            nspaces(fd, 4);
 +            fprintf(fd, "x0 = %d, x1 = %d, y0 = %d, y1 = %d\n",
 +                        comp->x0, comp->x1, comp->y0, comp->y1);
 +            for(reslevelno = 0; reslevelno < codsty->nreslevels; reslevelno++){
 +                J2kResLevel *reslevel = comp->reslevel + reslevelno;
 +                nspaces(fd, 6);
 +                fprintf(fd, "reslevel %d:\n", reslevelno);
 +                nspaces(fd, 6);
 +                fprintf(fd, "x0 = %d, x1 = %d, y0 = %d, y1 = %d, nbands = %d\n",
 +                        reslevel->x0, reslevel->x1, reslevel->y0,
 +                        reslevel->y1, reslevel->nbands);
 +                for(bandno = 0; bandno < reslevel->nbands; bandno++){
 +                    J2kBand *band = reslevel->band + bandno;
 +                    nspaces(fd, 8);
 +                    fprintf(fd, "band %d:\n", bandno);
 +                    nspaces(fd, 8);
 +                    fprintf(fd, "x0 = %d, x1 = %d, y0 = %d, y1 = %d,"
 +                                "codeblock_width = %d, codeblock_height = %d cblknx = %d cblkny = %d\n",
 +                                band->x0, band->x1,
 +                                band->y0, band->y1,
 +                                band->codeblock_width, band->codeblock_height,
 +                                band->cblknx, band->cblkny);
 +                    for (precno = 0; precno < reslevel->num_precincts_x * reslevel->num_precincts_y; precno++){
 +                        J2kPrec *prec = band->prec + precno;
 +                        nspaces(fd, 10);
 +                        fprintf(fd, "prec %d:\n", precno);
 +                        nspaces(fd, 10);
 +                        fprintf(fd, "xi0 = %d, xi1 = %d, yi0 = %d, yi1 = %d\n",
 +                                     prec->xi0, prec->xi1, prec->yi0, prec->yi1);
 +                    }
 +                }
 +            }
 +        }
 +    }
 +}
 +#endif
 +
 +/** decode the value stored in node */
 +static int tag_tree_decode(J2kDecoderContext *s, J2kTgtNode *node, int threshold)
 +{
 +    J2kTgtNode *stack[30];
 +    int sp = -1, curval = 0;
 +
 +    if(!node)
 +        return AVERROR(EINVAL);
 +
 +    while(node && !node->vis){
 +        stack[++sp] = node;
 +        node = node->parent;
 +    }
 +
 +    if (node)
 +        curval = node->val;
 +    else
 +        curval = stack[sp]->val;
 +
 +    while(curval < threshold && sp >= 0){
 +        if (curval < stack[sp]->val)
 +            curval = stack[sp]->val;
 +        while (curval < threshold){
 +            int ret;
 +            if ((ret = get_bits(s, 1)) > 0){
 +                stack[sp]->vis++;
 +                break;
 +            } else if (!ret)
 +                curval++;
 +            else
 +                return ret;
 +        }
 +        stack[sp]->val = curval;
 +        sp--;
 +    }
 +    return curval;
 +}
 +
 +/* marker segments */
 +/** get sizes and offsets of image, tiles; number of components */
 +static int get_siz(J2kDecoderContext *s)
 +{
 +    int i, ret;
 +
 +    if (bytestream2_get_bytes_left(&s->g) < 36)
 +        return AVERROR(EINVAL);
 +
 +                        bytestream2_get_be16u(&s->g); // Rsiz (skipped)
 +             s->width = bytestream2_get_be32u(&s->g); // width
 +            s->height = bytestream2_get_be32u(&s->g); // height
 +    s->image_offset_x = bytestream2_get_be32u(&s->g); // X0Siz
 +    s->image_offset_y = bytestream2_get_be32u(&s->g); // Y0Siz
 +
 +        s->tile_width = bytestream2_get_be32u(&s->g); // XTSiz
 +       s->tile_height = bytestream2_get_be32u(&s->g); // YTSiz
 +     s->tile_offset_x = bytestream2_get_be32u(&s->g); // XT0Siz
 +     s->tile_offset_y = bytestream2_get_be32u(&s->g); // YT0Siz
 +       s->ncomponents = bytestream2_get_be16u(&s->g); // CSiz
 +
 +    if(s->ncomponents <= 0 || s->ncomponents > 4) {
 +        av_log(s->avctx, AV_LOG_ERROR, "unsupported/invalid ncomponents: %d\n", s->ncomponents);
 +        return AVERROR(EINVAL);
 +    }
 +    if(s->tile_width<=0 || s->tile_height<=0)
 +        return AVERROR(EINVAL);
 +
 +    if (bytestream2_get_bytes_left(&s->g) < 3 * s->ncomponents)
 +        return AVERROR(EINVAL);
 +
 +    for (i = 0; i < s->ncomponents; i++){ // Ssiz_i XRsiz_i, YRsiz_i
 +        uint8_t x = bytestream2_get_byteu(&s->g);
 +        s->cbps[i] = (x & 0x7f) + 1;
 +        s->precision = FFMAX(s->cbps[i], s->precision);
 +        s->sgnd[i] = !!(x & 0x80);
 +        s->cdx[i] = bytestream2_get_byteu(&s->g);
 +        s->cdy[i] = bytestream2_get_byteu(&s->g);
 +    }
 +
 +    s->numXtiles = ff_j2k_ceildiv(s->width - s->tile_offset_x, s->tile_width);
 +    s->numYtiles = ff_j2k_ceildiv(s->height - s->tile_offset_y, s->tile_height);
 +
 +    if(s->numXtiles * (uint64_t)s->numYtiles > INT_MAX/sizeof(J2kTile))
 +        return AVERROR(EINVAL);
 +
 +    s->tile = av_mallocz(s->numXtiles * s->numYtiles * sizeof(J2kTile));
 +    if (!s->tile)
 +        return AVERROR(ENOMEM);
 +
 +    for (i = 0; i < s->numXtiles * s->numYtiles; i++){
 +        J2kTile *tile = s->tile + i;
 +
 +        tile->comp = av_mallocz(s->ncomponents * sizeof(J2kComponent));
 +        if (!tile->comp)
 +            return AVERROR(ENOMEM);
 +    }
 +
 +    s->avctx->width  = s->width  - s->image_offset_x;
 +    s->avctx->height = s->height - s->image_offset_y;
 +
 +    switch(s->ncomponents){
 +    case 1:
 +        if (s->precision > 8) {
 +            s->avctx->pix_fmt = AV_PIX_FMT_GRAY16;
 +        } else {
 +            s->avctx->pix_fmt = AV_PIX_FMT_GRAY8;
 +        }
 +        break;
 +    case 3:
 +        if (s->precision > 8) {
 +            s->avctx->pix_fmt = AV_PIX_FMT_RGB48;
 +        } else {
 +            s->avctx->pix_fmt = AV_PIX_FMT_RGB24;
 +        }
 +        break;
 +    case 4:
 +        s->avctx->pix_fmt = AV_PIX_FMT_RGBA;
 +        break;
 +    }
 +
 +    if (s->picture.data[0])
 +        s->avctx->release_buffer(s->avctx, &s->picture);
 +
++    if ((ret = ff_get_buffer(s->avctx, &s->picture)) < 0)
 +        return ret;
 +
 +    s->picture.pict_type = AV_PICTURE_TYPE_I;
 +    s->picture.key_frame = 1;
 +
 +    return 0;
 +}
 +
 +/** get common part for COD and COC segments */
 +static int get_cox(J2kDecoderContext *s, J2kCodingStyle *c)
 +{
 +    if (bytestream2_get_bytes_left(&s->g) < 5)
 +        return AVERROR(EINVAL);
 +          c->nreslevels = bytestream2_get_byteu(&s->g) + 1; // num of resolution levels - 1
 +     c->log2_cblk_width = bytestream2_get_byteu(&s->g) + 2; // cblk width
 +    c->log2_cblk_height = bytestream2_get_byteu(&s->g) + 2; // cblk height
 +
 +    c->cblk_style = bytestream2_get_byteu(&s->g);
 +    if (c->cblk_style != 0){ // cblk style
 +        av_log(s->avctx, AV_LOG_WARNING, "extra cblk styles %X\n", c->cblk_style);
 +    }
 +    c->transform = bytestream2_get_byteu(&s->g); // transformation
 +    if (c->csty & J2K_CSTY_PREC) {
 +        int i;
 +
 +        for (i = 0; i < c->nreslevels; i++)
 +            bytestream2_get_byte(&s->g);
 +    }
 +    return 0;
 +}
 +
 +/** get coding parameters for a particular tile or whole image*/
 +static int get_cod(J2kDecoderContext *s, J2kCodingStyle *c, uint8_t *properties)
 +{
 +    J2kCodingStyle tmp;
 +    int compno;
 +
 +    if (bytestream2_get_bytes_left(&s->g) < 5)
 +        return AVERROR(EINVAL);
 +
 +    tmp.log2_prec_width  =
 +    tmp.log2_prec_height = 15;
 +
 +    tmp.csty = bytestream2_get_byteu(&s->g);
 +
 +    if (bytestream2_get_byteu(&s->g)){ // progression level
 +        av_log(s->avctx, AV_LOG_ERROR, "only LRCP progression supported\n");
 +        return -1;
 +    }
 +
 +    tmp.nlayers = bytestream2_get_be16u(&s->g);
 +        tmp.mct = bytestream2_get_byteu(&s->g); // multiple component transformation
 +
 +    get_cox(s, &tmp);
 +    for (compno = 0; compno < s->ncomponents; compno++){
 +        if (!(properties[compno] & HAD_COC))
 +            memcpy(c + compno, &tmp, sizeof(J2kCodingStyle));
 +    }
 +    return 0;
 +}
 +
 +/** get coding parameters for a component in the whole image on a particular tile */
 +static int get_coc(J2kDecoderContext *s, J2kCodingStyle *c, uint8_t *properties)
 +{
 +    int compno;
 +
 +    if (bytestream2_get_bytes_left(&s->g) < 2)
 +        return AVERROR(EINVAL);
 +
 +    compno = bytestream2_get_byteu(&s->g);
 +
 +    c += compno;
 +    c->csty = bytestream2_get_byte(&s->g);
 +    get_cox(s, c);
 +
 +    properties[compno] |= HAD_COC;
 +    return 0;
 +}
 +
 +/** get common part for QCD and QCC segments */
 +static int get_qcx(J2kDecoderContext *s, int n, J2kQuantStyle *q)
 +{
 +    int i, x;
 +
 +    if (bytestream2_get_bytes_left(&s->g) < 1)
 +        return AVERROR(EINVAL);
 +
 +    x = bytestream2_get_byteu(&s->g); // Sqcd
 +
 +    q->nguardbits = x >> 5;
 +      q->quantsty = x & 0x1f;
 +
 +    if (q->quantsty == J2K_QSTY_NONE){
 +        n -= 3;
 +        if (bytestream2_get_bytes_left(&s->g) < n || 32*3 < n)
 +            return AVERROR(EINVAL);
 +        for (i = 0; i < n; i++)
 +            q->expn[i] = bytestream2_get_byteu(&s->g) >> 3;
 +    } else if (q->quantsty == J2K_QSTY_SI){
 +        if (bytestream2_get_bytes_left(&s->g) < 2)
 +            return AVERROR(EINVAL);
 +        x = bytestream2_get_be16u(&s->g);
 +        q->expn[0] = x >> 11;
 +        q->mant[0] = x & 0x7ff;
 +        for (i = 1; i < 32 * 3; i++){
 +            int curexpn = FFMAX(0, q->expn[0] - (i-1)/3);
 +            q->expn[i] = curexpn;
 +            q->mant[i] = q->mant[0];
 +        }
 +    } else{
 +        n = (n - 3) >> 1;
 +        if (bytestream2_get_bytes_left(&s->g) < 2 * n || 32*3 < n)
 +            return AVERROR(EINVAL);
 +        for (i = 0; i < n; i++){
 +            x = bytestream2_get_be16u(&s->g);
 +            q->expn[i] = x >> 11;
 +            q->mant[i] = x & 0x7ff;
 +        }
 +    }
 +    return 0;
 +}
 +
 +/** get quantization parameters for a particular tile or a whole image */
 +static int get_qcd(J2kDecoderContext *s, int n, J2kQuantStyle *q, uint8_t *properties)
 +{
 +    J2kQuantStyle tmp;
 +    int compno;
 +
 +    if (get_qcx(s, n, &tmp))
 +        return -1;
 +    for (compno = 0; compno < s->ncomponents; compno++)
 +        if (!(properties[compno] & HAD_QCC))
 +            memcpy(q + compno, &tmp, sizeof(J2kQuantStyle));
 +    return 0;
 +}
 +
 +/** get quantization parameters for a component in the whole image on in a particular tile */
 +static int get_qcc(J2kDecoderContext *s, int n, J2kQuantStyle *q, uint8_t *properties)
 +{
 +    int compno;
 +
 +    if (bytestream2_get_bytes_left(&s->g) < 1)
 +        return AVERROR(EINVAL);
 +
 +    compno = bytestream2_get_byteu(&s->g);
 +    properties[compno] |= HAD_QCC;
 +    return get_qcx(s, n-1, q+compno);
 +}
 +
 +/** get start of tile segment */
 +static uint8_t get_sot(J2kDecoderContext *s)
 +{
 +    if (bytestream2_get_bytes_left(&s->g) < 8)
 +        return AVERROR(EINVAL);
 +
 +    s->curtileno = bytestream2_get_be16u(&s->g); ///< Isot
 +    if((unsigned)s->curtileno >= s->numXtiles * s->numYtiles){
 +        s->curtileno=0;
 +        return AVERROR(EINVAL);
 +    }
 +
 +    bytestream2_skipu(&s->g, 4); ///< Psot (ignored)
 +
 +    if (!bytestream2_get_byteu(&s->g)){ ///< TPsot
 +        J2kTile *tile = s->tile + s->curtileno;
 +
 +        /* copy defaults */
 +        memcpy(tile->codsty, s->codsty, s->ncomponents * sizeof(J2kCodingStyle));
 +        memcpy(tile->qntsty, s->qntsty, s->ncomponents * sizeof(J2kQuantStyle));
 +    }
 +    bytestream2_get_byteu(&s->g); ///< TNsot
 +
 +    return 0;
 +}
 +
 +static int init_tile(J2kDecoderContext *s, int tileno)
 +{
 +    int compno,
 +        tilex = tileno % s->numXtiles,
 +        tiley = tileno / s->numXtiles;
 +    J2kTile *tile = s->tile + tileno;
 +
 +    if (!tile->comp)
 +        return AVERROR(ENOMEM);
 +    for (compno = 0; compno < s->ncomponents; compno++){
 +        J2kComponent *comp = tile->comp + compno;
 +        J2kCodingStyle *codsty = tile->codsty + compno;
 +        J2kQuantStyle  *qntsty = tile->qntsty + compno;
 +        int ret; // global bandno
 +
 +        comp->coord[0][0] = FFMAX(tilex * s->tile_width + s->tile_offset_x, s->image_offset_x);
 +        comp->coord[0][1] = FFMIN((tilex+1)*s->tile_width + s->tile_offset_x, s->width);
 +        comp->coord[1][0] = FFMAX(tiley * s->tile_height + s->tile_offset_y, s->image_offset_y);
 +        comp->coord[1][1] = FFMIN((tiley+1)*s->tile_height + s->tile_offset_y, s->height);
 +
 +        if (ret = ff_j2k_init_component(comp, codsty, qntsty, s->cbps[compno], s->cdx[compno], s->cdy[compno]))
 +            return ret;
 +    }
 +    return 0;
 +}
 +
 +/** read the number of coding passes */
 +static int getnpasses(J2kDecoderContext *s)
 +{
 +    int num;
 +    if (!get_bits(s, 1))
 +        return 1;
 +    if (!get_bits(s, 1))
 +        return 2;
 +    if ((num = get_bits(s, 2)) != 3)
 +        return num < 0 ? num : 3 + num;
 +    if ((num = get_bits(s, 5)) != 31)
 +        return num < 0 ? num : 6 + num;
 +    num = get_bits(s, 7);
 +    return num < 0 ? num : 37 + num;
 +}
 +
 +static int getlblockinc(J2kDecoderContext *s)
 +{
 +    int res = 0, ret;
 +    while (ret = get_bits(s, 1)){
 +        if (ret < 0)
 +            return ret;
 +        res++;
 +    }
 +    return res;
 +}
 +
 +static int decode_packet(J2kDecoderContext *s, J2kCodingStyle *codsty, J2kResLevel *rlevel, int precno,
 +                         int layno, uint8_t *expn, int numgbits)
 +{
 +    int bandno, cblkny, cblknx, cblkno, ret;
 +
 +    if (!(ret = get_bits(s, 1))){
 +        j2k_flush(s);
 +        return 0;
 +    } else if (ret < 0)
 +        return ret;
 +
 +    for (bandno = 0; bandno < rlevel->nbands; bandno++){
 +        J2kBand *band = rlevel->band + bandno;
 +        J2kPrec *prec = band->prec + precno;
 +        int pos = 0;
 +
 +        if (band->coord[0][0] == band->coord[0][1]
 +        ||  band->coord[1][0] == band->coord[1][1])
 +            continue;
 +
 +        for (cblkny = prec->yi0; cblkny < prec->yi1; cblkny++)
 +            for(cblknx = prec->xi0, cblkno = cblkny * band->cblknx + cblknx; cblknx < prec->xi1; cblknx++, cblkno++, pos++){
 +                J2kCblk *cblk = band->cblk + cblkno;
 +                int incl, newpasses, llen;
 +
 +                if (cblk->npasses)
 +                    incl = get_bits(s, 1);
 +                else
 +                    incl = tag_tree_decode(s, prec->cblkincl + pos, layno+1) == layno;
 +                if (!incl)
 +                    continue;
 +                else if (incl < 0)
 +                    return incl;
 +
 +                if (!cblk->npasses)
 +                    cblk->nonzerobits = expn[bandno] + numgbits - 1 - tag_tree_decode(s, prec->zerobits + pos, 100);
 +                if ((newpasses = getnpasses(s)) < 0)
 +                    return newpasses;
 +                if ((llen = getlblockinc(s)) < 0)
 +                    return llen;
 +                cblk->lblock += llen;
 +                if ((ret = get_bits(s, av_log2(newpasses) + cblk->lblock)) < 0)
 +                    return ret;
 +                cblk->lengthinc = ret;
 +                cblk->npasses += newpasses;
 +            }
 +    }
 +    j2k_flush(s);
 +
 +    if (codsty->csty & J2K_CSTY_EPH) {
 +        if (bytestream2_peek_be16(&s->g) == J2K_EPH) {
 +            bytestream2_skip(&s->g, 2);
 +        } else {
 +            av_log(s->avctx, AV_LOG_ERROR, "EPH marker not found.\n");
 +        }
 +    }
 +
 +    for (bandno = 0; bandno < rlevel->nbands; bandno++){
 +        J2kBand *band = rlevel->band + bandno;
 +        int yi, cblknw = band->prec[precno].xi1 - band->prec[precno].xi0;
 +        for (yi = band->prec[precno].yi0; yi < band->prec[precno].yi1; yi++){
 +            int xi;
 +            for (xi = band->prec[precno].xi0; xi < band->prec[precno].xi1; xi++){
 +                J2kCblk *cblk = band->cblk + yi * cblknw + xi;
 +                if (bytestream2_get_bytes_left(&s->g) < cblk->lengthinc)
 +                    return AVERROR(EINVAL);
 +                bytestream2_get_bufferu(&s->g, cblk->data, cblk->lengthinc);
 +                cblk->length += cblk->lengthinc;
 +                cblk->lengthinc = 0;
 +            }
 +        }
 +    }
 +    return 0;
 +}
 +
 +static int decode_packets(J2kDecoderContext *s, J2kTile *tile)
 +{
 +    int layno, reslevelno, compno, precno, ok_reslevel;
 +    s->bit_index = 8;
 +    for (layno = 0; layno < tile->codsty[0].nlayers; layno++){
 +        ok_reslevel = 1;
 +        for (reslevelno = 0; ok_reslevel; reslevelno++){
 +            ok_reslevel = 0;
 +            for (compno = 0; compno < s->ncomponents; compno++){
 +                J2kCodingStyle *codsty = tile->codsty + compno;
 +                J2kQuantStyle  *qntsty = tile->qntsty + compno;
 +                if (reslevelno < codsty->nreslevels){
 +                    J2kResLevel *rlevel = tile->comp[compno].reslevel + reslevelno;
 +                    ok_reslevel = 1;
 +                    for (precno = 0; precno < rlevel->num_precincts_x * rlevel->num_precincts_y; precno++){
 +                        if (decode_packet(s, codsty, rlevel, precno, layno, qntsty->expn +
 +                                          (reslevelno ? 3*(reslevelno-1)+1 : 0), qntsty->nguardbits))
 +                            return -1;
 +                    }
 +                }
 +            }
 +        }
 +    }
 +    return 0;
 +}
 +
 +/* TIER-1 routines */
 +static void decode_sigpass(J2kT1Context *t1, int width, int height, int bpno, int bandno, int bpass_csty_symbol,
 +                           int vert_causal_ctx_csty_symbol)
 +{
 +    int mask = 3 << (bpno - 1), y0, x, y;
 +
 +    for (y0 = 0; y0 < height; y0 += 4)
 +        for (x = 0; x < width; x++)
 +            for (y = y0; y < height && y < y0+4; y++){
 +                if ((t1->flags[y+1][x+1] & J2K_T1_SIG_NB)
 +                && !(t1->flags[y+1][x+1] & (J2K_T1_SIG | J2K_T1_VIS))){
 +                    int vert_causal_ctx_csty_loc_symbol = vert_causal_ctx_csty_symbol && (x == 3 && y == 3);
 +                    if (ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + ff_j2k_getnbctxno(t1->flags[y+1][x+1], bandno,
 +                                      vert_causal_ctx_csty_loc_symbol))){
 +                        int xorbit, ctxno = ff_j2k_getsgnctxno(t1->flags[y+1][x+1], &xorbit);
 +                        if (bpass_csty_symbol)
 +                             t1->data[y][x] = ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + ctxno) ? -mask : mask;
 +                        else
 +                             t1->data[y][x] = (ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + ctxno) ^ xorbit) ?
 +                                               -mask : mask;
 +
 +                        ff_j2k_set_significant(t1, x, y, t1->data[y][x] < 0);
 +                    }
 +                    t1->flags[y+1][x+1] |= J2K_T1_VIS;
 +                }
 +            }
 +}
 +
 +static void decode_refpass(J2kT1Context *t1, int width, int height, int bpno)
 +{
 +    int phalf, nhalf;
 +    int y0, x, y;
 +
 +    phalf = 1 << (bpno - 1);
 +    nhalf = -phalf;
 +
 +    for (y0 = 0; y0 < height; y0 += 4)
 +        for (x = 0; x < width; x++)
 +            for (y = y0; y < height && y < y0+4; y++){
 +                if ((t1->flags[y+1][x+1] & (J2K_T1_SIG | J2K_T1_VIS)) == J2K_T1_SIG){
 +                    int ctxno = ff_j2k_getrefctxno(t1->flags[y+1][x+1]);
 +                    int r = ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + ctxno) ? phalf : nhalf;
 +                    t1->data[y][x] += t1->data[y][x] < 0 ? -r : r;
 +                    t1->flags[y+1][x+1] |= J2K_T1_REF;
 +                }
 +            }
 +}
 +
 +static void decode_clnpass(J2kDecoderContext *s, J2kT1Context *t1, int width, int height,
 +                           int bpno, int bandno, int seg_symbols)
 +{
 +    int mask = 3 << (bpno - 1), y0, x, y, runlen, dec;
 +
 +    for (y0 = 0; y0 < height; y0 += 4) {
 +        for (x = 0; x < width; x++){
 +            if (y0 + 3 < height && !(
 +            (t1->flags[y0+1][x+1] & (J2K_T1_SIG_NB | J2K_T1_VIS | J2K_T1_SIG)) ||
 +            (t1->flags[y0+2][x+1] & (J2K_T1_SIG_NB | J2K_T1_VIS | J2K_T1_SIG)) ||
 +            (t1->flags[y0+3][x+1] & (J2K_T1_SIG_NB | J2K_T1_VIS | J2K_T1_SIG)) ||
 +            (t1->flags[y0+4][x+1] & (J2K_T1_SIG_NB | J2K_T1_VIS | J2K_T1_SIG)))){
 +                if (!ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + MQC_CX_RL))
 +                    continue;
 +                runlen = ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + MQC_CX_UNI);
 +                runlen = (runlen << 1) | ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + MQC_CX_UNI);
 +                dec = 1;
 +            } else{
 +                runlen = 0;
 +                dec = 0;
 +            }
 +
 +            for (y = y0 + runlen; y < y0 + 4 && y < height; y++){
 +                if (!dec){
 +                    if (!(t1->flags[y+1][x+1] & (J2K_T1_SIG | J2K_T1_VIS)))
 +                        dec = ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + ff_j2k_getnbctxno(t1->flags[y+1][x+1],
 +                                                                                             bandno, 0));
 +                }
 +                if (dec){
 +                    int xorbit, ctxno = ff_j2k_getsgnctxno(t1->flags[y+1][x+1], &xorbit);
 +                    t1->data[y][x] = (ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + ctxno) ^ xorbit) ? -mask : mask;
 +                    ff_j2k_set_significant(t1, x, y, t1->data[y][x] < 0);
 +                }
 +                dec = 0;
 +                t1->flags[y+1][x+1] &= ~J2K_T1_VIS;
 +            }
 +        }
 +    }
 +    if (seg_symbols) {
 +        int val;
 +        val = ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + MQC_CX_UNI);
 +        val = (val << 1) + ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + MQC_CX_UNI);
 +        val = (val << 1) + ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + MQC_CX_UNI);
 +        val = (val << 1) + ff_mqc_decode(&t1->mqc, t1->mqc.cx_states + MQC_CX_UNI);
 +        if (val != 0xa) {
 +            av_log(s->avctx, AV_LOG_ERROR,"Segmentation symbol value incorrect\n");
 +        }
 +    }
 +}
 +
 +static int decode_cblk(J2kDecoderContext *s, J2kCodingStyle *codsty, J2kT1Context *t1, J2kCblk *cblk,
 +                       int width, int height, int bandpos)
 +{
 +    int passno = cblk->npasses, pass_t = 2, bpno = cblk->nonzerobits - 1, y, clnpass_cnt = 0;
 +    int bpass_csty_symbol = J2K_CBLK_BYPASS & codsty->cblk_style;
 +    int vert_causal_ctx_csty_symbol = J2K_CBLK_VSC & codsty->cblk_style;
 +
 +    for (y = 0; y < height+2; y++)
 +        memset(t1->flags[y], 0, (width+2)*sizeof(int));
 +
 +    for (y = 0; y < height; y++)
 +        memset(t1->data[y], 0, width*sizeof(int));
 +
 +    cblk->data[cblk->length] = 0xff;
 +    cblk->data[cblk->length+1] = 0xff;
 +    ff_mqc_initdec(&t1->mqc, cblk->data);
 +
 +    while(passno--){
 +        switch(pass_t){
 +            case 0: decode_sigpass(t1, width, height, bpno+1, bandpos,
 +                                  bpass_csty_symbol && (clnpass_cnt >= 4), vert_causal_ctx_csty_symbol);
 +                    break;
 +            case 1: decode_refpass(t1, width, height, bpno+1);
 +                    if (bpass_csty_symbol && clnpass_cnt >= 4)
 +                        ff_mqc_initdec(&t1->mqc, cblk->data);
 +                    break;
 +            case 2: decode_clnpass(s, t1, width, height, bpno+1, bandpos,
 +                                   codsty->cblk_style & J2K_CBLK_SEGSYM);
 +                    clnpass_cnt = clnpass_cnt + 1;
 +                    if (bpass_csty_symbol && clnpass_cnt >= 4)
 +                       ff_mqc_initdec(&t1->mqc, cblk->data);
 +                    break;
 +        }
 +
 +        pass_t++;
 +        if (pass_t == 3){
 +            bpno--;
 +            pass_t = 0;
 +        }
 +    }
 +    return 0;
 +}
 +
 +static void mct_decode(J2kDecoderContext *s, J2kTile *tile)
 +{
 +    int i, *src[3], i0, i1, i2, csize = 1;
 +
 +    for (i = 0; i < 3; i++)
 +        src[i] = tile->comp[i].data;
 +
 +    for (i = 0; i < 2; i++)
 +        csize *= tile->comp[0].coord[i][1] - tile->comp[0].coord[i][0];
 +
 +    if (tile->codsty[0].transform == FF_DWT97){
 +        for (i = 0; i < csize; i++){
 +            i0 = *src[0] + (*src[2] * 46802 >> 16);
 +            i1 = *src[0] - (*src[1] * 22553 + *src[2] * 46802 >> 16);
 +            i2 = *src[0] + (116130 * *src[1] >> 16);
 +            *src[0]++ = i0;
 +            *src[1]++ = i1;
 +            *src[2]++ = i2;
 +        }
 +    } else{
 +        for (i = 0; i < csize; i++){
 +            i1 = *src[0] - (*src[2] + *src[1] >> 2);
 +            i0 = i1 + *src[2];
 +            i2 = i1 + *src[1];
 +            *src[0]++ = i0;
 +            *src[1]++ = i1;
 +            *src[2]++ = i2;
 +        }
 +    }
 +}
 +
 +static int decode_tile(J2kDecoderContext *s, J2kTile *tile)
 +{
 +    int compno, reslevelno, bandno;
 +    int x, y, *src[4];
 +    uint8_t *line;
 +    J2kT1Context t1;
 +
 +    for (compno = 0; compno < s->ncomponents; compno++){
 +        J2kComponent *comp = tile->comp + compno;
 +        J2kCodingStyle *codsty = tile->codsty + compno;
 +
 +        for (reslevelno = 0; reslevelno < codsty->nreslevels; reslevelno++){
 +            J2kResLevel *rlevel = comp->reslevel + reslevelno;
 +            for (bandno = 0; bandno < rlevel->nbands; bandno++){
 +                J2kBand *band = rlevel->band + bandno;
 +                int cblkx, cblky, cblkno=0, xx0, x0, xx1, y0, yy0, yy1, bandpos;
 +
 +                bandpos = bandno + (reslevelno > 0);
 +
 +                yy0 = bandno == 0 ? 0 : comp->reslevel[reslevelno-1].coord[1][1] - comp->reslevel[reslevelno-1].coord[1][0];
 +                y0 = yy0;
 +                yy1 = FFMIN(ff_j2k_ceildiv(band->coord[1][0] + 1, band->codeblock_height) * band->codeblock_height,
 +                            band->coord[1][1]) - band->coord[1][0] + yy0;
 +
 +                if (band->coord[0][0] == band->coord[0][1] || band->coord[1][0] == band->coord[1][1])
 +                    continue;
 +
 +                for (cblky = 0; cblky < band->cblkny; cblky++){
 +                    if (reslevelno == 0 || bandno == 1)
 +                        xx0 = 0;
 +                    else
 +                        xx0 = comp->reslevel[reslevelno-1].coord[0][1] - comp->reslevel[reslevelno-1].coord[0][0];
 +                    x0 = xx0;
 +                    xx1 = FFMIN(ff_j2k_ceildiv(band->coord[0][0] + 1, band->codeblock_width) * band->codeblock_width,
 +                                band->coord[0][1]) - band->coord[0][0] + xx0;
 +
 +                    for (cblkx = 0; cblkx < band->cblknx; cblkx++, cblkno++){
 +                        int y, x;
 +                        decode_cblk(s, codsty, &t1, band->cblk + cblkno, xx1 - xx0, yy1 - yy0, bandpos);
 +                        if (codsty->transform == FF_DWT53){
 +                            for (y = yy0; y < yy1; y+=s->cdy[compno]){
 +                                int *ptr = t1.data[y-yy0];
 +                                for (x = xx0; x < xx1; x+=s->cdx[compno]){
 +                                    comp->data[(comp->coord[0][1] - comp->coord[0][0]) * y + x] = *ptr++ >> 1;
 +                                }
 +                            }
 +                        } else{
 +                            for (y = yy0; y < yy1; y+=s->cdy[compno]){
 +                                int *ptr = t1.data[y-yy0];
 +                                for (x = xx0; x < xx1; x+=s->cdx[compno]){
 +                                    int tmp = ((int64_t)*ptr++) * ((int64_t)band->stepsize) >> 13, tmp2;
 +                                    tmp2 = FFABS(tmp>>1) + (tmp&1);
 +                                    comp->data[(comp->coord[0][1] - comp->coord[0][0]) * y + x] = tmp < 0 ? -tmp2 : tmp2;
 +                                }
 +                            }
 +                        }
 +                        xx0 = xx1;
 +                        xx1 = FFMIN(xx1 + band->codeblock_width, band->coord[0][1] - band->coord[0][0] + x0);
 +                    }
 +                    yy0 = yy1;
 +                    yy1 = FFMIN(yy1 + band->codeblock_height, band->coord[1][1] - band->coord[1][0] + y0);
 +                }
 +            }
 +        }
 +        ff_j2k_dwt_decode(&comp->dwt, comp->data);
 +        src[compno] = comp->data;
 +    }
 +    if (tile->codsty[0].mct)
 +        mct_decode(s, tile);
 +
 +    if (s->precision <= 8) {
 +        for (compno = 0; compno < s->ncomponents; compno++){
 +            y = tile->comp[compno].coord[1][0] - s->image_offset_y;
 +            line = s->picture.data[0] + y * s->picture.linesize[0];
 +            for (; y < tile->comp[compno].coord[1][1] - s->image_offset_y; y += s->cdy[compno]){
 +                uint8_t *dst;
 +
 +                x = tile->comp[compno].coord[0][0] - s->image_offset_x;
 +                dst = line + x * s->ncomponents + compno;
 +
 +                for (; x < tile->comp[compno].coord[0][1] - s->image_offset_x; x += s->cdx[compno]) {
 +                    *src[compno] += 1 << (s->cbps[compno]-1);
 +                    if (*src[compno] < 0)
 +                        *src[compno] = 0;
 +                    else if (*src[compno] >= (1 << s->cbps[compno]))
 +                        *src[compno] = (1 << s->cbps[compno]) - 1;
 +                    *dst = *src[compno]++;
 +                    dst += s->ncomponents;
 +                }
 +                line += s->picture.linesize[0];
 +            }
 +        }
 +    } else {
 +        for (compno = 0; compno < s->ncomponents; compno++) {
 +            y = tile->comp[compno].coord[1][0] - s->image_offset_y;
 +            line = s->picture.data[0] + y * s->picture.linesize[0];
 +            for (; y < tile->comp[compno].coord[1][1] - s->image_offset_y; y += s->cdy[compno]) {
 +                uint16_t *dst;
 +
 +                x = tile->comp[compno].coord[0][0] - s->image_offset_x;
 +                dst = (uint16_t *)(line + (x * s->ncomponents + compno) * 2);
 +                for (; x < tile->comp[compno].coord[0][1] - s->image_offset_x; x += s-> cdx[compno]) {
 +                    int32_t val;
 +
 +                    val = *src[compno]++ << (16 - s->cbps[compno]);
 +                    val += 1 << 15;
 +                    val = av_clip(val, 0, (1 << 16) - 1);
 +                    *dst = val;
 +                    dst += s->ncomponents;
 +                }
 +                line += s->picture.linesize[0];
 +            }
 +        }
 +    }
 +    return 0;
 +}
 +
 +static void cleanup(J2kDecoderContext *s)
 +{
 +    int tileno, compno;
 +    for (tileno = 0; tileno < s->numXtiles * s->numYtiles; tileno++){
 +        for (compno = 0; compno < s->ncomponents; compno++){
 +            J2kComponent *comp = s->tile[tileno].comp + compno;
 +            J2kCodingStyle *codsty = s->tile[tileno].codsty + compno;
 +
 +            ff_j2k_cleanup(comp, codsty);
 +        }
 +        av_freep(&s->tile[tileno].comp);
 +    }
 +    av_freep(&s->tile);
 +}
 +
 +static int decode_codestream(J2kDecoderContext *s)
 +{
 +    J2kCodingStyle *codsty = s->codsty;
 +    J2kQuantStyle  *qntsty = s->qntsty;
 +    uint8_t *properties = s->properties;
 +
 +    for (;;){
 +        int oldpos, marker, len, ret = 0;
 +
 +        if (bytestream2_get_bytes_left(&s->g) < 2){
 +            av_log(s->avctx, AV_LOG_ERROR, "Missing EOC\n");
 +            break;
 +        }
 +
 +        marker = bytestream2_get_be16u(&s->g);
 +        av_dlog(s->avctx, "marker 0x%.4X at pos 0x%x\n", marker, bytestream2_tell(&s->g) - 4);
 +        oldpos = bytestream2_tell(&s->g);
 +
 +        if (marker == J2K_SOD){
 +            J2kTile *tile = s->tile + s->curtileno;
 +            if (ret = init_tile(s, s->curtileno)) {
 +                av_log(s->avctx, AV_LOG_ERROR, "tile initialization failed\n");
 +                return ret;
 +            }
 +            if (ret = decode_packets(s, tile)) {
 +                av_log(s->avctx, AV_LOG_ERROR, "packets decoding failed\n");
 +                return ret;
 +            }
 +            continue;
 +        }
 +        if (marker == J2K_EOC)
 +            break;
 +
 +        if (bytestream2_get_bytes_left(&s->g) < 2)
 +            return AVERROR(EINVAL);
 +        len = bytestream2_get_be16u(&s->g);
 +        switch (marker){
 +        case J2K_SIZ:
 +            ret = get_siz(s);
 +            break;
 +        case J2K_COC:
 +            ret = get_coc(s, codsty, properties);
 +            break;
 +        case J2K_COD:
 +            ret = get_cod(s, codsty, properties);
 +            break;
 +        case J2K_QCC:
 +            ret = get_qcc(s, len, qntsty, properties);
 +            break;
 +        case J2K_QCD:
 +            ret = get_qcd(s, len, qntsty, properties);
 +            break;
 +        case J2K_SOT:
 +            if (!(ret = get_sot(s))){
 +                codsty = s->tile[s->curtileno].codsty;
 +                qntsty = s->tile[s->curtileno].qntsty;
 +                properties = s->tile[s->curtileno].properties;
 +            }
 +            break;
 +        case J2K_COM:
 +            // the comment is ignored
 +            bytestream2_skip(&s->g, len - 2);
 +            break;
 +        default:
 +            av_log(s->avctx, AV_LOG_ERROR, "unsupported marker 0x%.4X at pos 0x%x\n", marker, bytestream2_tell(&s->g) - 4);
 +            bytestream2_skip(&s->g, len - 2);
 +            break;
 +        }
 +        if (bytestream2_tell(&s->g) - oldpos != len || ret){
 +            av_log(s->avctx, AV_LOG_ERROR, "error during processing marker segment %.4x\n", marker);
 +            return ret ? ret : -1;
 +        }
 +    }
 +    return 0;
 +}
 +
 +static int jp2_find_codestream(J2kDecoderContext *s)
 +{
 +    uint32_t atom_size, atom;
 +    int found_codestream = 0, search_range = 10;
 +
 +    while(!found_codestream && search_range && bytestream2_get_bytes_left(&s->g) >= 8) {
 +        atom_size = bytestream2_get_be32u(&s->g);
 +        atom      = bytestream2_get_be32u(&s->g);
 +        if (atom == JP2_CODESTREAM) {
 +            found_codestream = 1;
 +        } else {
 +            if (bytestream2_get_bytes_left(&s->g) < atom_size - 8)
 +                return 0;
 +            bytestream2_skipu(&s->g, atom_size - 8);
 +            search_range--;
 +        }
 +    }
 +
 +    if (found_codestream)
 +        return 1;
 +    return 0;
 +}
 +
 +static int decode_frame(AVCodecContext *avctx,
 +                        void *data, int *data_size,
 +                        AVPacket *avpkt)
 +{
 +    J2kDecoderContext *s = avctx->priv_data;
 +    AVFrame *picture = data;
 +    int tileno, ret;
 +
 +    bytestream2_init(&s->g, avpkt->data, avpkt->size);
 +    s->curtileno = -1;
 +
 +    if (bytestream2_get_bytes_left(&s->g) < 2) {
 +        ret = AVERROR(EINVAL);
 +        goto err_out;
 +    }
 +
 +    // check if the image is in jp2 format
 +    if (bytestream2_get_bytes_left(&s->g) >= 12 &&
 +       (bytestream2_get_be32u(&s->g) == 12) &&
 +       (bytestream2_get_be32u(&s->g) == JP2_SIG_TYPE) &&
 +       (bytestream2_get_be32u(&s->g) == JP2_SIG_VALUE)) {
 +        if(!jp2_find_codestream(s)) {
 +            av_log(avctx, AV_LOG_ERROR, "couldn't find jpeg2k codestream atom\n");
 +            ret = -1;
 +            goto err_out;
 +        }
 +    } else {
 +        bytestream2_seek(&s->g, 0, SEEK_SET);
 +    }
 +
 +    if (bytestream2_get_be16u(&s->g) != J2K_SOC){
 +        av_log(avctx, AV_LOG_ERROR, "SOC marker not present\n");
 +        ret = -1;
 +        goto err_out;
 +    }
 +    if (ret = decode_codestream(s))
 +        goto err_out;
 +
 +    for (tileno = 0; tileno < s->numXtiles * s->numYtiles; tileno++)
 +        if (ret = decode_tile(s, s->tile + tileno))
 +            goto err_out;
 +
 +    cleanup(s);
 +
 +    *data_size = sizeof(AVPicture);
 +    *picture = s->picture;
 +
 +    return bytestream2_tell(&s->g);
 +
 +err_out:
 +    cleanup(s);
 +    return ret;
 +}
 +
 +static av_cold int j2kdec_init(AVCodecContext *avctx)
 +{
 +    J2kDecoderContext *s = avctx->priv_data;
 +
 +    s->avctx = avctx;
 +    avcodec_get_frame_defaults((AVFrame*)&s->picture);
 +    avctx->coded_frame = (AVFrame*)&s->picture;
 +
 +    ff_j2k_init_tier1_luts();
 +
 +    return 0;
 +}
 +
 +static av_cold int decode_end(AVCodecContext *avctx)
 +{
 +    J2kDecoderContext *s = avctx->priv_data;
 +
 +    if (s->picture.data[0])
 +        avctx->release_buffer(avctx, &s->picture);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_jpeg2000_decoder = {
 +    .name           = "j2k",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_JPEG2000,
 +    .priv_data_size = sizeof(J2kDecoderContext),
 +    .init           = j2kdec_init,
 +    .close          = decode_end,
 +    .decode         = decode_frame,
 +    .capabilities   = CODEC_CAP_EXPERIMENTAL,
 +    .long_name      = NULL_IF_CONFIG_SMALL("JPEG 2000"),
 +};
Simple merge
index 2046d28f2ee799c12ad45afd86f0db7c83299121,2598590956e4642ffb0de84e14ac385441508390..ebaaa84d94eeb25980afb9242346e981f6ca3f10
@@@ -272,11 -256,11 +273,11 @@@ static int decode_frame(AVCodecContext 
      if (ctx->pic.data[0])
          avctx->release_buffer(avctx, &ctx->pic);
  
 -    ctx->pic.reference = 1;
 +    ctx->pic.reference = 3;
      ctx->pic.buffer_hints = FF_BUFFER_HINTS_VALID;
-     if ((ret = avctx->get_buffer(avctx, &ctx->pic)) < 0) {
 -    if (ff_get_buffer(avctx, &ctx->pic) < 0) {
++    if ((ret = ff_get_buffer(avctx, &ctx->pic)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +        return ret;
      }
  
      header = bytestream2_get_byte(&ctx->g);
Simple merge
index 18b7a5e92cd7023ad339ca56ef4b9602abbc1ed9,0000000000000000000000000000000000000000..03330324eced7e6a15f702a275698ae286bcb63a
mode 100644,000000..100644
--- /dev/null
@@@ -1,145 -1,0 +1,145 @@@
-     err = c->get_buffer(c, &celt->frame);
 +/*
 + * Xiph CELT decoder using libcelt
 + * Copyright (c) 2011 Nicolas George
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include <celt/celt.h>
 +#include <celt/celt_header.h>
 +#include "avcodec.h"
 +#include "libavutil/intreadwrite.h"
 +
 +struct libcelt_context {
 +    CELTMode *mode;
 +    CELTDecoder *dec;
 +    AVFrame frame;
 +    int discard;
 +};
 +
 +static int ff_celt_error_to_averror(int err)
 +{
 +    switch (err) {
 +        case CELT_BAD_ARG:          return AVERROR(EINVAL);
 +#ifdef CELT_BUFFER_TOO_SMALL
 +        case CELT_BUFFER_TOO_SMALL: return AVERROR(ENOBUFS);
 +#endif
 +        case CELT_INTERNAL_ERROR:   return AVERROR(EFAULT);
 +        case CELT_CORRUPTED_DATA:   return AVERROR_INVALIDDATA;
 +        case CELT_UNIMPLEMENTED:    return AVERROR(ENOSYS);
 +#ifdef ENOTRECOVERABLE
 +        case CELT_INVALID_STATE:    return AVERROR(ENOTRECOVERABLE);
 +#endif
 +        case CELT_ALLOC_FAIL:       return AVERROR(ENOMEM);
 +        default:                    return AVERROR(EINVAL);
 +    }
 +}
 +
 +static int ff_celt_bitstream_version_hack(CELTMode *mode)
 +{
 +    CELTHeader header = { .version_id = 0 };
 +    celt_header_init(&header, mode, 960, 2);
 +    return header.version_id;
 +}
 +
 +static av_cold int libcelt_dec_init(AVCodecContext *c)
 +{
 +    struct libcelt_context *celt = c->priv_data;
 +    int err;
 +
 +    if (!c->channels || !c->frame_size ||
 +        c->frame_size > INT_MAX / sizeof(int16_t) / c->channels)
 +        return AVERROR(EINVAL);
 +    celt->mode = celt_mode_create(c->sample_rate, c->frame_size, &err);
 +    if (!celt->mode)
 +        return ff_celt_error_to_averror(err);
 +    celt->dec = celt_decoder_create_custom(celt->mode, c->channels, &err);
 +    if (!celt->dec) {
 +        celt_mode_destroy(celt->mode);
 +        return ff_celt_error_to_averror(err);
 +    }
 +    if (c->extradata_size >= 4) {
 +        celt->discard = AV_RL32(c->extradata);
 +        if (celt->discard < 0 || celt->discard >= c->frame_size) {
 +            av_log(c, AV_LOG_WARNING,
 +                   "Invalid overlap (%d), ignored.\n", celt->discard);
 +            celt->discard = 0;
 +        }
 +    }
 +    if (c->extradata_size >= 8) {
 +        unsigned version = AV_RL32(c->extradata + 4);
 +        unsigned lib_version = ff_celt_bitstream_version_hack(celt->mode);
 +        if (version != lib_version)
 +            av_log(c, AV_LOG_WARNING,
 +                   "CELT bitstream version 0x%x may be "
 +                   "improperly decoded by libcelt for version 0x%x.\n",
 +                   version, lib_version);
 +    }
 +    c->sample_fmt = AV_SAMPLE_FMT_S16;
 +    avcodec_get_frame_defaults(&celt->frame);
 +    c->coded_frame = &celt->frame;
 +    return 0;
 +}
 +
 +static av_cold int libcelt_dec_close(AVCodecContext *c)
 +{
 +    struct libcelt_context *celt = c->priv_data;
 +
 +    celt_decoder_destroy(celt->dec);
 +    celt_mode_destroy(celt->mode);
 +    return 0;
 +}
 +
 +static int libcelt_dec_decode(AVCodecContext *c, void *frame,
 +                              int *got_frame_ptr, AVPacket *pkt)
 +{
 +    struct libcelt_context *celt = c->priv_data;
 +    int err;
 +    int16_t *pcm;
 +
 +    celt->frame.nb_samples = c->frame_size;
++    err = ff_get_buffer(c, &celt->frame);
 +    if (err < 0) {
 +        av_log(c, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return err;
 +    }
 +    pcm = (int16_t *)celt->frame.data[0];
 +    err = celt_decode(celt->dec, pkt->data, pkt->size, pcm, c->frame_size);
 +    if (err < 0)
 +        return ff_celt_error_to_averror(err);
 +    if (celt->discard) {
 +        celt->frame.nb_samples -= celt->discard;
 +        memmove(pcm, pcm + celt->discard * c->channels,
 +                celt->frame.nb_samples * c->channels * sizeof(int16_t));
 +        celt->discard = 0;
 +    }
 +    *got_frame_ptr = 1;
 +    *(AVFrame *)frame = celt->frame;
 +    return pkt->size;
 +}
 +
 +AVCodec ff_libcelt_decoder = {
 +    .name           = "libcelt",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_CELT,
 +    .priv_data_size = sizeof(struct libcelt_context),
 +    .init           = libcelt_dec_init,
 +    .close          = libcelt_dec_close,
 +    .decode         = libcelt_dec_decode,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("Xiph CELT decoder using libcelt"),
 +};
Simple merge
Simple merge
Simple merge
Simple merge
index 4e523dcdf6510cbc33e4f30debec3c00ec883570,ae11cc5e2f2a38b6c487d45c071c2160776ceb88..c98b4991ae9dd4153c8e3801db06bcce56aaa530
  #include "libavutil/intreadwrite.h"
  #include "libavutil/mem.h"
  #include "avcodec.h"
+ #include "internal.h"
  #include "libschroedinger.h"
  
 -#undef NDEBUG
 -#include <assert.h>
 -
 -
  #include <schroedinger/schro.h>
  #include <schroedinger/schrodebug.h>
  #include <schroedinger/schrovideoformat.h>
Simple merge
index f741df94f891fa38bb9daeb9a453a9f19e4f84bf,0000000000000000000000000000000000000000..f65b489bf51b6ff0bf99d3d697cf9489e1808826
mode 100644,000000..100644
--- /dev/null
@@@ -1,598 -1,0 +1,598 @@@
-             ret = avctx->get_buffer(avctx, frame->vframe);
 +/*
 + * Interface to the Android Stagefright library for
 + * H/W accelerated H.264 decoding
 + *
 + * Copyright (C) 2011 Mohamed Naufal
 + * Copyright (C) 2011 Martin Storsjö
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include <binder/ProcessState.h>
 +#include <media/stagefright/MetaData.h>
 +#include <media/stagefright/MediaBufferGroup.h>
 +#include <media/stagefright/MediaDebug.h>
 +#include <media/stagefright/MediaDefs.h>
 +#include <media/stagefright/OMXClient.h>
 +#include <media/stagefright/OMXCodec.h>
 +#include <utils/List.h>
 +#include <new>
 +#include <map>
 +
 +extern "C" {
 +#include "avcodec.h"
 +#include "libavutil/imgutils.h"
 +}
 +
 +#define OMX_QCOM_COLOR_FormatYVU420SemiPlanar 0x7FA30C00
 +
 +using namespace android;
 +
 +struct Frame {
 +    status_t status;
 +    size_t size;
 +    int64_t time;
 +    int key;
 +    uint8_t *buffer;
 +    AVFrame *vframe;
 +};
 +
 +struct TimeStamp {
 +    int64_t pts;
 +    int64_t reordered_opaque;
 +};
 +
 +class CustomSource;
 +
 +struct StagefrightContext {
 +    AVCodecContext *avctx;
 +    AVBitStreamFilterContext *bsfc;
 +    uint8_t* orig_extradata;
 +    int orig_extradata_size;
 +    sp<MediaSource> *source;
 +    List<Frame*> *in_queue, *out_queue;
 +    pthread_mutex_t in_mutex, out_mutex;
 +    pthread_cond_t condition;
 +    pthread_t decode_thread_id;
 +
 +    Frame *end_frame;
 +    bool source_done;
 +    volatile sig_atomic_t thread_started, thread_exited, stop_decode;
 +
 +    AVFrame *prev_frame;
 +    std::map<int64_t, TimeStamp> *ts_map;
 +    int64_t frame_index;
 +
 +    uint8_t *dummy_buf;
 +    int dummy_bufsize;
 +
 +    OMXClient *client;
 +    sp<MediaSource> *decoder;
 +    const char *decoder_component;
 +};
 +
 +class CustomSource : public MediaSource {
 +public:
 +    CustomSource(AVCodecContext *avctx, sp<MetaData> meta) {
 +        s = (StagefrightContext*)avctx->priv_data;
 +        source_meta = meta;
 +        frame_size  = (avctx->width * avctx->height * 3) / 2;
 +        buf_group.add_buffer(new MediaBuffer(frame_size));
 +    }
 +
 +    virtual sp<MetaData> getFormat() {
 +        return source_meta;
 +    }
 +
 +    virtual status_t start(MetaData *params) {
 +        return OK;
 +    }
 +
 +    virtual status_t stop() {
 +        return OK;
 +    }
 +
 +    virtual status_t read(MediaBuffer **buffer,
 +                          const MediaSource::ReadOptions *options) {
 +        Frame *frame;
 +        status_t ret;
 +
 +        if (s->thread_exited)
 +            return ERROR_END_OF_STREAM;
 +        pthread_mutex_lock(&s->in_mutex);
 +
 +        while (s->in_queue->empty())
 +            pthread_cond_wait(&s->condition, &s->in_mutex);
 +
 +        frame = *s->in_queue->begin();
 +        ret = frame->status;
 +
 +        if (ret == OK) {
 +            ret = buf_group.acquire_buffer(buffer);
 +            if (ret == OK) {
 +                memcpy((*buffer)->data(), frame->buffer, frame->size);
 +                (*buffer)->set_range(0, frame->size);
 +                (*buffer)->meta_data()->clear();
 +                (*buffer)->meta_data()->setInt32(kKeyIsSyncFrame,frame->key);
 +                (*buffer)->meta_data()->setInt64(kKeyTime, frame->time);
 +            } else {
 +                av_log(s->avctx, AV_LOG_ERROR, "Failed to acquire MediaBuffer\n");
 +            }
 +            av_freep(&frame->buffer);
 +        }
 +
 +        s->in_queue->erase(s->in_queue->begin());
 +        pthread_mutex_unlock(&s->in_mutex);
 +
 +        av_freep(&frame);
 +        return ret;
 +    }
 +
 +private:
 +    MediaBufferGroup buf_group;
 +    sp<MetaData> source_meta;
 +    StagefrightContext *s;
 +    int frame_size;
 +};
 +
 +void* decode_thread(void *arg)
 +{
 +    AVCodecContext *avctx = (AVCodecContext*)arg;
 +    StagefrightContext *s = (StagefrightContext*)avctx->priv_data;
 +    const AVPixFmtDescriptor *pix_desc = av_pix_fmt_desc_get(avctx->pix_fmt);
 +    Frame* frame;
 +    MediaBuffer *buffer;
 +    int32_t w, h;
 +    int decode_done = 0;
 +    int ret;
 +    int src_linesize[3];
 +    const uint8_t *src_data[3];
 +    int64_t out_frame_index = 0;
 +
 +    do {
 +        buffer = NULL;
 +        frame = (Frame*)av_mallocz(sizeof(Frame));
 +        if (!frame) {
 +            frame         = s->end_frame;
 +            frame->status = AVERROR(ENOMEM);
 +            decode_done   = 1;
 +            s->end_frame  = NULL;
 +            goto push_frame;
 +        }
 +        frame->status = (*s->decoder)->read(&buffer);
 +        if (frame->status == OK) {
 +            sp<MetaData> outFormat = (*s->decoder)->getFormat();
 +            outFormat->findInt32(kKeyWidth , &w);
 +            outFormat->findInt32(kKeyHeight, &h);
 +            frame->vframe = (AVFrame*)av_mallocz(sizeof(AVFrame));
 +            if (!frame->vframe) {
 +                frame->status = AVERROR(ENOMEM);
 +                decode_done   = 1;
 +                buffer->release();
 +                goto push_frame;
 +            }
++            ret = ff_get_buffer(avctx, frame->vframe);
 +            if (ret < 0) {
 +                av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +                frame->status = ret;
 +                decode_done   = 1;
 +                buffer->release();
 +                goto push_frame;
 +            }
 +
 +            // The OMX.SEC decoder doesn't signal the modified width/height
 +            if (s->decoder_component && !strncmp(s->decoder_component, "OMX.SEC", 7) &&
 +                (w & 15 || h & 15)) {
 +                if (((w + 15)&~15) * ((h + 15)&~15) * 3/2 == buffer->range_length()) {
 +                    w = (w + 15)&~15;
 +                    h = (h + 15)&~15;
 +                }
 +            }
 +
 +            if (!avctx->width || !avctx->height || avctx->width > w || avctx->height > h) {
 +                avctx->width  = w;
 +                avctx->height = h;
 +            }
 +
 +            src_linesize[0] = av_image_get_linesize(avctx->pix_fmt, w, 0);
 +            src_linesize[1] = av_image_get_linesize(avctx->pix_fmt, w, 1);
 +            src_linesize[2] = av_image_get_linesize(avctx->pix_fmt, w, 2);
 +
 +            src_data[0] = (uint8_t*)buffer->data();
 +            src_data[1] = src_data[0] + src_linesize[0] * h;
 +            src_data[2] = src_data[1] + src_linesize[1] * -(-h>>pix_desc->log2_chroma_h);
 +            av_image_copy(frame->vframe->data, frame->vframe->linesize,
 +                          src_data, src_linesize,
 +                          avctx->pix_fmt, avctx->width, avctx->height);
 +
 +            buffer->meta_data()->findInt64(kKeyTime, &out_frame_index);
 +            if (out_frame_index && s->ts_map->count(out_frame_index) > 0) {
 +                frame->vframe->pts = (*s->ts_map)[out_frame_index].pts;
 +                frame->vframe->reordered_opaque = (*s->ts_map)[out_frame_index].reordered_opaque;
 +                s->ts_map->erase(out_frame_index);
 +            }
 +            buffer->release();
 +            } else if (frame->status == INFO_FORMAT_CHANGED) {
 +                if (buffer)
 +                    buffer->release();
 +                av_free(frame);
 +                continue;
 +            } else {
 +                decode_done = 1;
 +            }
 +push_frame:
 +        while (true) {
 +            pthread_mutex_lock(&s->out_mutex);
 +            if (s->out_queue->size() >= 10) {
 +                pthread_mutex_unlock(&s->out_mutex);
 +                usleep(10000);
 +                continue;
 +            }
 +            break;
 +        }
 +        s->out_queue->push_back(frame);
 +        pthread_mutex_unlock(&s->out_mutex);
 +    } while (!decode_done && !s->stop_decode);
 +
 +    s->thread_exited = true;
 +
 +    return 0;
 +}
 +
 +static av_cold int Stagefright_init(AVCodecContext *avctx)
 +{
 +    StagefrightContext *s = (StagefrightContext*)avctx->priv_data;
 +    sp<MetaData> meta, outFormat;
 +    int32_t colorFormat = 0;
 +    int ret;
 +
 +    if (!avctx->extradata || !avctx->extradata_size || avctx->extradata[0] != 1)
 +        return -1;
 +
 +    s->avctx = avctx;
 +    s->bsfc  = av_bitstream_filter_init("h264_mp4toannexb");
 +    if (!s->bsfc) {
 +        av_log(avctx, AV_LOG_ERROR, "Cannot open the h264_mp4toannexb BSF!\n");
 +        return -1;
 +    }
 +
 +    s->orig_extradata_size = avctx->extradata_size;
 +    s->orig_extradata = (uint8_t*) av_mallocz(avctx->extradata_size +
 +                                              FF_INPUT_BUFFER_PADDING_SIZE);
 +    if (!s->orig_extradata) {
 +        ret = AVERROR(ENOMEM);
 +        goto fail;
 +    }
 +    memcpy(s->orig_extradata, avctx->extradata, avctx->extradata_size);
 +
 +    meta = new MetaData;
 +    if (meta == NULL) {
 +        ret = AVERROR(ENOMEM);
 +        goto fail;
 +    }
 +    meta->setCString(kKeyMIMEType, MEDIA_MIMETYPE_VIDEO_AVC);
 +    meta->setInt32(kKeyWidth, avctx->width);
 +    meta->setInt32(kKeyHeight, avctx->height);
 +    meta->setData(kKeyAVCC, kTypeAVCC, avctx->extradata, avctx->extradata_size);
 +
 +    android::ProcessState::self()->startThreadPool();
 +
 +    s->source    = new sp<MediaSource>();
 +    *s->source   = new CustomSource(avctx, meta);
 +    s->in_queue  = new List<Frame*>;
 +    s->out_queue = new List<Frame*>;
 +    s->ts_map    = new std::map<int64_t, TimeStamp>;
 +    s->client    = new OMXClient;
 +    s->end_frame = (Frame*)av_mallocz(sizeof(Frame));
 +    if (s->source == NULL || !s->in_queue || !s->out_queue || !s->client ||
 +        !s->ts_map || !s->end_frame) {
 +        ret = AVERROR(ENOMEM);
 +        goto fail;
 +    }
 +
 +    if (s->client->connect() !=  OK) {
 +        av_log(avctx, AV_LOG_ERROR, "Cannot connect OMX client\n");
 +        ret = -1;
 +        goto fail;
 +    }
 +
 +    s->decoder  = new sp<MediaSource>();
 +    *s->decoder = OMXCodec::Create(s->client->interface(), meta,
 +                                  false, *s->source, NULL,
 +                                  OMXCodec::kClientNeedsFramebuffer);
 +    if ((*s->decoder)->start() !=  OK) {
 +        av_log(avctx, AV_LOG_ERROR, "Cannot start decoder\n");
 +        ret = -1;
 +        s->client->disconnect();
 +        goto fail;
 +    }
 +
 +    outFormat = (*s->decoder)->getFormat();
 +    outFormat->findInt32(kKeyColorFormat, &colorFormat);
 +    if (colorFormat == OMX_QCOM_COLOR_FormatYVU420SemiPlanar ||
 +        colorFormat == OMX_COLOR_FormatYUV420SemiPlanar)
 +        avctx->pix_fmt = AV_PIX_FMT_NV21;
 +    else if (colorFormat == OMX_COLOR_FormatYCbYCr)
 +        avctx->pix_fmt = AV_PIX_FMT_YUYV422;
 +    else if (colorFormat == OMX_COLOR_FormatCbYCrY)
 +        avctx->pix_fmt = AV_PIX_FMT_UYVY422;
 +    else
 +        avctx->pix_fmt = AV_PIX_FMT_YUV420P;
 +
 +    outFormat->findCString(kKeyDecoderComponent, &s->decoder_component);
 +    if (s->decoder_component)
 +        s->decoder_component = av_strdup(s->decoder_component);
 +
 +    pthread_mutex_init(&s->in_mutex, NULL);
 +    pthread_mutex_init(&s->out_mutex, NULL);
 +    pthread_cond_init(&s->condition, NULL);
 +    return 0;
 +
 +fail:
 +    av_bitstream_filter_close(s->bsfc);
 +    av_freep(&s->orig_extradata);
 +    av_freep(&s->end_frame);
 +    delete s->in_queue;
 +    delete s->out_queue;
 +    delete s->ts_map;
 +    delete s->client;
 +    return ret;
 +}
 +
 +static int Stagefright_decode_frame(AVCodecContext *avctx, void *data,
 +                                    int *data_size, AVPacket *avpkt)
 +{
 +    StagefrightContext *s = (StagefrightContext*)avctx->priv_data;
 +    Frame *frame;
 +    status_t status;
 +    int orig_size = avpkt->size;
 +    AVPacket pkt = *avpkt;
 +    AVFrame *ret_frame;
 +
 +    if (!s->thread_started) {
 +        pthread_create(&s->decode_thread_id, NULL, &decode_thread, avctx);
 +        s->thread_started = true;
 +    }
 +
 +    if (avpkt && avpkt->data) {
 +        av_bitstream_filter_filter(s->bsfc, avctx, NULL, &pkt.data, &pkt.size,
 +                                   avpkt->data, avpkt->size, avpkt->flags & AV_PKT_FLAG_KEY);
 +        avpkt = &pkt;
 +    }
 +
 +    if (!s->source_done) {
 +        if(!s->dummy_buf) {
 +            s->dummy_buf = (uint8_t*)av_malloc(avpkt->size);
 +            if (!s->dummy_buf)
 +                return AVERROR(ENOMEM);
 +            s->dummy_bufsize = avpkt->size;
 +            memcpy(s->dummy_buf, avpkt->data, avpkt->size);
 +        }
 +
 +        frame = (Frame*)av_mallocz(sizeof(Frame));
 +        if (avpkt->data) {
 +            frame->status  = OK;
 +            frame->size    = avpkt->size;
 +            frame->key     = avpkt->flags & AV_PKT_FLAG_KEY ? 1 : 0;
 +            frame->buffer  = (uint8_t*)av_malloc(avpkt->size);
 +            if (!frame->buffer) {
 +                av_freep(&frame);
 +                return AVERROR(ENOMEM);
 +            }
 +            uint8_t *ptr = avpkt->data;
 +            // The OMX.SEC decoder fails without this.
 +            if (avpkt->size == orig_size + avctx->extradata_size) {
 +                ptr += avctx->extradata_size;
 +                frame->size = orig_size;
 +            }
 +            memcpy(frame->buffer, ptr, orig_size);
 +            if (avpkt == &pkt)
 +                av_free(avpkt->data);
 +
 +            frame->time = ++s->frame_index;
 +            (*s->ts_map)[s->frame_index].pts = avpkt->pts;
 +            (*s->ts_map)[s->frame_index].reordered_opaque = avctx->reordered_opaque;
 +        } else {
 +            frame->status  = ERROR_END_OF_STREAM;
 +            s->source_done = true;
 +        }
 +
 +        while (true) {
 +            if (s->thread_exited) {
 +                s->source_done = true;
 +                break;
 +            }
 +            pthread_mutex_lock(&s->in_mutex);
 +            if (s->in_queue->size() >= 10) {
 +                pthread_mutex_unlock(&s->in_mutex);
 +                usleep(10000);
 +                continue;
 +            }
 +            s->in_queue->push_back(frame);
 +            pthread_cond_signal(&s->condition);
 +            pthread_mutex_unlock(&s->in_mutex);
 +            break;
 +        }
 +    }
 +    while (true) {
 +        pthread_mutex_lock(&s->out_mutex);
 +        if (!s->out_queue->empty()) break;
 +        pthread_mutex_unlock(&s->out_mutex);
 +        if (s->source_done) {
 +            usleep(10000);
 +            continue;
 +        } else {
 +            return orig_size;
 +        }
 +    }
 +
 +    frame = *s->out_queue->begin();
 +    s->out_queue->erase(s->out_queue->begin());
 +    pthread_mutex_unlock(&s->out_mutex);
 +
 +    ret_frame = frame->vframe;
 +    status  = frame->status;
 +    av_freep(&frame);
 +
 +    if (status == ERROR_END_OF_STREAM)
 +        return 0;
 +    if (status != OK) {
 +        if (status == AVERROR(ENOMEM))
 +            return status;
 +        av_log(avctx, AV_LOG_ERROR, "Decode failed: %x\n", status);
 +        return -1;
 +    }
 +
 +    if (s->prev_frame) {
 +        avctx->release_buffer(avctx, s->prev_frame);
 +        av_freep(&s->prev_frame);
 +    }
 +    s->prev_frame = ret_frame;
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame*)data = *ret_frame;
 +    return orig_size;
 +}
 +
 +static av_cold int Stagefright_close(AVCodecContext *avctx)
 +{
 +    StagefrightContext *s = (StagefrightContext*)avctx->priv_data;
 +    Frame *frame;
 +
 +    if (s->thread_started) {
 +        if (!s->thread_exited) {
 +            s->stop_decode = 1;
 +
 +            // Make sure decode_thread() doesn't get stuck
 +            pthread_mutex_lock(&s->out_mutex);
 +            while (!s->out_queue->empty()) {
 +                frame = *s->out_queue->begin();
 +                s->out_queue->erase(s->out_queue->begin());
 +                if (frame->vframe) {
 +                    avctx->release_buffer(avctx, frame->vframe);
 +                    av_freep(&frame->vframe);
 +                }
 +                av_freep(&frame);
 +            }
 +            pthread_mutex_unlock(&s->out_mutex);
 +
 +            // Feed a dummy frame prior to signalling EOF.
 +            // This is required to terminate the decoder(OMX.SEC)
 +            // when only one frame is read during stream info detection.
 +            if (s->dummy_buf && (frame = (Frame*)av_mallocz(sizeof(Frame)))) {
 +                frame->status = OK;
 +                frame->size   = s->dummy_bufsize;
 +                frame->key    = 1;
 +                frame->buffer = s->dummy_buf;
 +                pthread_mutex_lock(&s->in_mutex);
 +                s->in_queue->push_back(frame);
 +                pthread_cond_signal(&s->condition);
 +                pthread_mutex_unlock(&s->in_mutex);
 +                s->dummy_buf = NULL;
 +            }
 +
 +            pthread_mutex_lock(&s->in_mutex);
 +            s->end_frame->status = ERROR_END_OF_STREAM;
 +            s->in_queue->push_back(s->end_frame);
 +            pthread_cond_signal(&s->condition);
 +            pthread_mutex_unlock(&s->in_mutex);
 +            s->end_frame = NULL;
 +        }
 +
 +        pthread_join(s->decode_thread_id, NULL);
 +
 +        if (s->prev_frame) {
 +            avctx->release_buffer(avctx, s->prev_frame);
 +            av_freep(&s->prev_frame);
 +        }
 +
 +        s->thread_started = false;
 +    }
 +
 +    while (!s->in_queue->empty()) {
 +        frame = *s->in_queue->begin();
 +        s->in_queue->erase(s->in_queue->begin());
 +        if (frame->size)
 +            av_freep(&frame->buffer);
 +        av_freep(&frame);
 +    }
 +
 +    while (!s->out_queue->empty()) {
 +        frame = *s->out_queue->begin();
 +        s->out_queue->erase(s->out_queue->begin());
 +        if (frame->vframe) {
 +            avctx->release_buffer(avctx, frame->vframe);
 +            av_freep(&frame->vframe);
 +        }
 +        av_freep(&frame);
 +    }
 +
 +    (*s->decoder)->stop();
 +    s->client->disconnect();
 +
 +    if (s->decoder_component)
 +        av_freep(&s->decoder_component);
 +    av_freep(&s->dummy_buf);
 +    av_freep(&s->end_frame);
 +
 +    // Reset the extradata back to the original mp4 format, so that
 +    // the next invocation (both when decoding and when called from
 +    // av_find_stream_info) get the original mp4 format extradata.
 +    av_freep(&avctx->extradata);
 +    avctx->extradata = s->orig_extradata;
 +    avctx->extradata_size = s->orig_extradata_size;
 +
 +    delete s->in_queue;
 +    delete s->out_queue;
 +    delete s->ts_map;
 +    delete s->client;
 +    delete s->decoder;
 +    delete s->source;
 +
 +    pthread_mutex_destroy(&s->in_mutex);
 +    pthread_mutex_destroy(&s->out_mutex);
 +    pthread_cond_destroy(&s->condition);
 +    av_bitstream_filter_close(s->bsfc);
 +    return 0;
 +}
 +
 +AVCodec ff_libstagefright_h264_decoder = {
 +    "libstagefright_h264",
 +    NULL_IF_CONFIG_SMALL("libstagefright H.264"),
 +    AVMEDIA_TYPE_VIDEO,
 +    AV_CODEC_ID_H264,
 +    CODEC_CAP_DELAY,
 +    NULL, //supported_framerates
 +    NULL, //pix_fmts
 +    NULL, //supported_samplerates
 +    NULL, //sample_fmts
 +    NULL, //channel_layouts
 +    0,    //max_lowres
 +    NULL, //priv_class
 +    NULL, //profiles
 +    sizeof(StagefrightContext),
 +    NULL, //next
 +    NULL, //init_thread_copy
 +    NULL, //update_thread_context
 +    NULL, //defaults
 +    NULL, //init_static_data
 +    Stagefright_init,
 +    NULL, //encode
 +    NULL, //encode2
 +    Stagefright_decode_frame,
 +    Stagefright_close,
 +};
index 93c65b88b721595c1a9e5c6e790d81ae1e0c3f0c,0000000000000000000000000000000000000000..8f5f9d85f9160774a9f3ad9097471a1d8c71e17c
mode 100644,000000..100644
--- /dev/null
@@@ -1,200 -1,0 +1,201 @@@
-     if ((ret = avccontext->get_buffer(avccontext, &context->frame)) < 0) {
 +/*
 + * Copyright (c) 2002 Mark Hills <mark@pogo.org.uk>
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include <vorbis/vorbisenc.h>
 +
 +#include "avcodec.h"
 +#include "bytestream.h"
++#include "internal.h"
 +
 +typedef struct OggVorbisDecContext {
 +    AVFrame frame;
 +    vorbis_info vi;                     /**< vorbis_info used during init   */
 +    vorbis_dsp_state vd;                /**< DSP state used for analysis    */
 +    vorbis_block vb;                    /**< vorbis_block used for analysis */
 +    vorbis_comment vc;                  /**< VorbisComment info             */
 +    ogg_packet op;                      /**< ogg packet                     */
 +} OggVorbisDecContext;
 +
 +static int oggvorbis_decode_init(AVCodecContext *avccontext) {
 +    OggVorbisDecContext *context = avccontext->priv_data ;
 +    uint8_t *p= avccontext->extradata;
 +    int i, hsizes[3];
 +    unsigned char *headers[3], *extradata = avccontext->extradata;
 +
 +    vorbis_info_init(&context->vi) ;
 +    vorbis_comment_init(&context->vc) ;
 +
 +    if(! avccontext->extradata_size || ! p) {
 +        av_log(avccontext, AV_LOG_ERROR, "vorbis extradata absent\n");
 +        return -1;
 +    }
 +
 +    if(p[0] == 0 && p[1] == 30) {
 +        for(i = 0; i < 3; i++){
 +            hsizes[i] = bytestream_get_be16((const uint8_t **)&p);
 +            headers[i] = p;
 +            p += hsizes[i];
 +        }
 +    } else if(*p == 2) {
 +        unsigned int offset = 1;
 +        p++;
 +        for(i=0; i<2; i++) {
 +            hsizes[i] = 0;
 +            while((*p == 0xFF) && (offset < avccontext->extradata_size)) {
 +                hsizes[i] += 0xFF;
 +                offset++;
 +                p++;
 +            }
 +            if(offset >= avccontext->extradata_size - 1) {
 +                av_log(avccontext, AV_LOG_ERROR,
 +                       "vorbis header sizes damaged\n");
 +                return -1;
 +            }
 +            hsizes[i] += *p;
 +            offset++;
 +            p++;
 +        }
 +        hsizes[2] = avccontext->extradata_size - hsizes[0]-hsizes[1]-offset;
 +#if 0
 +        av_log(avccontext, AV_LOG_DEBUG,
 +               "vorbis header sizes: %d, %d, %d, / extradata_len is %d \n",
 +               hsizes[0], hsizes[1], hsizes[2], avccontext->extradata_size);
 +#endif
 +        headers[0] = extradata + offset;
 +        headers[1] = extradata + offset + hsizes[0];
 +        headers[2] = extradata + offset + hsizes[0] + hsizes[1];
 +    } else {
 +        av_log(avccontext, AV_LOG_ERROR,
 +               "vorbis initial header len is wrong: %d\n", *p);
 +        return -1;
 +    }
 +
 +    for(i=0; i<3; i++){
 +        context->op.b_o_s= i==0;
 +        context->op.bytes = hsizes[i];
 +        context->op.packet = headers[i];
 +        if(vorbis_synthesis_headerin(&context->vi, &context->vc, &context->op)<0){
 +            av_log(avccontext, AV_LOG_ERROR, "%d. vorbis header damaged\n", i+1);
 +            return -1;
 +        }
 +    }
 +
 +    avccontext->channels = context->vi.channels;
 +    avccontext->sample_rate = context->vi.rate;
 +    avccontext->time_base= (AVRational){1, avccontext->sample_rate};
 +
 +    vorbis_synthesis_init(&context->vd, &context->vi);
 +    vorbis_block_init(&context->vd, &context->vb);
 +
 +    return 0 ;
 +}
 +
 +
 +static inline int conv(int samples, float **pcm, char *buf, int channels) {
 +    int i, j;
 +    ogg_int16_t *ptr, *data = (ogg_int16_t*)buf ;
 +    float *mono ;
 +
 +    for(i = 0 ; i < channels ; i++){
 +        ptr = &data[i];
 +        mono = pcm[i] ;
 +
 +        for(j = 0 ; j < samples ; j++) {
 +            *ptr = av_clip_int16(mono[j] * 32767.f);
 +            ptr += channels;
 +        }
 +    }
 +
 +    return 0 ;
 +}
 +
 +static int oggvorbis_decode_frame(AVCodecContext *avccontext, void *data,
 +                        int *got_frame_ptr, AVPacket *avpkt)
 +{
 +    OggVorbisDecContext *context = avccontext->priv_data ;
 +    float **pcm ;
 +    ogg_packet *op= &context->op;
 +    int samples, total_samples, total_bytes;
 +    int ret;
 +    int16_t *output;
 +
 +    if(!avpkt->size){
 +    //FIXME flush
 +        return 0;
 +    }
 +
 +    context->frame.nb_samples = 8192*4;
++    if ((ret = ff_get_buffer(avccontext, &context->frame)) < 0) {
 +        av_log(avccontext, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
 +    }
 +    output = (int16_t *)context->frame.data[0];
 +
 +
 +    op->packet = avpkt->data;
 +    op->bytes  = avpkt->size;
 +
 +//    av_log(avccontext, AV_LOG_DEBUG, "%d %d %d %"PRId64" %"PRId64" %d %d\n", op->bytes, op->b_o_s, op->e_o_s, op->granulepos, op->packetno, buf_size, context->vi.rate);
 +
 +/*    for(i=0; i<op->bytes; i++)
 +      av_log(avccontext, AV_LOG_DEBUG, "%02X ", op->packet[i]);
 +    av_log(avccontext, AV_LOG_DEBUG, "\n");*/
 +
 +    if(vorbis_synthesis(&context->vb, op) == 0)
 +        vorbis_synthesis_blockin(&context->vd, &context->vb) ;
 +
 +    total_samples = 0 ;
 +    total_bytes = 0 ;
 +
 +    while((samples = vorbis_synthesis_pcmout(&context->vd, &pcm)) > 0) {
 +        conv(samples, pcm, (char*)output + total_bytes, context->vi.channels) ;
 +        total_bytes += samples * 2 * context->vi.channels ;
 +        total_samples += samples ;
 +        vorbis_synthesis_read(&context->vd, samples) ;
 +    }
 +
 +    context->frame.nb_samples = total_samples;
 +    *got_frame_ptr   = 1;
 +    *(AVFrame *)data = context->frame;
 +    return avpkt->size;
 +}
 +
 +
 +static int oggvorbis_decode_close(AVCodecContext *avccontext) {
 +    OggVorbisDecContext *context = avccontext->priv_data ;
 +
 +    vorbis_info_clear(&context->vi) ;
 +    vorbis_comment_clear(&context->vc) ;
 +
 +    return 0 ;
 +}
 +
 +
 +AVCodec ff_libvorbis_decoder = {
 +    .name           = "libvorbis",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_VORBIS,
 +    .priv_data_size = sizeof(OggVorbisDecContext),
 +    .init           = oggvorbis_decode_init,
 +    .decode         = oggvorbis_decode_frame,
 +    .close          = oggvorbis_decode_close,
 +    .capabilities   = CODEC_CAP_DELAY,
 +    .long_name      = NULL_IF_CONFIG_SMALL("libvorbis"),
 +};
Simple merge
Simple merge
Simple merge
Simple merge
index bacb78e8e66c687a3201c9ebe4f753594bcfadcd,ab6fd9f2231f3efc53575b202f92bb0e590b8f81..2326a9bd8bc6c8b897a595e1cd906d1be6675513
@@@ -224,8 -229,8 +225,8 @@@ static int mpc7_decode_frame(AVCodecCon
      buf_size  -= 4;
  
      /* get output buffer */
 -    c->frame.nb_samples = last_frame ? c->lastframelen : MPC_FRAME_SIZE;
 +    c->frame.nb_samples = MPC_FRAME_SIZE;
-     if ((ret = avctx->get_buffer(avctx, &c->frame)) < 0) {
+     if ((ret = ff_get_buffer(avctx, &c->frame)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return ret;
      }
Simple merge
index e33c643b177fbffbc6fca4a8263c9171758d0c9e,fda0280b44dd7a678054a65fb3c6cde2b19d38e9..8f748f48a9772b078cfa46946947b206dd730033
   * MPEG Audio decoder
   */
  
 +#include "libavutil/avassert.h"
  #include "libavutil/channel_layout.h"
 +#include "libavutil/libm.h"
  #include "avcodec.h"
  #include "get_bits.h"
+ #include "internal.h"
  #include "mathops.h"
  #include "mpegaudiodsp.h"
  #include "dsputil.h"
@@@ -1933,8 -1905,8 +1934,8 @@@ static int decode_frame_mp3on4(AVCodecC
      int fr, ch, ret;
  
      /* get output buffer */
 -    s->frame->nb_samples = MPA_FRAME_SIZE;
 +    s->frame->nb_samples = s->frames * MPA_FRAME_SIZE;
-     if ((ret = avctx->get_buffer(avctx, s->frame)) < 0) {
+     if ((ret = ff_get_buffer(avctx, s->frame)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return ret;
      }
Simple merge
Simple merge
Simple merge
index 877b17066fb82bd60e7882360739a622b014ac57,0000000000000000000000000000000000000000..39d65095426599d507cd91e03a9a29fc6b19838f
mode 100644,000000..100644
--- /dev/null
@@@ -1,455 -1,0 +1,457 @@@
-     if ((ret = avctx->get_buffer(avctx, &c->frame)) < 0)
 +/*
 + * Packed Animation File video and audio decoder
 + * Copyright (c) 2012 Paul B Mahol
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "libavutil/intreadwrite.h"
 +#include "libavcodec/dsputil.h"
 +#include "libavcodec/paf.h"
 +#include "bytestream.h"
 +#include "avcodec.h"
++#include "internal.h"
++
 +
 +static const uint8_t block_sequences[16][8] =
 +{
 +    { 0, 0, 0, 0, 0, 0, 0, 0 },
 +    { 2, 0, 0, 0, 0, 0, 0, 0 },
 +    { 5, 7, 0, 0, 0, 0, 0, 0 },
 +    { 5, 0, 0, 0, 0, 0, 0, 0 },
 +    { 6, 0, 0, 0, 0, 0, 0, 0 },
 +    { 5, 7, 5, 7, 0, 0, 0, 0 },
 +    { 5, 7, 5, 0, 0, 0, 0, 0 },
 +    { 5, 7, 6, 0, 0, 0, 0, 0 },
 +    { 5, 5, 0, 0, 0, 0, 0, 0 },
 +    { 3, 0, 0, 0, 0, 0, 0, 0 },
 +    { 6, 6, 0, 0, 0, 0, 0, 0 },
 +    { 2, 4, 0, 0, 0, 0, 0, 0 },
 +    { 2, 4, 5, 7, 0, 0, 0, 0 },
 +    { 2, 4, 5, 0, 0, 0, 0, 0 },
 +    { 2, 4, 6, 0, 0, 0, 0, 0 },
 +    { 2, 4, 5, 7, 5, 7, 0, 0 }
 +};
 +
 +typedef struct PAFVideoDecContext {
 +    AVFrame  pic;
 +    GetByteContext gb;
 +
 +    int     current_frame;
 +    uint8_t *frame[4];
 +    int     frame_size;
 +    int     video_size;
 +
 +    uint8_t *opcodes;
 +} PAFVideoDecContext;
 +
 +static av_cold int paf_vid_init(AVCodecContext *avctx)
 +{
 +    PAFVideoDecContext *c = avctx->priv_data;
 +    int i;
 +
 +    if (avctx->height & 3 || avctx->width & 3) {
 +        av_log(avctx, AV_LOG_ERROR, "width and height must be multiplies of 4\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    avctx->pix_fmt = AV_PIX_FMT_PAL8;
 +
 +    avcodec_get_frame_defaults(&c->pic);
 +    c->frame_size = FFALIGN(avctx->height, 256) * avctx->width;
 +    c->video_size = avctx->height * avctx->width;
 +    for (i = 0; i < 4; i++) {
 +        c->frame[i] = av_mallocz(c->frame_size);
 +        if (!c->frame[i])
 +            return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static int get_video_page_offset(AVCodecContext *avctx, uint8_t a, uint8_t b)
 +{
 +    int x, y;
 +
 +    x = b & 0x7F;
 +    y = ((a & 0x3F) << 1) | (b >> 7 & 1);
 +
 +    return y * 2 * avctx->width + x * 2;
 +}
 +
 +static void copy4h(AVCodecContext *avctx, uint8_t *dst)
 +{
 +    PAFVideoDecContext *c = avctx->priv_data;
 +    int i;
 +
 +    for (i = 0; i < 4; i++) {
 +        bytestream2_get_buffer(&c->gb, dst, 4);
 +        dst += avctx->width;
 +    }
 +}
 +
 +static void copy_color_mask(AVCodecContext *avctx, uint8_t mask, uint8_t *dst, uint8_t color)
 +{
 +    int i;
 +
 +    for (i = 0; i < 4; i++) {
 +        if ((mask >> 4) & (1 << (3 - i)))
 +            dst[i] = color;
 +        if ((mask & 15) & (1 << (3 - i)))
 +            dst[avctx->width + i] = color;
 +    }
 +}
 +
 +static void copy_src_mask(AVCodecContext *avctx, uint8_t mask, uint8_t *dst, const uint8_t *src)
 +{
 +    int i;
 +
 +    for (i = 0; i < 4; i++) {
 +        if ((mask >> 4) & (1 << (3 - i)))
 +            dst[i] = src[i];
 +        if ((mask & 15) & (1 << (3 - i)))
 +            dst[avctx->width + i] = src[avctx->width + i];
 +    }
 +}
 +
 +static int decode_0(AVCodecContext *avctx, uint8_t code, uint8_t *pkt)
 +{
 +    PAFVideoDecContext *c = avctx->priv_data;
 +    uint32_t opcode_size, offset;
 +    uint8_t *dst, *dend, mask = 0, color = 0, a, b, p;
 +    const uint8_t *src, *send, *opcodes;
 +    int  i, j, x = 0;
 +
 +    i = bytestream2_get_byte(&c->gb);
 +    if (i) {
 +        if (code & 0x10) {
 +            int align;
 +
 +            align = bytestream2_tell(&c->gb) & 3;
 +            if (align)
 +                bytestream2_skip(&c->gb, 4 - align);
 +        }
 +        do {
 +            a      = bytestream2_get_byte(&c->gb);
 +            b      = bytestream2_get_byte(&c->gb);
 +            p      = (a & 0xC0) >> 6;
 +            dst    = c->frame[p] + get_video_page_offset(avctx, a, b);
 +            dend   = c->frame[p] + c->frame_size;
 +            offset = (b & 0x7F) * 2;
 +            j      = bytestream2_get_le16(&c->gb) + offset;
 +
 +            do {
 +                offset++;
 +                if (dst + 3 * avctx->width + 4 > dend)
 +                    return AVERROR_INVALIDDATA;
 +                copy4h(avctx, dst);
 +                if ((offset & 0x3F) == 0)
 +                    dst += avctx->width * 3;
 +                dst += 4;
 +            } while (offset < j);
 +        } while (--i);
 +    }
 +
 +    dst  = c->frame[c->current_frame];
 +    dend = c->frame[c->current_frame] + c->frame_size;
 +    do {
 +        a    = bytestream2_get_byte(&c->gb);
 +        b    = bytestream2_get_byte(&c->gb);
 +        p    = (a & 0xC0) >> 6;
 +        src  = c->frame[p] + get_video_page_offset(avctx, a, b);
 +        send = c->frame[p] + c->frame_size;
 +        if ((src + 3 * avctx->width + 4 > send) ||
 +            (dst + 3 * avctx->width + 4 > dend))
 +            return AVERROR_INVALIDDATA;
 +        copy_block4(dst, src, avctx->width, avctx->width, 4);
 +        i++;
 +        if ((i & 0x3F) == 0)
 +            dst += avctx->width * 3;
 +        dst += 4;
 +    } while (i < c->video_size / 16);
 +
 +    opcode_size = bytestream2_get_le16(&c->gb);
 +    bytestream2_skip(&c->gb, 2);
 +
 +    if (bytestream2_get_bytes_left(&c->gb) < opcode_size)
 +        return AVERROR_INVALIDDATA;
 +
 +    opcodes = pkt + bytestream2_tell(&c->gb);
 +    bytestream2_skipu(&c->gb, opcode_size);
 +
 +    dst = c->frame[c->current_frame];
 +
 +    for (i = 0; i < avctx->height; i += 4, dst += avctx->width * 3) {
 +        for (j = 0; j < avctx->width; j += 4, dst += 4) {
 +            int opcode, k = 0;
 +
 +            if (x > opcode_size)
 +                return AVERROR_INVALIDDATA;
 +            if (j & 4) {
 +                opcode = opcodes[x] & 15;
 +                x++;
 +            } else {
 +                opcode = opcodes[x] >> 4;
 +            }
 +
 +            while (block_sequences[opcode][k]) {
 +
 +                offset = avctx->width * 2;
 +                code   = block_sequences[opcode][k++];
 +
 +                switch (code) {
 +                case 2:
 +                    offset = 0;
 +                case 3:
 +                    color  = bytestream2_get_byte(&c->gb);
 +                case 4:
 +                    mask   = bytestream2_get_byte(&c->gb);
 +                    copy_color_mask(avctx, mask, dst + offset, color);
 +                    break;
 +                case 5:
 +                    offset = 0;
 +                case 6:
 +                    a    = bytestream2_get_byte(&c->gb);
 +                    b    = bytestream2_get_byte(&c->gb);
 +                    p    = (a & 0xC0) >> 6;
 +                    src  = c->frame[p] + get_video_page_offset(avctx, a, b);
 +                    send = c->frame[p] + c->frame_size;
 +                case 7:
 +                    if (src + offset + avctx->width + 4 > send)
 +                        return AVERROR_INVALIDDATA;
 +                    mask = bytestream2_get_byte(&c->gb);
 +                    copy_src_mask(avctx, mask, dst + offset, src + offset);
 +                    break;
 +                }
 +            }
 +        }
 +    }
 +
 +    return 0;
 +}
 +
 +static int paf_vid_decode(AVCodecContext *avctx, void *data,
 +                          int *data_size, AVPacket *pkt)
 +{
 +    PAFVideoDecContext *c = avctx->priv_data;
 +    uint8_t code, *dst, *src, *end;
 +    int i, frame, ret;
 +
 +    c->pic.reference = 3;
 +    if ((ret = avctx->reget_buffer(avctx, &c->pic)) < 0)
 +        return ret;
 +
 +    bytestream2_init(&c->gb, pkt->data, pkt->size);
 +
 +    code = bytestream2_get_byte(&c->gb);
 +    if (code & 0x20) {
 +        for (i = 0; i < 4; i++)
 +            memset(c->frame[i], 0, c->frame_size);
 +
 +        memset(c->pic.data[1], 0, AVPALETTE_SIZE);
 +        c->current_frame = 0;
 +        c->pic.key_frame = 1;
 +        c->pic.pict_type = AV_PICTURE_TYPE_I;
 +    } else {
 +        c->pic.key_frame = 0;
 +        c->pic.pict_type = AV_PICTURE_TYPE_P;
 +    }
 +
 +    if (code & 0x40) {
 +        uint32_t *out = (uint32_t *)c->pic.data[1];
 +        int index, count;
 +
 +        index = bytestream2_get_byte(&c->gb);
 +        count = bytestream2_get_byte(&c->gb) + 1;
 +
 +        if (index + count > 256)
 +            return AVERROR_INVALIDDATA;
 +        if (bytestream2_get_bytes_left(&c->gb) < 3*count)
 +            return AVERROR_INVALIDDATA;
 +
 +        out += index;
 +        for (i = 0; i < count; i++) {
 +            unsigned r, g, b;
 +
 +            r = bytestream2_get_byteu(&c->gb);
 +            r = r << 2 | r >> 4;
 +            g = bytestream2_get_byteu(&c->gb);
 +            g = g << 2 | g >> 4;
 +            b = bytestream2_get_byteu(&c->gb);
 +            b = b << 2 | b >> 4;
 +            *out++ = 0xFFU << 24 | r << 16 | g << 8 | b;
 +        }
 +        c->pic.palette_has_changed = 1;
 +    }
 +
 +    switch (code & 0x0F) {
 +    case 0:
 +        if ((ret = decode_0(avctx, code, pkt->data)) < 0)
 +            return ret;
 +        break;
 +    case 1:
 +        dst = c->frame[c->current_frame];
 +        bytestream2_skip(&c->gb, 2);
 +        if (bytestream2_get_bytes_left(&c->gb) < c->video_size)
 +            return AVERROR_INVALIDDATA;
 +        bytestream2_get_bufferu(&c->gb, dst, c->video_size);
 +        break;
 +    case 2:
 +        frame = bytestream2_get_byte(&c->gb);
 +        if (frame > 3)
 +            return AVERROR_INVALIDDATA;
 +        if (frame != c->current_frame)
 +            memcpy(c->frame[c->current_frame], c->frame[frame], c->frame_size);
 +        break;
 +    case 4:
 +        dst = c->frame[c->current_frame];
 +        end = dst + c->video_size;
 +
 +        bytestream2_skip(&c->gb, 2);
 +
 +        while (dst < end) {
 +            int8_t code;
 +            int count;
 +
 +            if (bytestream2_get_bytes_left(&c->gb) < 2)
 +                return AVERROR_INVALIDDATA;
 +
 +            code  = bytestream2_get_byteu(&c->gb);
 +            count = FFABS(code) + 1;
 +
 +            if (dst + count > end)
 +                return AVERROR_INVALIDDATA;
 +            if (code < 0)
 +                memset(dst, bytestream2_get_byteu(&c->gb), count);
 +            else
 +                bytestream2_get_buffer(&c->gb, dst, count);
 +            dst += count;
 +        }
 +        break;
 +    default:
 +        av_log_ask_for_sample(avctx, "unknown/invalid code\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    dst = c->pic.data[0];
 +    src = c->frame[c->current_frame];
 +    for (i = 0; i < avctx->height; i++) {
 +        memcpy(dst, src, avctx->width);
 +        dst += c->pic.linesize[0];
 +        src += avctx->width;
 +    }
 +
 +    c->current_frame = (c->current_frame + 1) & 3;
 +
 +    *data_size       = sizeof(AVFrame);
 +    *(AVFrame *)data = c->pic;
 +
 +    return pkt->size;
 +}
 +
 +static av_cold int paf_vid_close(AVCodecContext *avctx)
 +{
 +    PAFVideoDecContext *c = avctx->priv_data;
 +    int i;
 +
 +    if (c->pic.data[0])
 +        avctx->release_buffer(avctx, &c->pic);
 +
 +    for (i = 0; i < 4; i++)
 +        av_freep(&c->frame[i]);
 +
 +    return 0;
 +}
 +
 +typedef struct PAFAudioDecContext {
 +    AVFrame frame;
 +} PAFAudioDecContext;
 +
 +static av_cold int paf_aud_init(AVCodecContext *avctx)
 +{
 +    PAFAudioDecContext *c = avctx->priv_data;
 +
 +    if (avctx->channels != 2) {
 +        av_log(avctx, AV_LOG_ERROR, "invalid number of channels\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    avcodec_get_frame_defaults(&c->frame);
 +    avctx->channel_layout = AV_CH_LAYOUT_STEREO;
 +    avctx->coded_frame    = &c->frame;
 +    avctx->sample_fmt     = AV_SAMPLE_FMT_S16;
 +
 +    return 0;
 +}
 +
 +static int paf_aud_decode(AVCodecContext *avctx, void *data,
 +                          int *got_frame_ptr, AVPacket *pkt)
 +{
 +    PAFAudioDecContext *c = avctx->priv_data;
 +    uint8_t *buf = pkt->data;
 +    int16_t *output_samples;
 +    const uint8_t *t;
 +    int frames, ret, i, j, k;
 +
 +    frames = pkt->size / PAF_SOUND_FRAME_SIZE;
 +    if (frames < 1)
 +        return AVERROR_INVALIDDATA;
 +
 +    c->frame.nb_samples = PAF_SOUND_SAMPLES * frames;
++    if ((ret = ff_get_buffer(avctx, &c->frame)) < 0)
 +        return ret;
 +
 +    output_samples = (int16_t *)c->frame.data[0];
 +    for (i = 0; i < frames; i++) {
 +        t = buf + 256 * sizeof(uint16_t);
 +        for (j = 0; j < PAF_SOUND_SAMPLES; j++) {
 +            for (k = 0; k < 2; k++) {
 +                *output_samples++ = AV_RL16(buf + *t * 2);
 +                t++;
 +            }
 +        }
 +        buf += PAF_SOUND_FRAME_SIZE;
 +    }
 +
 +    *got_frame_ptr   = 1;
 +    *(AVFrame *)data = c->frame;
 +
 +    return pkt->size;
 +}
 +
 +AVCodec ff_paf_video_decoder = {
 +    .name           = "paf_video",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_PAF_VIDEO,
 +    .priv_data_size = sizeof(PAFVideoDecContext),
 +    .init           = paf_vid_init,
 +    .close          = paf_vid_close,
 +    .decode         = paf_vid_decode,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("Amazing Studio Packed Animation File Video"),
 +};
 +
 +AVCodec ff_paf_audio_decoder = {
 +    .name           = "paf_audio",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_PAF_AUDIO,
 +    .priv_data_size = sizeof(PAFAudioDecContext),
 +    .init           = paf_aud_init,
 +    .decode         = paf_aud_decode,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("Amazing Studio Packed Animation File Audio"),
 +};
Simple merge
Simple merge
index 722e89ff96b1b25ee67d94aa5921095d6769f92f,a5c13960bde5901048acd9652a47b877921d64ff..7f247560479913aa559169cb9bd91290c531cd2b
@@@ -147,12 -145,12 +148,12 @@@ static int pcx_decode_frame(AVCodecCont
          avctx->release_buffer(avctx, p);
  
      if (av_image_check_size(w, h, 0, avctx))
 -        return -1;
 +        return AVERROR_INVALIDDATA;
      if (w != avctx->width || h != avctx->height)
          avcodec_set_dimensions(avctx, w, h);
-     if ((ret = avctx->get_buffer(avctx, p)) < 0) {
 -    if (ff_get_buffer(avctx, p) < 0) {
++    if ((ret = ff_get_buffer(avctx, p)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +        return ret;
      }
  
      p->pict_type = AV_PICTURE_TYPE_I;
Simple merge
index c1b8b08215eaf912ec2f10f8c3cbb310e88675b9,0e3805bdb44985cec76dfb106e341da9032b4d67..06fd133c615db9d2f7d1d884d244dae34bf42d29
@@@ -647,8 -492,8 +648,8 @@@ static int decode_frame(AVCodecContext 
                  if(p->data[0])
                      avctx->release_buffer(avctx, p);
  
 -                p->reference= 0;
 +                p->reference= 3;
-                 if(avctx->get_buffer(avctx, p) < 0){
+                 if(ff_get_buffer(avctx, p) < 0){
                      av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
                      goto fail;
                  }
index 66fc9df726f790ca0f5c15b6ee63e04f7cd2ab91,6d2473831b1e01179c0f266353b958037b90eb56..0c0973899c1672ad711b2fe099bccec803f77e37
@@@ -20,6 -20,8 +20,7 @@@
   */
  
  #include "avcodec.h"
 -#include "bytestream.h"
+ #include "internal.h"
  #include "put_bits.h"
  #include "pnm.h"
  
@@@ -47,9 -49,9 +48,9 @@@ static int pnm_decode_frame(AVCodecCont
          avctx->release_buffer(avctx, p);
  
      p->reference = 0;
-     if ((ret = avctx->get_buffer(avctx, p)) < 0) {
 -    if (ff_get_buffer(avctx, p) < 0) {
++    if ((ret = ff_get_buffer(avctx, p)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +        return ret;
      }
      p->pict_type = AV_PICTURE_TYPE_I;
      p->key_frame = 1;
index e643c87ade1f62bb6417c387bc175d88b2124f5a,0000000000000000000000000000000000000000..7064fb48d8ee5bfd91c96d1987ee55e91375e780
mode 100644,000000..100644
--- /dev/null
@@@ -1,604 -1,0 +1,605 @@@
-     if (avctx->get_buffer(avctx, frame) < 0)
 +/*
 + * Copyright (c) 2010-2011 Maxim Poliakovski
 + * Copyright (c) 2010-2011 Elvis Presley
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/**
 + * @file
 + * Known FOURCCs: 'apch' (HQ), 'apcn' (SD), 'apcs' (LT), 'acpo' (Proxy), 'ap4h' (4444)
 + */
 +
 +//#define DEBUG
 +
 +#define LONG_BITSTREAM_READER
 +
 +#include "avcodec.h"
 +#include "get_bits.h"
++#include "internal.h"
 +#include "simple_idct.h"
 +#include "proresdec.h"
 +
 +static void permute(uint8_t *dst, const uint8_t *src, const uint8_t permutation[64])
 +{
 +    int i;
 +    for (i = 0; i < 64; i++)
 +        dst[i] = permutation[src[i]];
 +}
 +
 +static const uint8_t progressive_scan[64] = {
 +     0,  1,  8,  9,  2,  3, 10, 11,
 +    16, 17, 24, 25, 18, 19, 26, 27,
 +     4,  5, 12, 20, 13,  6,  7, 14,
 +    21, 28, 29, 22, 15, 23, 30, 31,
 +    32, 33, 40, 48, 41, 34, 35, 42,
 +    49, 56, 57, 50, 43, 36, 37, 44,
 +    51, 58, 59, 52, 45, 38, 39, 46,
 +    53, 60, 61, 54, 47, 55, 62, 63
 +};
 +
 +static const uint8_t interlaced_scan[64] = {
 +     0,  8,  1,  9, 16, 24, 17, 25,
 +     2, 10,  3, 11, 18, 26, 19, 27,
 +    32, 40, 33, 34, 41, 48, 56, 49,
 +    42, 35, 43, 50, 57, 58, 51, 59,
 +     4, 12,  5,  6, 13, 20, 28, 21,
 +    14,  7, 15, 22, 29, 36, 44, 37,
 +    30, 23, 31, 38, 45, 52, 60, 53,
 +    46, 39, 47, 54, 61, 62, 55, 63,
 +};
 +
 +static av_cold int decode_init(AVCodecContext *avctx)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    uint8_t idct_permutation[64];
 +
 +    avctx->bits_per_raw_sample = 10;
 +
 +    ff_dsputil_init(&ctx->dsp, avctx);
 +    ff_proresdsp_init(&ctx->prodsp, avctx);
 +
 +    avctx->coded_frame = &ctx->frame;
 +    ctx->frame.type = AV_PICTURE_TYPE_I;
 +    ctx->frame.key_frame = 1;
 +
 +    ff_init_scantable_permutation(idct_permutation,
 +                                  ctx->prodsp.idct_permutation_type);
 +
 +    permute(ctx->progressive_scan, progressive_scan, idct_permutation);
 +    permute(ctx->interlaced_scan, interlaced_scan, idct_permutation);
 +
 +    return 0;
 +}
 +
 +static int decode_frame_header(ProresContext *ctx, const uint8_t *buf,
 +                               const int data_size, AVCodecContext *avctx)
 +{
 +    int hdr_size, width, height, flags;
 +    int version;
 +    const uint8_t *ptr;
 +
 +    hdr_size = AV_RB16(buf);
 +    av_dlog(avctx, "header size %d\n", hdr_size);
 +    if (hdr_size > data_size) {
 +        av_log(avctx, AV_LOG_ERROR, "error, wrong header size\n");
 +        return -1;
 +    }
 +
 +    version = AV_RB16(buf + 2);
 +    av_dlog(avctx, "%.4s version %d\n", buf+4, version);
 +    if (version > 1) {
 +        av_log(avctx, AV_LOG_ERROR, "unsupported version: %d\n", version);
 +        return -1;
 +    }
 +
 +    width  = AV_RB16(buf + 8);
 +    height = AV_RB16(buf + 10);
 +    if (width != avctx->width || height != avctx->height) {
 +        av_log(avctx, AV_LOG_ERROR, "picture resolution change: %dx%d -> %dx%d\n",
 +               avctx->width, avctx->height, width, height);
 +        return -1;
 +    }
 +
 +    ctx->frame_type = (buf[12] >> 2) & 3;
 +
 +    av_dlog(avctx, "frame type %d\n", ctx->frame_type);
 +
 +    if (ctx->frame_type == 0) {
 +        ctx->scan = ctx->progressive_scan; // permuted
 +    } else {
 +        ctx->scan = ctx->interlaced_scan; // permuted
 +        ctx->frame.interlaced_frame = 1;
 +        ctx->frame.top_field_first = ctx->frame_type == 1;
 +    }
 +
 +    avctx->pix_fmt = (buf[12] & 0xC0) == 0xC0 ? AV_PIX_FMT_YUV444P10 : AV_PIX_FMT_YUV422P10;
 +
 +    ptr   = buf + 20;
 +    flags = buf[19];
 +    av_dlog(avctx, "flags %x\n", flags);
 +
 +    if (flags & 2) {
 +        if(buf + data_size - ptr < 64) {
 +            av_log(avctx, AV_LOG_ERROR, "Header truncated\n");
 +            return -1;
 +        }
 +        permute(ctx->qmat_luma, ctx->prodsp.idct_permutation, ptr);
 +        ptr += 64;
 +    } else {
 +        memset(ctx->qmat_luma, 4, 64);
 +    }
 +
 +    if (flags & 1) {
 +        if(buf + data_size - ptr < 64) {
 +            av_log(avctx, AV_LOG_ERROR, "Header truncated\n");
 +            return -1;
 +        }
 +        permute(ctx->qmat_chroma, ctx->prodsp.idct_permutation, ptr);
 +    } else {
 +        memset(ctx->qmat_chroma, 4, 64);
 +    }
 +
 +    return hdr_size;
 +}
 +
 +static int decode_picture_header(AVCodecContext *avctx, const uint8_t *buf, const int buf_size)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    int i, hdr_size, slice_count;
 +    unsigned pic_data_size;
 +    int log2_slice_mb_width, log2_slice_mb_height;
 +    int slice_mb_count, mb_x, mb_y;
 +    const uint8_t *data_ptr, *index_ptr;
 +
 +    hdr_size = buf[0] >> 3;
 +    if (hdr_size < 8 || hdr_size > buf_size) {
 +        av_log(avctx, AV_LOG_ERROR, "error, wrong picture header size\n");
 +        return -1;
 +    }
 +
 +    pic_data_size = AV_RB32(buf + 1);
 +    if (pic_data_size > buf_size) {
 +        av_log(avctx, AV_LOG_ERROR, "error, wrong picture data size\n");
 +        return -1;
 +    }
 +
 +    log2_slice_mb_width  = buf[7] >> 4;
 +    log2_slice_mb_height = buf[7] & 0xF;
 +    if (log2_slice_mb_width > 3 || log2_slice_mb_height) {
 +        av_log(avctx, AV_LOG_ERROR, "unsupported slice resolution: %dx%d\n",
 +               1 << log2_slice_mb_width, 1 << log2_slice_mb_height);
 +        return -1;
 +    }
 +
 +    ctx->mb_width  = (avctx->width  + 15) >> 4;
 +    if (ctx->frame_type)
 +        ctx->mb_height = (avctx->height + 31) >> 5;
 +    else
 +        ctx->mb_height = (avctx->height + 15) >> 4;
 +
 +    slice_count = AV_RB16(buf + 5);
 +
 +    if (ctx->slice_count != slice_count || !ctx->slices) {
 +        av_freep(&ctx->slices);
 +        ctx->slices = av_mallocz(slice_count * sizeof(*ctx->slices));
 +        if (!ctx->slices)
 +            return AVERROR(ENOMEM);
 +        ctx->slice_count = slice_count;
 +    }
 +
 +    if (!slice_count)
 +        return AVERROR(EINVAL);
 +
 +    if (hdr_size + slice_count*2 > buf_size) {
 +        av_log(avctx, AV_LOG_ERROR, "error, wrong slice count\n");
 +        return -1;
 +    }
 +
 +    // parse slice information
 +    index_ptr = buf + hdr_size;
 +    data_ptr  = index_ptr + slice_count*2;
 +
 +    slice_mb_count = 1 << log2_slice_mb_width;
 +    mb_x = 0;
 +    mb_y = 0;
 +
 +    for (i = 0; i < slice_count; i++) {
 +        SliceContext *slice = &ctx->slices[i];
 +
 +        slice->data = data_ptr;
 +        data_ptr += AV_RB16(index_ptr + i*2);
 +
 +        while (ctx->mb_width - mb_x < slice_mb_count)
 +            slice_mb_count >>= 1;
 +
 +        slice->mb_x = mb_x;
 +        slice->mb_y = mb_y;
 +        slice->mb_count = slice_mb_count;
 +        slice->data_size = data_ptr - slice->data;
 +
 +        if (slice->data_size < 6) {
 +            av_log(avctx, AV_LOG_ERROR, "error, wrong slice data size\n");
 +            return -1;
 +        }
 +
 +        mb_x += slice_mb_count;
 +        if (mb_x == ctx->mb_width) {
 +            slice_mb_count = 1 << log2_slice_mb_width;
 +            mb_x = 0;
 +            mb_y++;
 +        }
 +        if (data_ptr > buf + buf_size) {
 +            av_log(avctx, AV_LOG_ERROR, "error, slice out of bounds\n");
 +            return -1;
 +        }
 +    }
 +
 +    if (mb_x || mb_y != ctx->mb_height) {
 +        av_log(avctx, AV_LOG_ERROR, "error wrong mb count y %d h %d\n",
 +               mb_y, ctx->mb_height);
 +        return -1;
 +    }
 +
 +    return pic_data_size;
 +}
 +
 +#define DECODE_CODEWORD(val, codebook)                                  \
 +    do {                                                                \
 +        unsigned int rice_order, exp_order, switch_bits;                \
 +        unsigned int q, buf, bits;                                      \
 +                                                                        \
 +        UPDATE_CACHE(re, gb);                                           \
 +        buf = GET_CACHE(re, gb);                                        \
 +                                                                        \
 +        /* number of bits to switch between rice and exp golomb */      \
 +        switch_bits =  codebook & 3;                                    \
 +        rice_order  =  codebook >> 5;                                   \
 +        exp_order   = (codebook >> 2) & 7;                              \
 +                                                                        \
 +        q = 31 - av_log2(buf);                                          \
 +                                                                        \
 +        if (q > switch_bits) { /* exp golomb */                         \
 +            bits = exp_order - switch_bits + (q<<1);                    \
 +            val = SHOW_UBITS(re, gb, bits) - (1 << exp_order) +         \
 +                ((switch_bits + 1) << rice_order);                      \
 +            SKIP_BITS(re, gb, bits);                                    \
 +        } else if (rice_order) {                                        \
 +            SKIP_BITS(re, gb, q+1);                                     \
 +            val = (q << rice_order) + SHOW_UBITS(re, gb, rice_order);   \
 +            SKIP_BITS(re, gb, rice_order);                              \
 +        } else {                                                        \
 +            val = q;                                                    \
 +            SKIP_BITS(re, gb, q+1);                                     \
 +        }                                                               \
 +    } while (0)
 +
 +#define TOSIGNED(x) (((x) >> 1) ^ (-((x) & 1)))
 +
 +#define FIRST_DC_CB 0xB8
 +
 +static const uint8_t dc_codebook[7] = { 0x04, 0x28, 0x28, 0x4D, 0x4D, 0x70, 0x70};
 +
 +static av_always_inline void decode_dc_coeffs(GetBitContext *gb, DCTELEM *out,
 +                                              int blocks_per_slice)
 +{
 +    DCTELEM prev_dc;
 +    int code, i, sign;
 +
 +    OPEN_READER(re, gb);
 +
 +    DECODE_CODEWORD(code, FIRST_DC_CB);
 +    prev_dc = TOSIGNED(code);
 +    out[0] = prev_dc;
 +
 +    out += 64; // dc coeff for the next block
 +
 +    code = 5;
 +    sign = 0;
 +    for (i = 1; i < blocks_per_slice; i++, out += 64) {
 +        DECODE_CODEWORD(code, dc_codebook[FFMIN(code, 6U)]);
 +        if(code) sign ^= -(code & 1);
 +        else     sign  = 0;
 +        prev_dc += (((code + 1) >> 1) ^ sign) - sign;
 +        out[0] = prev_dc;
 +    }
 +    CLOSE_READER(re, gb);
 +}
 +
 +// adaptive codebook switching lut according to previous run/level values
 +static const uint8_t run_to_cb[16] = { 0x06, 0x06, 0x05, 0x05, 0x04, 0x29, 0x29, 0x29, 0x29, 0x28, 0x28, 0x28, 0x28, 0x28, 0x28, 0x4C };
 +static const uint8_t lev_to_cb[10] = { 0x04, 0x0A, 0x05, 0x06, 0x04, 0x28, 0x28, 0x28, 0x28, 0x4C };
 +
 +static av_always_inline void decode_ac_coeffs(AVCodecContext *avctx, GetBitContext *gb,
 +                                              DCTELEM *out, int blocks_per_slice)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    int block_mask, sign;
 +    unsigned pos, run, level;
 +    int max_coeffs, i, bits_left;
 +    int log2_block_count = av_log2(blocks_per_slice);
 +
 +    OPEN_READER(re, gb);
 +    UPDATE_CACHE(re, gb);                                           \
 +    run   = 4;
 +    level = 2;
 +
 +    max_coeffs = 64 << log2_block_count;
 +    block_mask = blocks_per_slice - 1;
 +
 +    for (pos = block_mask;;) {
 +        bits_left = gb->size_in_bits - re_index;
 +        if (!bits_left || (bits_left < 32 && !SHOW_UBITS(re, gb, bits_left)))
 +            break;
 +
 +        DECODE_CODEWORD(run, run_to_cb[FFMIN(run,  15)]);
 +        pos += run + 1;
 +        if (pos >= max_coeffs) {
 +            av_log(avctx, AV_LOG_ERROR, "ac tex damaged %d, %d\n", pos, max_coeffs);
 +            return;
 +        }
 +
 +        DECODE_CODEWORD(level, lev_to_cb[FFMIN(level, 9)]);
 +        level += 1;
 +
 +        i = pos >> log2_block_count;
 +
 +        sign = SHOW_SBITS(re, gb, 1);
 +        SKIP_BITS(re, gb, 1);
 +        out[((pos & block_mask) << 6) + ctx->scan[i]] = ((level ^ sign) - sign);
 +    }
 +
 +    CLOSE_READER(re, gb);
 +}
 +
 +static void decode_slice_luma(AVCodecContext *avctx, SliceContext *slice,
 +                              uint16_t *dst, int dst_stride,
 +                              const uint8_t *buf, unsigned buf_size,
 +                              const int16_t *qmat)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    LOCAL_ALIGNED_16(DCTELEM, blocks, [8*4*64]);
 +    DCTELEM *block;
 +    GetBitContext gb;
 +    int i, blocks_per_slice = slice->mb_count<<2;
 +
 +    for (i = 0; i < blocks_per_slice; i++)
 +        ctx->dsp.clear_block(blocks+(i<<6));
 +
 +    init_get_bits(&gb, buf, buf_size << 3);
 +
 +    decode_dc_coeffs(&gb, blocks, blocks_per_slice);
 +    decode_ac_coeffs(avctx, &gb, blocks, blocks_per_slice);
 +
 +    block = blocks;
 +    for (i = 0; i < slice->mb_count; i++) {
 +        ctx->prodsp.idct_put(dst, dst_stride, block+(0<<6), qmat);
 +        ctx->prodsp.idct_put(dst             +8, dst_stride, block+(1<<6), qmat);
 +        ctx->prodsp.idct_put(dst+4*dst_stride  , dst_stride, block+(2<<6), qmat);
 +        ctx->prodsp.idct_put(dst+4*dst_stride+8, dst_stride, block+(3<<6), qmat);
 +        block += 4*64;
 +        dst += 16;
 +    }
 +}
 +
 +static void decode_slice_chroma(AVCodecContext *avctx, SliceContext *slice,
 +                                uint16_t *dst, int dst_stride,
 +                                const uint8_t *buf, unsigned buf_size,
 +                                const int16_t *qmat, int log2_blocks_per_mb)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    LOCAL_ALIGNED_16(DCTELEM, blocks, [8*4*64]);
 +    DCTELEM *block;
 +    GetBitContext gb;
 +    int i, j, blocks_per_slice = slice->mb_count << log2_blocks_per_mb;
 +
 +    for (i = 0; i < blocks_per_slice; i++)
 +        ctx->dsp.clear_block(blocks+(i<<6));
 +
 +    init_get_bits(&gb, buf, buf_size << 3);
 +
 +    decode_dc_coeffs(&gb, blocks, blocks_per_slice);
 +    decode_ac_coeffs(avctx, &gb, blocks, blocks_per_slice);
 +
 +    block = blocks;
 +    for (i = 0; i < slice->mb_count; i++) {
 +        for (j = 0; j < log2_blocks_per_mb; j++) {
 +            ctx->prodsp.idct_put(dst,              dst_stride, block+(0<<6), qmat);
 +            ctx->prodsp.idct_put(dst+4*dst_stride, dst_stride, block+(1<<6), qmat);
 +            block += 2*64;
 +            dst += 8;
 +        }
 +    }
 +}
 +
 +static int decode_slice_thread(AVCodecContext *avctx, void *arg, int jobnr, int threadnr)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    SliceContext *slice = &ctx->slices[jobnr];
 +    const uint8_t *buf = slice->data;
 +    AVFrame *pic = avctx->coded_frame;
 +    int i, hdr_size, qscale, log2_chroma_blocks_per_mb;
 +    int luma_stride, chroma_stride;
 +    int y_data_size, u_data_size, v_data_size;
 +    uint8_t *dest_y, *dest_u, *dest_v;
 +    int16_t qmat_luma_scaled[64];
 +    int16_t qmat_chroma_scaled[64];
 +    int mb_x_shift;
 +
 +    slice->ret = -1;
 +    //av_log(avctx, AV_LOG_INFO, "slice %d mb width %d mb x %d y %d\n",
 +    //       jobnr, slice->mb_count, slice->mb_x, slice->mb_y);
 +
 +    // slice header
 +    hdr_size = buf[0] >> 3;
 +    qscale = av_clip(buf[1], 1, 224);
 +    qscale = qscale > 128 ? qscale - 96 << 2: qscale;
 +    y_data_size = AV_RB16(buf + 2);
 +    u_data_size = AV_RB16(buf + 4);
 +    v_data_size = slice->data_size - y_data_size - u_data_size - hdr_size;
 +    if (hdr_size > 7) v_data_size = AV_RB16(buf + 6);
 +
 +    if (y_data_size < 0 || u_data_size < 0 || v_data_size < 0
 +        || hdr_size+y_data_size+u_data_size+v_data_size > slice->data_size){
 +        av_log(avctx, AV_LOG_ERROR, "invalid plane data size\n");
 +        return -1;
 +    }
 +
 +    buf += hdr_size;
 +
 +    for (i = 0; i < 64; i++) {
 +        qmat_luma_scaled  [i] = ctx->qmat_luma  [i] * qscale;
 +        qmat_chroma_scaled[i] = ctx->qmat_chroma[i] * qscale;
 +    }
 +
 +    if (ctx->frame_type == 0) {
 +        luma_stride   = pic->linesize[0];
 +        chroma_stride = pic->linesize[1];
 +    } else {
 +        luma_stride   = pic->linesize[0] << 1;
 +        chroma_stride = pic->linesize[1] << 1;
 +    }
 +
 +    if (avctx->pix_fmt == AV_PIX_FMT_YUV444P10) {
 +        mb_x_shift = 5;
 +        log2_chroma_blocks_per_mb = 2;
 +    } else {
 +        mb_x_shift = 4;
 +        log2_chroma_blocks_per_mb = 1;
 +    }
 +
 +    dest_y = pic->data[0] + (slice->mb_y << 4) * luma_stride + (slice->mb_x << 5);
 +    dest_u = pic->data[1] + (slice->mb_y << 4) * chroma_stride + (slice->mb_x << mb_x_shift);
 +    dest_v = pic->data[2] + (slice->mb_y << 4) * chroma_stride + (slice->mb_x << mb_x_shift);
 +
 +    if (ctx->frame_type && ctx->first_field ^ ctx->frame.top_field_first) {
 +        dest_y += pic->linesize[0];
 +        dest_u += pic->linesize[1];
 +        dest_v += pic->linesize[2];
 +    }
 +
 +    decode_slice_luma(avctx, slice, (uint16_t*)dest_y, luma_stride,
 +                      buf, y_data_size, qmat_luma_scaled);
 +
 +    if (!(avctx->flags & CODEC_FLAG_GRAY)) {
 +        decode_slice_chroma(avctx, slice, (uint16_t*)dest_u, chroma_stride,
 +                            buf + y_data_size, u_data_size,
 +                            qmat_chroma_scaled, log2_chroma_blocks_per_mb);
 +        decode_slice_chroma(avctx, slice, (uint16_t*)dest_v, chroma_stride,
 +                            buf + y_data_size + u_data_size, v_data_size,
 +                            qmat_chroma_scaled, log2_chroma_blocks_per_mb);
 +    }
 +
 +    slice->ret = 0;
 +    return 0;
 +}
 +
 +static int decode_picture(AVCodecContext *avctx)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    int i;
 +
 +    avctx->execute2(avctx, decode_slice_thread, NULL, NULL, ctx->slice_count);
 +
 +    for (i = 0; i < ctx->slice_count; i++)
 +        if (ctx->slices[i].ret < 0)
 +            return ctx->slices[i].ret;
 +
 +    return 0;
 +}
 +
 +static int decode_frame(AVCodecContext *avctx, void *data, int *data_size,
 +                        AVPacket *avpkt)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +    AVFrame *frame = avctx->coded_frame;
 +    const uint8_t *buf = avpkt->data;
 +    int buf_size = avpkt->size;
 +    int frame_hdr_size, pic_size;
 +
 +    if (buf_size < 28 || AV_RL32(buf + 4) != AV_RL32("icpf")) {
 +        av_log(avctx, AV_LOG_ERROR, "invalid frame header\n");
 +        return -1;
 +    }
 +
 +    ctx->first_field = 1;
 +
 +    buf += 8;
 +    buf_size -= 8;
 +
 +    frame_hdr_size = decode_frame_header(ctx, buf, buf_size, avctx);
 +    if (frame_hdr_size < 0)
 +        return -1;
 +
 +    buf += frame_hdr_size;
 +    buf_size -= frame_hdr_size;
 +
 +    if (frame->data[0])
 +        avctx->release_buffer(avctx, frame);
 +
++    if (ff_get_buffer(avctx, frame) < 0)
 +        return -1;
 +
 + decode_picture:
 +    pic_size = decode_picture_header(avctx, buf, buf_size);
 +    if (pic_size < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "error decoding picture header\n");
 +        return -1;
 +    }
 +
 +    if (decode_picture(avctx)) {
 +        av_log(avctx, AV_LOG_ERROR, "error decoding picture\n");
 +        return -1;
 +    }
 +
 +    buf += pic_size;
 +    buf_size -= pic_size;
 +
 +    if (ctx->frame_type && buf_size > 0 && ctx->first_field) {
 +        ctx->first_field = 0;
 +        goto decode_picture;
 +    }
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame*)data = *frame;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int decode_close(AVCodecContext *avctx)
 +{
 +    ProresContext *ctx = avctx->priv_data;
 +
 +    AVFrame *frame = avctx->coded_frame;
 +    if (frame->data[0])
 +        avctx->release_buffer(avctx, frame);
 +    av_freep(&ctx->slices);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_prores_decoder = {
 +    .name           = "prores",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_PRORES,
 +    .priv_data_size = sizeof(ProresContext),
 +    .init           = decode_init,
 +    .close          = decode_close,
 +    .decode         = decode_frame,
 +    .long_name      = NULL_IF_CONFIG_SMALL("ProRes"),
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_SLICE_THREADS,
 +};
Simple merge
index 9a52924d3d3063a95f225b9214d72f2af8dcb4d5,73d9da3f1c35b609ee84e3babab130b644bb8a60..ed6f0e1171564355398505e7ca295efb1c92499b
@@@ -958,11 -919,9 +958,11 @@@ int ff_thread_get_buffer(AVCodecContex
  
      f->owner = avctx;
  
 +    ff_init_buffer_info(avctx, f);
 +
      if (!(avctx->active_thread_type&FF_THREAD_FRAME)) {
          f->thread_opaque = NULL;
-         return avctx->get_buffer(avctx, f);
+         return ff_get_buffer(avctx, f);
      }
  
      if (p->state != STATE_SETTING_UP &&
  
      if (avctx->thread_safe_callbacks ||
          avctx->get_buffer == avcodec_default_get_buffer) {
-         err = avctx->get_buffer(avctx, f);
+         err = ff_get_buffer(avctx, f);
      } else {
 +        pthread_mutex_lock(&p->progress_mutex);
          p->requested_frame = f;
          p->state = STATE_GET_BUFFER;
 -        pthread_mutex_lock(&p->progress_mutex);
 -        pthread_cond_signal(&p->progress_cond);
 +        pthread_cond_broadcast(&p->progress_cond);
  
          while (p->state != STATE_SETTING_UP)
              pthread_cond_wait(&p->progress_cond, &p->progress_mutex);
Simple merge
Simple merge
Simple merge
Simple merge
index 0a7c788077953625ff04bbb39c03531dd7b45b76,1ee764bb991b6f26344fd521f607062751bf5b80..565f6ad6c3170af9159c3e907aaabd83f17c1040
@@@ -26,6 -26,6 +26,7 @@@
  
  #include "avcodec.h"
  #include "bytestream.h"
++#include "internal.h"
  
  typedef struct QpegContext{
      AVCodecContext *avctx;
@@@ -266,14 -256,9 +267,14 @@@ static int decode_frame(AVCodecContext 
      }
  
      bytestream2_init(&a->buffer, avpkt->data, avpkt->size);
 -    p->reference = 3;
 -    if (avctx->reget_buffer(avctx, p) < 0) {
 -        av_log(avctx, AV_LOG_ERROR, "reget_buffer() failed\n");
 +
 +    if(ref->data[0])
 +        avctx->release_buffer(avctx, ref);
 +    FFSWAP(AVFrame, *ref, *p);
 +
 +    p->reference= 3;
-     if(avctx->get_buffer(avctx, p) < 0){
++    if(ff_get_buffer(avctx, p) < 0){
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
      outdata = a->pic.data[0];
Simple merge
Simple merge
Simple merge
index c51fbd5873a7aeea1c8cf54523ab2ba62174a98e,9eea92a4eeda5ff534eb3bdd99c3099d88c10717..2e2d946fa2f7ee7e3224c6d4c04eeed36e7d198c
@@@ -185,9 -184,9 +186,9 @@@ static int rl2_decode_frame(AVCodecCont
  
      /** get buffer */
      s->frame.reference= 0;
-     if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0) {
 -    if(ff_get_buffer(avctx, &s->frame)) {
++    if ((ret = ff_get_buffer(avctx, &s->frame)) < 0) {
          av_log(s->avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +        return ret;
      }
  
      /** run length decode */
Simple merge
Simple merge
index 766ac68e71525de1fff55d64490b57a95cfde414,0000000000000000000000000000000000000000..7432fa273f13af72269b287dde5b63d57eac07ab
mode 100644,000000..100644
--- /dev/null
@@@ -1,1282 -1,0 +1,1283 @@@
-     if ((ret = ctx->avctx->get_buffer(ctx->avctx, ctx->output)) < 0) {
 +/*
 + * LucasArts Smush video decoder
 + * Copyright (c) 2006 Cyril Zorin
 + * Copyright (c) 2011 Konstantin Shishkov
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +// #define DEBUG 1
 +
 +#include "avcodec.h"
 +#include "bytestream.h"
++#include "internal.h"
 +#include "libavutil/bswap.h"
 +#include "libavcodec/dsputil.h"
 +#include "sanm_data.h"
 +
 +#define NGLYPHS 256
 +
 +typedef struct {
 +    AVCodecContext *avctx;
 +    GetByteContext gb;
 +
 +    int version, subversion;
 +    uint32_t pal[256];
 +    int16_t delta_pal[768];
 +
 +    int pitch;
 +    int width, height;
 +    int aligned_width, aligned_height;
 +    int prev_seq;
 +
 +    AVFrame frame, *output;
 +    uint16_t *frm0, *frm1, *frm2;
 +    uint8_t *stored_frame;
 +    uint32_t frm0_size, frm1_size, frm2_size;
 +    uint32_t stored_frame_size;
 +
 +    uint8_t *rle_buf;
 +    unsigned int rle_buf_size;
 +
 +    int rotate_code;
 +
 +    long npixels, buf_size;
 +
 +    uint16_t codebook[256];
 +    uint16_t small_codebook[4];
 +
 +    int8_t p4x4glyphs[NGLYPHS][16];
 +    int8_t p8x8glyphs[NGLYPHS][64];
 +} SANMVideoContext;
 +
 +typedef struct {
 +    int seq_num, codec, rotate_code, rle_output_size;
 +
 +    uint16_t bg_color;
 +    uint32_t width, height;
 +} SANMFrameHeader;
 +
 +enum GlyphEdge {
 +    LEFT_EDGE,
 +    TOP_EDGE,
 +    RIGHT_EDGE,
 +    BOTTOM_EDGE,
 +    NO_EDGE
 +};
 +
 +enum GlyphDir {
 +    DIR_LEFT,
 +    DIR_UP,
 +    DIR_RIGHT,
 +    DIR_DOWN,
 +    NO_DIR
 +};
 +
 +/**
 + * Return enum GlyphEdge of box where point (x, y) lies.
 + *
 + * @param x x point coordinate
 + * @param y y point coordinate
 + * @param edge_size box width/height.
 + */
 +static enum GlyphEdge which_edge(int x, int y, int edge_size)
 +{
 +    const int edge_max = edge_size - 1;
 +
 +    if (!y) {
 +        return BOTTOM_EDGE;
 +    } else if (y == edge_max) {
 +        return TOP_EDGE;
 +    } else if (!x) {
 +        return LEFT_EDGE;
 +    } else if (x == edge_max) {
 +        return RIGHT_EDGE;
 +    } else {
 +        return NO_EDGE;
 +    }
 +}
 +
 +static enum GlyphDir which_direction(enum GlyphEdge edge0, enum GlyphEdge edge1)
 +{
 +    if ((edge0 == LEFT_EDGE && edge1 == RIGHT_EDGE) ||
 +        (edge1 == LEFT_EDGE && edge0 == RIGHT_EDGE) ||
 +        (edge0 == BOTTOM_EDGE && edge1 != TOP_EDGE) ||
 +        (edge1 == BOTTOM_EDGE && edge0 != TOP_EDGE)) {
 +        return DIR_UP;
 +    } else if ((edge0 == TOP_EDGE && edge1 != BOTTOM_EDGE) ||
 +               (edge1 == TOP_EDGE && edge0 != BOTTOM_EDGE)) {
 +        return DIR_DOWN;
 +    } else if ((edge0 == LEFT_EDGE && edge1 != RIGHT_EDGE) ||
 +               (edge1 == LEFT_EDGE && edge0 != RIGHT_EDGE)) {
 +        return DIR_LEFT;
 +    } else if ((edge0 == TOP_EDGE && edge1 == BOTTOM_EDGE) ||
 +               (edge1 == TOP_EDGE && edge0 == BOTTOM_EDGE) ||
 +               (edge0 == RIGHT_EDGE && edge1 != LEFT_EDGE) ||
 +               (edge1 == RIGHT_EDGE && edge0 != LEFT_EDGE)) {
 +        return DIR_RIGHT;
 +    }
 +
 +    return NO_DIR;
 +}
 +
 +/**
 + * Interpolate two points.
 + */
 +static void interp_point(int8_t *points, int x0, int y0, int x1, int y1,
 +                         int pos, int npoints)
 +{
 +    if (npoints) {
 +        points[0] = (x0 * pos + x1 * (npoints - pos) + (npoints >> 1)) / npoints;
 +        points[1] = (y0 * pos + y1 * (npoints - pos) + (npoints >> 1)) / npoints;
 +    } else {
 +        points[0] = x0;
 +        points[1] = y0;
 +    }
 +}
 +
 +/**
 + * Construct glyphs by iterating through vectors coordinates.
 + *
 + * @param pglyphs pointer to table where glyphs are stored
 + * @param xvec pointer to x component of vectors coordinates
 + * @param yvec pointer to y component of vectors coordinates
 + * @param side_length glyph width/height.
 + */
 +static void make_glyphs(int8_t *pglyphs, const int8_t *xvec, const int8_t *yvec,
 +                        const int side_length)
 +{
 +    const int glyph_size = side_length * side_length;
 +    int8_t *pglyph = pglyphs;
 +
 +    int i, j;
 +    for (i = 0; i < GLYPH_COORD_VECT_SIZE; i++) {
 +        int x0    = xvec[i];
 +        int y0    = yvec[i];
 +        enum GlyphEdge edge0 = which_edge(x0, y0, side_length);
 +
 +        for (j = 0; j < GLYPH_COORD_VECT_SIZE; j++, pglyph += glyph_size) {
 +            int x1      = xvec[j];
 +            int y1      = yvec[j];
 +            enum GlyphEdge edge1   = which_edge(x1, y1, side_length);
 +            enum GlyphDir  dir     = which_direction(edge0, edge1);
 +            int npoints = FFMAX(FFABS(x1 - x0), FFABS(y1 - y0));
 +            int ipoint;
 +
 +            for (ipoint = 0; ipoint <= npoints; ipoint++) {
 +                int8_t point[2];
 +                int irow, icol;
 +
 +                interp_point(point, x0, y0, x1, y1, ipoint, npoints);
 +
 +                switch (dir) {
 +                case DIR_UP:
 +                    for (irow = point[1]; irow >= 0; irow--)
 +                        pglyph[point[0] + irow * side_length] = 1;
 +                    break;
 +
 +                case DIR_DOWN:
 +                    for (irow = point[1]; irow < side_length; irow++)
 +                        pglyph[point[0] + irow * side_length] = 1;
 +                    break;
 +
 +                case DIR_LEFT:
 +                    for (icol = point[0]; icol >= 0; icol--)
 +                        pglyph[icol + point[1] * side_length] = 1;
 +                    break;
 +
 +                case DIR_RIGHT:
 +                    for (icol = point[0]; icol < side_length; icol++)
 +                        pglyph[icol + point[1] * side_length] = 1;
 +                    break;
 +                }
 +            }
 +        }
 +    }
 +}
 +
 +static void init_sizes(SANMVideoContext *ctx, int width, int height)
 +{
 +    ctx->width   = width;
 +    ctx->height  = height;
 +    ctx->npixels = width * height;
 +
 +    ctx->aligned_width  = FFALIGN(width,  8);
 +    ctx->aligned_height = FFALIGN(height, 8);
 +
 +    ctx->buf_size = ctx->aligned_width * ctx->aligned_height * sizeof(ctx->frm0[0]);
 +    ctx->pitch    = width;
 +}
 +
 +static void destroy_buffers(SANMVideoContext *ctx)
 +{
 +    av_freep(&ctx->frm0);
 +    av_freep(&ctx->frm1);
 +    av_freep(&ctx->frm2);
 +    av_freep(&ctx->stored_frame);
 +    av_freep(&ctx->rle_buf);
 +}
 +
 +static av_cold int init_buffers(SANMVideoContext *ctx)
 +{
 +    av_fast_padded_malloc(&ctx->frm0, &ctx->frm0_size, ctx->buf_size);
 +    av_fast_padded_malloc(&ctx->frm1, &ctx->frm1_size, ctx->buf_size);
 +    av_fast_padded_malloc(&ctx->frm2, &ctx->frm2_size, ctx->buf_size);
 +    if (!ctx->version)
 +        av_fast_padded_malloc(&ctx->stored_frame, &ctx->stored_frame_size, ctx->buf_size);
 +
 +    if (!ctx->frm0 || !ctx->frm1 || !ctx->frm2 || (!ctx->stored_frame && !ctx->version)) {
 +        destroy_buffers(ctx);
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static void rotate_bufs(SANMVideoContext *ctx, int rotate_code)
 +{
 +    av_dlog(ctx->avctx, "rotate %d\n", rotate_code);
 +    if (rotate_code == 2)
 +        FFSWAP(uint16_t*, ctx->frm1, ctx->frm2);
 +    FFSWAP(uint16_t*, ctx->frm2, ctx->frm0);
 +}
 +
 +static av_cold int decode_init(AVCodecContext *avctx)
 +{
 +    SANMVideoContext *ctx = avctx->priv_data;
 +
 +    ctx->avctx     = avctx;
 +    ctx->version   = !avctx->extradata_size;
 +
 +    avctx->pix_fmt = ctx->version ? AV_PIX_FMT_RGB565 : AV_PIX_FMT_PAL8;
 +
 +    init_sizes(ctx, avctx->width, avctx->height);
 +    if (init_buffers(ctx)) {
 +        av_log(avctx, AV_LOG_ERROR, "error allocating buffers\n");
 +        return AVERROR(ENOMEM);
 +    }
 +    ctx->output          = &ctx->frame;
 +    ctx->output->data[0] = 0;
 +
 +    make_glyphs(ctx->p4x4glyphs[0], glyph4_x, glyph4_y, 4);
 +    make_glyphs(ctx->p8x8glyphs[0], glyph8_x, glyph8_y, 8);
 +
 +    if (!ctx->version) {
 +        int i;
 +
 +        if (avctx->extradata_size < 1026) {
 +            av_log(avctx, AV_LOG_ERROR, "not enough extradata\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +
 +        ctx->subversion = AV_RL16(avctx->extradata);
 +        for (i = 0; i < 256; i++)
 +            ctx->pal[i] = 0xFFU << 24 | AV_RL32(avctx->extradata + 2 + i * 4);
 +    }
 +
 +    return 0;
 +}
 +
 +static av_cold int decode_end(AVCodecContext *avctx)
 +{
 +    SANMVideoContext *ctx = avctx->priv_data;
 +
 +    destroy_buffers(ctx);
 +
 +    if (ctx->frame.data[0]) {
 +        avctx->release_buffer(avctx, &ctx->frame);
 +        ctx->frame.data[0] = 0;
 +    }
 +
 +    return 0;
 +}
 +
 +static int rle_decode(SANMVideoContext *ctx, uint8_t *dst, const int out_size)
 +{
 +    int opcode, color, run_len, left = out_size;
 +
 +    while (left > 0) {
 +        opcode = bytestream2_get_byte(&ctx->gb);
 +        run_len = (opcode >> 1) + 1;
 +        if (run_len > left || bytestream2_get_bytes_left(&ctx->gb) <= 0)
 +            return AVERROR_INVALIDDATA;
 +
 +        if (opcode & 1) {
 +            color = bytestream2_get_byte(&ctx->gb);
 +            memset(dst, color, run_len);
 +        } else {
 +            if (bytestream2_get_bytes_left(&ctx->gb) < run_len)
 +                return AVERROR_INVALIDDATA;
 +            bytestream2_get_bufferu(&ctx->gb, dst, run_len);
 +        }
 +
 +        dst  += run_len;
 +        left -= run_len;
 +    }
 +
 +    return 0;
 +}
 +
 +static int old_codec1(SANMVideoContext *ctx, int top,
 +                      int left, int width, int height)
 +{
 +    uint8_t *dst = ((uint8_t*)ctx->frm0) + left + top * ctx->pitch;
 +    int i, j, len, flag, code, val, pos, end;
 +
 +    for (i = 0; i < height; i++) {
 +        pos = 0;
 +
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 2)
 +            return AVERROR_INVALIDDATA;
 +
 +        len = bytestream2_get_le16u(&ctx->gb);
 +        end = bytestream2_tell(&ctx->gb) + len;
 +
 +        while (bytestream2_tell(&ctx->gb) < end) {
 +            if (bytestream2_get_bytes_left(&ctx->gb) < 2)
 +                return AVERROR_INVALIDDATA;
 +
 +            code = bytestream2_get_byteu(&ctx->gb);
 +            flag = code & 1;
 +            code = (code >> 1) + 1;
 +            if (pos + code > width)
 +                return AVERROR_INVALIDDATA;
 +            if (flag) {
 +                val = bytestream2_get_byteu(&ctx->gb);
 +                if (val)
 +                    memset(dst + pos, val, code);
 +                pos += code;
 +            } else {
 +                if (bytestream2_get_bytes_left(&ctx->gb) < code)
 +                    return AVERROR_INVALIDDATA;
 +                for (j = 0; j < code; j++) {
 +                    val = bytestream2_get_byteu(&ctx->gb);
 +                    if (val)
 +                        dst[pos] = val;
 +                    pos++;
 +                }
 +            }
 +        }
 +        dst += ctx->pitch;
 +    }
 +    ctx->rotate_code = 0;
 +
 +    return 0;
 +}
 +
 +static inline void codec37_mv(uint8_t *dst, const uint8_t *src,
 +                              int height, int stride, int x, int y)
 +{
 +    int pos, i, j;
 +
 +    pos = x + y * stride;
 +    for (j = 0; j < 4; j++) {
 +        for (i = 0; i < 4; i++) {
 +            if ((pos + i) < 0 || (pos + i) >= height * stride)
 +                dst[i] = 0;
 +            else
 +                dst[i] = src[i];
 +        }
 +        dst += stride;
 +        src += stride;
 +        pos += stride;
 +    }
 +}
 +
 +static int old_codec37(SANMVideoContext *ctx, int top,
 +                       int left, int width, int height)
 +{
 +    int stride = ctx->pitch;
 +    int i, j, k, t;
 +    int skip_run = 0;
 +    int compr, mvoff, seq, flags;
 +    uint32_t decoded_size;
 +    uint8_t *dst, *prev;
 +
 +    compr        = bytestream2_get_byte(&ctx->gb);
 +    mvoff        = bytestream2_get_byte(&ctx->gb);
 +    seq          = bytestream2_get_le16(&ctx->gb);
 +    decoded_size = bytestream2_get_le32(&ctx->gb);
 +    bytestream2_skip(&ctx->gb, 4);
 +    flags        = bytestream2_get_byte(&ctx->gb);
 +    bytestream2_skip(&ctx->gb, 3);
 +
 +    ctx->rotate_code = 0;
 +
 +    if (((seq & 1) || !(flags & 1)) && (compr && compr != 2))
 +        rotate_bufs(ctx, 1);
 +
 +    dst  = ((uint8_t*)ctx->frm0) + left + top * stride;
 +    prev = ((uint8_t*)ctx->frm2) + left + top * stride;
 +
 +    if (mvoff > 2) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "invalid motion base value %d\n", mvoff);
 +        return AVERROR_INVALIDDATA;
 +    }
 +    av_dlog(ctx->avctx, "compression %d\n", compr);
 +    switch (compr) {
 +    case 0:
 +        for (i = 0; i < height; i++) {
 +            bytestream2_get_buffer(&ctx->gb, dst, width);
 +            dst += stride;
 +        }
 +        memset(ctx->frm1, 0, ctx->height * stride);
 +        memset(ctx->frm2, 0, ctx->height * stride);
 +        break;
 +    case 2:
 +        if (rle_decode(ctx, dst, decoded_size))
 +            return AVERROR_INVALIDDATA;
 +        memset(ctx->frm1, 0, ctx->frm1_size);
 +        memset(ctx->frm2, 0, ctx->frm2_size);
 +        break;
 +    case 3:
 +    case 4:
 +        if (flags & 4) {
 +            for (j = 0; j < height; j += 4) {
 +                for (i = 0; i < width; i += 4) {
 +                    int code;
 +                    if (skip_run) {
 +                        skip_run--;
 +                        copy_block4(dst + i, prev + i, stride, stride, 4);
 +                        continue;
 +                    }
 +                    if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +                        return AVERROR_INVALIDDATA;
 +                    code = bytestream2_get_byteu(&ctx->gb);
 +                    switch (code) {
 +                    case 0xFF:
 +                        if (bytestream2_get_bytes_left(&ctx->gb) < 16)
 +                            return AVERROR_INVALIDDATA;
 +                        for (k = 0; k < 4; k++)
 +                            bytestream2_get_bufferu(&ctx->gb, dst + i + k * stride, 4);
 +                        break;
 +                    case 0xFE:
 +                        if (bytestream2_get_bytes_left(&ctx->gb) < 4)
 +                            return AVERROR_INVALIDDATA;
 +                        for (k = 0; k < 4; k++)
 +                            memset(dst + i + k * stride, bytestream2_get_byteu(&ctx->gb), 4);
 +                        break;
 +                    case 0xFD:
 +                        if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +                            return AVERROR_INVALIDDATA;
 +                        t = bytestream2_get_byteu(&ctx->gb);
 +                        for (k = 0; k < 4; k++)
 +                            memset(dst + i + k * stride, t, 4);
 +                        break;
 +                    default:
 +                        if (compr == 4 && !code) {
 +                            if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +                                return AVERROR_INVALIDDATA;
 +                            skip_run = bytestream2_get_byteu(&ctx->gb) + 1;
 +                            i -= 4;
 +                        } else {
 +                            int mx, my;
 +
 +                            mx = c37_mv[(mvoff * 255 + code) * 2    ];
 +                            my = c37_mv[(mvoff * 255 + code) * 2 + 1];
 +                            codec37_mv(dst + i, prev + i + mx + my * stride,
 +                                       ctx->height, stride, i + mx, j + my);
 +                        }
 +                    }
 +                }
 +                dst  += stride * 4;
 +                prev += stride * 4;
 +            }
 +        } else {
 +            for (j = 0; j < height; j += 4) {
 +                for (i = 0; i < width; i += 4) {
 +                    int code;
 +                    if (skip_run) {
 +                        skip_run--;
 +                        copy_block4(dst + i, prev + i, stride, stride, 4);
 +                        continue;
 +                    }
 +                    code = bytestream2_get_byte(&ctx->gb);
 +                    if (code == 0xFF) {
 +                        if (bytestream2_get_bytes_left(&ctx->gb) < 16)
 +                            return AVERROR_INVALIDDATA;
 +                        for (k = 0; k < 4; k++)
 +                            bytestream2_get_bufferu(&ctx->gb, dst + i + k * stride, 4);
 +                    } else if (compr == 4 && !code) {
 +                        if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +                            return AVERROR_INVALIDDATA;
 +                        skip_run = bytestream2_get_byteu(&ctx->gb) + 1;
 +                        i -= 4;
 +                    } else {
 +                        int mx, my;
 +
 +                        mx = c37_mv[(mvoff * 255 + code) * 2];
 +                        my = c37_mv[(mvoff * 255 + code) * 2 + 1];
 +                        codec37_mv(dst + i, prev + i + mx + my * stride,
 +                                   ctx->height, stride, i + mx, j + my);
 +                    }
 +                }
 +                dst  += stride * 4;
 +                prev += stride * 4;
 +            }
 +        }
 +        break;
 +    default:
 +        av_log(ctx->avctx, AV_LOG_ERROR,
 +               "subcodec 37 compression %d not implemented\n", compr);
 +        return AVERROR_PATCHWELCOME;
 +    }
 +
 +    return 0;
 +}
 +
 +static int process_block(SANMVideoContext *ctx, uint8_t *dst, uint8_t *prev1,
 +                         uint8_t *prev2, int stride, int tbl, int size)
 +{
 +    int code, k, t;
 +    uint8_t colors[2];
 +    int8_t *pglyph;
 +
 +    if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +        return AVERROR_INVALIDDATA;
 +
 +    code = bytestream2_get_byteu(&ctx->gb);
 +    if (code >= 0xF8) {
 +        switch (code) {
 +        case 0xFF:
 +            if (size == 2) {
 +                if (bytestream2_get_bytes_left(&ctx->gb) < 4)
 +                    return AVERROR_INVALIDDATA;
 +                dst[0]        = bytestream2_get_byteu(&ctx->gb);
 +                dst[1]        = bytestream2_get_byteu(&ctx->gb);
 +                dst[0+stride] = bytestream2_get_byteu(&ctx->gb);
 +                dst[1+stride] = bytestream2_get_byteu(&ctx->gb);
 +            } else {
 +                size >>= 1;
 +                if (process_block(ctx, dst, prev1, prev2, stride, tbl, size))
 +                    return AVERROR_INVALIDDATA;
 +                if (process_block(ctx, dst + size, prev1 + size, prev2 + size,
 +                                  stride, tbl, size))
 +                    return AVERROR_INVALIDDATA;
 +                dst   += size * stride;
 +                prev1 += size * stride;
 +                prev2 += size * stride;
 +                if (process_block(ctx, dst, prev1, prev2, stride, tbl, size))
 +                    return AVERROR_INVALIDDATA;
 +                if (process_block(ctx, dst + size, prev1 + size, prev2 + size,
 +                                  stride, tbl, size))
 +                    return AVERROR_INVALIDDATA;
 +            }
 +            break;
 +        case 0xFE:
 +            if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +                return AVERROR_INVALIDDATA;
 +
 +            t = bytestream2_get_byteu(&ctx->gb);
 +            for (k = 0; k < size; k++)
 +                memset(dst + k * stride, t, size);
 +            break;
 +        case 0xFD:
 +            if (bytestream2_get_bytes_left(&ctx->gb) < 3)
 +                return AVERROR_INVALIDDATA;
 +
 +            code = bytestream2_get_byteu(&ctx->gb);
 +            pglyph = (size == 8) ? ctx->p8x8glyphs[code] : ctx->p4x4glyphs[code];
 +            bytestream2_get_bufferu(&ctx->gb, colors, 2);
 +
 +            for (k = 0; k < size; k++)
 +                for (t = 0; t < size; t++)
 +                    dst[t + k * stride] = colors[!*pglyph++];
 +            break;
 +        case 0xFC:
 +            for (k = 0; k < size; k++)
 +                memcpy(dst + k * stride, prev1 + k * stride, size);
 +            break;
 +        default:
 +            k = bytestream2_tell(&ctx->gb);
 +            bytestream2_seek(&ctx->gb, tbl + (code & 7), SEEK_SET);
 +            t = bytestream2_get_byte(&ctx->gb);
 +            bytestream2_seek(&ctx->gb, k, SEEK_SET);
 +            for (k = 0; k < size; k++)
 +                memset(dst + k * stride, t, size);
 +        }
 +    } else {
 +        int mx = motion_vectors[code][0];
 +        int my = motion_vectors[code][1];
 +        for (k = 0; k < size; k++)
 +            memcpy(dst + k * stride, prev2 + mx + (my + k) * stride, size);
 +    }
 +
 +    return 0;
 +}
 +
 +static int old_codec47(SANMVideoContext *ctx, int top,
 +                       int left, int width, int height)
 +{
 +    int i, j, seq, compr, new_rot, tbl_pos, skip;
 +    int stride     = ctx->pitch;
 +    uint8_t *dst   = ((uint8_t*)ctx->frm0) + left + top * stride;
 +    uint8_t *prev1 = (uint8_t*)ctx->frm1;
 +    uint8_t *prev2 = (uint8_t*)ctx->frm2;
 +    uint32_t decoded_size;
 +
 +    tbl_pos = bytestream2_tell(&ctx->gb);
 +    seq     = bytestream2_get_le16(&ctx->gb);
 +    compr   = bytestream2_get_byte(&ctx->gb);
 +    new_rot = bytestream2_get_byte(&ctx->gb);
 +    skip    = bytestream2_get_byte(&ctx->gb);
 +    bytestream2_skip(&ctx->gb, 9);
 +    decoded_size = bytestream2_get_le32(&ctx->gb);
 +    bytestream2_skip(&ctx->gb, 8);
 +
 +    if (skip & 1)
 +        bytestream2_skip(&ctx->gb, 0x8080);
 +    if (!seq) {
 +        ctx->prev_seq = -1;
 +        memset(prev1, 0, ctx->height * stride);
 +        memset(prev2, 0, ctx->height * stride);
 +    }
 +    av_dlog(ctx->avctx, "compression %d\n", compr);
 +    switch (compr) {
 +    case 0:
 +        if (bytestream2_get_bytes_left(&ctx->gb) < width * height)
 +            return AVERROR_INVALIDDATA;
 +        for (j = 0; j < height; j++) {
 +            for (i = 0; i < width; i++)
 +                bytestream2_get_bufferu(&ctx->gb, dst, width);
 +            dst += stride;
 +        }
 +        break;
 +    case 1:
 +        if (bytestream2_get_bytes_left(&ctx->gb) < ((width + 1) >> 1) * ((height + 1) >> 1))
 +            return AVERROR_INVALIDDATA;
 +        for (j = 0; j < height; j += 2) {
 +            for (i = 0; i < width; i += 2) {
 +                dst[i] = dst[i + 1] =
 +                dst[stride + i] = dst[stride + i + 1] = bytestream2_get_byteu(&ctx->gb);
 +            }
 +            dst += stride * 2;
 +        }
 +        break;
 +    case 2:
 +        if (seq == ctx->prev_seq + 1) {
 +            for (j = 0; j < height; j += 8) {
 +                for (i = 0; i < width; i += 8) {
 +                    if (process_block(ctx, dst + i, prev1 + i, prev2 + i, stride,
 +                                      tbl_pos + 8, 8))
 +                        return AVERROR_INVALIDDATA;
 +                }
 +                dst   += stride * 8;
 +                prev1 += stride * 8;
 +                prev2 += stride * 8;
 +            }
 +        }
 +        break;
 +    case 3:
 +        memcpy(ctx->frm0, ctx->frm2, ctx->pitch * ctx->height);
 +        break;
 +    case 4:
 +        memcpy(ctx->frm0, ctx->frm1, ctx->pitch * ctx->height);
 +        break;
 +    case 5:
 +        if (rle_decode(ctx, dst, decoded_size))
 +            return AVERROR_INVALIDDATA;
 +        break;
 +    default:
 +        av_log(ctx->avctx, AV_LOG_ERROR,
 +               "subcodec 47 compression %d not implemented\n", compr);
 +        return AVERROR_PATCHWELCOME;
 +    }
 +    if (seq == ctx->prev_seq + 1)
 +        ctx->rotate_code = new_rot;
 +    else
 +        ctx->rotate_code = 0;
 +    ctx->prev_seq = seq;
 +
 +    return 0;
 +}
 +
 +static int process_frame_obj(SANMVideoContext *ctx)
 +{
 +    uint16_t codec, top, left, w, h;
 +
 +    codec = bytestream2_get_le16u(&ctx->gb);
 +    left  = bytestream2_get_le16u(&ctx->gb);
 +    top   = bytestream2_get_le16u(&ctx->gb);
 +    w     = bytestream2_get_le16u(&ctx->gb);
 +    h     = bytestream2_get_le16u(&ctx->gb);
 +
 +    if (ctx->width < left + w || ctx->height < top + h) {
 +        ctx->avctx->width  = FFMAX(left + w, ctx->width);
 +        ctx->avctx->height = FFMAX(top + h, ctx->height);
 +        init_sizes(ctx, left + w, top + h);
 +        if (init_buffers(ctx)) {
 +            av_log(ctx->avctx, AV_LOG_ERROR, "error resizing buffers\n");
 +            return AVERROR(ENOMEM);
 +        }
 +    }
 +    bytestream2_skip(&ctx->gb, 4);
 +
 +    av_dlog(ctx->avctx, "subcodec %d\n", codec);
 +    switch (codec) {
 +    case 1:
 +    case 3:
 +        return old_codec1(ctx, top, left, w, h);
 +        break;
 +    case 37:
 +        return old_codec37(ctx, top, left, w, h);
 +        break;
 +    case 47:
 +        return old_codec47(ctx, top, left, w, h);
 +        break;
 +    default:
 +        av_log_ask_for_sample(ctx->avctx, "unknown subcodec %d\n", codec);
 +        return AVERROR_PATCHWELCOME;
 +    }
 +}
 +
 +static int decode_0(SANMVideoContext *ctx)
 +{
 +    uint16_t *frm = ctx->frm0;
 +    int x, y;
 +
 +    if (bytestream2_get_bytes_left(&ctx->gb) < ctx->width * ctx->height * 2) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "insufficient data for raw frame\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +    for (y = 0; y < ctx->height; y++) {
 +        for (x = 0; x < ctx->width; x++)
 +            frm[x] = bytestream2_get_le16u(&ctx->gb);
 +        frm += ctx->pitch;
 +    }
 +    return 0;
 +}
 +
 +static int decode_nop(SANMVideoContext *ctx)
 +{
 +    av_log_ask_for_sample(ctx->avctx, "unknown/unsupported compression type\n");
 +    return AVERROR_PATCHWELCOME;
 +}
 +
 +static void copy_block(uint16_t *pdest, uint16_t *psrc, int block_size, int pitch)
 +{
 +    uint8_t *dst = (uint8_t *)pdest;
 +    uint8_t *src = (uint8_t *)psrc;
 +    int stride = pitch * 2;
 +
 +    switch (block_size) {
 +    case 2:
 +        copy_block4(dst, src, stride, stride, 2);
 +        break;
 +    case 4:
 +        copy_block8(dst, src, stride, stride, 4);
 +        break;
 +    case 8:
 +        copy_block16(dst, src, stride, stride, 8);
 +        break;
 +    }
 +}
 +
 +static void fill_block(uint16_t *pdest, uint16_t color, int block_size, int pitch)
 +{
 +    int x, y;
 +
 +    pitch -= block_size;
 +    for (y = 0; y < block_size; y++, pdest += pitch)
 +        for (x = 0; x < block_size; x++)
 +            *pdest++ = color;
 +}
 +
 +static int draw_glyph(SANMVideoContext *ctx, uint16_t *dst, int index, uint16_t fg_color,
 +                      uint16_t bg_color, int block_size, int pitch)
 +{
 +    int8_t *pglyph;
 +    uint16_t colors[2] = { fg_color, bg_color };
 +    int x, y;
 +
 +    if (index >= NGLYPHS) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "ignoring nonexistent glyph #%u\n", index);
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    pglyph = block_size == 8 ? ctx->p8x8glyphs[index] : ctx->p4x4glyphs[index];
 +    pitch -= block_size;
 +
 +    for (y = 0; y < block_size; y++, dst += pitch)
 +        for (x = 0; x < block_size; x++)
 +            *dst++ = colors[*pglyph++];
 +    return 0;
 +}
 +
 +static int opcode_0xf7(SANMVideoContext *ctx, int cx, int cy, int block_size, int pitch)
 +{
 +    uint16_t *dst = ctx->frm0 + cx + cy * ctx->pitch;
 +
 +    if (block_size == 2) {
 +        uint32_t indices;
 +
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 4)
 +            return AVERROR_INVALIDDATA;
 +
 +        indices        = bytestream2_get_le32u(&ctx->gb);
 +        dst[0]         = ctx->codebook[indices & 0xFF]; indices >>= 8;
 +        dst[1]         = ctx->codebook[indices & 0xFF]; indices >>= 8;
 +        dst[pitch]     = ctx->codebook[indices & 0xFF]; indices >>= 8;
 +        dst[pitch + 1] = ctx->codebook[indices & 0xFF];
 +    } else {
 +        uint16_t fgcolor, bgcolor;
 +        int glyph;
 +
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 3)
 +            return AVERROR_INVALIDDATA;
 +
 +        glyph   = bytestream2_get_byteu(&ctx->gb);
 +        bgcolor = ctx->codebook[bytestream2_get_byteu(&ctx->gb)];
 +        fgcolor = ctx->codebook[bytestream2_get_byteu(&ctx->gb)];
 +
 +        draw_glyph(ctx, dst, glyph, fgcolor, bgcolor, block_size, pitch);
 +    }
 +    return 0;
 +}
 +
 +static int opcode_0xf8(SANMVideoContext *ctx, int cx, int cy, int block_size, int pitch)
 +{
 +    uint16_t *dst = ctx->frm0 + cx + cy * ctx->pitch;
 +
 +    if (block_size == 2) {
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 8)
 +            return AVERROR_INVALIDDATA;
 +
 +        dst[0]         = bytestream2_get_le16u(&ctx->gb);
 +        dst[1]         = bytestream2_get_le16u(&ctx->gb);
 +        dst[pitch]     = bytestream2_get_le16u(&ctx->gb);
 +        dst[pitch + 1] = bytestream2_get_le16u(&ctx->gb);
 +    } else {
 +        uint16_t fgcolor, bgcolor;
 +        int glyph;
 +
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 5)
 +            return AVERROR_INVALIDDATA;
 +
 +        glyph   = bytestream2_get_byteu(&ctx->gb);
 +        bgcolor = bytestream2_get_le16u(&ctx->gb);
 +        fgcolor = bytestream2_get_le16u(&ctx->gb);
 +
 +        draw_glyph(ctx, dst, glyph, fgcolor, bgcolor, block_size, pitch);
 +    }
 +    return 0;
 +}
 +
 +static int good_mvec(SANMVideoContext *ctx, int cx, int cy, int mx, int my,
 +                     int block_size)
 +{
 +    int start_pos = cx + mx + (cy + my) * ctx->pitch;
 +    int end_pos = start_pos + (block_size - 1) * (ctx->pitch + 1);
 +
 +    int good = start_pos >= 0 && end_pos < (ctx->buf_size >> 1);
 +
 +    if (!good) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "ignoring invalid motion vector (%i, %i)->(%u, %u), block size = %u\n",
 +               cx + mx, cy + my, cx, cy, block_size);
 +    }
 +
 +    return good;
 +}
 +
 +static int codec2subblock(SANMVideoContext *ctx, int cx, int cy, int blk_size)
 +{
 +    int16_t mx, my, index;
 +    int opcode;
 +
 +    if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +        return AVERROR_INVALIDDATA;
 +
 +    opcode = bytestream2_get_byteu(&ctx->gb);
 +
 +    av_dlog(ctx->avctx, "opcode 0x%0X cx %d cy %d blk %d\n", opcode, cx, cy, blk_size);
 +    switch (opcode) {
 +    default:
 +        mx = motion_vectors[opcode][0];
 +        my = motion_vectors[opcode][1];
 +
 +        if (good_mvec(ctx, cx, cy, mx, my, blk_size)) {
 +            copy_block(ctx->frm0 + cx      + ctx->pitch *  cy,
 +                       ctx->frm2 + cx + mx + ctx->pitch * (cy + my),
 +                       blk_size, ctx->pitch);
 +        }
 +        break;
 +    case 0xF5:
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 2)
 +            return AVERROR_INVALIDDATA;
 +        index = bytestream2_get_le16u(&ctx->gb);
 +
 +        mx = index % ctx->width;
 +        my = index / ctx->width;
 +
 +        if (good_mvec(ctx, cx, cy, mx, my, blk_size)) {
 +            copy_block(ctx->frm0 + cx      + ctx->pitch *  cy,
 +                       ctx->frm2 + cx + mx + ctx->pitch * (cy + my),
 +                       blk_size, ctx->pitch);
 +        }
 +        break;
 +    case 0xF6:
 +        copy_block(ctx->frm0 + cx + ctx->pitch * cy,
 +                   ctx->frm1 + cx + ctx->pitch * cy,
 +                   blk_size, ctx->pitch);
 +        break;
 +    case 0xF7:
 +        opcode_0xf7(ctx, cx, cy, blk_size, ctx->pitch);
 +        break;
 +
 +    case 0xF8:
 +        opcode_0xf8(ctx, cx, cy, blk_size, ctx->pitch);
 +        break;
 +    case 0xF9:
 +    case 0xFA:
 +    case 0xFB:
 +    case 0xFC:
 +        fill_block(ctx->frm0 + cx + cy * ctx->pitch,
 +                   ctx->small_codebook[opcode - 0xf9], blk_size, ctx->pitch);
 +        break;
 +    case 0xFD:
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 1)
 +            return AVERROR_INVALIDDATA;
 +        fill_block(ctx->frm0 + cx + cy * ctx->pitch,
 +                   ctx->codebook[bytestream2_get_byteu(&ctx->gb)], blk_size, ctx->pitch);
 +        break;
 +    case 0xFE:
 +        if (bytestream2_get_bytes_left(&ctx->gb) < 2)
 +            return AVERROR_INVALIDDATA;
 +        fill_block(ctx->frm0 + cx + cy * ctx->pitch,
 +                   bytestream2_get_le16u(&ctx->gb), blk_size, ctx->pitch);
 +        break;
 +    case 0xFF:
 +        if (blk_size == 2) {
 +            opcode_0xf8(ctx, cx, cy, blk_size, ctx->pitch);
 +        } else {
 +            blk_size >>= 1;
 +            if (codec2subblock(ctx, cx           , cy           , blk_size))
 +                return AVERROR_INVALIDDATA;
 +            if (codec2subblock(ctx, cx + blk_size, cy           , blk_size))
 +                return AVERROR_INVALIDDATA;
 +            if (codec2subblock(ctx, cx           , cy + blk_size, blk_size))
 +                return AVERROR_INVALIDDATA;
 +            if (codec2subblock(ctx, cx + blk_size, cy + blk_size, blk_size))
 +                return AVERROR_INVALIDDATA;
 +        }
 +        break;
 +    }
 +    return 0;
 +}
 +
 +static int decode_2(SANMVideoContext *ctx)
 +{
 +    int cx, cy, ret;
 +
 +    for (cy = 0; cy < ctx->aligned_height; cy += 8) {
 +        for (cx = 0; cx < ctx->aligned_width; cx += 8) {
 +            if (ret = codec2subblock(ctx, cx, cy, 8))
 +                return ret;
 +        }
 +    }
 +
 +    return 0;
 +}
 +
 +static int decode_3(SANMVideoContext *ctx)
 +{
 +    memcpy(ctx->frm0, ctx->frm2, ctx->frm2_size);
 +    return 0;
 +}
 +
 +static int decode_4(SANMVideoContext *ctx)
 +{
 +    memcpy(ctx->frm0, ctx->frm1, ctx->frm1_size);
 +    return 0;
 +}
 +
 +static int decode_5(SANMVideoContext *ctx)
 +{
 +#if HAVE_BIGENDIAN
 +    uint16_t *frm;
 +    int npixels;
 +#endif
 +    uint8_t *dst = (uint8_t*)ctx->frm0;
 +
 +    if (rle_decode(ctx, dst, ctx->buf_size))
 +        return AVERROR_INVALIDDATA;
 +
 +#if HAVE_BIGENDIAN
 +    npixels = ctx->npixels;
 +    frm = ctx->frm0;
 +    while (npixels--)
 +        *frm++ = av_bswap16(*frm);
 +#endif
 +
 +    return 0;
 +}
 +
 +static int decode_6(SANMVideoContext *ctx)
 +{
 +    int npixels = ctx->npixels;
 +    uint16_t *frm = ctx->frm0;
 +
 +    if (bytestream2_get_bytes_left(&ctx->gb) < npixels) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "insufficient data for frame\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +    while (npixels--)
 +        *frm++ = ctx->codebook[bytestream2_get_byteu(&ctx->gb)];
 +
 +    return 0;
 +}
 +
 +static int decode_8(SANMVideoContext *ctx)
 +{
 +    uint16_t *pdest = ctx->frm0;
 +    uint8_t *rsrc;
 +    long npixels = ctx->npixels;
 +
 +    av_fast_malloc(&ctx->rle_buf, &ctx->rle_buf_size, npixels);
 +    if (!ctx->rle_buf) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "RLE buffer allocation failed\n");
 +        return AVERROR(ENOMEM);
 +    }
 +    rsrc = ctx->rle_buf;
 +
 +    if (rle_decode(ctx, rsrc, npixels))
 +        return AVERROR_INVALIDDATA;
 +
 +    while (npixels--)
 +        *pdest++ = ctx->codebook[*rsrc++];
 +
 +    return 0;
 +}
 +
 +typedef int (*frm_decoder)(SANMVideoContext *ctx);
 +
 +static const frm_decoder v1_decoders[] = {
 +    decode_0, decode_nop, decode_2, decode_3, decode_4, decode_5,
 +    decode_6, decode_nop, decode_8
 +};
 +
 +static int read_frame_header(SANMVideoContext *ctx, SANMFrameHeader *hdr)
 +{
 +    int i, ret;
 +
 +    if ((ret = bytestream2_get_bytes_left(&ctx->gb)) < 560) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "too short input frame (%d bytes)\n",
 +               ret);
 +        return AVERROR_INVALIDDATA;
 +    }
 +    bytestream2_skip(&ctx->gb, 8); // skip pad
 +
 +    hdr->width  = bytestream2_get_le32u(&ctx->gb);
 +    hdr->height = bytestream2_get_le32u(&ctx->gb);
 +
 +    if (hdr->width != ctx->width || hdr->height != ctx->height) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "variable size frames are not implemented\n");
 +        return AVERROR_PATCHWELCOME;
 +    }
 +
 +    hdr->seq_num     = bytestream2_get_le16u(&ctx->gb);
 +    hdr->codec       = bytestream2_get_byteu(&ctx->gb);
 +    hdr->rotate_code = bytestream2_get_byteu(&ctx->gb);
 +
 +    bytestream2_skip(&ctx->gb, 4); // skip pad
 +
 +    for (i = 0; i < 4; i++)
 +        ctx->small_codebook[i] = bytestream2_get_le16u(&ctx->gb);
 +    hdr->bg_color = bytestream2_get_le16u(&ctx->gb);
 +
 +    bytestream2_skip(&ctx->gb, 2); // skip pad
 +
 +    hdr->rle_output_size = bytestream2_get_le32u(&ctx->gb);
 +    for (i = 0; i < 256; i++)
 +        ctx->codebook[i] = bytestream2_get_le16u(&ctx->gb);
 +
 +    bytestream2_skip(&ctx->gb, 8); // skip pad
 +
 +    av_dlog(ctx->avctx, "subcodec %d\n", hdr->codec);
 +    return 0;
 +}
 +
 +static void fill_frame(uint16_t *pbuf, int buf_size, uint16_t color)
 +{
 +    while (buf_size--)
 +        *pbuf++ = color;
 +}
 +
 +static int copy_output(SANMVideoContext *ctx, SANMFrameHeader *hdr)
 +{
 +    uint8_t *dst;
 +    const uint8_t *src = (uint8_t*) ctx->frm0;
 +    int ret, dstpitch, height = ctx->height;
 +    int srcpitch = ctx->pitch * (hdr ? sizeof(ctx->frm0[0]) : 1);
 +
++    if ((ret = ff_get_buffer(ctx->avctx, ctx->output)) < 0) {
 +        av_log(ctx->avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
 +    }
 +
 +    dst      = ctx->output->data[0];
 +    dstpitch = ctx->output->linesize[0];
 +
 +    while (height--) {
 +        memcpy(dst, src, srcpitch);
 +        src += srcpitch;
 +        dst += dstpitch;
 +    }
 +
 +    return 0;
 +}
 +
 +static int decode_frame(AVCodecContext *avctx, void *data,
 +                        int *got_frame_ptr, AVPacket *pkt)
 +{
 +    SANMVideoContext *ctx = avctx->priv_data;
 +    int i, ret;
 +
 +    bytestream2_init(&ctx->gb, pkt->data, pkt->size);
 +    if (ctx->output->data[0])
 +        avctx->release_buffer(avctx, ctx->output);
 +
 +    if (!ctx->version) {
 +        int to_store = 0;
 +
 +        while (bytestream2_get_bytes_left(&ctx->gb) >= 8) {
 +            uint32_t sig, size;
 +            int pos;
 +
 +            sig  = bytestream2_get_be32u(&ctx->gb);
 +            size = bytestream2_get_be32u(&ctx->gb);
 +            pos  = bytestream2_tell(&ctx->gb);
 +
 +            if (bytestream2_get_bytes_left(&ctx->gb) < size) {
 +                av_log(avctx, AV_LOG_ERROR, "incorrect chunk size %d\n", size);
 +                break;
 +            }
 +            switch (sig) {
 +            case MKBETAG('N', 'P', 'A', 'L'):
 +                if (size != 256 * 3) {
 +                    av_log(avctx, AV_LOG_ERROR, "incorrect palette block size %d\n",
 +                           size);
 +                    return AVERROR_INVALIDDATA;
 +                }
 +                for (i = 0; i < 256; i++)
 +                    ctx->pal[i] = 0xFFU << 24 | bytestream2_get_be24u(&ctx->gb);
 +                break;
 +            case MKBETAG('F', 'O', 'B', 'J'):
 +                if (size < 16)
 +                    return AVERROR_INVALIDDATA;
 +                if (ret = process_frame_obj(ctx))
 +                    return ret;
 +                break;
 +            case MKBETAG('X', 'P', 'A', 'L'):
 +                if (size == 6 || size == 4) {
 +                    uint8_t tmp[3];
 +                    int j;
 +
 +                    for (i = 0; i < 256; i++) {
 +                        for (j = 0; j < 3; j++) {
 +                            int t = (ctx->pal[i] >> (16 - j * 8)) & 0xFF;
 +                            tmp[j] = av_clip_uint8((t * 129 + ctx->delta_pal[i * 3 + j]) >> 7);
 +                        }
 +                        ctx->pal[i] = 0xFFU << 24 | AV_RB24(tmp);
 +                    }
 +                } else {
 +                    if (size < 768 * 2 + 4) {
 +                        av_log(avctx, AV_LOG_ERROR, "incorrect palette change block size %d\n",
 +                               size);
 +                        return AVERROR_INVALIDDATA;
 +                    }
 +                    bytestream2_skipu(&ctx->gb, 4);
 +                    for (i = 0; i < 768; i++)
 +                        ctx->delta_pal[i] = bytestream2_get_le16u(&ctx->gb);
 +                    if (size >= 768 * 5 + 4) {
 +                        for (i = 0; i < 256; i++)
 +                            ctx->pal[i] = 0xFFU << 24 | bytestream2_get_be24u(&ctx->gb);
 +                    } else {
 +                        memset(ctx->pal, 0, sizeof(ctx->pal));
 +                    }
 +                }
 +                break;
 +            case MKBETAG('S', 'T', 'O', 'R'):
 +                to_store = 1;
 +                break;
 +            case MKBETAG('F', 'T', 'C', 'H'):
 +                memcpy(ctx->frm0, ctx->stored_frame, ctx->buf_size);
 +                break;
 +            default:
 +                bytestream2_skip(&ctx->gb, size);
 +                av_log(avctx, AV_LOG_DEBUG, "unknown/unsupported chunk %x\n", sig);
 +                break;
 +            }
 +
 +            bytestream2_seek(&ctx->gb, pos + size, SEEK_SET);
 +            if (size & 1)
 +                bytestream2_skip(&ctx->gb, 1);
 +        }
 +        if (to_store)
 +            memcpy(ctx->stored_frame, ctx->frm0, ctx->buf_size);
 +        if ((ret = copy_output(ctx, NULL)))
 +            return ret;
 +        memcpy(ctx->output->data[1], ctx->pal, 1024);
 +    } else {
 +        SANMFrameHeader header;
 +
 +        if ((ret = read_frame_header(ctx, &header)))
 +            return ret;
 +
 +        ctx->rotate_code = header.rotate_code;
 +        if ((ctx->output->key_frame = !header.seq_num)) {
 +            ctx->output->pict_type = AV_PICTURE_TYPE_I;
 +            fill_frame(ctx->frm1, ctx->npixels, header.bg_color);
 +            fill_frame(ctx->frm2, ctx->npixels, header.bg_color);
 +        } else {
 +            ctx->output->pict_type = AV_PICTURE_TYPE_P;
 +        }
 +
 +        if (header.codec < FF_ARRAY_ELEMS(v1_decoders)) {
 +            if ((ret = v1_decoders[header.codec](ctx))) {
 +                av_log(avctx, AV_LOG_ERROR,
 +                       "subcodec %d: error decoding frame\n", header.codec);
 +                return ret;
 +            }
 +        } else {
 +            av_log_ask_for_sample(avctx, "subcodec %d is not implemented\n",
 +                   header.codec);
 +            return AVERROR_PATCHWELCOME;
 +        }
 +
 +        if ((ret = copy_output(ctx, &header)))
 +            return ret;
 +    }
 +    if (ctx->rotate_code)
 +        rotate_bufs(ctx, ctx->rotate_code);
 +
 +    *got_frame_ptr  = 1;
 +    *(AVFrame*)data = *ctx->output;
 +
 +    return pkt->size;
 +}
 +
 +AVCodec ff_sanm_decoder = {
 +    .name           = "sanm",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_SANM,
 +    .priv_data_size = sizeof(SANMVideoContext),
 +    .init           = decode_init,
 +    .close          = decode_end,
 +    .decode         = decode_frame,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("LucasArts SMUSH video"),
 +};
index bf6e5723f699f3ad5a29cfdc5028b078ccde00fb,e7791b7e05cb17afdbeaa74c910e0b0d93088160..7ea9b6d69a4e2cf84063b62171075d7e7356a5ce
   */
  
  #include "libavutil/imgutils.h"
 +#include "libavutil/avassert.h"
  #include "avcodec.h"
  #include "bytestream.h"
+ #include "internal.h"
  #include "sgi.h"
  
  typedef struct SgiState {
index da5a2b499fb29f9c25472af05fc9170f05af9819,fad69b8d08ad9ec6ffadf69c8f281bf7dc762190..cbfa23a4e55de7937eef5cfe93122f3a835588ca
@@@ -577,13 -580,9 +578,13 @@@ static int shorten_decode_frame(AVCodec
              /* if this is the last channel in the block, output the samples */
              s->cur_chan++;
              if (s->cur_chan == s->channels) {
 +                uint8_t *samples_u8;
 +                int16_t *samples_s16;
 +                int chan;
 +
                  /* get output buffer */
                  s->frame.nb_samples = s->blocksize;
-                 if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0) {
+                 if ((ret = ff_get_buffer(avctx, &s->frame)) < 0) {
                      av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
                      return ret;
                  }
Simple merge
Simple merge
index 2f3ddbee18aef26953c9bad229c5badfde4a1e64,fce45621c638e9c87b3b5c8f7ed06590765144c0..7874c1d2cfe0f0fbcd4d742f2d9c145da6a59fdf
@@@ -24,6 -24,6 +24,7 @@@
  #include "avcodec.h"
  #include "dsputil.h"
  #include "dwt.h"
++#include "internal.h"
  #include "snow.h"
  #include "snowdata.h"
  
@@@ -465,22 -474,6 +466,22 @@@ fail
  int ff_snow_common_init_after_header(AVCodecContext *avctx) {
      SnowContext *s = avctx->priv_data;
      int plane_index, level, orientation;
-         if ((ret = s->avctx->get_buffer(s->avctx, &s->mconly_picture)) < 0) {
 +    int ret, emu_buf_size;
 +
 +    if(!s->scratchbuf) {
++        if ((ret = ff_get_buffer(s->avctx, &s->mconly_picture)) < 0) {
 +            av_log(s->avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +            return ret;
 +        }
 +        FF_ALLOCZ_OR_GOTO(avctx, s->scratchbuf, FFMAX(s->mconly_picture.linesize[0], 2*avctx->width+256)*7*MB_SIZE, fail);
 +        emu_buf_size = FFMAX(s->mconly_picture.linesize[0], 2*avctx->width+256) * (2 * MB_SIZE + HTAPS_MAX - 1);
 +        FF_ALLOC_OR_GOTO(avctx, s->emu_edge_buffer, emu_buf_size, fail);
 +    }
 +
 +    if(s->mconly_picture.format != avctx->pix_fmt) {
 +        av_log(avctx, AV_LOG_ERROR, "pixel format changed\n");
 +        return AVERROR_INVALIDDATA;
 +    }
  
      for(plane_index=0; plane_index<3; plane_index++){
          int w= s->avctx->width;
@@@ -631,8 -622,8 +632,8 @@@ int ff_snow_frame_start(SnowContext *s)
          }
      }
  
 -    s->current_picture.reference= 1;
 -    if(s->ff_get_buffer(s->avctx, &s->current_picture) < 0){
 +    s->current_picture.reference= 3;
-     if(s->avctx->get_buffer(s->avctx, &s->current_picture) < 0){
++    if(ff_get_buffer(s->avctx, &s->current_picture) < 0){
          av_log(s->avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
Simple merge
index 23d8d81bf71f2f7c1e79525064f03e68e7fc7c70,e60cb6529781766937f32324d180a6c626364bb3..701a56d284495b387a11961912b62ae19442a1af
@@@ -238,7 -239,7 +238,7 @@@ static av_cold int encode_init(AVCodecC
      ff_set_cmp(&s->dsp, s->dsp.me_cmp, s->avctx->me_cmp);
      ff_set_cmp(&s->dsp, s->dsp.me_sub_cmp, s->avctx->me_sub_cmp);
  
-     s->avctx->get_buffer(s->avctx, &s->input_picture);
 -    s->ff_get_buffer(s->avctx, &s->input_picture);
++    ff_get_buffer(s->avctx, &s->input_picture);
  
      if(s->avctx->me_method == ME_ITER){
          int i;
index b7caf4810e814d594133089386873a773230a3d1,0000000000000000000000000000000000000000..0bc8428a1e9ef22b295b629b5700cfbfe728f84e
mode 100644,000000..100644
--- /dev/null
@@@ -1,1001 -1,0 +1,1001 @@@
-     if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0) {
 +/*
 + * Simple free lossless/lossy audio codec
 + * Copyright (c) 2004 Alex Beregszaszi
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +#include "avcodec.h"
 +#include "get_bits.h"
 +#include "golomb.h"
 +#include "internal.h"
 +
 +/**
 + * @file
 + * Simple free lossless/lossy audio codec
 + * Based on Paul Francis Harrison's Bonk (http://www.logarithmic.net/pfh/bonk)
 + * Written and designed by Alex Beregszaszi
 + *
 + * TODO:
 + *  - CABAC put/get_symbol
 + *  - independent quantizer for channels
 + *  - >2 channels support
 + *  - more decorrelation types
 + *  - more tap_quant tests
 + *  - selectable intlist writers/readers (bonk-style, golomb, cabac)
 + */
 +
 +#define MAX_CHANNELS 2
 +
 +#define MID_SIDE 0
 +#define LEFT_SIDE 1
 +#define RIGHT_SIDE 2
 +
 +typedef struct SonicContext {
 +    AVFrame frame;
 +    int lossless, decorrelation;
 +
 +    int num_taps, downsampling;
 +    double quantization;
 +
 +    int channels, samplerate, block_align, frame_size;
 +
 +    int *tap_quant;
 +    int *int_samples;
 +    int *coded_samples[MAX_CHANNELS];
 +
 +    // for encoding
 +    int *tail;
 +    int tail_size;
 +    int *window;
 +    int window_size;
 +
 +    // for decoding
 +    int *predictor_k;
 +    int *predictor_state[MAX_CHANNELS];
 +} SonicContext;
 +
 +#define LATTICE_SHIFT   10
 +#define SAMPLE_SHIFT    4
 +#define LATTICE_FACTOR  (1 << LATTICE_SHIFT)
 +#define SAMPLE_FACTOR   (1 << SAMPLE_SHIFT)
 +
 +#define BASE_QUANT      0.6
 +#define RATE_VARIATION  3.0
 +
 +static inline int divide(int a, int b)
 +{
 +    if (a < 0)
 +        return -( (-a + b/2)/b );
 +    else
 +        return (a + b/2)/b;
 +}
 +
 +static inline int shift(int a,int b)
 +{
 +    return (a+(1<<(b-1))) >> b;
 +}
 +
 +static inline int shift_down(int a,int b)
 +{
 +    return (a>>b)+((a<0)?1:0);
 +}
 +
 +#if 1
 +static inline int intlist_write(PutBitContext *pb, int *buf, int entries, int base_2_part)
 +{
 +    int i;
 +
 +    for (i = 0; i < entries; i++)
 +        set_se_golomb(pb, buf[i]);
 +
 +    return 1;
 +}
 +
 +static inline int intlist_read(GetBitContext *gb, int *buf, int entries, int base_2_part)
 +{
 +    int i;
 +
 +    for (i = 0; i < entries; i++)
 +        buf[i] = get_se_golomb(gb);
 +
 +    return 1;
 +}
 +
 +#else
 +
 +#define ADAPT_LEVEL 8
 +
 +static int bits_to_store(uint64_t x)
 +{
 +    int res = 0;
 +
 +    while(x)
 +    {
 +        res++;
 +        x >>= 1;
 +    }
 +    return res;
 +}
 +
 +static void write_uint_max(PutBitContext *pb, unsigned int value, unsigned int max)
 +{
 +    int i, bits;
 +
 +    if (!max)
 +        return;
 +
 +    bits = bits_to_store(max);
 +
 +    for (i = 0; i < bits-1; i++)
 +        put_bits(pb, 1, value & (1 << i));
 +
 +    if ( (value | (1 << (bits-1))) <= max)
 +        put_bits(pb, 1, value & (1 << (bits-1)));
 +}
 +
 +static unsigned int read_uint_max(GetBitContext *gb, int max)
 +{
 +    int i, bits, value = 0;
 +
 +    if (!max)
 +        return 0;
 +
 +    bits = bits_to_store(max);
 +
 +    for (i = 0; i < bits-1; i++)
 +        if (get_bits1(gb))
 +            value += 1 << i;
 +
 +    if ( (value | (1<<(bits-1))) <= max)
 +        if (get_bits1(gb))
 +            value += 1 << (bits-1);
 +
 +    return value;
 +}
 +
 +static int intlist_write(PutBitContext *pb, int *buf, int entries, int base_2_part)
 +{
 +    int i, j, x = 0, low_bits = 0, max = 0;
 +    int step = 256, pos = 0, dominant = 0, any = 0;
 +    int *copy, *bits;
 +
 +    copy = av_mallocz(4* entries);
 +    if (!copy)
 +        return -1;
 +
 +    if (base_2_part)
 +    {
 +        int energy = 0;
 +
 +        for (i = 0; i < entries; i++)
 +            energy += abs(buf[i]);
 +
 +        low_bits = bits_to_store(energy / (entries * 2));
 +        if (low_bits > 15)
 +            low_bits = 15;
 +
 +        put_bits(pb, 4, low_bits);
 +    }
 +
 +    for (i = 0; i < entries; i++)
 +    {
 +        put_bits(pb, low_bits, abs(buf[i]));
 +        copy[i] = abs(buf[i]) >> low_bits;
 +        if (copy[i] > max)
 +            max = abs(copy[i]);
 +    }
 +
 +    bits = av_mallocz(4* entries*max);
 +    if (!bits)
 +    {
 +//        av_free(copy);
 +        return -1;
 +    }
 +
 +    for (i = 0; i <= max; i++)
 +    {
 +        for (j = 0; j < entries; j++)
 +            if (copy[j] >= i)
 +                bits[x++] = copy[j] > i;
 +    }
 +
 +    // store bitstream
 +    while (pos < x)
 +    {
 +        int steplet = step >> 8;
 +
 +        if (pos + steplet > x)
 +            steplet = x - pos;
 +
 +        for (i = 0; i < steplet; i++)
 +            if (bits[i+pos] != dominant)
 +                any = 1;
 +
 +        put_bits(pb, 1, any);
 +
 +        if (!any)
 +        {
 +            pos += steplet;
 +            step += step / ADAPT_LEVEL;
 +        }
 +        else
 +        {
 +            int interloper = 0;
 +
 +            while (((pos + interloper) < x) && (bits[pos + interloper] == dominant))
 +                interloper++;
 +
 +            // note change
 +            write_uint_max(pb, interloper, (step >> 8) - 1);
 +
 +            pos += interloper + 1;
 +            step -= step / ADAPT_LEVEL;
 +        }
 +
 +        if (step < 256)
 +        {
 +            step = 65536 / step;
 +            dominant = !dominant;
 +        }
 +    }
 +
 +    // store signs
 +    for (i = 0; i < entries; i++)
 +        if (buf[i])
 +            put_bits(pb, 1, buf[i] < 0);
 +
 +//    av_free(bits);
 +//    av_free(copy);
 +
 +    return 0;
 +}
 +
 +static int intlist_read(GetBitContext *gb, int *buf, int entries, int base_2_part)
 +{
 +    int i, low_bits = 0, x = 0;
 +    int n_zeros = 0, step = 256, dominant = 0;
 +    int pos = 0, level = 0;
 +    int *bits = av_mallocz(4* entries);
 +
 +    if (!bits)
 +        return -1;
 +
 +    if (base_2_part)
 +    {
 +        low_bits = get_bits(gb, 4);
 +
 +        if (low_bits)
 +            for (i = 0; i < entries; i++)
 +                buf[i] = get_bits(gb, low_bits);
 +    }
 +
 +//    av_log(NULL, AV_LOG_INFO, "entries: %d, low bits: %d\n", entries, low_bits);
 +
 +    while (n_zeros < entries)
 +    {
 +        int steplet = step >> 8;
 +
 +        if (!get_bits1(gb))
 +        {
 +            for (i = 0; i < steplet; i++)
 +                bits[x++] = dominant;
 +
 +            if (!dominant)
 +                n_zeros += steplet;
 +
 +            step += step / ADAPT_LEVEL;
 +        }
 +        else
 +        {
 +            int actual_run = read_uint_max(gb, steplet-1);
 +
 +//            av_log(NULL, AV_LOG_INFO, "actual run: %d\n", actual_run);
 +
 +            for (i = 0; i < actual_run; i++)
 +                bits[x++] = dominant;
 +
 +            bits[x++] = !dominant;
 +
 +            if (!dominant)
 +                n_zeros += actual_run;
 +            else
 +                n_zeros++;
 +
 +            step -= step / ADAPT_LEVEL;
 +        }
 +
 +        if (step < 256)
 +        {
 +            step = 65536 / step;
 +            dominant = !dominant;
 +        }
 +    }
 +
 +    // reconstruct unsigned values
 +    n_zeros = 0;
 +    for (i = 0; n_zeros < entries; i++)
 +    {
 +        while(1)
 +        {
 +            if (pos >= entries)
 +            {
 +                pos = 0;
 +                level += 1 << low_bits;
 +            }
 +
 +            if (buf[pos] >= level)
 +                break;
 +
 +            pos++;
 +        }
 +
 +        if (bits[i])
 +            buf[pos] += 1 << low_bits;
 +        else
 +            n_zeros++;
 +
 +        pos++;
 +    }
 +//    av_free(bits);
 +
 +    // read signs
 +    for (i = 0; i < entries; i++)
 +        if (buf[i] && get_bits1(gb))
 +            buf[i] = -buf[i];
 +
 +//    av_log(NULL, AV_LOG_INFO, "zeros: %d pos: %d\n", n_zeros, pos);
 +
 +    return 0;
 +}
 +#endif
 +
 +static void predictor_init_state(int *k, int *state, int order)
 +{
 +    int i;
 +
 +    for (i = order-2; i >= 0; i--)
 +    {
 +        int j, p, x = state[i];
 +
 +        for (j = 0, p = i+1; p < order; j++,p++)
 +            {
 +            int tmp = x + shift_down(k[j] * state[p], LATTICE_SHIFT);
 +            state[p] += shift_down(k[j]*x, LATTICE_SHIFT);
 +            x = tmp;
 +        }
 +    }
 +}
 +
 +static int predictor_calc_error(int *k, int *state, int order, int error)
 +{
 +    int i, x = error - shift_down(k[order-1] * state[order-1], LATTICE_SHIFT);
 +
 +#if 1
 +    int *k_ptr = &(k[order-2]),
 +        *state_ptr = &(state[order-2]);
 +    for (i = order-2; i >= 0; i--, k_ptr--, state_ptr--)
 +    {
 +        int k_value = *k_ptr, state_value = *state_ptr;
 +        x -= shift_down(k_value * state_value, LATTICE_SHIFT);
 +        state_ptr[1] = state_value + shift_down(k_value * x, LATTICE_SHIFT);
 +    }
 +#else
 +    for (i = order-2; i >= 0; i--)
 +    {
 +        x -= shift_down(k[i] * state[i], LATTICE_SHIFT);
 +        state[i+1] = state[i] + shift_down(k[i] * x, LATTICE_SHIFT);
 +    }
 +#endif
 +
 +    // don't drift too far, to avoid overflows
 +    if (x >  (SAMPLE_FACTOR<<16)) x =  (SAMPLE_FACTOR<<16);
 +    if (x < -(SAMPLE_FACTOR<<16)) x = -(SAMPLE_FACTOR<<16);
 +
 +    state[0] = x;
 +
 +    return x;
 +}
 +
 +#if CONFIG_SONIC_ENCODER || CONFIG_SONIC_LS_ENCODER
 +// Heavily modified Levinson-Durbin algorithm which
 +// copes better with quantization, and calculates the
 +// actual whitened result as it goes.
 +
 +static void modified_levinson_durbin(int *window, int window_entries,
 +        int *out, int out_entries, int channels, int *tap_quant)
 +{
 +    int i;
 +    int *state = av_mallocz(4* window_entries);
 +
 +    memcpy(state, window, 4* window_entries);
 +
 +    for (i = 0; i < out_entries; i++)
 +    {
 +        int step = (i+1)*channels, k, j;
 +        double xx = 0.0, xy = 0.0;
 +#if 1
 +        int *x_ptr = &(window[step]), *state_ptr = &(state[0]);
 +        j = window_entries - step;
 +        for (;j>=0;j--,x_ptr++,state_ptr++)
 +        {
 +            double x_value = *x_ptr, state_value = *state_ptr;
 +            xx += state_value*state_value;
 +            xy += x_value*state_value;
 +        }
 +#else
 +        for (j = 0; j <= (window_entries - step); j++);
 +        {
 +            double stepval = window[step+j], stateval = window[j];
 +//            xx += (double)window[j]*(double)window[j];
 +//            xy += (double)window[step+j]*(double)window[j];
 +            xx += stateval*stateval;
 +            xy += stepval*stateval;
 +        }
 +#endif
 +        if (xx == 0.0)
 +            k = 0;
 +        else
 +            k = (int)(floor(-xy/xx * (double)LATTICE_FACTOR / (double)(tap_quant[i]) + 0.5));
 +
 +        if (k > (LATTICE_FACTOR/tap_quant[i]))
 +            k = LATTICE_FACTOR/tap_quant[i];
 +        if (-k > (LATTICE_FACTOR/tap_quant[i]))
 +            k = -(LATTICE_FACTOR/tap_quant[i]);
 +
 +        out[i] = k;
 +        k *= tap_quant[i];
 +
 +#if 1
 +        x_ptr = &(window[step]);
 +        state_ptr = &(state[0]);
 +        j = window_entries - step;
 +        for (;j>=0;j--,x_ptr++,state_ptr++)
 +        {
 +            int x_value = *x_ptr, state_value = *state_ptr;
 +            *x_ptr = x_value + shift_down(k*state_value,LATTICE_SHIFT);
 +            *state_ptr = state_value + shift_down(k*x_value, LATTICE_SHIFT);
 +        }
 +#else
 +        for (j=0; j <= (window_entries - step); j++)
 +        {
 +            int stepval = window[step+j], stateval=state[j];
 +            window[step+j] += shift_down(k * stateval, LATTICE_SHIFT);
 +            state[j] += shift_down(k * stepval, LATTICE_SHIFT);
 +        }
 +#endif
 +    }
 +
 +    av_free(state);
 +}
 +
 +static inline int code_samplerate(int samplerate)
 +{
 +    switch (samplerate)
 +    {
 +        case 44100: return 0;
 +        case 22050: return 1;
 +        case 11025: return 2;
 +        case 96000: return 3;
 +        case 48000: return 4;
 +        case 32000: return 5;
 +        case 24000: return 6;
 +        case 16000: return 7;
 +        case 8000: return 8;
 +    }
 +    return -1;
 +}
 +
 +static av_cold int sonic_encode_init(AVCodecContext *avctx)
 +{
 +    SonicContext *s = avctx->priv_data;
 +    PutBitContext pb;
 +    int i, version = 0;
 +
 +    if (avctx->channels > MAX_CHANNELS)
 +    {
 +        av_log(avctx, AV_LOG_ERROR, "Only mono and stereo streams are supported by now\n");
 +        return -1; /* only stereo or mono for now */
 +    }
 +
 +    if (avctx->channels == 2)
 +        s->decorrelation = MID_SIDE;
 +
 +    if (avctx->codec->id == AV_CODEC_ID_SONIC_LS)
 +    {
 +        s->lossless = 1;
 +        s->num_taps = 32;
 +        s->downsampling = 1;
 +        s->quantization = 0.0;
 +    }
 +    else
 +    {
 +        s->num_taps = 128;
 +        s->downsampling = 2;
 +        s->quantization = 1.0;
 +    }
 +
 +    // max tap 2048
 +    if ((s->num_taps < 32) || (s->num_taps > 1024) ||
 +        ((s->num_taps>>5)<<5 != s->num_taps))
 +    {
 +        av_log(avctx, AV_LOG_ERROR, "Invalid number of taps\n");
 +        return -1;
 +    }
 +
 +    // generate taps
 +    s->tap_quant = av_mallocz(4* s->num_taps);
 +    for (i = 0; i < s->num_taps; i++)
 +        s->tap_quant[i] = (int)(sqrt(i+1));
 +
 +    s->channels = avctx->channels;
 +    s->samplerate = avctx->sample_rate;
 +
 +    s->block_align = (int)(2048.0*s->samplerate/44100)/s->downsampling;
 +    s->frame_size = s->channels*s->block_align*s->downsampling;
 +
 +    s->tail_size = s->num_taps*s->channels;
 +    s->tail = av_mallocz(4 * s->tail_size);
 +    if (!s->tail)
 +        return -1;
 +
 +    s->predictor_k = av_mallocz(4 * s->num_taps);
 +    if (!s->predictor_k)
 +        return -1;
 +
 +    for (i = 0; i < s->channels; i++)
 +    {
 +        s->coded_samples[i] = av_mallocz(4* s->block_align);
 +        if (!s->coded_samples[i])
 +            return -1;
 +    }
 +
 +    s->int_samples = av_mallocz(4* s->frame_size);
 +
 +    s->window_size = ((2*s->tail_size)+s->frame_size);
 +    s->window = av_mallocz(4* s->window_size);
 +    if (!s->window)
 +        return -1;
 +
 +    avctx->extradata = av_mallocz(16);
 +    if (!avctx->extradata)
 +        return -1;
 +    init_put_bits(&pb, avctx->extradata, 16*8);
 +
 +    put_bits(&pb, 2, version); // version
 +    if (version == 1)
 +    {
 +        put_bits(&pb, 2, s->channels);
 +        put_bits(&pb, 4, code_samplerate(s->samplerate));
 +    }
 +    put_bits(&pb, 1, s->lossless);
 +    if (!s->lossless)
 +        put_bits(&pb, 3, SAMPLE_SHIFT); // XXX FIXME: sample precision
 +    put_bits(&pb, 2, s->decorrelation);
 +    put_bits(&pb, 2, s->downsampling);
 +    put_bits(&pb, 5, (s->num_taps >> 5)-1); // 32..1024
 +    put_bits(&pb, 1, 0); // XXX FIXME: no custom tap quant table
 +
 +    flush_put_bits(&pb);
 +    avctx->extradata_size = put_bits_count(&pb)/8;
 +
 +    av_log(avctx, AV_LOG_INFO, "Sonic: ver: %d ls: %d dr: %d taps: %d block: %d frame: %d downsamp: %d\n",
 +        version, s->lossless, s->decorrelation, s->num_taps, s->block_align, s->frame_size, s->downsampling);
 +
 +    avctx->coded_frame = avcodec_alloc_frame();
 +    if (!avctx->coded_frame)
 +        return AVERROR(ENOMEM);
 +    avctx->coded_frame->key_frame = 1;
 +    avctx->frame_size = s->block_align*s->downsampling;
 +
 +    return 0;
 +}
 +
 +static av_cold int sonic_encode_close(AVCodecContext *avctx)
 +{
 +    SonicContext *s = avctx->priv_data;
 +    int i;
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    for (i = 0; i < s->channels; i++)
 +        av_free(s->coded_samples[i]);
 +
 +    av_free(s->predictor_k);
 +    av_free(s->tail);
 +    av_free(s->tap_quant);
 +    av_free(s->window);
 +    av_free(s->int_samples);
 +
 +    return 0;
 +}
 +
 +static int sonic_encode_frame(AVCodecContext *avctx, AVPacket *avpkt,
 +                              const AVFrame *frame, int *got_packet_ptr)
 +{
 +    SonicContext *s = avctx->priv_data;
 +    PutBitContext pb;
 +    int i, j, ch, quant = 0, x = 0;
 +    int ret;
 +    const short *samples = (const int16_t*)frame->data[0];
 +
 +    if ((ret = ff_alloc_packet2(avctx, avpkt, s->frame_size * 5 + 1000)))
 +        return ret;
 +
 +    init_put_bits(&pb, avpkt->data, avpkt->size);
 +
 +    // short -> internal
 +    for (i = 0; i < s->frame_size; i++)
 +        s->int_samples[i] = samples[i];
 +
 +    if (!s->lossless)
 +        for (i = 0; i < s->frame_size; i++)
 +            s->int_samples[i] = s->int_samples[i] << SAMPLE_SHIFT;
 +
 +    switch(s->decorrelation)
 +    {
 +        case MID_SIDE:
 +            for (i = 0; i < s->frame_size; i += s->channels)
 +            {
 +                s->int_samples[i] += s->int_samples[i+1];
 +                s->int_samples[i+1] -= shift(s->int_samples[i], 1);
 +            }
 +            break;
 +        case LEFT_SIDE:
 +            for (i = 0; i < s->frame_size; i += s->channels)
 +                s->int_samples[i+1] -= s->int_samples[i];
 +            break;
 +        case RIGHT_SIDE:
 +            for (i = 0; i < s->frame_size; i += s->channels)
 +                s->int_samples[i] -= s->int_samples[i+1];
 +            break;
 +    }
 +
 +    memset(s->window, 0, 4* s->window_size);
 +
 +    for (i = 0; i < s->tail_size; i++)
 +        s->window[x++] = s->tail[i];
 +
 +    for (i = 0; i < s->frame_size; i++)
 +        s->window[x++] = s->int_samples[i];
 +
 +    for (i = 0; i < s->tail_size; i++)
 +        s->window[x++] = 0;
 +
 +    for (i = 0; i < s->tail_size; i++)
 +        s->tail[i] = s->int_samples[s->frame_size - s->tail_size + i];
 +
 +    // generate taps
 +    modified_levinson_durbin(s->window, s->window_size,
 +                s->predictor_k, s->num_taps, s->channels, s->tap_quant);
 +    if (intlist_write(&pb, s->predictor_k, s->num_taps, 0) < 0)
 +        return -1;
 +
 +    for (ch = 0; ch < s->channels; ch++)
 +    {
 +        x = s->tail_size+ch;
 +        for (i = 0; i < s->block_align; i++)
 +        {
 +            int sum = 0;
 +            for (j = 0; j < s->downsampling; j++, x += s->channels)
 +                sum += s->window[x];
 +            s->coded_samples[ch][i] = sum;
 +        }
 +    }
 +
 +    // simple rate control code
 +    if (!s->lossless)
 +    {
 +        double energy1 = 0.0, energy2 = 0.0;
 +        for (ch = 0; ch < s->channels; ch++)
 +        {
 +            for (i = 0; i < s->block_align; i++)
 +            {
 +                double sample = s->coded_samples[ch][i];
 +                energy2 += sample*sample;
 +                energy1 += fabs(sample);
 +            }
 +        }
 +
 +        energy2 = sqrt(energy2/(s->channels*s->block_align));
 +        energy1 = sqrt(2.0)*energy1/(s->channels*s->block_align);
 +
 +        // increase bitrate when samples are like a gaussian distribution
 +        // reduce bitrate when samples are like a two-tailed exponential distribution
 +
 +        if (energy2 > energy1)
 +            energy2 += (energy2-energy1)*RATE_VARIATION;
 +
 +        quant = (int)(BASE_QUANT*s->quantization*energy2/SAMPLE_FACTOR);
 +//        av_log(avctx, AV_LOG_DEBUG, "quant: %d energy: %f / %f\n", quant, energy1, energy2);
 +
 +        if (quant < 1)
 +            quant = 1;
 +        if (quant > 65534)
 +            quant = 65534;
 +
 +        set_ue_golomb(&pb, quant);
 +
 +        quant *= SAMPLE_FACTOR;
 +    }
 +
 +    // write out coded samples
 +    for (ch = 0; ch < s->channels; ch++)
 +    {
 +        if (!s->lossless)
 +            for (i = 0; i < s->block_align; i++)
 +                s->coded_samples[ch][i] = divide(s->coded_samples[ch][i], quant);
 +
 +        if (intlist_write(&pb, s->coded_samples[ch], s->block_align, 1) < 0)
 +            return -1;
 +    }
 +
 +//    av_log(avctx, AV_LOG_DEBUG, "used bytes: %d\n", (put_bits_count(&pb)+7)/8);
 +
 +    flush_put_bits(&pb);
 +    avpkt->size = (put_bits_count(&pb)+7)/8;
 +    *got_packet_ptr = 1;
 +    return 0;
 +}
 +#endif /* CONFIG_SONIC_ENCODER || CONFIG_SONIC_LS_ENCODER */
 +
 +#if CONFIG_SONIC_DECODER
 +static const int samplerate_table[] =
 +    { 44100, 22050, 11025, 96000, 48000, 32000, 24000, 16000, 8000 };
 +
 +static av_cold int sonic_decode_init(AVCodecContext *avctx)
 +{
 +    SonicContext *s = avctx->priv_data;
 +    GetBitContext gb;
 +    int i, version;
 +
 +    s->channels = avctx->channels;
 +    s->samplerate = avctx->sample_rate;
 +
 +    avcodec_get_frame_defaults(&s->frame);
 +    avctx->coded_frame = &s->frame;
 +
 +    if (!avctx->extradata)
 +    {
 +        av_log(avctx, AV_LOG_ERROR, "No mandatory headers present\n");
 +        return -1;
 +    }
 +
 +    init_get_bits(&gb, avctx->extradata, avctx->extradata_size);
 +
 +    version = get_bits(&gb, 2);
 +    if (version > 1)
 +    {
 +        av_log(avctx, AV_LOG_ERROR, "Unsupported Sonic version, please report\n");
 +        return -1;
 +    }
 +
 +    if (version == 1)
 +    {
 +        s->channels = get_bits(&gb, 2);
 +        s->samplerate = samplerate_table[get_bits(&gb, 4)];
 +        av_log(avctx, AV_LOG_INFO, "Sonicv2 chans: %d samprate: %d\n",
 +            s->channels, s->samplerate);
 +    }
 +
 +    if (s->channels > MAX_CHANNELS)
 +    {
 +        av_log(avctx, AV_LOG_ERROR, "Only mono and stereo streams are supported by now\n");
 +        return -1;
 +    }
 +
 +    s->lossless = get_bits1(&gb);
 +    if (!s->lossless)
 +        skip_bits(&gb, 3); // XXX FIXME
 +    s->decorrelation = get_bits(&gb, 2);
 +
 +    s->downsampling = get_bits(&gb, 2);
 +    if (!s->downsampling) {
 +        av_log(avctx, AV_LOG_ERROR, "invalid downsampling value\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    s->num_taps = (get_bits(&gb, 5)+1)<<5;
 +    if (get_bits1(&gb)) // XXX FIXME
 +        av_log(avctx, AV_LOG_INFO, "Custom quant table\n");
 +
 +    s->block_align = (int)(2048.0*s->samplerate/44100)/s->downsampling;
 +    s->frame_size = s->channels*s->block_align*s->downsampling;
 +//    avctx->frame_size = s->block_align;
 +
 +    av_log(avctx, AV_LOG_INFO, "Sonic: ver: %d ls: %d dr: %d taps: %d block: %d frame: %d downsamp: %d\n",
 +        version, s->lossless, s->decorrelation, s->num_taps, s->block_align, s->frame_size, s->downsampling);
 +
 +    // generate taps
 +    s->tap_quant = av_mallocz(4* s->num_taps);
 +    for (i = 0; i < s->num_taps; i++)
 +        s->tap_quant[i] = (int)(sqrt(i+1));
 +
 +    s->predictor_k = av_mallocz(4* s->num_taps);
 +
 +    for (i = 0; i < s->channels; i++)
 +    {
 +        s->predictor_state[i] = av_mallocz(4* s->num_taps);
 +        if (!s->predictor_state[i])
 +            return -1;
 +    }
 +
 +    for (i = 0; i < s->channels; i++)
 +    {
 +        s->coded_samples[i] = av_mallocz(4* s->block_align);
 +        if (!s->coded_samples[i])
 +            return -1;
 +    }
 +    s->int_samples = av_mallocz(4* s->frame_size);
 +
 +    avctx->sample_fmt = AV_SAMPLE_FMT_S16;
 +    return 0;
 +}
 +
 +static av_cold int sonic_decode_close(AVCodecContext *avctx)
 +{
 +    SonicContext *s = avctx->priv_data;
 +    int i;
 +
 +    av_free(s->int_samples);
 +    av_free(s->tap_quant);
 +    av_free(s->predictor_k);
 +
 +    for (i = 0; i < s->channels; i++)
 +    {
 +        av_free(s->predictor_state[i]);
 +        av_free(s->coded_samples[i]);
 +    }
 +
 +    return 0;
 +}
 +
 +static int sonic_decode_frame(AVCodecContext *avctx,
 +                            void *data, int *got_frame_ptr,
 +                            AVPacket *avpkt)
 +{
 +    const uint8_t *buf = avpkt->data;
 +    int buf_size = avpkt->size;
 +    SonicContext *s = avctx->priv_data;
 +    GetBitContext gb;
 +    int i, quant, ch, j, ret;
 +    int16_t *samples;
 +
 +    if (buf_size == 0) return 0;
 +
 +    s->frame.nb_samples = s->frame_size;
++    if ((ret = ff_get_buffer(avctx, &s->frame)) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
 +    }
 +    samples = (int16_t *)s->frame.data[0];
 +
 +//    av_log(NULL, AV_LOG_INFO, "buf_size: %d\n", buf_size);
 +
 +    init_get_bits(&gb, buf, buf_size*8);
 +
 +    intlist_read(&gb, s->predictor_k, s->num_taps, 0);
 +
 +    // dequantize
 +    for (i = 0; i < s->num_taps; i++)
 +        s->predictor_k[i] *= s->tap_quant[i];
 +
 +    if (s->lossless)
 +        quant = 1;
 +    else
 +        quant = get_ue_golomb(&gb) * SAMPLE_FACTOR;
 +
 +//    av_log(NULL, AV_LOG_INFO, "quant: %d\n", quant);
 +
 +    for (ch = 0; ch < s->channels; ch++)
 +    {
 +        int x = ch;
 +
 +        predictor_init_state(s->predictor_k, s->predictor_state[ch], s->num_taps);
 +
 +        intlist_read(&gb, s->coded_samples[ch], s->block_align, 1);
 +
 +        for (i = 0; i < s->block_align; i++)
 +        {
 +            for (j = 0; j < s->downsampling - 1; j++)
 +            {
 +                s->int_samples[x] = predictor_calc_error(s->predictor_k, s->predictor_state[ch], s->num_taps, 0);
 +                x += s->channels;
 +            }
 +
 +            s->int_samples[x] = predictor_calc_error(s->predictor_k, s->predictor_state[ch], s->num_taps, s->coded_samples[ch][i] * quant);
 +            x += s->channels;
 +        }
 +
 +        for (i = 0; i < s->num_taps; i++)
 +            s->predictor_state[ch][i] = s->int_samples[s->frame_size - s->channels + ch - i*s->channels];
 +    }
 +
 +    switch(s->decorrelation)
 +    {
 +        case MID_SIDE:
 +            for (i = 0; i < s->frame_size; i += s->channels)
 +            {
 +                s->int_samples[i+1] += shift(s->int_samples[i], 1);
 +                s->int_samples[i] -= s->int_samples[i+1];
 +            }
 +            break;
 +        case LEFT_SIDE:
 +            for (i = 0; i < s->frame_size; i += s->channels)
 +                s->int_samples[i+1] += s->int_samples[i];
 +            break;
 +        case RIGHT_SIDE:
 +            for (i = 0; i < s->frame_size; i += s->channels)
 +                s->int_samples[i] += s->int_samples[i+1];
 +            break;
 +    }
 +
 +    if (!s->lossless)
 +        for (i = 0; i < s->frame_size; i++)
 +            s->int_samples[i] = shift(s->int_samples[i], SAMPLE_SHIFT);
 +
 +    // internal -> short
 +    for (i = 0; i < s->frame_size; i++)
 +        samples[i] = av_clip_int16(s->int_samples[i]);
 +
 +    align_get_bits(&gb);
 +
 +    *got_frame_ptr = 1;
 +    *(AVFrame*)data = s->frame;
 +
 +    return (get_bits_count(&gb)+7)/8;
 +}
 +
 +AVCodec ff_sonic_decoder = {
 +    .name           = "sonic",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_SONIC,
 +    .priv_data_size = sizeof(SonicContext),
 +    .init           = sonic_decode_init,
 +    .close          = sonic_decode_close,
 +    .decode         = sonic_decode_frame,
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_EXPERIMENTAL,
 +    .long_name = NULL_IF_CONFIG_SMALL("Sonic"),
 +};
 +#endif /* CONFIG_SONIC_DECODER */
 +
 +#if CONFIG_SONIC_ENCODER
 +AVCodec ff_sonic_encoder = {
 +    .name           = "sonic",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_SONIC,
 +    .priv_data_size = sizeof(SonicContext),
 +    .init           = sonic_encode_init,
 +    .encode2        = sonic_encode_frame,
 +    .capabilities   = CODEC_CAP_EXPERIMENTAL,
 +    .close          = sonic_encode_close,
 +    .long_name = NULL_IF_CONFIG_SMALL("Sonic"),
 +};
 +#endif
 +
 +#if CONFIG_SONIC_LS_ENCODER
 +AVCodec ff_sonic_ls_encoder = {
 +    .name           = "sonicls",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_SONIC_LS,
 +    .priv_data_size = sizeof(SonicContext),
 +    .init           = sonic_encode_init,
 +    .encode2        = sonic_encode_frame,
 +    .capabilities   = CODEC_CAP_EXPERIMENTAL,
 +    .close          = sonic_encode_close,
 +    .long_name = NULL_IF_CONFIG_SMALL("Sonic lossless"),
 +};
 +#endif
Simple merge
Simple merge
index 11202967d21472e80876d8fa48d14821e0494907,0000000000000000000000000000000000000000..66b136a56fe665ecc980b27e98b4b03868a8f1b5
mode 100644,000000..100644
--- /dev/null
@@@ -1,984 -1,0 +1,985 @@@
-     if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0)
 +/*
 + * TAK decoder
 + * Copyright (c) 2012 Paul B Mahol
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/**
 + * @file
 + * TAK (Tom's lossless Audio Kompressor) decoder
 + * @author Paul B Mahol
 + */
 +
 +#include "tak.h"
 +#include "avcodec.h"
++#include "internal.h"
 +#include "unary.h"
 +#include "dsputil.h"
 +
 +#define MAX_SUBFRAMES   8                       ///< max number of subframes per channel
 +#define MAX_PREDICTORS  256
 +
 +typedef struct MCDParam {
 +    int8_t     present;                         ///< is decorrelation parameters available for this channel
 +    int8_t     index;                           ///< index into array of decorrelation types
 +    int8_t     chan1;
 +    int8_t     chan2;
 +} MCDParam;
 +
 +typedef struct TAKDecContext {
 +    AVCodecContext *avctx;                      ///< parent AVCodecContext
 +    AVFrame        frame;                       ///< AVFrame for decoded output
 +    DSPContext     dsp;
 +    TAKStreamInfo  ti;
 +    GetBitContext  gb;                          ///< bitstream reader initialized to start at the current frame
 +
 +    int            nb_samples;                  ///< number of samples in the current frame
 +    int32_t        *decode_buffer;
 +    int            decode_buffer_size;
 +    int32_t        *decoded[TAK_MAX_CHANNELS];  ///< decoded samples for each channel
 +
 +    int8_t         lpc_mode[TAK_MAX_CHANNELS];
 +    int8_t         sample_shift[TAK_MAX_CHANNELS];  ///< shift applied to every sample in the channel
 +    int32_t        xred;
 +    int            size;
 +    int            ared;
 +    int            filter_order;
 +    int16_t        predictors[MAX_PREDICTORS];
 +    int            nb_subframes;                ///< number of subframes in the current frame
 +    int16_t        subframe_len[MAX_SUBFRAMES]; ///< subframe length in samples
 +    int            subframe_scale;
 +
 +    int8_t         dmode;                       ///< channel decorrelation type in the current frame
 +    int8_t         dshift;
 +    int16_t        dfactor;
 +    int8_t         dval1;
 +    int8_t         dval2;
 +
 +    MCDParam       mcdparams[TAK_MAX_CHANNELS]; ///< multichannel decorrelation parameters
 +
 +    int            wlength;
 +    int            uval;
 +    int            rval;
 +    int8_t         coding_mode[128];
 +    DECLARE_ALIGNED(16, int16_t, filter)[MAX_PREDICTORS];
 +    DECLARE_ALIGNED(16, int16_t, residues)[544];
 +} TAKDecContext;
 +
 +static const int8_t mc_dmodes[] = {
 +    1, 3, 4, 6,
 +};
 +
 +static const uint16_t predictor_sizes[] = {
 +    4, 8, 12, 16, 24, 32, 48, 64, 80, 96, 128, 160, 192, 224, 256, 0,
 +};
 +
 +static const struct CParam {
 +    int        init;
 +    int        escape;
 +    int        scale;
 +    int        aescape;
 +    int        bias;
 +} xcodes[50] = {
 +    { 0x01, 0x0000001, 0x0000001, 0x0000003, 0x0000008 },
 +    { 0x02, 0x0000003, 0x0000001, 0x0000007, 0x0000006 },
 +    { 0x03, 0x0000005, 0x0000002, 0x000000E, 0x000000D },
 +    { 0x03, 0x0000003, 0x0000003, 0x000000D, 0x0000018 },
 +    { 0x04, 0x000000B, 0x0000004, 0x000001C, 0x0000019 },
 +    { 0x04, 0x0000006, 0x0000006, 0x000001A, 0x0000030 },
 +    { 0x05, 0x0000016, 0x0000008, 0x0000038, 0x0000032 },
 +    { 0x05, 0x000000C, 0x000000C, 0x0000034, 0x0000060 },
 +    { 0x06, 0x000002C, 0x0000010, 0x0000070, 0x0000064 },
 +    { 0x06, 0x0000018, 0x0000018, 0x0000068, 0x00000C0 },
 +    { 0x07, 0x0000058, 0x0000020, 0x00000E0, 0x00000C8 },
 +    { 0x07, 0x0000030, 0x0000030, 0x00000D0, 0x0000180 },
 +    { 0x08, 0x00000B0, 0x0000040, 0x00001C0, 0x0000190 },
 +    { 0x08, 0x0000060, 0x0000060, 0x00001A0, 0x0000300 },
 +    { 0x09, 0x0000160, 0x0000080, 0x0000380, 0x0000320 },
 +    { 0x09, 0x00000C0, 0x00000C0, 0x0000340, 0x0000600 },
 +    { 0x0A, 0x00002C0, 0x0000100, 0x0000700, 0x0000640 },
 +    { 0x0A, 0x0000180, 0x0000180, 0x0000680, 0x0000C00 },
 +    { 0x0B, 0x0000580, 0x0000200, 0x0000E00, 0x0000C80 },
 +    { 0x0B, 0x0000300, 0x0000300, 0x0000D00, 0x0001800 },
 +    { 0x0C, 0x0000B00, 0x0000400, 0x0001C00, 0x0001900 },
 +    { 0x0C, 0x0000600, 0x0000600, 0x0001A00, 0x0003000 },
 +    { 0x0D, 0x0001600, 0x0000800, 0x0003800, 0x0003200 },
 +    { 0x0D, 0x0000C00, 0x0000C00, 0x0003400, 0x0006000 },
 +    { 0x0E, 0x0002C00, 0x0001000, 0x0007000, 0x0006400 },
 +    { 0x0E, 0x0001800, 0x0001800, 0x0006800, 0x000C000 },
 +    { 0x0F, 0x0005800, 0x0002000, 0x000E000, 0x000C800 },
 +    { 0x0F, 0x0003000, 0x0003000, 0x000D000, 0x0018000 },
 +    { 0x10, 0x000B000, 0x0004000, 0x001C000, 0x0019000 },
 +    { 0x10, 0x0006000, 0x0006000, 0x001A000, 0x0030000 },
 +    { 0x11, 0x0016000, 0x0008000, 0x0038000, 0x0032000 },
 +    { 0x11, 0x000C000, 0x000C000, 0x0034000, 0x0060000 },
 +    { 0x12, 0x002C000, 0x0010000, 0x0070000, 0x0064000 },
 +    { 0x12, 0x0018000, 0x0018000, 0x0068000, 0x00C0000 },
 +    { 0x13, 0x0058000, 0x0020000, 0x00E0000, 0x00C8000 },
 +    { 0x13, 0x0030000, 0x0030000, 0x00D0000, 0x0180000 },
 +    { 0x14, 0x00B0000, 0x0040000, 0x01C0000, 0x0190000 },
 +    { 0x14, 0x0060000, 0x0060000, 0x01A0000, 0x0300000 },
 +    { 0x15, 0x0160000, 0x0080000, 0x0380000, 0x0320000 },
 +    { 0x15, 0x00C0000, 0x00C0000, 0x0340000, 0x0600000 },
 +    { 0x16, 0x02C0000, 0x0100000, 0x0700000, 0x0640000 },
 +    { 0x16, 0x0180000, 0x0180000, 0x0680000, 0x0C00000 },
 +    { 0x17, 0x0580000, 0x0200000, 0x0E00000, 0x0C80000 },
 +    { 0x17, 0x0300000, 0x0300000, 0x0D00000, 0x1800000 },
 +    { 0x18, 0x0B00000, 0x0400000, 0x1C00000, 0x1900000 },
 +    { 0x18, 0x0600000, 0x0600000, 0x1A00000, 0x3000000 },
 +    { 0x19, 0x1600000, 0x0800000, 0x3800000, 0x3200000 },
 +    { 0x19, 0x0C00000, 0x0C00000, 0x3400000, 0x6000000 },
 +    { 0x1A, 0x2C00000, 0x1000000, 0x7000000, 0x6400000 },
 +    { 0x1A, 0x1800000, 0x1800000, 0x6800000, 0xC000000 },
 +};
 +
 +static int tak_set_bps(AVCodecContext *avctx, int bps)
 +{
 +    switch (bps) {
 +    case 8:
 +        avctx->sample_fmt = AV_SAMPLE_FMT_U8P;
 +        break;
 +    case 16:
 +        avctx->sample_fmt = AV_SAMPLE_FMT_S16P;
 +        break;
 +    case 24:
 +        avctx->sample_fmt = AV_SAMPLE_FMT_S32P;
 +        break;
 +    default:
 +        av_log(avctx, AV_LOG_ERROR, "invalid/unsupported bits per sample\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    return 0;
 +}
 +
 +static int get_shift(int sample_rate)
 +{
 +    int shift;
 +
 +    if (sample_rate < 11025)
 +        shift = 3;
 +    else if (sample_rate < 22050)
 +        shift = 2;
 +    else if (sample_rate < 44100)
 +        shift = 1;
 +    else
 +        shift = 0;
 +
 +    return shift;
 +}
 +
 +static int get_scale(int sample_rate, int shift)
 +{
 +    return FFALIGN(sample_rate + 511 >> 9, 4) << shift;
 +}
 +
 +static av_cold int tak_decode_init(AVCodecContext *avctx)
 +{
 +    TAKDecContext *s = avctx->priv_data;
 +    int ret;
 +
 +    ff_tak_init_crc();
 +    ff_dsputil_init(&s->dsp, avctx);
 +
 +    s->avctx = avctx;
 +    avcodec_get_frame_defaults(&s->frame);
 +    avctx->coded_frame = &s->frame;
 +
 +    s->uval = get_scale(avctx->sample_rate, get_shift(avctx->sample_rate));
 +    s->subframe_scale = get_scale(avctx->sample_rate, 1);
 +
 +    if ((ret = tak_set_bps(avctx, avctx->bits_per_coded_sample)) < 0)
 +        return ret;
 +
 +    return 0;
 +}
 +
 +static int get_code(GetBitContext *gb, int nbits)
 +{
 +    if (nbits == 1) {
 +        skip_bits1(gb);
 +        return 0;
 +    } else {
 +        return get_sbits(gb, nbits);
 +    }
 +}
 +
 +static void decode_lpc(int32_t *coeffs, int mode, int length)
 +{
 +    int i, a1, a2, a3, a4, a5;
 +
 +    if (length < 2)
 +        return;
 +
 +    if (mode == 1) {
 +        a1 = *coeffs++;
 +        for (i = 0; i < (length - 1 >> 1); i++) {
 +            *coeffs   += a1;
 +            coeffs[1] += *coeffs;
 +            a1      = coeffs[1];
 +            coeffs    += 2;
 +        }
 +        if ((length - 1) & 1)
 +            *coeffs += a1;
 +    } else if (mode == 2) {
 +        a1     = coeffs[1];
 +        a2     = a1 + *coeffs;
 +        coeffs[1] = a2;
 +        if (length > 2) {
 +            coeffs += 2;
 +            for (i = 0; i < (length - 2 >> 1); i++) {
 +                a3     = *coeffs + a1;
 +                a4     = a3 + a2;
 +                *coeffs   = a4;
 +                a1     = coeffs[1] + a3;
 +                a2     = a1 + a4;
 +                coeffs[1] = a2;
 +                coeffs   += 2;
 +            }
 +            if (length & 1)
 +                *coeffs  += a1 + a2;
 +        }
 +    } else if (mode == 3) {
 +        a1     = coeffs[1];
 +        a2     = a1 + *coeffs;
 +        coeffs[1] = a2;
 +        if (length > 2) {
 +            a3   = coeffs[2];
 +            a4   = a3 + a1;
 +            a5   = a4 + a2;
 +            coeffs += 3;
 +            for (i = 0; i < length - 3; i++) {
 +                a3  += *coeffs;
 +                a4  += a3;
 +                a5  += a4;
 +                *coeffs = a5;
 +                coeffs++;
 +            }
 +        }
 +    }
 +}
 +
 +static int decode_segment(TAKDecContext *s, int8_t value, int32_t *dst, int len)
 +{
 +    GetBitContext *gb = &s->gb;
 +
 +    if (!value) {
 +        memset(dst, 0, len * 4);
 +    } else {
 +        int x, y, z, i = 0;
 +
 +        value--;
 +        do {
 +            while (1) {
 +                x = get_bits_long(gb, xcodes[value].init);
 +                if (x >= xcodes[value].escape)
 +                    break;
 +                dst[i++] = (x >> 1) ^ -(x & 1);
 +                if (i >= len)
 +                    return 0;
 +            }
 +
 +            y = get_bits1(gb);
 +            x = (y << xcodes[value].init) | x;
 +            if (x >= xcodes[value].aescape) {
 +                int c = get_unary(gb, 1, 9);
 +
 +                if (c == 9) {
 +                    int d;
 +
 +                    z = x + xcodes[value].bias;
 +                    d = get_bits(gb, 3);
 +                    if (d == 7) {
 +                        d = get_bits(gb, 5) + 7;
 +                        if (d > 29)
 +                            return AVERROR_INVALIDDATA;
 +                    }
 +                    if (d)
 +                        z += xcodes[value].scale * (get_bits_long(gb, d) + 1);
 +                } else {
 +                    z = xcodes[value].scale * c + x - xcodes[value].escape;
 +                }
 +            } else {
 +                z = x - (xcodes[value].escape & -y);
 +            }
 +            dst[i++] = (z >> 1) ^ -(z & 1);
 +        } while (i < len);
 +    }
 +
 +    return 0;
 +}
 +
 +static int xget(TAKDecContext *s, int d, int q)
 +{
 +    int x;
 +
 +    x = d / q;
 +
 +    s->rval = d - (x * q);
 +
 +    if (s->rval < q / 2) {
 +        s->rval += q;
 +    } else {
 +        x++;
 +    }
 +
 +    if (x <= 1 || x > 128)
 +        return -1;
 +
 +    return x;
 +}
 +
 +static int get_len(TAKDecContext *s, int b)
 +{
 +    if (b >= s->wlength - 1)
 +        return s->rval;
 +    else
 +        return s->uval;
 +}
 +
 +static int decode_coeffs(TAKDecContext *s, int32_t *dst, int length)
 +{
 +    GetBitContext *gb = &s->gb;
 +    int i, v, ret;
 +
 +    if (length > s->nb_samples)
 +        return AVERROR_INVALIDDATA;
 +
 +    if (get_bits1(gb)) {
 +        if ((s->wlength = xget(s, length, s->uval)) < 0)
 +            return AVERROR_INVALIDDATA;
 +
 +        s->coding_mode[0] = v = get_bits(gb, 6);
 +        if (s->coding_mode[0] > FF_ARRAY_ELEMS(xcodes))
 +            return AVERROR_INVALIDDATA;
 +
 +        for (i = 1; i < s->wlength; i++) {
 +            int c = get_unary(gb, 1, 6);
 +
 +            if (c > 5) {
 +                v = get_bits(gb, 6);
 +            } else if (c > 2) {
 +                int t = get_bits1(gb);
 +
 +                v += (-t ^ (c - 1)) + t;
 +            } else {
 +                v += (-(c & 1) ^ (((c & 1) + c) >> 1)) + (c & 1);
 +            }
 +
 +            if (v > FF_ARRAY_ELEMS(xcodes))
 +                return AVERROR_INVALIDDATA;
 +            s->coding_mode[i] = v;
 +        }
 +
 +        i = 0;
 +        while (i < s->wlength) {
 +            int len = 0;
 +
 +            v = s->coding_mode[i];
 +            do {
 +                len += get_len(s, i);
 +                i++;
 +
 +                if (i == s->wlength)
 +                    break;
 +            } while (v == s->coding_mode[i]);
 +
 +            if ((ret = decode_segment(s, v, dst, len)) < 0)
 +                return ret;
 +            dst += len;
 +        }
 +    } else {
 +        v = get_bits(gb, 6);
 +        if (v > FF_ARRAY_ELEMS(xcodes))
 +            return AVERROR_INVALIDDATA;
 +        if ((ret = decode_segment(s, v, dst, length)) < 0)
 +            return ret;
 +    }
 +
 +    return 0;
 +}
 +
 +static int get_b(GetBitContext *gb)
 +{
 +    if (get_bits1(gb))
 +        return get_bits(gb, 4) + 1;
 +    else
 +        return 0;
 +}
 +
 +static int decode_subframe(TAKDecContext *s, int32_t *ptr, int subframe_size,
 +                           int prev_subframe_size)
 +{
 +    GetBitContext  *gb = &s->gb;
 +    int tmp, x, y, i, j, ret = 0;
 +    int tfilter[MAX_PREDICTORS];
 +
 +    if (get_bits1(gb)) {
 +        s->filter_order = predictor_sizes[get_bits(gb, 4)];
 +
 +        if (prev_subframe_size > 0 && get_bits1(gb)) {
 +            if (s->filter_order > prev_subframe_size)
 +                return AVERROR_INVALIDDATA;
 +
 +            ptr           -= s->filter_order;
 +            subframe_size += s->filter_order;
 +
 +            if (s->filter_order > subframe_size)
 +                return AVERROR_INVALIDDATA;
 +        } else {
 +            int lpc;
 +
 +            if (s->filter_order > subframe_size)
 +                return AVERROR_INVALIDDATA;
 +
 +            lpc = get_bits(gb, 2);
 +            if (lpc > 2)
 +                return AVERROR_INVALIDDATA;
 +
 +            if ((ret = decode_coeffs(s, ptr, s->filter_order)) < 0)
 +                return ret;
 +
 +            decode_lpc(ptr, lpc, s->filter_order);
 +        }
 +
 +        s->xred = get_b(gb);
 +        s->size = get_bits1(gb) + 5;
 +
 +        if (get_bits1(gb)) {
 +            s->ared = get_bits(gb, 3) + 1;
 +            if (s->ared > 7)
 +                return AVERROR_INVALIDDATA;
 +        } else {
 +            s->ared = 0;
 +        }
 +        s->predictors[0] = get_code(gb, 10);
 +        s->predictors[1] = get_code(gb, 10);
 +        s->predictors[2] = get_code(gb, s->size + 1) << (9 - s->size);
 +        s->predictors[3] = get_code(gb, s->size + 1) << (9 - s->size);
 +        if (s->filter_order > 4) {
 +            tmp = s->size + 1 - get_bits1(gb);
 +
 +            for (i = 4; i < s->filter_order; i++) {
 +                if (!(i & 3))
 +                    x = tmp - get_bits(gb, 2);
 +                s->predictors[i] = get_code(gb, x) << (9 - s->size);
 +            }
 +        }
 +
 +        tfilter[0] = s->predictors[0] << 6;
 +        for (i = 1; i < s->filter_order; i++) {
 +            int32_t *p1 = &tfilter[0];
 +            int32_t *p2 = &tfilter[i - 1];
 +
 +            for (j = 0; j < (i + 1) / 2; j++) {
 +                x     = *p1 + (s->predictors[i] * *p2 + 256 >> 9);
 +                *p2  += s->predictors[i] * *p1 + 256 >> 9;
 +                *p1++ = x;
 +                p2--;
 +            }
 +
 +            tfilter[i] = s->predictors[i] << 6;
 +        }
 +
 +        x = -1 << (32 - (s->ared + 5));
 +        y =  1 << ((s->ared + 5) - 1);
 +        for (i = 0, j = s->filter_order - 1; i < s->filter_order / 2; i++, j--) {
 +            tmp = y + tfilter[j];
 +            s->filter[j] = -(x & -(y + tfilter[i] >> 31) |
 +                            (y + tfilter[i]) >> (s->ared + 5));
 +            s->filter[i] = -(x & -(tmp >> 31) | (tmp >> s->ared + 5));
 +        }
 +
 +        if ((ret = decode_coeffs(s, &ptr[s->filter_order],
 +                                 subframe_size - s->filter_order)) < 0)
 +            return ret;
 +
 +        for (i = 0; i < s->filter_order; i++)
 +            s->residues[i] = *ptr++ >> s->xred;
 +
 +        y    = FF_ARRAY_ELEMS(s->residues) - s->filter_order;
 +        x    = subframe_size - s->filter_order;
 +        while (x > 0) {
 +            tmp = FFMIN(y, x);
 +
 +            for (i = 0; i < tmp; i++) {
 +                int v, w, m;
 +
 +                v = 1 << (10 - s->ared - 1);
 +                if (!(s->filter_order & 15)) {
 +                    v += s->dsp.scalarproduct_int16(&s->residues[i], s->filter,
 +                                                    s->filter_order);
 +                } else if (s->filter_order & 4) {
 +                    for (j = 0; j < s->filter_order; j += 4) {
 +                        v += s->residues[i + j + 3] * s->filter[j + 3] +
 +                             s->residues[i + j + 2] * s->filter[j + 2] +
 +                             s->residues[i + j + 1] * s->filter[j + 1] +
 +                             s->residues[i + j    ] * s->filter[j    ];
 +                    }
 +                } else {
 +                    for (j = 0; j < s->filter_order; j += 8) {
 +                        v += s->residues[i + j + 7] * s->filter[j + 7] +
 +                             s->residues[i + j + 6] * s->filter[j + 6] +
 +                             s->residues[i + j + 5] * s->filter[j + 5] +
 +                             s->residues[i + j + 4] * s->filter[j + 4] +
 +                             s->residues[i + j + 3] * s->filter[j + 3] +
 +                             s->residues[i + j + 2] * s->filter[j + 2] +
 +                             s->residues[i + j + 1] * s->filter[j + 1] +
 +                             s->residues[i + j    ] * s->filter[j    ];
 +                    }
 +                }
 +                m = (-1 << (32 - (10 - s->ared))) & -(v >> 31) | (v >> 10 - s->ared);
 +                m = av_clip(m, -8192, 8191);
 +                w = (m << s->xred) - *ptr;
 +                *ptr++ = w;
 +                s->residues[s->filter_order + i] = w >> s->xred;
 +            }
 +
 +            x -= tmp;
 +            if (x > 0)
 +                memcpy(s->residues, &s->residues[y], 2 * s->filter_order);
 +        }
 +
 +        emms_c();
 +    } else {
 +        ret = decode_coeffs(s, ptr, subframe_size);
 +    }
 +
 +    return ret;
 +}
 +
 +static int decode_channel(TAKDecContext *s, int chan)
 +{
 +    AVCodecContext *avctx = s->avctx;
 +    GetBitContext  *gb = &s->gb;
 +    int32_t *dst = s->decoded[chan];
 +    int i = 0, ret, prev = 0;
 +    int left = s->nb_samples - 1;
 +
 +    s->sample_shift[chan] = get_b(gb);
 +    if (s->sample_shift[chan] >= avctx->bits_per_raw_sample)
 +        return AVERROR_INVALIDDATA;
 +
 +    *dst++ = get_code(gb, avctx->bits_per_raw_sample - s->sample_shift[chan]);
 +    s->lpc_mode[chan] = get_bits(gb, 2);
 +    s->nb_subframes   = get_bits(gb, 3) + 1;
 +
 +    if (s->nb_subframes > 1) {
 +        if (get_bits_left(gb) < (s->nb_subframes - 1) * 6)
 +            return AVERROR_INVALIDDATA;
 +
 +        for (; i < s->nb_subframes - 1; i++) {
 +            int v = get_bits(gb, 6);
 +
 +            s->subframe_len[i] = (v - prev) * s->subframe_scale;
 +            if (s->subframe_len[i] <= 0)
 +                return AVERROR_INVALIDDATA;
 +
 +            left -= s->subframe_len[i];
 +            prev  = v;
 +        }
 +
 +        if (left <= 0)
 +            return AVERROR_INVALIDDATA;
 +    }
 +
 +    s->subframe_len[i] = left;
 +    prev = 0;
 +    for (i = 0; i < s->nb_subframes; i++) {
 +        if ((ret = decode_subframe(s, dst, s->subframe_len[i], prev)) < 0)
 +            return ret;
 +        dst += s->subframe_len[i];
 +        prev = s->subframe_len[i];
 +    }
 +
 +    return 0;
 +}
 +
 +static int decorrelate(TAKDecContext *s, int c1, int c2, int length)
 +{
 +    GetBitContext  *gb = &s->gb;
 +    uint32_t *p1 = s->decoded[c1] + 1;
 +    uint32_t *p2 = s->decoded[c2] + 1;
 +    int a, b, i, x, tmp;
 +
 +    if (s->dmode > 3) {
 +        s->dshift = get_b(gb);
 +        if (s->dmode > 5) {
 +            if (get_bits1(gb))
 +                s->filter_order = 16;
 +            else
 +                s->filter_order = 8;
 +
 +            s->dval1 = get_bits1(gb);
 +            s->dval2 = get_bits1(gb);
 +
 +            for (i = 0; i < s->filter_order; i++) {
 +                if (!(i & 3))
 +                    x = 14 - get_bits(gb, 3);
 +                s->filter[i] = get_code(gb, x);
 +            }
 +        } else {
 +            s->dfactor = get_code(gb, 10);
 +        }
 +    }
 +
 +    switch (s->dmode) {
 +    case 1:
 +        for (i = 0; i < length; i++, p1++, p2++)
 +            *p2 += *p1;
 +        break;
 +    case 2:
 +        for (i = 0; i < length; i++, p1++, p2++)
 +            *p1 = *p2 - *p1;
 +        break;
 +    case 3:
 +        for (i = 0; i < length; i++, p1++, p2++) {
 +            x   = (*p2 & 1) + 2 * *p1;
 +            a   = -*p2 + x;
 +            b   =  *p2 + x;
 +            *p1 = a & 0x80000000 | (a >> 1);
 +            *p2 = b & 0x80000000 | (b >> 1);
 +        }
 +        break;
 +    case 4:
 +        FFSWAP(uint32_t *, p1, p2);
 +    case 5:
 +        if (s->dshift)
 +            tmp = -1 << (32 - s->dshift);
 +        else
 +            tmp = 0;
 +
 +        for (i = 0; i < length; i++, p1++, p2++) {
 +            x   = s->dfactor * (tmp & -(*p2 >> 31) | (*p2 >> s->dshift)) + 128;
 +            *p1 = ((-(x >> 31) & 0xFF000000 | (x >> 8)) << s->dshift) - *p1;
 +        }
 +        break;
 +    case 6:
 +        FFSWAP(uint32_t *, p1, p2);
 +    case 7:
 +        if (length < 256)
 +            return AVERROR_INVALIDDATA;
 +
 +        a = s->filter_order / 2;
 +        b = length - (s->filter_order - 1);
 +
 +        if (s->dval1) {
 +            for (i = 0; i < a; i++)
 +                p1[i] += p2[i];
 +        }
 +
 +        if (s->dval2) {
 +            x = a + b;
 +            for (i = 0; i < length - x; i++)
 +                p1[x + i] += p2[x + i];
 +        }
 +
 +        for (i = 0; i < s->filter_order; i++)
 +            s->residues[i] = *p2++ >> s->dshift;
 +
 +        p1 += a;
 +        x = FF_ARRAY_ELEMS(s->residues) - s->filter_order;
 +        for (; b > 0; b -= tmp) {
 +            tmp = FFMIN(b, x);
 +
 +            for (i = 0; i < tmp; i++)
 +                s->residues[s->filter_order + i] = *p2++ >> s->dshift;
 +
 +            for (i = 0; i < tmp; i++) {
 +                int v, w, m;
 +
 +                v = 1 << 9;
 +
 +                if (s->filter_order == 16) {
 +                    v += s->dsp.scalarproduct_int16(&s->residues[i], s->filter,
 +                                                    s->filter_order);
 +                } else {
 +                    v += s->residues[i + 7] * s->filter[7] +
 +                         s->residues[i + 6] * s->filter[6] +
 +                         s->residues[i + 5] * s->filter[5] +
 +                         s->residues[i + 4] * s->filter[4] +
 +                         s->residues[i + 3] * s->filter[3] +
 +                         s->residues[i + 2] * s->filter[2] +
 +                         s->residues[i + 1] * s->filter[1] +
 +                         s->residues[i    ] * s->filter[0];
 +                }
 +
 +                m = (-1 << 22) & -(v >> 31) | (v >> 10);
 +                m = av_clip(m, -8192, 8191);
 +                w = (m << s->dshift) - *p1;
 +                *p1++ = w;
 +            }
 +
 +            memcpy(s->residues, &s->residues[tmp], 2 * s->filter_order);
 +        }
 +
 +        emms_c();
 +        break;
 +    }
 +
 +    return 0;
 +}
 +
 +static int tak_decode_frame(AVCodecContext *avctx, void *data,
 +                            int *got_frame_ptr, AVPacket *pkt)
 +{
 +    TAKDecContext  *s = avctx->priv_data;
 +    GetBitContext *gb = &s->gb;
 +    int chan, i, ret, hsize;
 +    int32_t *p;
 +
 +    if (pkt->size < TAK_MIN_FRAME_HEADER_BYTES)
 +        return AVERROR_INVALIDDATA;
 +
 +    init_get_bits(gb, pkt->data, pkt->size * 8);
 +
 +    if ((ret = ff_tak_decode_frame_header(avctx, gb, &s->ti, 0)) < 0)
 +        return ret;
 +
 +    if (avctx->err_recognition & AV_EF_CRCCHECK) {
 +        hsize = get_bits_count(gb) / 8;
 +        if (ff_tak_check_crc(pkt->data, hsize)) {
 +            av_log(avctx, AV_LOG_ERROR, "CRC error\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +    }
 +
 +    if (s->ti.codec != 2 && s->ti.codec != 4) {
 +        av_log(avctx, AV_LOG_ERROR, "unsupported codec: %d\n", s->ti.codec);
 +        return AVERROR_PATCHWELCOME;
 +    }
 +    if (s->ti.data_type) {
 +        av_log(avctx, AV_LOG_ERROR, "unsupported data type: %d\n", s->ti.data_type);
 +        return AVERROR_INVALIDDATA;
 +    }
 +    if (s->ti.codec == 2 && s->ti.channels > 2) {
 +        av_log(avctx, AV_LOG_ERROR, "invalid number of channels: %d\n", s->ti.channels);
 +        return AVERROR_INVALIDDATA;
 +    }
 +    if (s->ti.channels > 6) {
 +        av_log(avctx, AV_LOG_ERROR, "unsupported number of channels: %d\n", s->ti.channels);
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    if (s->ti.frame_samples <= 0) {
 +        av_log(avctx, AV_LOG_ERROR, "unsupported/invalid number of samples\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    if (s->ti.bps != avctx->bits_per_raw_sample) {
 +        avctx->bits_per_raw_sample = s->ti.bps;
 +        if ((ret = tak_set_bps(avctx, avctx->bits_per_raw_sample)) < 0)
 +            return ret;
 +    }
 +    if (s->ti.sample_rate != avctx->sample_rate) {
 +        avctx->sample_rate = s->ti.sample_rate;
 +        s->uval = get_scale(avctx->sample_rate, get_shift(avctx->sample_rate));
 +        s->subframe_scale = get_scale(avctx->sample_rate, 1);
 +    }
 +    if (s->ti.ch_layout)
 +        avctx->channel_layout = s->ti.ch_layout;
 +    avctx->channels = s->ti.channels;
 +
 +    s->nb_samples = s->ti.last_frame_samples ? s->ti.last_frame_samples :
 +                                               s->ti.frame_samples;
 +
 +    s->frame.nb_samples = s->nb_samples;
++    if ((ret = ff_get_buffer(avctx, &s->frame)) < 0)
 +        return ret;
 +
 +    if (avctx->bits_per_raw_sample <= 16) {
 +        av_fast_malloc(&s->decode_buffer, &s->decode_buffer_size,
 +                       sizeof(*s->decode_buffer) * FFALIGN(s->nb_samples, 8) *
 +                       avctx->channels + FF_INPUT_BUFFER_PADDING_SIZE);
 +        if (!s->decode_buffer)
 +            return AVERROR(ENOMEM);
 +        for (chan = 0; chan < avctx->channels; chan++)
 +            s->decoded[chan] = s->decode_buffer +
 +                               chan * FFALIGN(s->nb_samples, 8);
 +    } else {
 +        for (chan = 0; chan < avctx->channels; chan++)
 +            s->decoded[chan] = (int32_t *)s->frame.data[chan];
 +    }
 +
 +    if (s->nb_samples < 16) {
 +        for (chan = 0; chan < avctx->channels; chan++) {
 +            p = s->decoded[chan];
 +            for (i = 0; i < s->nb_samples; i++)
 +                *p++ = get_code(gb, avctx->bits_per_raw_sample);
 +        }
 +    } else {
 +        if (s->ti.codec == 2) {
 +            for (chan = 0; chan < avctx->channels; chan++) {
 +                if (ret = decode_channel(s, chan))
 +                    return ret;
 +            }
 +
 +            if (avctx->channels == 2) {
 +                s->nb_subframes = get_bits(gb, 1) + 1;
 +                if (s->nb_subframes > 1)
 +                    s->subframe_len[1] = get_bits(gb, 6);
 +
 +                s->dmode = get_bits(gb, 3);
 +                if (ret = decorrelate(s, 0, 1, s->nb_samples - 1))
 +                    return ret;
 +            }
 +        } else if (s->ti.codec == 4) {
 +            if (get_bits1(gb)) {
 +                int ch_mask = 0;
 +
 +                chan = get_bits(gb, 4) + 1;
 +                if (chan > avctx->channels)
 +                    return AVERROR_INVALIDDATA;
 +
 +                for (i = 0; i < chan; i++) {
 +                    int nbit = get_bits(gb, 4);
 +
 +                    if (nbit >= avctx->channels)
 +                        return AVERROR_INVALIDDATA;
 +
 +                    if (ch_mask & 1 << nbit)
 +                        return AVERROR_INVALIDDATA;
 +
 +                    s->mcdparams[i].present = get_bits1(gb);
 +                    if (s->mcdparams[i].present) {
 +                        s->mcdparams[i].index = get_bits(gb, 2);
 +                        s->mcdparams[i].chan2 = get_bits(gb, 4);
 +                        if (s->mcdparams[i].index == 1) {
 +                            if ((nbit == s->mcdparams[i].chan2) ||
 +                                (ch_mask & 1 << s->mcdparams[i].chan2))
 +                                return AVERROR_INVALIDDATA;
 +
 +                            ch_mask |= 1 << s->mcdparams[i].chan2;
 +                        } else if (!(ch_mask & 1 << s->mcdparams[i].chan2)) {
 +                            return AVERROR_INVALIDDATA;
 +                        }
 +                    }
 +                    s->mcdparams[i].chan1 = nbit;
 +
 +                    ch_mask |= 1 << nbit;
 +                }
 +            } else {
 +                chan = avctx->channels;
 +                for (i = 0; i < chan; i++) {
 +                    s->mcdparams[i].present = 0;
 +                    s->mcdparams[i].chan1   = i;
 +                }
 +            }
 +
 +            for (i = 0; i < chan; i++) {
 +                if (s->mcdparams[i].present && s->mcdparams[i].index == 1) {
 +                    if (ret = decode_channel(s, s->mcdparams[i].chan2))
 +                        return ret;
 +                }
 +
 +                if (ret = decode_channel(s, s->mcdparams[i].chan1))
 +                    return ret;
 +
 +                if (s->mcdparams[i].present) {
 +                    s->dmode = mc_dmodes[s->mcdparams[i].index];
 +                    if (ret = decorrelate(s, s->mcdparams[i].chan2,
 +                                             s->mcdparams[i].chan1,
 +                                             s->nb_samples - 1))
 +                        return ret;
 +                }
 +            }
 +        }
 +
 +        for (chan = 0; chan < avctx->channels; chan++) {
 +            p = s->decoded[chan];
 +            decode_lpc(p, s->lpc_mode[chan], s->nb_samples);
 +
 +            if (s->sample_shift[chan] > 0) {
 +                for (i = 0; i < s->nb_samples; i++)
 +                    *p++ <<= s->sample_shift[chan];
 +            }
 +        }
 +    }
 +
 +    align_get_bits(gb);
 +    skip_bits(gb, 24);
 +    if (get_bits_left(gb) < 0)
 +        av_log(avctx, AV_LOG_DEBUG, "overread\n");
 +    else if (get_bits_left(gb) > 0)
 +        av_log(avctx, AV_LOG_DEBUG, "underread\n");
 +
 +    if (avctx->err_recognition & AV_EF_CRCCHECK) {
 +        if (ff_tak_check_crc(pkt->data + hsize,
 +                             get_bits_count(gb) / 8 - hsize)) {
 +            av_log(avctx, AV_LOG_ERROR, "CRC error\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +    }
 +
 +    // convert to output buffer
 +    switch (avctx->bits_per_raw_sample) {
 +    case 8:
 +        for (chan = 0; chan < avctx->channels; chan++) {
 +            uint8_t *samples = (uint8_t *)s->frame.data[chan];
 +            p = s->decoded[chan];
 +            for (i = 0; i < s->nb_samples; i++, p++)
 +                *samples++ = *p + 0x80;
 +        }
 +        break;
 +    case 16:
 +        for (chan = 0; chan < avctx->channels; chan++) {
 +            int16_t *samples = (int16_t *)s->frame.data[chan];
 +            p = s->decoded[chan];
 +            for (i = 0; i < s->nb_samples; i++, p++)
 +                *samples++ = *p;
 +        }
 +        break;
 +    case 24:
 +        for (chan = 0; chan < avctx->channels; chan++) {
 +            int32_t *samples = (int32_t *)s->frame.data[chan];
 +            for (i = 0; i < s->nb_samples; i++)
 +                *samples++ <<= 8;
 +        }
 +        break;
 +    }
 +
 +    *got_frame_ptr   = 1;
 +    *(AVFrame *)data = s->frame;
 +
 +    return pkt->size;
 +}
 +
 +static av_cold int tak_decode_close(AVCodecContext *avctx)
 +{
 +    TAKDecContext *s = avctx->priv_data;
 +
 +    av_freep(&s->decode_buffer);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_tak_decoder = {
 +    .name           = "tak",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_TAK,
 +    .priv_data_size = sizeof(TAKDecContext),
 +    .init           = tak_decode_init,
 +    .close          = tak_decode_close,
 +    .decode         = tak_decode_frame,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("TAK (Tom's lossless Audio Kompressor)"),
 +    .sample_fmts    = (const enum AVSampleFormat[]) { AV_SAMPLE_FMT_U8P,
 +                                                      AV_SAMPLE_FMT_S16P,
 +                                                      AV_SAMPLE_FMT_S32P,
 +                                                      AV_SAMPLE_FMT_NONE },
 +};
index d761078cfefe710da51a91a5c9984095b3da16d5,027275bd2cc011c716196065c082a49c396360a5..5c0efb3f400bedecfb29b96635293b8fdc361aaf
@@@ -166,30 -141,24 +167,30 @@@ static int decode_frame(AVCodecContext 
          break;
      default:
          av_log(avctx, AV_LOG_ERROR, "Bit depth %i is not supported\n", bpp);
 -        return -1;
 +        return AVERROR_INVALIDDATA;
      }
  
 -    if(s->picture.data[0])
 +    if (s->picture.data[0])
          avctx->release_buffer(avctx, &s->picture);
  
 -    if(av_image_check_size(w, h, 0, avctx))
 -        return -1;
 -    if(w != avctx->width || h != avctx->height)
 +    if (colors && (colors + first_clr) > 256) {
 +        av_log(avctx, AV_LOG_ERROR, "Incorrect palette: %i colors with offset %i\n", colors, first_clr);
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    if ((ret = av_image_check_size(w, h, 0, avctx)))
 +        return ret;
 +    if (w != avctx->width || h != avctx->height)
          avcodec_set_dimensions(avctx, w, h);
-     if ((ret = avctx->get_buffer(avctx, p)) < 0) {
 -    if(ff_get_buffer(avctx, p) < 0){
++    if ((ret = ff_get_buffer(avctx, p)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +        return ret;
      }
 -    if(flags & 0x20){
 +
 +    if (flags & TGA_TOPTOBOTTOM) {
          dst = p->data[0];
          stride = p->linesize[0];
 -    }else{ //image is upside-down
 +    } else { //image is upside-down
          dst = p->data[0] + p->linesize[0] * (h - 1);
          stride = -p->linesize[0];
      }
index bac5aeeddf3a61659f0b7da52da15842cc621f71,0000000000000000000000000000000000000000..0e999dbcfad75a89f4fb75e1c88db415a3013060
mode 100644,000000..100644
--- /dev/null
@@@ -1,108 -1,0 +1,109 @@@
-     if (avctx->get_buffer(avctx, pic) < 0) {
 +/*
 + * Pinnacle TARGA CineWave YUV16 decoder
 + * Copyright (c) 2012 Carl Eugen Hoyos
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
++#include "internal.h"
 +
 +static av_cold int y216_decode_init(AVCodecContext *avctx)
 +{
 +    avctx->pix_fmt             = AV_PIX_FMT_YUV422P16;
 +    avctx->bits_per_raw_sample = 14;
 +
 +    avctx->coded_frame = avcodec_alloc_frame();
 +
 +    if (!avctx->coded_frame) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate frame.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static int y216_decode_frame(AVCodecContext *avctx, void *data,
 +                             int *data_size, AVPacket *avpkt)
 +{
 +    AVFrame *pic = avctx->coded_frame;
 +    const uint16_t *src = (uint16_t *)avpkt->data;
 +    uint16_t *y, *u, *v, aligned_width = FFALIGN(avctx->width, 4);
 +    int i, j;
 +
 +    if (pic->data[0])
 +        avctx->release_buffer(avctx, pic);
 +
 +    if (avpkt->size < 4 * avctx->height * aligned_width) {
 +        av_log(avctx, AV_LOG_ERROR, "Insufficient input data.\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    pic->reference = 0;
 +
++    if (ff_get_buffer(avctx, pic) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate buffer.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    pic->key_frame = 1;
 +    pic->pict_type = AV_PICTURE_TYPE_I;
 +
 +    y = (uint16_t *)pic->data[0];
 +    u = (uint16_t *)pic->data[1];
 +    v = (uint16_t *)pic->data[2];
 +
 +    for (i = 0; i < avctx->height; i++) {
 +        for (j = 0; j < avctx->width >> 1; j++) {
 +            u[    j    ] = src[4 * j    ] << 2 | src[4 * j    ] >> 14;
 +            y[2 * j    ] = src[4 * j + 1] << 2 | src[4 * j + 1] >> 14;
 +            v[    j    ] = src[4 * j + 2] << 2 | src[4 * j + 2] >> 14;
 +            y[2 * j + 1] = src[4 * j + 3] << 2 | src[4 * j + 3] >> 14;
 +        }
 +
 +        y += pic->linesize[0] >> 1;
 +        u += pic->linesize[1] >> 1;
 +        v += pic->linesize[2] >> 1;
 +        src += aligned_width << 1;
 +    }
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame *)data = *pic;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int y216_decode_close(AVCodecContext *avctx)
 +{
 +    if (avctx->coded_frame->data[0])
 +        avctx->release_buffer(avctx, avctx->coded_frame);
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_targa_y216_decoder = {
 +    .name         = "targa_y216",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_TARGA_Y216,
 +    .init         = y216_decode_init,
 +    .decode       = y216_decode_frame,
 +    .close        = y216_decode_close,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("Pinnacle TARGA CineWave YUV16"),
 +};
Simple merge
index 34fb10999dacb83b55bd8ea2861c81baba7de5a9,c42a65b9f4d29d31803c8bff031d6207a2d6bb66..f7a1e75209944c140d7c1e1ae164affb4fd9ef87
@@@ -32,8 -32,8 +32,9 @@@
  #endif
  #include "lzw.h"
  #include "tiff.h"
 +#include "tiff_data.h"
  #include "faxcompr.h"
+ #include "internal.h"
  #include "mathops.h"
  #include "libavutil/attributes.h"
  #include "libavutil/intreadwrite.h"
index a0b3f36d92bb33face7e23d8d17c98c9375b9791,c56635e72248e19f8d64fddf4b8393081119038d..63ec830f6d4fe290e5a1b434162e25281d63e4f4
@@@ -29,8 -29,8 +29,9 @@@
  #include <string.h>
  
  #include "avcodec.h"
+ #include "internal.h"
  #include "libavutil/internal.h"
 +#include "libavutil/xga_font_data.h"
  
  #include "cga_data.h"
  
Simple merge
Simple merge
Simple merge
Simple merge
index a526035da83a615d8e1ab00f7fb6393fd3778a19,8e2605f053ac731f73262e0bb9bc39372c1bf837..29de782ccebfe163c832187da1869654e3d243d6
@@@ -23,8 -23,9 +23,9 @@@
  
  #include "libavutil/intreadwrite.h"
  #include "libavutil/imgutils.h"
 -#include "avcodec.h"
  #include "bytestream.h"
 +#include "avcodec.h"
+ #include "internal.h"
  #include "s3tc.h"
  
  typedef struct TXDContext {
index 48ef679106644507ddc4d31d9f662862a898a534,4909fc4862a1f80f48b81fc21519725dd934158c..be6b3a9e236ba71081e08ae050797d82dd9ed0ce
@@@ -657,8 -600,8 +662,8 @@@ int avcodec_default_reget_buffer(AVCode
          pic->data[i] = pic->base[i] = NULL;
      pic->opaque = NULL;
      /* Allocate new frame */
-     if ((ret = s->get_buffer(s, pic)))
 -    if (ff_get_buffer(s, pic))
 -        return -1;
++    if ((ret = ff_get_buffer(s, pic)))
 +        return ret;
      /* Copy image data from old buffer to new buffer */
      av_picture_copy((AVPicture *)pic, (AVPicture *)&temp_pic, s->pix_fmt, s->width,
                      s->height);
@@@ -2676,10 -2157,7 +2681,10 @@@ unsigned int avpriv_toupper4(unsigned i
  int ff_thread_get_buffer(AVCodecContext *avctx, AVFrame *f)
  {
      f->owner = avctx;
-     return avctx->get_buffer(avctx, f);
 +
 +    ff_init_buffer_info(avctx, f);
 +
+     return ff_get_buffer(avctx, f);
  }
  
  void ff_thread_release_buffer(AVCodecContext *avctx, AVFrame *f)
index d508ce8ea0dbc9a3e37d887e310314514268b4a7,29a93a8917a2c3434f3407525c7208c7dcf9e40b..b0754767a97c4d0f7c00b53317036df784255d32
@@@ -22,7 -22,7 +22,8 @@@
   */
  
  #include "avcodec.h"
+ #include "internal.h"
 +#include "v210dec.h"
  #include "libavutil/bswap.h"
  #include "libavutil/internal.h"
  #include "libavutil/mem.h"
@@@ -80,38 -50,19 +81,38 @@@ static int decode_frame(AVCodecContext 
      AVFrame *pic = avctx->coded_frame;
      const uint8_t *psrc = avpkt->data;
      uint16_t *y, *u, *v;
 -    int aligned_width = ((avctx->width + 47) / 48) * 48;
 -    int stride = aligned_width * 8 / 3;
  
 -    if (pic->data[0])
 -        avctx->release_buffer(avctx, pic);
 +    if (s->custom_stride )
 +        stride = s->custom_stride;
 +    else {
 +        int aligned_width = ((avctx->width + 47) / 48) * 48;
 +        stride = aligned_width * 8 / 3;
 +    }
  
      if (avpkt->size < stride * avctx->height) {
 -        av_log(avctx, AV_LOG_ERROR, "packet too small\n");
 -        return -1;
 +        if ((((avctx->width + 23) / 24) * 24 * 8) / 3 * avctx->height == avpkt->size) {
 +            stride = avpkt->size / avctx->height;
 +            if (!s->stride_warning_shown)
 +                av_log(avctx, AV_LOG_WARNING, "Broken v210 with too small padding (64 byte) detected\n");
 +            s->stride_warning_shown = 1;
 +        } else {
 +            av_log(avctx, AV_LOG_ERROR, "packet too small\n");
 +            return -1;
 +        }
 +    }
 +
 +    aligned_input = !((uintptr_t)psrc & 0xf) && !(stride & 0xf);
 +    if (aligned_input != s->aligned_input) {
 +        s->aligned_input = aligned_input;
 +        if (HAVE_MMX)
 +            v210_x86_init(s);
      }
  
 +    if (pic->data[0])
 +        avctx->release_buffer(avctx, pic);
 +
      pic->reference = 0;
-     if (avctx->get_buffer(avctx, pic) < 0)
+     if (ff_get_buffer(avctx, pic) < 0)
          return -1;
  
      y = (uint16_t*)pic->data[0];
Simple merge
index fd742cab854b8e86bc9ff320cddf4f4906312e61,0000000000000000000000000000000000000000..e8eaeb4e1930d8b2142da5516cea7a2e6271395f
mode 100644,000000..100644
--- /dev/null
@@@ -1,108 -1,0 +1,109 @@@
-     if (avctx->get_buffer(avctx, pic) < 0) {
 +/*
 + * v308 decoder
 + * Copyright (c) 2011 Carl Eugen Hoyos
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
++#include "internal.h"
 +
 +static av_cold int v308_decode_init(AVCodecContext *avctx)
 +{
 +    avctx->pix_fmt = AV_PIX_FMT_YUV444P;
 +
 +    if (avctx->width & 1)
 +        av_log(avctx, AV_LOG_WARNING, "v308 requires width to be even.\n");
 +
 +    avctx->coded_frame = avcodec_alloc_frame();
 +
 +    if (!avctx->coded_frame) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate frame.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static int v308_decode_frame(AVCodecContext *avctx, void *data,
 +                             int *data_size, AVPacket *avpkt)
 +{
 +    AVFrame *pic = avctx->coded_frame;
 +    const uint8_t *src = avpkt->data;
 +    uint8_t *y, *u, *v;
 +    int i, j;
 +
 +    if (pic->data[0])
 +        avctx->release_buffer(avctx, pic);
 +
 +    if (avpkt->size < 3 * avctx->height * avctx->width) {
 +        av_log(avctx, AV_LOG_ERROR, "Insufficient input data.\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    pic->reference = 0;
 +
++    if (ff_get_buffer(avctx, pic) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate buffer.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    pic->key_frame = 1;
 +    pic->pict_type = AV_PICTURE_TYPE_I;
 +
 +    y = pic->data[0];
 +    u = pic->data[1];
 +    v = pic->data[2];
 +
 +    for (i = 0; i < avctx->height; i++) {
 +        for (j = 0; j < avctx->width; j++) {
 +            v[j] = *src++;
 +            y[j] = *src++;
 +            u[j] = *src++;
 +        }
 +
 +        y += pic->linesize[0];
 +        u += pic->linesize[1];
 +        v += pic->linesize[2];
 +    }
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame *)data = *pic;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int v308_decode_close(AVCodecContext *avctx)
 +{
 +    if (avctx->coded_frame->data[0])
 +        avctx->release_buffer(avctx, avctx->coded_frame);
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_v308_decoder = {
 +    .name         = "v308",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_V308,
 +    .init         = v308_decode_init,
 +    .decode       = v308_decode_frame,
 +    .close        = v308_decode_close,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("Uncompressed packed 4:4:4"),
 +};
index 8820fc4cbf24c8802e94eba6a170382ccf51706f,0000000000000000000000000000000000000000..37f1d6ee87eb455bd5084014c23ad7822057a61f
mode 100644,000000..100644
--- /dev/null
@@@ -1,129 -1,0 +1,130 @@@
-     if (avctx->get_buffer(avctx, pic) < 0) {
 +/*
 + * v408 decoder
 + * Copyright (c) 2012 Carl Eugen Hoyos
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
++#include "internal.h"
 +
 +static av_cold int v408_decode_init(AVCodecContext *avctx)
 +{
 +    avctx->pix_fmt = AV_PIX_FMT_YUVA444P;
 +
 +    avctx->coded_frame = avcodec_alloc_frame();
 +
 +    if (!avctx->coded_frame) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate frame.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static int v408_decode_frame(AVCodecContext *avctx, void *data,
 +                             int *data_size, AVPacket *avpkt)
 +{
 +    AVFrame *pic = avctx->coded_frame;
 +    const uint8_t *src = avpkt->data;
 +    uint8_t *y, *u, *v, *a;
 +    int i, j;
 +
 +    if (pic->data[0])
 +        avctx->release_buffer(avctx, pic);
 +
 +    if (avpkt->size < 4 * avctx->height * avctx->width) {
 +        av_log(avctx, AV_LOG_ERROR, "Insufficient input data.\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    pic->reference = 0;
 +
++    if (ff_get_buffer(avctx, pic) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate buffer.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    pic->key_frame = 1;
 +    pic->pict_type = AV_PICTURE_TYPE_I;
 +
 +    y = pic->data[0];
 +    u = pic->data[1];
 +    v = pic->data[2];
 +    a = pic->data[3];
 +
 +    for (i = 0; i < avctx->height; i++) {
 +        for (j = 0; j < avctx->width; j++) {
 +            if (avctx->codec_id==AV_CODEC_ID_AYUV) {
 +                v[j] = *src++;
 +                u[j] = *src++;
 +                y[j] = *src++;
 +                a[j] = *src++;
 +            } else {
 +                u[j] = *src++;
 +                y[j] = *src++;
 +                v[j] = *src++;
 +                a[j] = *src++;
 +            }
 +        }
 +
 +        y += pic->linesize[0];
 +        u += pic->linesize[1];
 +        v += pic->linesize[2];
 +        a += pic->linesize[3];
 +    }
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame *)data = *pic;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int v408_decode_close(AVCodecContext *avctx)
 +{
 +    if (avctx->coded_frame->data[0])
 +        avctx->release_buffer(avctx, avctx->coded_frame);
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    return 0;
 +}
 +
 +#if CONFIG_AYUV_DECODER
 +AVCodec ff_ayuv_decoder = {
 +    .name         = "ayuv",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_AYUV,
 +    .init         = v408_decode_init,
 +    .decode       = v408_decode_frame,
 +    .close        = v408_decode_close,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("Uncompressed packed MS 4:4:4:4"),
 +};
 +#endif
 +#if CONFIG_V408_DECODER
 +AVCodec ff_v408_decoder = {
 +    .name         = "v408",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_V408,
 +    .init         = v408_decode_init,
 +    .decode       = v408_decode_frame,
 +    .close        = v408_decode_close,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("Uncompressed packed QT 4:4:4:4"),
 +};
 +#endif
Simple merge
diff --cc libavcodec/vb.c
index 512945810e1b65813b5115560216f9211b4f759e,f5e15cdb18854ef332e243fde6c0ee419a44c6e3..79f3cae64aff046d27cd90dde77d42baaa96e278
@@@ -197,8 -198,8 +198,8 @@@ static int decode_frame(AVCodecContext 
  
      if(c->pic.data[0])
          avctx->release_buffer(avctx, &c->pic);
 -    c->pic.reference = 1;
 +    c->pic.reference = 3;
-     if(avctx->get_buffer(avctx, &c->pic) < 0){
+     if(ff_get_buffer(avctx, &c->pic) < 0){
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
index 2c681782bda0986560dd688cc3daa1e35dd9a3e6,b761787ef08dbdfe6d3a708aa256dba3fc36e01d..22e92a45bb8042054d26e9794ee152f7d1db3f07
@@@ -127,13 -129,8 +128,13 @@@ static int vble_decode_frame(AVCodecCon
      if (pic->data[0])
          avctx->release_buffer(avctx, pic);
  
 +    if (avpkt->size < 4 || avpkt->size - 4 > INT_MAX/8) {
 +        av_log(avctx, AV_LOG_ERROR, "Invalid packet size\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
      /* Allocate buffer */
-     if (avctx->get_buffer(avctx, pic) < 0) {
+     if (ff_get_buffer(avctx, pic) < 0) {
          av_log(avctx, AV_LOG_ERROR, "Could not allocate buffer.\n");
          return AVERROR(ENOMEM);
      }
Simple merge
index acac9258701fdcd7feeeb315516525c840803e96,1614dd306193dc7d2ad95ed7fe78bb3e03f66583..6486e63a0d8ebfb5f702c3c38d1083dd093370d2
@@@ -81,13 -77,8 +82,13 @@@ static int vcr1_decode_frame(AVCodecCon
      if (p->data[0])
          avctx->release_buffer(avctx, p);
  
 +    if(buf_size < 16 + avctx->height + avctx->width*avctx->height*5/8){
 +        av_log(avctx, AV_LOG_ERROR, "Insufficient input data.\n");
 +        return AVERROR(EINVAL);
 +    }
 +
      p->reference = 0;
-     if (avctx->get_buffer(avctx, p) < 0) {
+     if (ff_get_buffer(avctx, p) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
index 35e2a3cdd5f683a82dacf244dd1cb5ff515806e6,0000000000000000000000000000000000000000..f823cb37e7abe4cf823982b7002c8abb4218fc84
mode 100644,000000..100644
--- /dev/null
@@@ -1,236 -1,0 +1,237 @@@
-     if ((ret = avctx->get_buffer(avctx, &vima->frame)) < 0) {
 +/*
 + * LucasArts VIMA decoder
 + * Copyright (c) 2012 Paul B Mahol
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "libavutil/channel_layout.h"
 +#include "avcodec.h"
 +#include "get_bits.h"
++#include "internal.h"
 +#include "adpcm_data.h"
 +
 +typedef struct {
 +    AVFrame     frame;
 +    uint16_t    predict_table[5786 * 2];
 +} VimaContext;
 +
 +static const uint8_t size_table[] =
 +{
 +    4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4,
 +    4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4,
 +    4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4,
 +    5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5,
 +    6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6,
 +    7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7
 +};
 +
 +static const int8_t index_table1[] =
 +{
 +    -1, 4, -1, 4
 +};
 +
 +static const int8_t index_table2[] =
 +{
 +    -1, -1, 2, 6, -1, -1, 2, 6
 +};
 +
 +static const int8_t index_table3[] =
 +{
 +    -1, -1, -1, -1, 1, 2, 4, 6,
 +    -1, -1, -1, -1, 1, 2, 4, 6
 +};
 +
 +static const int8_t index_table4[] =
 +{
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +     1,  1,  1,  2,  2,  4,  5,  6,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +     1,  1,  1,  2,  2,  4,  5,  6
 +};
 +
 +static const int8_t index_table5[] =
 +{
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +     1,  1,  1,  1,  1,  2,  2,  2,
 +     2,  4,  4,  4,  5,  5,  6,  6,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +     1,  1,  1,  1,  1,  2,  2,  2,
 +     2,  4,  4,  4,  5,  5,  6,  6
 +};
 +
 +static const int8_t index_table6[] =
 +{
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +     1,  1,  1,  1,  1,  1,  1,  1,
 +     1,  1,  2,  2,  2,  2,  2,  2,
 +     2,  2,  4,  4,  4,  4,  4,  4,
 +     5,  5,  5,  5,  6,  6,  6,  6,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +    -1, -1, -1, -1, -1, -1, -1, -1,
 +     1,  1,  1,  1,  1,  1,  1,  1,
 +     1,  1,  2,  2,  2,  2,  2,  2,
 +     2,  2,  4,  4,  4,  4,  4,  4,
 +     5,  5,  5,  5,  6,  6,  6,  6
 +};
 +
 +static const int8_t* const step_index_tables[] =
 +{
 +    index_table1, index_table2, index_table3,
 +    index_table4, index_table5, index_table6
 +};
 +
 +static av_cold int decode_init(AVCodecContext *avctx)
 +{
 +    VimaContext *vima = avctx->priv_data;
 +    int         start_pos;
 +
 +    for (start_pos = 0; start_pos < 64; start_pos++) {
 +        unsigned int dest_pos, table_pos;
 +
 +        for (table_pos = 0, dest_pos = start_pos;
 +             table_pos < FF_ARRAY_ELEMS(ff_adpcm_step_table);
 +             table_pos++, dest_pos += 64) {
 +            int put = 0, count, table_value;
 +
 +            table_value = ff_adpcm_step_table[table_pos];
 +            for (count = 32; count != 0; count >>= 1) {
 +                if (start_pos & count)
 +                    put += table_value;
 +                table_value >>= 1;
 +            }
 +            vima->predict_table[dest_pos] = put;
 +        }
 +    }
 +
 +    avcodec_get_frame_defaults(&vima->frame);
 +    avctx->coded_frame = &vima->frame;
 +    avctx->sample_fmt  = AV_SAMPLE_FMT_S16;
 +
 +    return 0;
 +}
 +
 +static int decode_frame(AVCodecContext *avctx, void *data,
 +                        int *got_frame_ptr, AVPacket *pkt)
 +{
 +    GetBitContext  gb;
 +    VimaContext    *vima = avctx->priv_data;
 +    int16_t        pcm_data[2];
 +    uint32_t       samples;
 +    int8_t         channel_hint[2];
 +    int            ret, chan, channels = 1;
 +
 +    if (pkt->size < 13)
 +        return AVERROR_INVALIDDATA;
 +
 +    init_get_bits(&gb, pkt->data, pkt->size * 8);
 +
 +    samples = get_bits_long(&gb, 32);
 +    if (samples == 0xffffffff) {
 +        skip_bits_long(&gb, 32);
 +        samples = get_bits_long(&gb, 32);
 +    }
 +
 +    if (samples > pkt->size * 2)
 +        return AVERROR_INVALIDDATA;
 +
 +    channel_hint[0] = get_sbits(&gb, 8);
 +    if (channel_hint[0] & 0x80) {
 +        channel_hint[0] = ~channel_hint[0];
 +        channels = 2;
 +    }
 +    avctx->channels = channels;
 +    avctx->channel_layout = (channels == 2) ? AV_CH_LAYOUT_STEREO :
 +                                              AV_CH_LAYOUT_MONO;
 +    pcm_data[0] = get_sbits(&gb, 16);
 +    if (channels > 1) {
 +        channel_hint[1] = get_sbits(&gb, 8);
 +        pcm_data[1] = get_sbits(&gb, 16);
 +    }
 +
 +    vima->frame.nb_samples = samples;
++    if ((ret = ff_get_buffer(avctx, &vima->frame)) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return ret;
 +    }
 +
 +    for (chan = 0; chan < channels; chan++) {
 +        uint16_t *dest = (uint16_t*)vima->frame.data[0] + chan;
 +        int step_index = channel_hint[chan];
 +        int output = pcm_data[chan];
 +        int sample;
 +
 +        for (sample = 0; sample < samples; sample++) {
 +            int lookup_size, lookup, highbit, lowbits;
 +
 +            step_index  = av_clip(step_index, 0, 88);
 +            lookup_size = size_table[step_index];
 +            lookup      = get_bits(&gb, lookup_size);
 +            highbit     = 1 << (lookup_size - 1);
 +            lowbits     = highbit - 1;
 +
 +            if (lookup & highbit)
 +                lookup ^= highbit;
 +            else
 +                highbit = 0;
 +
 +            if (lookup == lowbits) {
 +                output = get_sbits(&gb, 16);
 +            } else {
 +                int predict_index, diff;
 +
 +                predict_index = (lookup << (7 - lookup_size)) | (step_index << 6);
 +                predict_index = av_clip(predict_index, 0, 5785);
 +                diff          = vima->predict_table[predict_index];
 +                if (lookup)
 +                    diff += ff_adpcm_step_table[step_index] >> (lookup_size - 1);
 +                if (highbit)
 +                    diff  = -diff;
 +
 +                output  = av_clip_int16(output + diff);
 +            }
 +
 +            *dest = output;
 +            dest += channels;
 +
 +            step_index += step_index_tables[lookup_size - 2][lookup];
 +        }
 +    }
 +
 +    *got_frame_ptr   = 1;
 +    *(AVFrame *)data = vima->frame;
 +
 +    return pkt->size;
 +}
 +
 +AVCodec ff_vima_decoder = {
 +    .name           = "vima",
 +    .type           = AVMEDIA_TYPE_AUDIO,
 +    .id             = AV_CODEC_ID_VIMA,
 +    .priv_data_size = sizeof(VimaContext),
 +    .init           = decode_init,
 +    .decode         = decode_frame,
 +    .capabilities   = CODEC_CAP_DR1,
 +    .long_name      = NULL_IF_CONFIG_SMALL("LucasArts VIMA audio"),
 +};
index 6e92e18b00f358c22d6dc45aaac5b8ac557c887d,14b512acb1812323d50e51b88ed918e491eeb443..3278c6fdcc3b06bf316aab8894c97cfe34a3ecde
@@@ -424,9 -432,9 +425,9 @@@ static int vmdvideo_decode_frame(AVCode
      if (buf_size < 16)
          return buf_size;
  
 -    s->frame.reference = 1;
 +    s->frame.reference = 3;
-     if (avctx->get_buffer(avctx, &s->frame)) {
+     if (ff_get_buffer(avctx, &s->frame)) {
 -        av_log(s->avctx, AV_LOG_ERROR, "VMD Video: get_buffer() failed\n");
 +        av_log(s->avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return -1;
      }
  
Simple merge
index ae7a1172e16de935bdc51c94e465cdcdd605d3da,c9490e770b687f940981f0f376782fa428f337b2..1a7c36ef13798987a028ed29adbd3bd079851954
@@@ -522,169 -505,158 +523,169 @@@ int ff_vp56_decode_frame(AVCodecContex
              return -1;
      }
  
 -    for (is_alpha=0; is_alpha < 1+s->has_alpha; is_alpha++) {
 -        int mb_row, mb_col, mb_row_flip, mb_offset = 0;
 -        int block, y, uv, stride_y, stride_uv;
 -        int golden_frame = 0;
 -        int res;
 +    res = s->parse_header(s, buf, remaining_buf_size);
 +    if (!res)
 +        return -1;
  
 -        s->modelp = &s->models[is_alpha];
 +    if (res == 2) {
 +        for (i = 0; i < 4; i++) {
 +            if (s->frames[i].data[0])
 +                avctx->release_buffer(avctx, &s->frames[i]);
 +        }
 +    }
  
 -        res = s->parse_header(s, buf, remaining_buf_size, &golden_frame);
 -        if (!res)
 +    p->reference = 3;
-     if (avctx->get_buffer(avctx, p) < 0) {
++    if (ff_get_buffer(avctx, p) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return -1;
 +    }
 +
 +    if (res == 2) {
 +        if (vp56_size_changed(s)) {
 +            avctx->release_buffer(avctx, p);
              return -1;
 +        }
 +    }
  
 -        if (res == 2) {
 -            int i;
 -            for (i = 0; i < 4; i++) {
 -                if (s->frames[i].data[0])
 -                    avctx->release_buffer(avctx, &s->frames[i]);
 -            }
 -            if (is_alpha) {
 -                avcodec_set_dimensions(avctx, 0, 0);
 -                return -1;
 +    if (s->has_alpha) {
 +        int bak_w = avctx->width;
 +        int bak_h = avctx->height;
 +        int bak_cw = avctx->coded_width;
 +        int bak_ch = avctx->coded_height;
 +        buf += alpha_offset;
 +        remaining_buf_size -= alpha_offset;
 +
 +        res = s->alpha_context->parse_header(s->alpha_context, buf, remaining_buf_size);
 +        if (res != 1) {
 +            if(res==2) {
 +                av_log(avctx, AV_LOG_ERROR, "Alpha reconfiguration\n");
 +                avctx->width  = bak_w;
 +                avctx->height = bak_h;
 +                avctx->coded_width  = bak_cw;
 +                avctx->coded_height = bak_ch;
              }
 +            avctx->release_buffer(avctx, p);
 +            return -1;
          }
 +    }
  
 -        if (!is_alpha) {
 -            p->reference = 1;
 -            if (ff_get_buffer(avctx, p) < 0) {
 -                av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -                return -1;
 -            }
 +    avctx->execute2(avctx, ff_vp56_decode_mbs, 0, 0, s->has_alpha + 1);
  
 -            if (res == 2)
 -                if (vp56_size_changed(avctx)) {
 -                    avctx->release_buffer(avctx, p);
 -                    return -1;
 -                }
 -        }
 +    /* release frames that aren't in use */
 +    for (i = 0; i < 4; ++i) {
 +        AVFrame *victim = &s->frames[i];
 +        if (!victim->data[0])
 +            continue;
 +        if (victim != s->framep[VP56_FRAME_PREVIOUS] &&
 +            victim != s->framep[VP56_FRAME_GOLDEN] &&
 +            (!s->has_alpha || victim != s->alpha_context->framep[VP56_FRAME_GOLDEN]))
 +            avctx->release_buffer(avctx, victim);
 +    }
  
 -        if (p->key_frame) {
 -            p->pict_type = AV_PICTURE_TYPE_I;
 -            s->default_models_init(s);
 -            for (block=0; block<s->mb_height*s->mb_width; block++)
 -                s->macroblocks[block].type = VP56_MB_INTRA;
 -        } else {
 -            p->pict_type = AV_PICTURE_TYPE_P;
 -            vp56_parse_mb_type_models(s);
 -            s->parse_vector_models(s);
 -            s->mb_type = VP56_MB_INTER_NOVEC_PF;
 -        }
 +    p->qstride = 0;
 +    p->qscale_table = s->qscale_table;
 +    p->qscale_type = FF_QSCALE_TYPE_VP56;
 +    *(AVFrame*)data = *p;
 +    *data_size = sizeof(AVFrame);
 +
 +    return avpkt->size;
 +}
 +
 +static int ff_vp56_decode_mbs(AVCodecContext *avctx, void *data,
 +                              int jobnr, int threadnr)
 +{
 +    VP56Context *s0 = avctx->priv_data;
 +    int is_alpha = (jobnr == 1);
 +    VP56Context *s = is_alpha ? s0->alpha_context : s0;
 +    AVFrame *const p = s->framep[VP56_FRAME_CURRENT];
 +    int mb_row, mb_col, mb_row_flip, mb_offset = 0;
 +    int block, y, uv, stride_y, stride_uv;
 +
 +    if (p->key_frame) {
 +        p->pict_type = AV_PICTURE_TYPE_I;
 +        s->default_models_init(s);
 +        for (block=0; block<s->mb_height*s->mb_width; block++)
 +            s->macroblocks[block].type = VP56_MB_INTRA;
 +    } else {
 +        p->pict_type = AV_PICTURE_TYPE_P;
 +        vp56_parse_mb_type_models(s);
 +        s->parse_vector_models(s);
 +        s->mb_type = VP56_MB_INTER_NOVEC_PF;
 +    }
  
 -        if (s->parse_coeff_models(s))
 -            goto next;
 +    if (s->parse_coeff_models(s))
 +        goto next;
  
 -        memset(s->prev_dc, 0, sizeof(s->prev_dc));
 -        s->prev_dc[1][VP56_FRAME_CURRENT] = 128;
 -        s->prev_dc[2][VP56_FRAME_CURRENT] = 128;
 +    memset(s->prev_dc, 0, sizeof(s->prev_dc));
 +    s->prev_dc[1][VP56_FRAME_CURRENT] = 128;
 +    s->prev_dc[2][VP56_FRAME_CURRENT] = 128;
  
 -        for (block=0; block < 4*s->mb_width+6; block++) {
 -            s->above_blocks[block].ref_frame = VP56_FRAME_NONE;
 -            s->above_blocks[block].dc_coeff = 0;
 -            s->above_blocks[block].not_null_dc = 0;
 -        }
 -        s->above_blocks[2*s->mb_width + 2].ref_frame = VP56_FRAME_CURRENT;
 -        s->above_blocks[3*s->mb_width + 4].ref_frame = VP56_FRAME_CURRENT;
 +    for (block=0; block < 4*s->mb_width+6; block++) {
 +        s->above_blocks[block].ref_frame = VP56_FRAME_NONE;
 +        s->above_blocks[block].dc_coeff = 0;
 +        s->above_blocks[block].not_null_dc = 0;
 +    }
 +    s->above_blocks[2*s->mb_width + 2].ref_frame = VP56_FRAME_CURRENT;
 +    s->above_blocks[3*s->mb_width + 4].ref_frame = VP56_FRAME_CURRENT;
 +
 +    stride_y  = p->linesize[0];
 +    stride_uv = p->linesize[1];
  
 -        stride_y  = p->linesize[0];
 -        stride_uv = p->linesize[1];
 +    if (s->flip < 0)
 +        mb_offset = 7;
  
 +    /* main macroblocks loop */
 +    for (mb_row=0; mb_row<s->mb_height; mb_row++) {
          if (s->flip < 0)
 -            mb_offset = 7;
 -
 -        /* main macroblocks loop */
 -        for (mb_row=0; mb_row<s->mb_height; mb_row++) {
 -            if (s->flip < 0)
 -                mb_row_flip = s->mb_height - mb_row - 1;
 -            else
 -                mb_row_flip = mb_row;
 -
 -            for (block=0; block<4; block++) {
 -                s->left_block[block].ref_frame = VP56_FRAME_NONE;
 -                s->left_block[block].dc_coeff = 0;
 -                s->left_block[block].not_null_dc = 0;
 -            }
 -            memset(s->coeff_ctx, 0, sizeof(s->coeff_ctx));
 -            memset(s->coeff_ctx_last, 24, sizeof(s->coeff_ctx_last));
 -
 -            s->above_block_idx[0] = 1;
 -            s->above_block_idx[1] = 2;
 -            s->above_block_idx[2] = 1;
 -            s->above_block_idx[3] = 2;
 -            s->above_block_idx[4] = 2*s->mb_width + 2 + 1;
 -            s->above_block_idx[5] = 3*s->mb_width + 4 + 1;
 -
 -            s->block_offset[s->frbi] = (mb_row_flip*16 + mb_offset) * stride_y;
 -            s->block_offset[s->srbi] = s->block_offset[s->frbi] + 8*stride_y;
 -            s->block_offset[1] = s->block_offset[0] + 8;
 -            s->block_offset[3] = s->block_offset[2] + 8;
 -            s->block_offset[4] = (mb_row_flip*8 + mb_offset) * stride_uv;
 -            s->block_offset[5] = s->block_offset[4];
 -
 -            for (mb_col=0; mb_col<s->mb_width; mb_col++) {
 -                vp56_decode_mb(s, mb_row, mb_col, is_alpha);
 -
 -                for (y=0; y<4; y++) {
 -                    s->above_block_idx[y] += 2;
 -                    s->block_offset[y] += 16;
 -                }
 +            mb_row_flip = s->mb_height - mb_row - 1;
 +        else
 +            mb_row_flip = mb_row;
  
 -                for (uv=4; uv<6; uv++) {
 -                    s->above_block_idx[uv] += 1;
 -                    s->block_offset[uv] += 8;
 -                }
 -            }
 +        for (block=0; block<4; block++) {
 +            s->left_block[block].ref_frame = VP56_FRAME_NONE;
 +            s->left_block[block].dc_coeff = 0;
 +            s->left_block[block].not_null_dc = 0;
          }
 +        memset(s->coeff_ctx, 0, sizeof(s->coeff_ctx));
 +        memset(s->coeff_ctx_last, 24, sizeof(s->coeff_ctx_last));
 +
 +        s->above_block_idx[0] = 1;
 +        s->above_block_idx[1] = 2;
 +        s->above_block_idx[2] = 1;
 +        s->above_block_idx[3] = 2;
 +        s->above_block_idx[4] = 2*s->mb_width + 2 + 1;
 +        s->above_block_idx[5] = 3*s->mb_width + 4 + 1;
 +
 +        s->block_offset[s->frbi] = (mb_row_flip*16 + mb_offset) * stride_y;
 +        s->block_offset[s->srbi] = s->block_offset[s->frbi] + 8*stride_y;
 +        s->block_offset[1] = s->block_offset[0] + 8;
 +        s->block_offset[3] = s->block_offset[2] + 8;
 +        s->block_offset[4] = (mb_row_flip*8 + mb_offset) * stride_uv;
 +        s->block_offset[5] = s->block_offset[4];
 +
 +        for (mb_col=0; mb_col<s->mb_width; mb_col++) {
 +            vp56_decode_mb(s, mb_row, mb_col, is_alpha);
 +
 +            for (y=0; y<4; y++) {
 +                s->above_block_idx[y] += 2;
 +                s->block_offset[y] += 16;
 +            }
  
 -    next:
 -        if (p->key_frame || golden_frame) {
 -            if (s->framep[VP56_FRAME_GOLDEN]->data[0] &&
 -                s->framep[VP56_FRAME_GOLDEN] != s->framep[VP56_FRAME_GOLDEN2])
 -                avctx->release_buffer(avctx, s->framep[VP56_FRAME_GOLDEN]);
 -            s->framep[VP56_FRAME_GOLDEN] = p;
 +            for (uv=4; uv<6; uv++) {
 +                s->above_block_idx[uv] += 1;
 +                s->block_offset[uv] += 8;
 +            }
          }
 +    }
  
 -        if (s->has_alpha) {
 -            FFSWAP(AVFrame *, s->framep[VP56_FRAME_GOLDEN],
 -                              s->framep[VP56_FRAME_GOLDEN2]);
 -            buf += alpha_offset;
 -            remaining_buf_size -= alpha_offset;
 -        }
 +next:
 +    if (p->key_frame || s->golden_frame) {
 +        s->framep[VP56_FRAME_GOLDEN] = p;
      }
  
 -    if (s->framep[VP56_FRAME_PREVIOUS] == s->framep[VP56_FRAME_GOLDEN] ||
 -        s->framep[VP56_FRAME_PREVIOUS] == s->framep[VP56_FRAME_GOLDEN2]) {
 -        if (s->framep[VP56_FRAME_UNUSED] != s->framep[VP56_FRAME_GOLDEN] &&
 -            s->framep[VP56_FRAME_UNUSED] != s->framep[VP56_FRAME_GOLDEN2])
 -            FFSWAP(AVFrame *, s->framep[VP56_FRAME_PREVIOUS],
 -                              s->framep[VP56_FRAME_UNUSED]);
 -        else
 -            FFSWAP(AVFrame *, s->framep[VP56_FRAME_PREVIOUS],
 -                              s->framep[VP56_FRAME_UNUSED2]);
 -    } else if (s->framep[VP56_FRAME_PREVIOUS]->data[0])
 -        avctx->release_buffer(avctx, s->framep[VP56_FRAME_PREVIOUS]);
      FFSWAP(AVFrame *, s->framep[VP56_FRAME_CURRENT],
                        s->framep[VP56_FRAME_PREVIOUS]);
 -
 -    p->qstride = 0;
 -    p->qscale_table = s->qscale_table;
 -    p->qscale_type = FF_QSCALE_TYPE_VP56;
 -    *(AVFrame*)data = *p;
 -    *data_size = sizeof(AVFrame);
 -
 -    return avpkt->size;
 +    return 0;
  }
  
  av_cold void ff_vp56_init(AVCodecContext *avctx, int flip, int has_alpha)
index 2980f948b301041463565d4727fede11be756729,e641a7583059da019bd22afa7cb0ae397ad7a820..e1afca3c2d1ddc4c4a1f5e01a98f1ccbd0693cbc
@@@ -591,9 -589,9 +592,9 @@@ static int vqa_decode_frame(AVCodecCont
      if (s->frame.data[0])
          avctx->release_buffer(avctx, &s->frame);
  
-     if ((res = avctx->get_buffer(avctx, &s->frame))) {
 -    if (ff_get_buffer(avctx, &s->frame)) {
 -        av_log(s->avctx, AV_LOG_ERROR, "  VQA Video: get_buffer() failed\n");
 -        return -1;
++    if ((res = ff_get_buffer(avctx, &s->frame))) {
 +        av_log(s->avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        return res;
      }
  
      bytestream2_init(&s->gb, avpkt->data, avpkt->size);
index bc038a953431a6d702358d3d3cf8cec3708bff73,e8f34fa6320d99b831ceedbf643a35c70a3cf8a3..6b67f30b215981123083dce969bd6435d1e52d88
@@@ -1217,8 -1207,8 +1218,8 @@@ static int wavpack_decode_frame(AVCodec
      }
  
      /* get output buffer */
 -    s->frame.nb_samples = s->samples;
 +    s->frame.nb_samples = s->samples + 1;
-     if ((ret = avctx->get_buffer(avctx, &s->frame)) < 0) {
+     if ((ret = ff_get_buffer(avctx, &s->frame)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return ret;
      }
Simple merge
Simple merge
Simple merge
Simple merge
index 494dc98a774c2c73c0f1ebe14db96673b675084b,3daac0b1607613a9a71926054afca22f1ff63c00..a99796632d4e23868127f4d7d4ae5422e7892ad1
@@@ -85,10 -81,10 +86,10 @@@ static int decode_frame(AVCodecContext 
          avctx->release_buffer(avctx, p);
  
      p->reference = 0;
-     if ((ret = avctx->get_buffer(avctx, p)) < 0) {
 -    if(ff_get_buffer(avctx, p) < 0){
++    if ((ret = ff_get_buffer(avctx, p)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          av_free(rbuf);
 -        return -1;
 +        return ret;
      }
      p->key_frame = 1;
  
Simple merge
Simple merge
index 4b8704aadd0ede80bde1a6dc1a7e9a201d7e595d,0000000000000000000000000000000000000000..39ed50392f7e9278e0abefc1066b95dc051df4f7
mode 100644,000000..100644
--- /dev/null
@@@ -1,138 -1,0 +1,138 @@@
-     if ((ret = avctx->get_buffer(avctx, p)) < 0)
 +/*
 + * XBM image format
 + *
 + * Copyright (c) 2012 Paul B Mahol
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
 +#include "internal.h"
 +#include "mathops.h"
 +
 +static av_cold int xbm_decode_init(AVCodecContext *avctx)
 +{
 +    avctx->coded_frame = avcodec_alloc_frame();
 +    if (!avctx->coded_frame)
 +        return AVERROR(ENOMEM);
 +
 +    return 0;
 +}
 +
 +static int convert(uint8_t x)
 +{
 +    if (x >= 'a')
 +        x -= 87;
 +    else if (x >= 'A')
 +        x -= 55;
 +    else
 +        x -= '0';
 +    return x;
 +}
 +
 +static int xbm_decode_frame(AVCodecContext *avctx, void *data,
 +                            int *data_size, AVPacket *avpkt)
 +{
 +    AVFrame *p = avctx->coded_frame;
 +    const uint8_t *end, *ptr = avpkt->data;
 +    uint8_t *dst;
 +    int ret, linesize, i, j;
 +
 +    end = avpkt->data + avpkt->size;
 +    while (!avctx->width || !avctx->height) {
 +        char name[256];
 +        int number, len;
 +
 +        ptr += strcspn(ptr, "#");
 +        if (sscanf(ptr, "#define %256s %u", name, &number) != 2) {
 +            av_log(avctx, AV_LOG_ERROR, "Unexpected preprocessor directive\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +
 +        len = strlen(name);
 +        if ((len > 6) && !avctx->height && !memcmp(name + len - 7, "_height", 7)) {
 +                avctx->height = number;
 +        } else if ((len > 5) && !avctx->width && !memcmp(name + len - 6, "_width", 6)) {
 +                avctx->width = number;
 +        } else {
 +            av_log(avctx, AV_LOG_ERROR, "Unknown define '%s'\n", name);
 +            return AVERROR_INVALIDDATA;
 +        }
 +        ptr += strcspn(ptr, "\n\r") + 1;
 +    }
 +
 +    avctx->pix_fmt = AV_PIX_FMT_MONOWHITE;
 +
 +    if (p->data[0])
 +        avctx->release_buffer(avctx, p);
 +
 +    p->reference = 0;
++    if ((ret = ff_get_buffer(avctx, p)) < 0)
 +        return ret;
 +
 +    // goto start of image data
 +    ptr += strcspn(ptr, "{") + 1;
 +
 +    linesize = (avctx->width + 7) / 8;
 +    for (i = 0; i < avctx->height; i++) {
 +        dst = p->data[0] + i * p->linesize[0];
 +        for (j = 0; j < linesize; j++) {
 +            uint8_t val;
 +
 +            ptr += strcspn(ptr, "x") + 1;
 +            if (ptr < end && isxdigit(*ptr)) {
 +                val = convert(*ptr);
 +                ptr++;
 +                if (isxdigit(*ptr))
 +                    val = (val << 4) + convert(*ptr);
 +                *dst++ = ff_reverse[val];
 +            } else {
 +                av_log(avctx, AV_LOG_ERROR, "Unexpected data at '%.8s'\n", ptr);
 +                return AVERROR_INVALIDDATA;
 +            }
 +        }
 +    }
 +
 +    p->key_frame = 1;
 +    p->pict_type = AV_PICTURE_TYPE_I;
 +
 +    *data_size       = sizeof(AVFrame);
 +    *(AVFrame *)data = *p;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int xbm_decode_close(AVCodecContext *avctx)
 +{
 +    if (avctx->coded_frame->data[0])
 +        avctx->release_buffer(avctx, avctx->coded_frame);
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_xbm_decoder = {
 +    .name         = "xbm",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_XBM,
 +    .init         = xbm_decode_init,
 +    .close        = xbm_decode_close,
 +    .decode       = xbm_decode_frame,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("XBM (X BitMap) image"),
 +};
index 7cccfa5c94c56c7d0dc90157b4ef65d1f67a8053,0000000000000000000000000000000000000000..cc7f7b22f09907067be35e1f06e2a7dd68951c6b
mode 100644,000000..100644
--- /dev/null
@@@ -1,207 -1,0 +1,208 @@@
-     if ((ret = avctx->get_buffer(avctx, &xface->frame)) < 0)
 +/*
 + * Copyright (c) 1990 James Ashton - Sydney University
 + * Copyright (c) 2012 Stefano Sabatini
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/**
 + * @file
 + * X-Face decoder, based on libcompface, by James Ashton.
 + */
 +
 +#include "libavutil/pixdesc.h"
 +#include "avcodec.h"
 +#include "bytestream.h"
++#include "internal.h"
 +#include "xface.h"
 +
 +static int pop_integer(BigInt *b, const ProbRange *pranges)
 +{
 +    uint8_t r;
 +    int i;
 +
 +    /* extract the last byte into r, and shift right b by 8 bits */
 +    ff_big_div(b, 0, &r);
 +
 +    i = 0;
 +    while (r < pranges->offset || r >= pranges->range + pranges->offset) {
 +        pranges++;
 +        i++;
 +    }
 +    ff_big_mul(b, pranges->range);
 +    ff_big_add(b, r - pranges->offset);
 +    return i;
 +}
 +
 +static void pop_greys(BigInt *b, char *bitmap, int w, int h)
 +{
 +    if (w > 3) {
 +        w /= 2;
 +        h /= 2;
 +        pop_greys(b, bitmap,                       w, h);
 +        pop_greys(b, bitmap + w,                   w, h);
 +        pop_greys(b, bitmap + XFACE_WIDTH * h,     w, h);
 +        pop_greys(b, bitmap + XFACE_WIDTH * h + w, w, h);
 +    } else {
 +        w = pop_integer(b, ff_xface_probranges_2x2);
 +        if (w & 1) bitmap[0]               = 1;
 +        if (w & 2) bitmap[1]               = 1;
 +        if (w & 4) bitmap[XFACE_WIDTH]     = 1;
 +        if (w & 8) bitmap[XFACE_WIDTH + 1] = 1;
 +    }
 +}
 +
 +static void decode_block(BigInt *b, char *bitmap, int w, int h, int level)
 +{
 +    switch (pop_integer(b, &ff_xface_probranges_per_level[level][0])) {
 +    case XFACE_COLOR_WHITE:
 +        return;
 +    case XFACE_COLOR_BLACK:
 +        pop_greys(b, bitmap, w, h);
 +        return;
 +    default:
 +        w /= 2;
 +        h /= 2;
 +        level++;
 +        decode_block(b, bitmap,                       w, h, level);
 +        decode_block(b, bitmap + w,                   w, h, level);
 +        decode_block(b, bitmap + h * XFACE_WIDTH,     w, h, level);
 +        decode_block(b, bitmap + w + h * XFACE_WIDTH, w, h, level);
 +        return;
 +    }
 +}
 +
 +typedef struct XFaceContext {
 +    AVFrame frame;
 +    uint8_t bitmap[XFACE_PIXELS]; ///< image used internally for decoding
 +} XFaceContext;
 +
 +static av_cold int xface_decode_init(AVCodecContext *avctx)
 +{
 +    XFaceContext *xface = avctx->priv_data;
 +
 +    avcodec_get_frame_defaults(&xface->frame);
 +
 +    if (avctx->width || avctx->height) {
 +        if (avctx->width != XFACE_WIDTH || avctx->height != XFACE_HEIGHT) {
 +            av_log(avctx, AV_LOG_ERROR,
 +                   "Size value %dx%d not supported, only accepts a size of %dx%d\n",
 +                   avctx->width, avctx->height, XFACE_WIDTH, XFACE_HEIGHT);
 +            return AVERROR(EINVAL);
 +        }
 +    }
 +
 +    avctx->width   = XFACE_WIDTH;
 +    avctx->height  = XFACE_HEIGHT;
 +    avctx->pix_fmt = AV_PIX_FMT_MONOWHITE;
 +
 +    return 0;
 +}
 +
 +static av_cold int xface_decode_close(AVCodecContext *avctx)
 +{
 +    XFaceContext *xface = avctx->priv_data;
 +
 +    if (xface->frame.data[0])
 +        avctx->release_buffer(avctx, &xface->frame);
 +
 +    return 0;
 +}
 +
 +static int xface_decode_frame(AVCodecContext *avctx,
 +                              void *data, int *data_size,
 +                              AVPacket *avpkt)
 +{
 +    XFaceContext *xface = avctx->priv_data;
 +    int ret, i, j, k;
 +    uint8_t byte;
 +    BigInt b = {0};
 +    char *buf;
 +    int64_t c;
 +
 +    if (xface->frame.data[0])
 +        avctx->release_buffer(avctx, &xface->frame);
 +    xface->frame.data[0] = NULL;
++    if ((ret = ff_get_buffer(avctx, &xface->frame)) < 0)
 +        return ret;
 +    xface->frame.reference = 0;
 +
 +    for (i = 0, k = 0; avpkt->data[i] && i < avpkt->size; i++) {
 +        c = avpkt->data[i];
 +
 +        /* ignore invalid digits */
 +        if (c < XFACE_FIRST_PRINT || c > XFACE_LAST_PRINT)
 +            continue;
 +
 +        if (++k > XFACE_MAX_DIGITS) {
 +            av_log(avctx, AV_LOG_WARNING,
 +                   "Buffer is longer than expected, truncating at byte %d\n", i);
 +            break;
 +        }
 +        ff_big_mul(&b, XFACE_PRINTS);
 +        ff_big_add(&b, c - XFACE_FIRST_PRINT);
 +    }
 +
 +    /* decode image and put it in bitmap */
 +    memset(xface->bitmap, 0, XFACE_PIXELS);
 +    buf = xface->bitmap;
 +    decode_block(&b, buf,                         16, 16, 0);
 +    decode_block(&b, buf + 16,                    16, 16, 0);
 +    decode_block(&b, buf + 32,                    16, 16, 0);
 +    decode_block(&b, buf + XFACE_WIDTH * 16,      16, 16, 0);
 +    decode_block(&b, buf + XFACE_WIDTH * 16 + 16, 16, 16, 0);
 +    decode_block(&b, buf + XFACE_WIDTH * 16 + 32, 16, 16, 0);
 +    decode_block(&b, buf + XFACE_WIDTH * 32     , 16, 16, 0);
 +    decode_block(&b, buf + XFACE_WIDTH * 32 + 16, 16, 16, 0);
 +    decode_block(&b, buf + XFACE_WIDTH * 32 + 32, 16, 16, 0);
 +
 +    ff_xface_generate_face(xface->bitmap, xface->bitmap);
 +
 +    /* convert image from 1=black 0=white bitmap to MONOWHITE */
 +    buf = xface->frame.data[0];
 +    for (i = 0, j = 0, k = 0, byte = 0; i < XFACE_PIXELS; i++) {
 +        byte += xface->bitmap[i];
 +        if (k == 7) {
 +            buf[j++] = byte;
 +            byte = k = 0;
 +        } else {
 +            k++;
 +            byte <<= 1;
 +        }
 +        if (j == XFACE_WIDTH/8) {
 +            j = 0;
 +            buf += xface->frame.linesize[0];
 +        }
 +    }
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame*)data = xface->frame;
 +
 +    return avpkt->size;
 +}
 +
 +AVCodec ff_xface_decoder = {
 +    .name           = "xface",
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_XFACE,
 +    .priv_data_size = sizeof(XFaceContext),
 +    .init           = xface_decode_init,
 +    .close          = xface_decode_close,
 +    .decode         = xface_decode_frame,
 +    .pix_fmts       = (const enum AVPixelFormat[]) { AV_PIX_FMT_MONOWHITE, AV_PIX_FMT_NONE },
 +    .long_name      = NULL_IF_CONFIG_SMALL("X-face image"),
 +};
diff --cc libavcodec/xl.c
index 8c5ccd387a6ab2d9798e8820038369be6d45a358,a8c392a7678c22f48bd532be45871e982dee934f..3103ff463b64d3b7bd005d24992efd8fefb21ee9
@@@ -68,12 -58,12 +69,12 @@@ static int decode_frame(AVCodecContext 
          avctx->release_buffer(avctx, p);
  
      p->reference = 0;
-     if ((ret = avctx->get_buffer(avctx, p)) < 0) {
 -    if(ff_get_buffer(avctx, p) < 0){
++    if ((ret = ff_get_buffer(avctx, p)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 -        return -1;
 +        return ret;
      }
 -    p->pict_type= AV_PICTURE_TYPE_I;
 -    p->key_frame= 1;
 +    p->pict_type = AV_PICTURE_TYPE_I;
 +    p->key_frame = 1;
  
      Y = a->pic.data[0];
      U = a->pic.data[1];
Simple merge
index e283690f00d716cae1a71b94bff462ec56256f83,0000000000000000000000000000000000000000..45c994d98a62f41f0b0c61c82c9e57d3d021e63c
mode 100644,000000..100644
--- /dev/null
@@@ -1,116 -1,0 +1,117 @@@
-     if (avctx->get_buffer(avctx, pic) < 0) {
 +/*
 + * y41p decoder
 + *
 + * Copyright (c) 2012 Paul B Mahol
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
++#include "internal.h"
 +
 +static av_cold int y41p_decode_init(AVCodecContext *avctx)
 +{
 +    avctx->pix_fmt             = AV_PIX_FMT_YUV411P;
 +    avctx->bits_per_raw_sample = 12;
 +
 +    if (avctx->width & 7) {
 +        av_log(avctx, AV_LOG_WARNING, "y41p requires width to be divisible by 8.\n");
 +    }
 +
 +    avctx->coded_frame = avcodec_alloc_frame();
 +    if (!avctx->coded_frame) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate frame.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static int y41p_decode_frame(AVCodecContext *avctx, void *data,
 +                             int *data_size, AVPacket *avpkt)
 +{
 +    AVFrame *pic = avctx->coded_frame;
 +    uint8_t *src = avpkt->data;
 +    uint8_t *y, *u, *v;
 +    int i, j;
 +
 +    if (pic->data[0])
 +        avctx->release_buffer(avctx, pic);
 +
 +    if (avpkt->size < 1.5 * avctx->height * avctx->width) {
 +        av_log(avctx, AV_LOG_ERROR, "Insufficient input data.\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    pic->reference = 0;
 +
++    if (ff_get_buffer(avctx, pic) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate buffer.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    pic->key_frame = 1;
 +    pic->pict_type = AV_PICTURE_TYPE_I;
 +
 +    for (i = avctx->height - 1; i >= 0 ; i--) {
 +        y = &pic->data[0][i * pic->linesize[0]];
 +        u = &pic->data[1][i * pic->linesize[1]];
 +        v = &pic->data[2][i * pic->linesize[2]];
 +        for (j = 0; j < avctx->width; j += 8) {
 +            *(u++) = *src++;
 +            *(y++) = *src++;
 +            *(v++) = *src++;
 +            *(y++) = *src++;
 +
 +            *(u++) = *src++;
 +            *(y++) = *src++;
 +            *(v++) = *src++;
 +            *(y++) = *src++;
 +
 +            *(y++) = *src++;
 +            *(y++) = *src++;
 +            *(y++) = *src++;
 +            *(y++) = *src++;
 +        }
 +    }
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame *)data = *pic;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int y41p_decode_close(AVCodecContext *avctx)
 +{
 +    if (avctx->coded_frame->data[0])
 +        avctx->release_buffer(avctx, avctx->coded_frame);
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_y41p_decoder = {
 +    .name         = "y41p",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_Y41P,
 +    .init         = y41p_decode_init,
 +    .decode       = y41p_decode_frame,
 +    .close        = y41p_decode_close,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("Uncompressed YUV 4:1:1 12-bit"),
 +};
index 255ed32ca783482bfde254b1a51529d7f4614a24,0240a8cc9fcdd74fcc1efe244b63a987471505c0..856d6f4e261698faf1e163130520f5fdced05561
@@@ -202,12 -199,7 +203,12 @@@ static int yop_decode_frame(AVCodecCont
      if (s->frame.data[0])
          avctx->release_buffer(avctx, &s->frame);
  
-     ret = avctx->get_buffer(avctx, &s->frame);
 +    if (avpkt->size < 4 + 3*s->num_pal_colors) {
 +        av_log(avctx, AV_LOG_ERROR, "packet of size %d too small\n", avpkt->size);
 +        return AVERROR_INVALIDDATA;
 +    }
 +
+     ret = ff_get_buffer(avctx, &s->frame);
      if (ret < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return ret;
index ce44f1330f16bc67d71e83d5fe98442a1b069a3a,0000000000000000000000000000000000000000..6454fbfff8328606b73b41bc6e471c0041c93007
mode 100644,000000..100644
--- /dev/null
@@@ -1,109 -1,0 +1,110 @@@
-     if (avctx->get_buffer(avctx, pic) < 0) {
 +/*
 + * libquicktime yuv4 decoder
 + *
 + * Copyright (c) 2011 Carl Eugen Hoyos
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "avcodec.h"
++#include "internal.h"
 +
 +static av_cold int yuv4_decode_init(AVCodecContext *avctx)
 +{
 +    avctx->pix_fmt = AV_PIX_FMT_YUV420P;
 +
 +    avctx->coded_frame = avcodec_alloc_frame();
 +
 +    if (!avctx->coded_frame) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate frame.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
 +static int yuv4_decode_frame(AVCodecContext *avctx, void *data,
 +                             int *data_size, AVPacket *avpkt)
 +{
 +    AVFrame *pic = avctx->coded_frame;
 +    const uint8_t *src = avpkt->data;
 +    uint8_t *y, *u, *v;
 +    int i, j;
 +
 +    if (pic->data[0])
 +        avctx->release_buffer(avctx, pic);
 +
 +    if (avpkt->size < 6 * (avctx->width + 1 >> 1) * (avctx->height + 1 >> 1)) {
 +        av_log(avctx, AV_LOG_ERROR, "Insufficient input data.\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    pic->reference = 0;
 +
++    if (ff_get_buffer(avctx, pic) < 0) {
 +        av_log(avctx, AV_LOG_ERROR, "Could not allocate buffer.\n");
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    pic->key_frame = 1;
 +    pic->pict_type = AV_PICTURE_TYPE_I;
 +
 +    y = pic->data[0];
 +    u = pic->data[1];
 +    v = pic->data[2];
 +
 +    for (i = 0; i < (avctx->height + 1) >> 1; i++) {
 +        for (j = 0; j < (avctx->width + 1) >> 1; j++) {
 +            u[j] = *src++ ^ 0x80;
 +            v[j] = *src++ ^ 0x80;
 +            y[                   2 * j    ] = *src++;
 +            y[                   2 * j + 1] = *src++;
 +            y[pic->linesize[0] + 2 * j    ] = *src++;
 +            y[pic->linesize[0] + 2 * j + 1] = *src++;
 +        }
 +
 +        y += 2 * pic->linesize[0];
 +        u +=     pic->linesize[1];
 +        v +=     pic->linesize[2];
 +    }
 +
 +    *data_size = sizeof(AVFrame);
 +    *(AVFrame *)data = *pic;
 +
 +    return avpkt->size;
 +}
 +
 +static av_cold int yuv4_decode_close(AVCodecContext *avctx)
 +{
 +    if (avctx->coded_frame->data[0])
 +        avctx->release_buffer(avctx, avctx->coded_frame);
 +
 +    av_freep(&avctx->coded_frame);
 +
 +    return 0;
 +}
 +
 +AVCodec ff_yuv4_decoder = {
 +    .name         = "yuv4",
 +    .type         = AVMEDIA_TYPE_VIDEO,
 +    .id           = AV_CODEC_ID_YUV4,
 +    .init         = yuv4_decode_init,
 +    .decode       = yuv4_decode_frame,
 +    .close        = yuv4_decode_close,
 +    .capabilities = CODEC_CAP_DR1,
 +    .long_name    = NULL_IF_CONFIG_SMALL("Uncompressed packed 4:2:0"),
 +};
index 1b9435150f16afc606f1a66aa145a60067764800,33949ce25a2787475d400a363c0a8078d0782d8e..6d25056c857301140792f362022de63e1e0f57d8
@@@ -409,9 -411,9 +410,9 @@@ static int decode_frame(AVCodecContext 
      if (c->pic.data[0])
              avctx->release_buffer(avctx, &c->pic);
  
 -    c->pic.reference = 1;
 +    c->pic.reference = 3;
      c->pic.buffer_hints = FF_BUFFER_HINTS_VALID;
-     if ((ret = avctx->get_buffer(avctx, &c->pic)) < 0) {
+     if ((ret = ff_get_buffer(avctx, &c->pic)) < 0) {
          av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
          return ret;
      }