]> git.sesse.net Git - ffmpeg/commitdiff
Merge commit '3c650efb81aaa3b395ba4606ee68a47ee4efb57b'
authorMichael Niedermayer <michaelni@gmx.at>
Mon, 7 Jul 2014 13:54:17 +0000 (15:54 +0200)
committerMichael Niedermayer <michaelni@gmx.at>
Mon, 7 Jul 2014 14:17:27 +0000 (16:17 +0200)
* commit '3c650efb81aaa3b395ba4606ee68a47ee4efb57b':
  dsputil: Move draw_edges() to mpegvideoencdsp

Conflicts:
libavcodec/mpegvideo_enc.c
libavcodec/x86/Makefile
libavcodec/x86/dsputil_init.c
libavcodec/x86/dsputil_mmx.c
libavcodec/x86/dsputil_x86.h

Merged-by: Michael Niedermayer <michaelni@gmx.at>
15 files changed:
1  2 
libavcodec/diracdec.c
libavcodec/dsputil.c
libavcodec/dsputil.h
libavcodec/mpegvideo.h
libavcodec/mpegvideo_enc.c
libavcodec/mpegvideoencdsp.c
libavcodec/mpegvideoencdsp.h
libavcodec/snow.c
libavcodec/snow.h
libavcodec/snowenc.c
libavcodec/utils.c
libavcodec/x86/Makefile
libavcodec/x86/dsputil_init.c
libavcodec/x86/dsputil_x86.h
libavcodec/x86/mpegvideoencdsp_init.c

index d7cca7e0da47e0b68fafed1477d16b8f85db38b2,0000000000000000000000000000000000000000..d1c3758cb441fb1cd51c9f9841c6cb44ab8d44a3
mode 100644,000000..100644
--- /dev/null
@@@ -1,2001 -1,0 +1,2005 @@@
-     s->dsp.draw_edges(ref->hpel[plane][0], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM); /* EDGE_TOP | EDGE_BOTTOM values just copied to make it build, this needs to be ensured */
 +/*
 + * Copyright (C) 2007 Marco Gerards <marco@gnu.org>
 + * Copyright (C) 2009 David Conrad
 + * Copyright (C) 2011 Jordi Ortiz
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +/**
 + * @file
 + * Dirac Decoder
 + * @author Marco Gerards <marco@gnu.org>, David Conrad, Jordi Ortiz <nenjordi@gmail.com>
 + */
 +
 +#include "avcodec.h"
 +#include "dsputil.h"
 +#include "get_bits.h"
 +#include "bytestream.h"
 +#include "internal.h"
 +#include "golomb.h"
 +#include "dirac_arith.h"
 +#include "mpeg12data.h"
++#include "libavcodec/mpegvideo.h"
++#include "mpegvideoencdsp.h"
 +#include "dirac_dwt.h"
 +#include "dirac.h"
 +#include "diracdsp.h"
 +#include "videodsp.h" // for ff_emulated_edge_mc_8
 +
 +/**
 + * The spec limits the number of wavelet decompositions to 4 for both
 + * level 1 (VC-2) and 128 (long-gop default).
 + * 5 decompositions is the maximum before >16-bit buffers are needed.
 + * Schroedinger allows this for DD 9,7 and 13,7 wavelets only, limiting
 + * the others to 4 decompositions (or 3 for the fidelity filter).
 + *
 + * We use this instead of MAX_DECOMPOSITIONS to save some memory.
 + */
 +#define MAX_DWT_LEVELS 5
 +
 +/**
 + * The spec limits this to 3 for frame coding, but in practice can be as high as 6
 + */
 +#define MAX_REFERENCE_FRAMES 8
 +#define MAX_DELAY 5         /* limit for main profile for frame coding (TODO: field coding) */
 +#define MAX_FRAMES (MAX_REFERENCE_FRAMES + MAX_DELAY + 1)
 +#define MAX_QUANT 68        /* max quant for VC-2 */
 +#define MAX_BLOCKSIZE 32    /* maximum xblen/yblen we support */
 +
 +/**
 + * DiracBlock->ref flags, if set then the block does MC from the given ref
 + */
 +#define DIRAC_REF_MASK_REF1   1
 +#define DIRAC_REF_MASK_REF2   2
 +#define DIRAC_REF_MASK_GLOBAL 4
 +
 +/**
 + * Value of Picture.reference when Picture is not a reference picture, but
 + * is held for delayed output.
 + */
 +#define DELAYED_PIC_REF 4
 +
 +#define ff_emulated_edge_mc ff_emulated_edge_mc_8 /* Fix: change the calls to this function regarding bit depth */
 +
 +#define CALC_PADDING(size, depth)                       \
 +    (((size + (1 << depth) - 1) >> depth) << depth)
 +
 +#define DIVRNDUP(a, b) (((a) + (b) - 1) / (b))
 +
 +typedef struct {
 +    AVFrame *avframe;
 +    int interpolated[3];    /* 1 if hpel[] is valid */
 +    uint8_t *hpel[3][4];
 +    uint8_t *hpel_base[3][4];
 +} DiracFrame;
 +
 +typedef struct {
 +    union {
 +        int16_t mv[2][2];
 +        int16_t dc[3];
 +    } u; /* anonymous unions aren't in C99 :( */
 +    uint8_t ref;
 +} DiracBlock;
 +
 +typedef struct SubBand {
 +    int level;
 +    int orientation;
 +    int stride;
 +    int width;
 +    int height;
 +    int quant;
 +    IDWTELEM *ibuf;
 +    struct SubBand *parent;
 +
 +    /* for low delay */
 +    unsigned length;
 +    const uint8_t *coeff_data;
 +} SubBand;
 +
 +typedef struct Plane {
 +    int width;
 +    int height;
 +    ptrdiff_t stride;
 +
 +    int idwt_width;
 +    int idwt_height;
 +    int idwt_stride;
 +    IDWTELEM *idwt_buf;
 +    IDWTELEM *idwt_buf_base;
 +    IDWTELEM *idwt_tmp;
 +
 +    /* block length */
 +    uint8_t xblen;
 +    uint8_t yblen;
 +    /* block separation (block n+1 starts after this many pixels in block n) */
 +    uint8_t xbsep;
 +    uint8_t ybsep;
 +    /* amount of overspill on each edge (half of the overlap between blocks) */
 +    uint8_t xoffset;
 +    uint8_t yoffset;
 +
 +    SubBand band[MAX_DWT_LEVELS][4];
 +} Plane;
 +
 +typedef struct DiracContext {
 +    AVCodecContext *avctx;
 +    DSPContext dsp;
++    MpegvideoEncDSPContext mpvencdsp;
 +    DiracDSPContext diracdsp;
 +    GetBitContext gb;
 +    dirac_source_params source;
 +    int seen_sequence_header;
 +    int frame_number;           /* number of the next frame to display       */
 +    Plane plane[3];
 +    int chroma_x_shift;
 +    int chroma_y_shift;
 +
 +    int zero_res;               /* zero residue flag                         */
 +    int is_arith;               /* whether coeffs use arith or golomb coding */
 +    int low_delay;              /* use the low delay syntax                  */
 +    int globalmc_flag;          /* use global motion compensation            */
 +    int num_refs;               /* number of reference pictures              */
 +
 +    /* wavelet decoding */
 +    unsigned wavelet_depth;     /* depth of the IDWT                         */
 +    unsigned wavelet_idx;
 +
 +    /**
 +     * schroedinger older than 1.0.8 doesn't store
 +     * quant delta if only one codebook exists in a band
 +     */
 +    unsigned old_delta_quant;
 +    unsigned codeblock_mode;
 +
 +    struct {
 +        unsigned width;
 +        unsigned height;
 +    } codeblock[MAX_DWT_LEVELS+1];
 +
 +    struct {
 +        unsigned num_x;         /* number of horizontal slices               */
 +        unsigned num_y;         /* number of vertical slices                 */
 +        AVRational bytes;       /* average bytes per slice                   */
 +        uint8_t quant[MAX_DWT_LEVELS][4]; /* [DIRAC_STD] E.1 */
 +    } lowdelay;
 +
 +    struct {
 +        int pan_tilt[2];        /* pan/tilt vector                           */
 +        int zrs[2][2];          /* zoom/rotate/shear matrix                  */
 +        int perspective[2];     /* perspective vector                        */
 +        unsigned zrs_exp;
 +        unsigned perspective_exp;
 +    } globalmc[2];
 +
 +    /* motion compensation */
 +    uint8_t mv_precision;       /* [DIRAC_STD] REFS_WT_PRECISION             */
 +    int16_t weight[2];          /* [DIRAC_STD] REF1_WT and REF2_WT           */
 +    unsigned weight_log2denom;  /* [DIRAC_STD] REFS_WT_PRECISION             */
 +
 +    int blwidth;                /* number of blocks (horizontally)           */
 +    int blheight;               /* number of blocks (vertically)             */
 +    int sbwidth;                /* number of superblocks (horizontally)      */
 +    int sbheight;               /* number of superblocks (vertically)        */
 +
 +    uint8_t *sbsplit;
 +    DiracBlock *blmotion;
 +
 +    uint8_t *edge_emu_buffer[4];
 +    uint8_t *edge_emu_buffer_base;
 +
 +    uint16_t *mctmp;            /* buffer holding the MC data multiplied by OBMC weights */
 +    uint8_t *mcscratch;
 +    int buffer_stride;
 +
 +    DECLARE_ALIGNED(16, uint8_t, obmc_weight)[3][MAX_BLOCKSIZE*MAX_BLOCKSIZE];
 +
 +    void (*put_pixels_tab[4])(uint8_t *dst, const uint8_t *src[5], int stride, int h);
 +    void (*avg_pixels_tab[4])(uint8_t *dst, const uint8_t *src[5], int stride, int h);
 +    void (*add_obmc)(uint16_t *dst, const uint8_t *src, int stride, const uint8_t *obmc_weight, int yblen);
 +    dirac_weight_func weight_func;
 +    dirac_biweight_func biweight_func;
 +
 +    DiracFrame *current_picture;
 +    DiracFrame *ref_pics[2];
 +
 +    DiracFrame *ref_frames[MAX_REFERENCE_FRAMES+1];
 +    DiracFrame *delay_frames[MAX_DELAY+1];
 +    DiracFrame all_frames[MAX_FRAMES];
 +} DiracContext;
 +
 +/**
 + * Dirac Specification ->
 + * Parse code values. 9.6.1 Table 9.1
 + */
 +enum dirac_parse_code {
 +    pc_seq_header         = 0x00,
 +    pc_eos                = 0x10,
 +    pc_aux_data           = 0x20,
 +    pc_padding            = 0x30,
 +};
 +
 +enum dirac_subband {
 +    subband_ll = 0,
 +    subband_hl = 1,
 +    subband_lh = 2,
 +    subband_hh = 3
 +};
 +
 +static const uint8_t default_qmat[][4][4] = {
 +    { { 5,  3,  3,  0}, { 0,  4,  4,  1}, { 0,  5,  5,  2}, { 0,  6,  6,  3} },
 +    { { 4,  2,  2,  0}, { 0,  4,  4,  2}, { 0,  5,  5,  3}, { 0,  7,  7,  5} },
 +    { { 5,  3,  3,  0}, { 0,  4,  4,  1}, { 0,  5,  5,  2}, { 0,  6,  6,  3} },
 +    { { 8,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0} },
 +    { { 8,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0}, { 0,  4,  4,  0} },
 +    { { 0,  4,  4,  8}, { 0,  8,  8, 12}, { 0, 13, 13, 17}, { 0, 17, 17, 21} },
 +    { { 3,  1,  1,  0}, { 0,  4,  4,  2}, { 0,  6,  6,  5}, { 0,  9,  9,  7} },
 +};
 +
 +static const int qscale_tab[MAX_QUANT+1] = {
 +    4,     5,     6,     7,     8,    10,    11,    13,
 +    16,    19,    23,    27,    32,    38,    45,    54,
 +    64,    76,    91,   108,   128,   152,   181,   215,
 +    256,   304,   362,   431,   512,   609,   724,   861,
 +    1024,  1218,  1448,  1722,  2048,  2435,  2896,  3444,
 +    4096,  4871,  5793,  6889,  8192,  9742, 11585, 13777,
 +    16384, 19484, 23170, 27554, 32768, 38968, 46341, 55109,
 +    65536, 77936
 +};
 +
 +static const int qoffset_intra_tab[MAX_QUANT+1] = {
 +    1,     2,     3,     4,     4,     5,     6,     7,
 +    8,    10,    12,    14,    16,    19,    23,    27,
 +    32,    38,    46,    54,    64,    76,    91,   108,
 +    128,   152,   181,   216,   256,   305,   362,   431,
 +    512,   609,   724,   861,  1024,  1218,  1448,  1722,
 +    2048,  2436,  2897,  3445,  4096,  4871,  5793,  6889,
 +    8192,  9742, 11585, 13777, 16384, 19484, 23171, 27555,
 +    32768, 38968
 +};
 +
 +static const int qoffset_inter_tab[MAX_QUANT+1] = {
 +    1,     2,     2,     3,     3,     4,     4,     5,
 +    6,     7,     9,    10,    12,    14,    17,    20,
 +    24,    29,    34,    41,    48,    57,    68,    81,
 +    96,   114,   136,   162,   192,   228,   272,   323,
 +    384,   457,   543,   646,   768,   913,  1086,  1292,
 +    1536,  1827,  2172,  2583,  3072,  3653,  4344,  5166,
 +    6144,  7307,  8689, 10333, 12288, 14613, 17378, 20666,
 +    24576, 29226
 +};
 +
 +/* magic number division by 3 from schroedinger */
 +static inline int divide3(int x)
 +{
 +    return ((x+1)*21845 + 10922) >> 16;
 +}
 +
 +static DiracFrame *remove_frame(DiracFrame *framelist[], int picnum)
 +{
 +    DiracFrame *remove_pic = NULL;
 +    int i, remove_idx = -1;
 +
 +    for (i = 0; framelist[i]; i++)
 +        if (framelist[i]->avframe->display_picture_number == picnum) {
 +            remove_pic = framelist[i];
 +            remove_idx = i;
 +        }
 +
 +    if (remove_pic)
 +        for (i = remove_idx; framelist[i]; i++)
 +            framelist[i] = framelist[i+1];
 +
 +    return remove_pic;
 +}
 +
 +static int add_frame(DiracFrame *framelist[], int maxframes, DiracFrame *frame)
 +{
 +    int i;
 +    for (i = 0; i < maxframes; i++)
 +        if (!framelist[i]) {
 +            framelist[i] = frame;
 +            return 0;
 +        }
 +    return -1;
 +}
 +
 +static int alloc_sequence_buffers(DiracContext *s)
 +{
 +    int sbwidth  = DIVRNDUP(s->source.width,  4);
 +    int sbheight = DIVRNDUP(s->source.height, 4);
 +    int i, w, h, top_padding;
 +
 +    /* todo: think more about this / use or set Plane here */
 +    for (i = 0; i < 3; i++) {
 +        int max_xblen = MAX_BLOCKSIZE >> (i ? s->chroma_x_shift : 0);
 +        int max_yblen = MAX_BLOCKSIZE >> (i ? s->chroma_y_shift : 0);
 +        w = s->source.width  >> (i ? s->chroma_x_shift : 0);
 +        h = s->source.height >> (i ? s->chroma_y_shift : 0);
 +
 +        /* we allocate the max we support here since num decompositions can
 +         * change from frame to frame. Stride is aligned to 16 for SIMD, and
 +         * 1<<MAX_DWT_LEVELS top padding to avoid if(y>0) in arith decoding
 +         * MAX_BLOCKSIZE padding for MC: blocks can spill up to half of that
 +         * on each side */
 +        top_padding = FFMAX(1<<MAX_DWT_LEVELS, max_yblen/2);
 +        w = FFALIGN(CALC_PADDING(w, MAX_DWT_LEVELS), 8); /* FIXME: Should this be 16 for SSE??? */
 +        h = top_padding + CALC_PADDING(h, MAX_DWT_LEVELS) + max_yblen/2;
 +
 +        s->plane[i].idwt_buf_base = av_mallocz_array((w+max_xblen), h * sizeof(IDWTELEM));
 +        s->plane[i].idwt_tmp      = av_malloc_array((w+16), sizeof(IDWTELEM));
 +        s->plane[i].idwt_buf      = s->plane[i].idwt_buf_base + top_padding*w;
 +        if (!s->plane[i].idwt_buf_base || !s->plane[i].idwt_tmp)
 +            return AVERROR(ENOMEM);
 +    }
 +
 +    /* fixme: allocate using real stride here */
 +    s->sbsplit  = av_malloc_array(sbwidth, sbheight);
 +    s->blmotion = av_malloc_array(sbwidth, sbheight * 16 * sizeof(*s->blmotion));
 +
 +    if (!s->sbsplit || !s->blmotion)
 +        return AVERROR(ENOMEM);
 +    return 0;
 +}
 +
 +static int alloc_buffers(DiracContext *s, int stride)
 +{
 +    int w = s->source.width;
 +    int h = s->source.height;
 +
 +    av_assert0(stride >= w);
 +    stride += 64;
 +
 +    if (s->buffer_stride >= stride)
 +        return 0;
 +    s->buffer_stride = 0;
 +
 +    av_freep(&s->edge_emu_buffer_base);
 +    memset(s->edge_emu_buffer, 0, sizeof(s->edge_emu_buffer));
 +    av_freep(&s->mctmp);
 +    av_freep(&s->mcscratch);
 +
 +    s->edge_emu_buffer_base = av_malloc_array(stride, MAX_BLOCKSIZE);
 +
 +    s->mctmp     = av_malloc_array((stride+MAX_BLOCKSIZE), (h+MAX_BLOCKSIZE) * sizeof(*s->mctmp));
 +    s->mcscratch = av_malloc_array(stride, MAX_BLOCKSIZE);
 +
 +    if (!s->edge_emu_buffer_base || !s->mctmp || !s->mcscratch)
 +        return AVERROR(ENOMEM);
 +
 +    s->buffer_stride = stride;
 +    return 0;
 +}
 +
 +static void free_sequence_buffers(DiracContext *s)
 +{
 +    int i, j, k;
 +
 +    for (i = 0; i < MAX_FRAMES; i++) {
 +        if (s->all_frames[i].avframe->data[0]) {
 +            av_frame_unref(s->all_frames[i].avframe);
 +            memset(s->all_frames[i].interpolated, 0, sizeof(s->all_frames[i].interpolated));
 +        }
 +
 +        for (j = 0; j < 3; j++)
 +            for (k = 1; k < 4; k++)
 +                av_freep(&s->all_frames[i].hpel_base[j][k]);
 +    }
 +
 +    memset(s->ref_frames, 0, sizeof(s->ref_frames));
 +    memset(s->delay_frames, 0, sizeof(s->delay_frames));
 +
 +    for (i = 0; i < 3; i++) {
 +        av_freep(&s->plane[i].idwt_buf_base);
 +        av_freep(&s->plane[i].idwt_tmp);
 +    }
 +
 +    s->buffer_stride = 0;
 +    av_freep(&s->sbsplit);
 +    av_freep(&s->blmotion);
 +    av_freep(&s->edge_emu_buffer_base);
 +
 +    av_freep(&s->mctmp);
 +    av_freep(&s->mcscratch);
 +}
 +
 +static av_cold int dirac_decode_init(AVCodecContext *avctx)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    int i;
 +
 +    s->avctx = avctx;
 +    s->frame_number = -1;
 +
 +    ff_dsputil_init(&s->dsp, avctx);
 +    ff_diracdsp_init(&s->diracdsp);
++    ff_mpegvideoencdsp_init(&s->mpvencdsp, avctx);
 +
 +    for (i = 0; i < MAX_FRAMES; i++) {
 +        s->all_frames[i].avframe = av_frame_alloc();
 +        if (!s->all_frames[i].avframe) {
 +            while (i > 0)
 +                av_frame_free(&s->all_frames[--i].avframe);
 +            return AVERROR(ENOMEM);
 +        }
 +    }
 +
 +    return 0;
 +}
 +
 +static void dirac_decode_flush(AVCodecContext *avctx)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    free_sequence_buffers(s);
 +    s->seen_sequence_header = 0;
 +    s->frame_number = -1;
 +}
 +
 +static av_cold int dirac_decode_end(AVCodecContext *avctx)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    int i;
 +
 +    dirac_decode_flush(avctx);
 +    for (i = 0; i < MAX_FRAMES; i++)
 +        av_frame_free(&s->all_frames[i].avframe);
 +
 +    return 0;
 +}
 +
 +#define SIGN_CTX(x) (CTX_SIGN_ZERO + ((x) > 0) - ((x) < 0))
 +
 +static inline void coeff_unpack_arith(DiracArith *c, int qfactor, int qoffset,
 +                                      SubBand *b, IDWTELEM *buf, int x, int y)
 +{
 +    int coeff, sign;
 +    int sign_pred = 0;
 +    int pred_ctx = CTX_ZPZN_F1;
 +
 +    /* Check if the parent subband has a 0 in the corresponding position */
 +    if (b->parent)
 +        pred_ctx += !!b->parent->ibuf[b->parent->stride * (y>>1) + (x>>1)] << 1;
 +
 +    if (b->orientation == subband_hl)
 +        sign_pred = buf[-b->stride];
 +
 +    /* Determine if the pixel has only zeros in its neighbourhood */
 +    if (x) {
 +        pred_ctx += !(buf[-1] | buf[-b->stride] | buf[-1-b->stride]);
 +        if (b->orientation == subband_lh)
 +            sign_pred = buf[-1];
 +    } else {
 +        pred_ctx += !buf[-b->stride];
 +    }
 +
 +    coeff = dirac_get_arith_uint(c, pred_ctx, CTX_COEFF_DATA);
 +    if (coeff) {
 +        coeff = (coeff * qfactor + qoffset + 2) >> 2;
 +        sign  = dirac_get_arith_bit(c, SIGN_CTX(sign_pred));
 +        coeff = (coeff ^ -sign) + sign;
 +    }
 +    *buf = coeff;
 +}
 +
 +static inline int coeff_unpack_golomb(GetBitContext *gb, int qfactor, int qoffset)
 +{
 +    int sign, coeff;
 +
 +    coeff = svq3_get_ue_golomb(gb);
 +    if (coeff) {
 +        coeff = (coeff * qfactor + qoffset + 2) >> 2;
 +        sign  = get_bits1(gb);
 +        coeff = (coeff ^ -sign) + sign;
 +    }
 +    return coeff;
 +}
 +
 +/**
 + * Decode the coeffs in the rectangle defined by left, right, top, bottom
 + * [DIRAC_STD] 13.4.3.2 Codeblock unpacking loop. codeblock()
 + */
 +static inline void codeblock(DiracContext *s, SubBand *b,
 +                             GetBitContext *gb, DiracArith *c,
 +                             int left, int right, int top, int bottom,
 +                             int blockcnt_one, int is_arith)
 +{
 +    int x, y, zero_block;
 +    int qoffset, qfactor;
 +    IDWTELEM *buf;
 +
 +    /* check for any coded coefficients in this codeblock */
 +    if (!blockcnt_one) {
 +        if (is_arith)
 +            zero_block = dirac_get_arith_bit(c, CTX_ZERO_BLOCK);
 +        else
 +            zero_block = get_bits1(gb);
 +
 +        if (zero_block)
 +            return;
 +    }
 +
 +    if (s->codeblock_mode && !(s->old_delta_quant && blockcnt_one)) {
 +        int quant = b->quant;
 +        if (is_arith)
 +            quant += dirac_get_arith_int(c, CTX_DELTA_Q_F, CTX_DELTA_Q_DATA);
 +        else
 +            quant += dirac_get_se_golomb(gb);
 +        if (quant < 0) {
 +            av_log(s->avctx, AV_LOG_ERROR, "Invalid quant\n");
 +            return;
 +        }
 +        b->quant = quant;
 +    }
 +
 +    b->quant = FFMIN(b->quant, MAX_QUANT);
 +
 +    qfactor = qscale_tab[b->quant];
 +    /* TODO: context pointer? */
 +    if (!s->num_refs)
 +        qoffset = qoffset_intra_tab[b->quant];
 +    else
 +        qoffset = qoffset_inter_tab[b->quant];
 +
 +    buf = b->ibuf + top * b->stride;
 +    for (y = top; y < bottom; y++) {
 +        for (x = left; x < right; x++) {
 +            /* [DIRAC_STD] 13.4.4 Subband coefficients. coeff_unpack() */
 +            if (is_arith)
 +                coeff_unpack_arith(c, qfactor, qoffset, b, buf+x, x, y);
 +            else
 +                buf[x] = coeff_unpack_golomb(gb, qfactor, qoffset);
 +        }
 +        buf += b->stride;
 +    }
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.3 intra_dc_prediction(band)
 + */
 +static inline void intra_dc_prediction(SubBand *b)
 +{
 +    IDWTELEM *buf = b->ibuf;
 +    int x, y;
 +
 +    for (x = 1; x < b->width; x++)
 +        buf[x] += buf[x-1];
 +    buf += b->stride;
 +
 +    for (y = 1; y < b->height; y++) {
 +        buf[0] += buf[-b->stride];
 +
 +        for (x = 1; x < b->width; x++) {
 +            int pred = buf[x - 1] + buf[x - b->stride] + buf[x - b->stride-1];
 +            buf[x]  += divide3(pred);
 +        }
 +        buf += b->stride;
 +    }
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.4.2 Non-skipped subbands.  subband_coeffs()
 + */
 +static av_always_inline void decode_subband_internal(DiracContext *s, SubBand *b, int is_arith)
 +{
 +    int cb_x, cb_y, left, right, top, bottom;
 +    DiracArith c;
 +    GetBitContext gb;
 +    int cb_width  = s->codeblock[b->level + (b->orientation != subband_ll)].width;
 +    int cb_height = s->codeblock[b->level + (b->orientation != subband_ll)].height;
 +    int blockcnt_one = (cb_width + cb_height) == 2;
 +
 +    if (!b->length)
 +        return;
 +
 +    init_get_bits8(&gb, b->coeff_data, b->length);
 +
 +    if (is_arith)
 +        ff_dirac_init_arith_decoder(&c, &gb, b->length);
 +
 +    top = 0;
 +    for (cb_y = 0; cb_y < cb_height; cb_y++) {
 +        bottom = (b->height * (cb_y+1)) / cb_height;
 +        left = 0;
 +        for (cb_x = 0; cb_x < cb_width; cb_x++) {
 +            right = (b->width * (cb_x+1)) / cb_width;
 +            codeblock(s, b, &gb, &c, left, right, top, bottom, blockcnt_one, is_arith);
 +            left = right;
 +        }
 +        top = bottom;
 +    }
 +
 +    if (b->orientation == subband_ll && s->num_refs == 0)
 +        intra_dc_prediction(b);
 +}
 +
 +static int decode_subband_arith(AVCodecContext *avctx, void *b)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    decode_subband_internal(s, b, 1);
 +    return 0;
 +}
 +
 +static int decode_subband_golomb(AVCodecContext *avctx, void *arg)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    SubBand **b     = arg;
 +    decode_subband_internal(s, *b, 0);
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * [DIRAC_STD] 13.4.1 core_transform_data()
 + */
 +static void decode_component(DiracContext *s, int comp)
 +{
 +    AVCodecContext *avctx = s->avctx;
 +    SubBand *bands[3*MAX_DWT_LEVELS+1];
 +    enum dirac_subband orientation;
 +    int level, num_bands = 0;
 +
 +    /* Unpack all subbands at all levels. */
 +    for (level = 0; level < s->wavelet_depth; level++) {
 +        for (orientation = !!level; orientation < 4; orientation++) {
 +            SubBand *b = &s->plane[comp].band[level][orientation];
 +            bands[num_bands++] = b;
 +
 +            align_get_bits(&s->gb);
 +            /* [DIRAC_STD] 13.4.2 subband() */
 +            b->length = svq3_get_ue_golomb(&s->gb);
 +            if (b->length) {
 +                b->quant = svq3_get_ue_golomb(&s->gb);
 +                align_get_bits(&s->gb);
 +                b->coeff_data = s->gb.buffer + get_bits_count(&s->gb)/8;
 +                b->length = FFMIN(b->length, FFMAX(get_bits_left(&s->gb)/8, 0));
 +                skip_bits_long(&s->gb, b->length*8);
 +            }
 +        }
 +        /* arithmetic coding has inter-level dependencies, so we can only execute one level at a time */
 +        if (s->is_arith)
 +            avctx->execute(avctx, decode_subband_arith, &s->plane[comp].band[level][!!level],
 +                           NULL, 4-!!level, sizeof(SubBand));
 +    }
 +    /* golomb coding has no inter-level dependencies, so we can execute all subbands in parallel */
 +    if (!s->is_arith)
 +        avctx->execute(avctx, decode_subband_golomb, bands, NULL, num_bands, sizeof(SubBand*));
 +}
 +
 +/* [DIRAC_STD] 13.5.5.2 Luma slice subband data. luma_slice_band(level,orient,sx,sy) --> if b2 == NULL */
 +/* [DIRAC_STD] 13.5.5.3 Chroma slice subband data. chroma_slice_band(level,orient,sx,sy) --> if b2 != NULL */
 +static void lowdelay_subband(DiracContext *s, GetBitContext *gb, int quant,
 +                             int slice_x, int slice_y, int bits_end,
 +                             SubBand *b1, SubBand *b2)
 +{
 +    int left   = b1->width  * slice_x    / s->lowdelay.num_x;
 +    int right  = b1->width  *(slice_x+1) / s->lowdelay.num_x;
 +    int top    = b1->height * slice_y    / s->lowdelay.num_y;
 +    int bottom = b1->height *(slice_y+1) / s->lowdelay.num_y;
 +
 +    int qfactor = qscale_tab[FFMIN(quant, MAX_QUANT)];
 +    int qoffset = qoffset_intra_tab[FFMIN(quant, MAX_QUANT)];
 +
 +    IDWTELEM *buf1 =      b1->ibuf + top * b1->stride;
 +    IDWTELEM *buf2 = b2 ? b2->ibuf + top * b2->stride : NULL;
 +    int x, y;
 +    /* we have to constantly check for overread since the spec explicitly
 +       requires this, with the meaning that all remaining coeffs are set to 0 */
 +    if (get_bits_count(gb) >= bits_end)
 +        return;
 +
 +    for (y = top; y < bottom; y++) {
 +        for (x = left; x < right; x++) {
 +            buf1[x] = coeff_unpack_golomb(gb, qfactor, qoffset);
 +            if (get_bits_count(gb) >= bits_end)
 +                return;
 +            if (buf2) {
 +                buf2[x] = coeff_unpack_golomb(gb, qfactor, qoffset);
 +                if (get_bits_count(gb) >= bits_end)
 +                    return;
 +            }
 +        }
 +        buf1 += b1->stride;
 +        if (buf2)
 +            buf2 += b2->stride;
 +    }
 +}
 +
 +struct lowdelay_slice {
 +    GetBitContext gb;
 +    int slice_x;
 +    int slice_y;
 +    int bytes;
 +};
 +
 +
 +/**
 + * Dirac Specification ->
 + * 13.5.2 Slices. slice(sx,sy)
 + */
 +static int decode_lowdelay_slice(AVCodecContext *avctx, void *arg)
 +{
 +    DiracContext *s = avctx->priv_data;
 +    struct lowdelay_slice *slice = arg;
 +    GetBitContext *gb = &slice->gb;
 +    enum dirac_subband orientation;
 +    int level, quant, chroma_bits, chroma_end;
 +
 +    int quant_base  = get_bits(gb, 7); /*[DIRAC_STD] qindex */
 +    int length_bits = av_log2(8 * slice->bytes)+1;
 +    int luma_bits   = get_bits_long(gb, length_bits);
 +    int luma_end    = get_bits_count(gb) + FFMIN(luma_bits, get_bits_left(gb));
 +
 +    /* [DIRAC_STD] 13.5.5.2 luma_slice_band */
 +    for (level = 0; level < s->wavelet_depth; level++)
 +        for (orientation = !!level; orientation < 4; orientation++) {
 +            quant = FFMAX(quant_base - s->lowdelay.quant[level][orientation], 0);
 +            lowdelay_subband(s, gb, quant, slice->slice_x, slice->slice_y, luma_end,
 +                             &s->plane[0].band[level][orientation], NULL);
 +        }
 +
 +    /* consume any unused bits from luma */
 +    skip_bits_long(gb, get_bits_count(gb) - luma_end);
 +
 +    chroma_bits = 8*slice->bytes - 7 - length_bits - luma_bits;
 +    chroma_end  = get_bits_count(gb) + FFMIN(chroma_bits, get_bits_left(gb));
 +    /* [DIRAC_STD] 13.5.5.3 chroma_slice_band */
 +    for (level = 0; level < s->wavelet_depth; level++)
 +        for (orientation = !!level; orientation < 4; orientation++) {
 +            quant = FFMAX(quant_base - s->lowdelay.quant[level][orientation], 0);
 +            lowdelay_subband(s, gb, quant, slice->slice_x, slice->slice_y, chroma_end,
 +                             &s->plane[1].band[level][orientation],
 +                             &s->plane[2].band[level][orientation]);
 +        }
 +
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.5.1 low_delay_transform_data()
 + */
 +static void decode_lowdelay(DiracContext *s)
 +{
 +    AVCodecContext *avctx = s->avctx;
 +    int slice_x, slice_y, bytes, bufsize;
 +    const uint8_t *buf;
 +    struct lowdelay_slice *slices;
 +    int slice_num = 0;
 +
 +    slices = av_mallocz_array(s->lowdelay.num_x, s->lowdelay.num_y * sizeof(struct lowdelay_slice));
 +
 +    align_get_bits(&s->gb);
 +    /*[DIRAC_STD] 13.5.2 Slices. slice(sx,sy) */
 +    buf = s->gb.buffer + get_bits_count(&s->gb)/8;
 +    bufsize = get_bits_left(&s->gb);
 +
 +    for (slice_y = 0; bufsize > 0 && slice_y < s->lowdelay.num_y; slice_y++)
 +        for (slice_x = 0; bufsize > 0 && slice_x < s->lowdelay.num_x; slice_x++) {
 +            bytes = (slice_num+1) * s->lowdelay.bytes.num / s->lowdelay.bytes.den
 +                - slice_num    * s->lowdelay.bytes.num / s->lowdelay.bytes.den;
 +
 +            slices[slice_num].bytes   = bytes;
 +            slices[slice_num].slice_x = slice_x;
 +            slices[slice_num].slice_y = slice_y;
 +            init_get_bits(&slices[slice_num].gb, buf, bufsize);
 +            slice_num++;
 +
 +            buf     += bytes;
 +            bufsize -= bytes*8;
 +        }
 +
 +    avctx->execute(avctx, decode_lowdelay_slice, slices, NULL, slice_num,
 +                   sizeof(struct lowdelay_slice)); /* [DIRAC_STD] 13.5.2 Slices */
 +    intra_dc_prediction(&s->plane[0].band[0][0]);  /* [DIRAC_STD] 13.3 intra_dc_prediction() */
 +    intra_dc_prediction(&s->plane[1].band[0][0]);  /* [DIRAC_STD] 13.3 intra_dc_prediction() */
 +    intra_dc_prediction(&s->plane[2].band[0][0]);  /* [DIRAC_STD] 13.3 intra_dc_prediction() */
 +    av_free(slices);
 +}
 +
 +static void init_planes(DiracContext *s)
 +{
 +    int i, w, h, level, orientation;
 +
 +    for (i = 0; i < 3; i++) {
 +        Plane *p = &s->plane[i];
 +
 +        p->width       = s->source.width  >> (i ? s->chroma_x_shift : 0);
 +        p->height      = s->source.height >> (i ? s->chroma_y_shift : 0);
 +        p->idwt_width  = w = CALC_PADDING(p->width , s->wavelet_depth);
 +        p->idwt_height = h = CALC_PADDING(p->height, s->wavelet_depth);
 +        p->idwt_stride = FFALIGN(p->idwt_width, 8);
 +
 +        for (level = s->wavelet_depth-1; level >= 0; level--) {
 +            w = w>>1;
 +            h = h>>1;
 +            for (orientation = !!level; orientation < 4; orientation++) {
 +                SubBand *b = &p->band[level][orientation];
 +
 +                b->ibuf   = p->idwt_buf;
 +                b->level  = level;
 +                b->stride = p->idwt_stride << (s->wavelet_depth - level);
 +                b->width  = w;
 +                b->height = h;
 +                b->orientation = orientation;
 +
 +                if (orientation & 1)
 +                    b->ibuf += w;
 +                if (orientation > 1)
 +                    b->ibuf += b->stride>>1;
 +
 +                if (level)
 +                    b->parent = &p->band[level-1][orientation];
 +            }
 +        }
 +
 +        if (i > 0) {
 +            p->xblen = s->plane[0].xblen >> s->chroma_x_shift;
 +            p->yblen = s->plane[0].yblen >> s->chroma_y_shift;
 +            p->xbsep = s->plane[0].xbsep >> s->chroma_x_shift;
 +            p->ybsep = s->plane[0].ybsep >> s->chroma_y_shift;
 +        }
 +
 +        p->xoffset = (p->xblen - p->xbsep)/2;
 +        p->yoffset = (p->yblen - p->ybsep)/2;
 +    }
 +}
 +
 +/**
 + * Unpack the motion compensation parameters
 + * Dirac Specification ->
 + * 11.2 Picture prediction data. picture_prediction()
 + */
 +static int dirac_unpack_prediction_parameters(DiracContext *s)
 +{
 +    static const uint8_t default_blen[] = { 4, 12, 16, 24 };
 +    static const uint8_t default_bsep[] = { 4,  8, 12, 16 };
 +
 +    GetBitContext *gb = &s->gb;
 +    unsigned idx, ref;
 +
 +    align_get_bits(gb);
 +    /* [DIRAC_STD] 11.2.2 Block parameters. block_parameters() */
 +    /* Luma and Chroma are equal. 11.2.3 */
 +    idx = svq3_get_ue_golomb(gb); /* [DIRAC_STD] index */
 +
 +    if (idx > 4) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Block prediction index too high\n");
 +        return -1;
 +    }
 +
 +    if (idx == 0) {
 +        s->plane[0].xblen = svq3_get_ue_golomb(gb);
 +        s->plane[0].yblen = svq3_get_ue_golomb(gb);
 +        s->plane[0].xbsep = svq3_get_ue_golomb(gb);
 +        s->plane[0].ybsep = svq3_get_ue_golomb(gb);
 +    } else {
 +        /*[DIRAC_STD] preset_block_params(index). Table 11.1 */
 +        s->plane[0].xblen = default_blen[idx-1];
 +        s->plane[0].yblen = default_blen[idx-1];
 +        s->plane[0].xbsep = default_bsep[idx-1];
 +        s->plane[0].ybsep = default_bsep[idx-1];
 +    }
 +    /*[DIRAC_STD] 11.2.4 motion_data_dimensions()
 +      Calculated in function dirac_unpack_block_motion_data */
 +
 +    if (!s->plane[0].xbsep || !s->plane[0].ybsep || s->plane[0].xbsep < s->plane[0].xblen/2 || s->plane[0].ybsep < s->plane[0].yblen/2) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Block separation too small\n");
 +        return -1;
 +    }
 +    if (s->plane[0].xbsep > s->plane[0].xblen || s->plane[0].ybsep > s->plane[0].yblen) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Block separation greater than size\n");
 +        return -1;
 +    }
 +    if (FFMAX(s->plane[0].xblen, s->plane[0].yblen) > MAX_BLOCKSIZE) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Unsupported large block size\n");
 +        return -1;
 +    }
 +
 +    /*[DIRAC_STD] 11.2.5 Motion vector precision. motion_vector_precision()
 +      Read motion vector precision */
 +    s->mv_precision = svq3_get_ue_golomb(gb);
 +    if (s->mv_precision > 3) {
 +        av_log(s->avctx, AV_LOG_ERROR, "MV precision finer than eighth-pel\n");
 +        return -1;
 +    }
 +
 +    /*[DIRAC_STD] 11.2.6 Global motion. global_motion()
 +      Read the global motion compensation parameters */
 +    s->globalmc_flag = get_bits1(gb);
 +    if (s->globalmc_flag) {
 +        memset(s->globalmc, 0, sizeof(s->globalmc));
 +        /* [DIRAC_STD] pan_tilt(gparams) */
 +        for (ref = 0; ref < s->num_refs; ref++) {
 +            if (get_bits1(gb)) {
 +                s->globalmc[ref].pan_tilt[0] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].pan_tilt[1] = dirac_get_se_golomb(gb);
 +            }
 +            /* [DIRAC_STD] zoom_rotate_shear(gparams)
 +               zoom/rotation/shear parameters */
 +            if (get_bits1(gb)) {
 +                s->globalmc[ref].zrs_exp   = svq3_get_ue_golomb(gb);
 +                s->globalmc[ref].zrs[0][0] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].zrs[0][1] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].zrs[1][0] = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].zrs[1][1] = dirac_get_se_golomb(gb);
 +            } else {
 +                s->globalmc[ref].zrs[0][0] = 1;
 +                s->globalmc[ref].zrs[1][1] = 1;
 +            }
 +            /* [DIRAC_STD] perspective(gparams) */
 +            if (get_bits1(gb)) {
 +                s->globalmc[ref].perspective_exp = svq3_get_ue_golomb(gb);
 +                s->globalmc[ref].perspective[0]  = dirac_get_se_golomb(gb);
 +                s->globalmc[ref].perspective[1]  = dirac_get_se_golomb(gb);
 +            }
 +        }
 +    }
 +
 +    /*[DIRAC_STD] 11.2.7 Picture prediction mode. prediction_mode()
 +      Picture prediction mode, not currently used. */
 +    if (svq3_get_ue_golomb(gb)) {
 +        av_log(s->avctx, AV_LOG_ERROR, "Unknown picture prediction mode\n");
 +        return -1;
 +    }
 +
 +    /* [DIRAC_STD] 11.2.8 Reference picture weight. reference_picture_weights()
 +       just data read, weight calculation will be done later on. */
 +    s->weight_log2denom = 1;
 +    s->weight[0]        = 1;
 +    s->weight[1]        = 1;
 +
 +    if (get_bits1(gb)) {
 +        s->weight_log2denom = svq3_get_ue_golomb(gb);
 +        s->weight[0] = dirac_get_se_golomb(gb);
 +        if (s->num_refs == 2)
 +            s->weight[1] = dirac_get_se_golomb(gb);
 +    }
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 11.3 Wavelet transform data. wavelet_transform()
 + */
 +static int dirac_unpack_idwt_params(DiracContext *s)
 +{
 +    GetBitContext *gb = &s->gb;
 +    int i, level;
 +    unsigned tmp;
 +
 +#define CHECKEDREAD(dst, cond, errmsg) \
 +    tmp = svq3_get_ue_golomb(gb); \
 +    if (cond) { \
 +        av_log(s->avctx, AV_LOG_ERROR, errmsg); \
 +        return -1; \
 +    }\
 +    dst = tmp;
 +
 +    align_get_bits(gb);
 +
 +    s->zero_res = s->num_refs ? get_bits1(gb) : 0;
 +    if (s->zero_res)
 +        return 0;
 +
 +    /*[DIRAC_STD] 11.3.1 Transform parameters. transform_parameters() */
 +    CHECKEDREAD(s->wavelet_idx, tmp > 6, "wavelet_idx is too big\n")
 +
 +    CHECKEDREAD(s->wavelet_depth, tmp > MAX_DWT_LEVELS || tmp < 1, "invalid number of DWT decompositions\n")
 +
 +    if (!s->low_delay) {
 +        /* Codeblock parameters (core syntax only) */
 +        if (get_bits1(gb)) {
 +            for (i = 0; i <= s->wavelet_depth; i++) {
 +                CHECKEDREAD(s->codeblock[i].width , tmp < 1, "codeblock width invalid\n")
 +                CHECKEDREAD(s->codeblock[i].height, tmp < 1, "codeblock height invalid\n")
 +            }
 +
 +            CHECKEDREAD(s->codeblock_mode, tmp > 1, "unknown codeblock mode\n")
 +        } else
 +            for (i = 0; i <= s->wavelet_depth; i++)
 +                s->codeblock[i].width = s->codeblock[i].height = 1;
 +    } else {
 +        /* Slice parameters + quantization matrix*/
 +        /*[DIRAC_STD] 11.3.4 Slice coding Parameters (low delay syntax only). slice_parameters() */
 +        s->lowdelay.num_x     = svq3_get_ue_golomb(gb);
 +        s->lowdelay.num_y     = svq3_get_ue_golomb(gb);
 +        s->lowdelay.bytes.num = svq3_get_ue_golomb(gb);
 +        s->lowdelay.bytes.den = svq3_get_ue_golomb(gb);
 +
 +        if (s->lowdelay.bytes.den <= 0) {
 +            av_log(s->avctx,AV_LOG_ERROR,"Invalid lowdelay.bytes.den\n");
 +            return AVERROR_INVALIDDATA;
 +        }
 +
 +        /* [DIRAC_STD] 11.3.5 Quantisation matrices (low-delay syntax). quant_matrix() */
 +        if (get_bits1(gb)) {
 +            av_log(s->avctx,AV_LOG_DEBUG,"Low Delay: Has Custom Quantization Matrix!\n");
 +            /* custom quantization matrix */
 +            s->lowdelay.quant[0][0] = svq3_get_ue_golomb(gb);
 +            for (level = 0; level < s->wavelet_depth; level++) {
 +                s->lowdelay.quant[level][1] = svq3_get_ue_golomb(gb);
 +                s->lowdelay.quant[level][2] = svq3_get_ue_golomb(gb);
 +                s->lowdelay.quant[level][3] = svq3_get_ue_golomb(gb);
 +            }
 +        } else {
 +            if (s->wavelet_depth > 4) {
 +                av_log(s->avctx,AV_LOG_ERROR,"Mandatory custom low delay matrix missing for depth %d\n", s->wavelet_depth);
 +                return AVERROR_INVALIDDATA;
 +            }
 +            /* default quantization matrix */
 +            for (level = 0; level < s->wavelet_depth; level++)
 +                for (i = 0; i < 4; i++) {
 +                    s->lowdelay.quant[level][i] = default_qmat[s->wavelet_idx][level][i];
 +                    /* haar with no shift differs for different depths */
 +                    if (s->wavelet_idx == 3)
 +                        s->lowdelay.quant[level][i] += 4*(s->wavelet_depth-1 - level);
 +                }
 +        }
 +    }
 +    return 0;
 +}
 +
 +static inline int pred_sbsplit(uint8_t *sbsplit, int stride, int x, int y)
 +{
 +    static const uint8_t avgsplit[7] = { 0, 0, 1, 1, 1, 2, 2 };
 +
 +    if (!(x|y))
 +        return 0;
 +    else if (!y)
 +        return sbsplit[-1];
 +    else if (!x)
 +        return sbsplit[-stride];
 +
 +    return avgsplit[sbsplit[-1] + sbsplit[-stride] + sbsplit[-stride-1]];
 +}
 +
 +static inline int pred_block_mode(DiracBlock *block, int stride, int x, int y, int refmask)
 +{
 +    int pred;
 +
 +    if (!(x|y))
 +        return 0;
 +    else if (!y)
 +        return block[-1].ref & refmask;
 +    else if (!x)
 +        return block[-stride].ref & refmask;
 +
 +    /* return the majority */
 +    pred = (block[-1].ref & refmask) + (block[-stride].ref & refmask) + (block[-stride-1].ref & refmask);
 +    return (pred >> 1) & refmask;
 +}
 +
 +static inline void pred_block_dc(DiracBlock *block, int stride, int x, int y)
 +{
 +    int i, n = 0;
 +
 +    memset(block->u.dc, 0, sizeof(block->u.dc));
 +
 +    if (x && !(block[-1].ref & 3)) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += block[-1].u.dc[i];
 +        n++;
 +    }
 +
 +    if (y && !(block[-stride].ref & 3)) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += block[-stride].u.dc[i];
 +        n++;
 +    }
 +
 +    if (x && y && !(block[-1-stride].ref & 3)) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += block[-1-stride].u.dc[i];
 +        n++;
 +    }
 +
 +    if (n == 2) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] = (block->u.dc[i]+1)>>1;
 +    } else if (n == 3) {
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] = divide3(block->u.dc[i]);
 +    }
 +}
 +
 +static inline void pred_mv(DiracBlock *block, int stride, int x, int y, int ref)
 +{
 +    int16_t *pred[3];
 +    int refmask = ref+1;
 +    int mask = refmask | DIRAC_REF_MASK_GLOBAL; /*  exclude gmc blocks */
 +    int n = 0;
 +
 +    if (x && (block[-1].ref & mask) == refmask)
 +        pred[n++] = block[-1].u.mv[ref];
 +
 +    if (y && (block[-stride].ref & mask) == refmask)
 +        pred[n++] = block[-stride].u.mv[ref];
 +
 +    if (x && y && (block[-stride-1].ref & mask) == refmask)
 +        pred[n++] = block[-stride-1].u.mv[ref];
 +
 +    switch (n) {
 +    case 0:
 +        block->u.mv[ref][0] = 0;
 +        block->u.mv[ref][1] = 0;
 +        break;
 +    case 1:
 +        block->u.mv[ref][0] = pred[0][0];
 +        block->u.mv[ref][1] = pred[0][1];
 +        break;
 +    case 2:
 +        block->u.mv[ref][0] = (pred[0][0] + pred[1][0] + 1) >> 1;
 +        block->u.mv[ref][1] = (pred[0][1] + pred[1][1] + 1) >> 1;
 +        break;
 +    case 3:
 +        block->u.mv[ref][0] = mid_pred(pred[0][0], pred[1][0], pred[2][0]);
 +        block->u.mv[ref][1] = mid_pred(pred[0][1], pred[1][1], pred[2][1]);
 +        break;
 +    }
 +}
 +
 +static void global_mv(DiracContext *s, DiracBlock *block, int x, int y, int ref)
 +{
 +    int ez      = s->globalmc[ref].zrs_exp;
 +    int ep      = s->globalmc[ref].perspective_exp;
 +    int (*A)[2] = s->globalmc[ref].zrs;
 +    int *b      = s->globalmc[ref].pan_tilt;
 +    int *c      = s->globalmc[ref].perspective;
 +
 +    int m       = (1<<ep) - (c[0]*x + c[1]*y);
 +    int mx      = m * ((A[0][0] * x + A[0][1]*y) + (1<<ez) * b[0]);
 +    int my      = m * ((A[1][0] * x + A[1][1]*y) + (1<<ez) * b[1]);
 +
 +    block->u.mv[ref][0] = (mx + (1<<(ez+ep))) >> (ez+ep);
 +    block->u.mv[ref][1] = (my + (1<<(ez+ep))) >> (ez+ep);
 +}
 +
 +static void decode_block_params(DiracContext *s, DiracArith arith[8], DiracBlock *block,
 +                                int stride, int x, int y)
 +{
 +    int i;
 +
 +    block->ref  = pred_block_mode(block, stride, x, y, DIRAC_REF_MASK_REF1);
 +    block->ref ^= dirac_get_arith_bit(arith, CTX_PMODE_REF1);
 +
 +    if (s->num_refs == 2) {
 +        block->ref |= pred_block_mode(block, stride, x, y, DIRAC_REF_MASK_REF2);
 +        block->ref ^= dirac_get_arith_bit(arith, CTX_PMODE_REF2) << 1;
 +    }
 +
 +    if (!block->ref) {
 +        pred_block_dc(block, stride, x, y);
 +        for (i = 0; i < 3; i++)
 +            block->u.dc[i] += dirac_get_arith_int(arith+1+i, CTX_DC_F1, CTX_DC_DATA);
 +        return;
 +    }
 +
 +    if (s->globalmc_flag) {
 +        block->ref |= pred_block_mode(block, stride, x, y, DIRAC_REF_MASK_GLOBAL);
 +        block->ref ^= dirac_get_arith_bit(arith, CTX_GLOBAL_BLOCK) << 2;
 +    }
 +
 +    for (i = 0; i < s->num_refs; i++)
 +        if (block->ref & (i+1)) {
 +            if (block->ref & DIRAC_REF_MASK_GLOBAL) {
 +                global_mv(s, block, x, y, i);
 +            } else {
 +                pred_mv(block, stride, x, y, i);
 +                block->u.mv[i][0] += dirac_get_arith_int(arith + 4 + 2 * i, CTX_MV_F1, CTX_MV_DATA);
 +                block->u.mv[i][1] += dirac_get_arith_int(arith + 5 + 2 * i, CTX_MV_F1, CTX_MV_DATA);
 +            }
 +        }
 +}
 +
 +/**
 + * Copies the current block to the other blocks covered by the current superblock split mode
 + */
 +static void propagate_block_data(DiracBlock *block, int stride, int size)
 +{
 +    int x, y;
 +    DiracBlock *dst = block;
 +
 +    for (x = 1; x < size; x++)
 +        dst[x] = *block;
 +
 +    for (y = 1; y < size; y++) {
 +        dst += stride;
 +        for (x = 0; x < size; x++)
 +            dst[x] = *block;
 +    }
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 12. Block motion data syntax
 + */
 +static int dirac_unpack_block_motion_data(DiracContext *s)
 +{
 +    GetBitContext *gb = &s->gb;
 +    uint8_t *sbsplit = s->sbsplit;
 +    int i, x, y, q, p;
 +    DiracArith arith[8];
 +
 +    align_get_bits(gb);
 +
 +    /* [DIRAC_STD] 11.2.4 and 12.2.1 Number of blocks and superblocks */
 +    s->sbwidth  = DIVRNDUP(s->source.width,  4*s->plane[0].xbsep);
 +    s->sbheight = DIVRNDUP(s->source.height, 4*s->plane[0].ybsep);
 +    s->blwidth  = 4 * s->sbwidth;
 +    s->blheight = 4 * s->sbheight;
 +
 +    /* [DIRAC_STD] 12.3.1 Superblock splitting modes. superblock_split_modes()
 +       decode superblock split modes */
 +    ff_dirac_init_arith_decoder(arith, gb, svq3_get_ue_golomb(gb));     /* svq3_get_ue_golomb(gb) is the length */
 +    for (y = 0; y < s->sbheight; y++) {
 +        for (x = 0; x < s->sbwidth; x++) {
 +            unsigned int split  = dirac_get_arith_uint(arith, CTX_SB_F1, CTX_SB_DATA);
 +            if (split > 2)
 +                return -1;
 +            sbsplit[x] = (split + pred_sbsplit(sbsplit+x, s->sbwidth, x, y)) % 3;
 +        }
 +        sbsplit += s->sbwidth;
 +    }
 +
 +    /* setup arith decoding */
 +    ff_dirac_init_arith_decoder(arith, gb, svq3_get_ue_golomb(gb));
 +    for (i = 0; i < s->num_refs; i++) {
 +        ff_dirac_init_arith_decoder(arith + 4 + 2 * i, gb, svq3_get_ue_golomb(gb));
 +        ff_dirac_init_arith_decoder(arith + 5 + 2 * i, gb, svq3_get_ue_golomb(gb));
 +    }
 +    for (i = 0; i < 3; i++)
 +        ff_dirac_init_arith_decoder(arith+1+i, gb, svq3_get_ue_golomb(gb));
 +
 +    for (y = 0; y < s->sbheight; y++)
 +        for (x = 0; x < s->sbwidth; x++) {
 +            int blkcnt = 1 << s->sbsplit[y * s->sbwidth + x];
 +            int step   = 4 >> s->sbsplit[y * s->sbwidth + x];
 +
 +            for (q = 0; q < blkcnt; q++)
 +                for (p = 0; p < blkcnt; p++) {
 +                    int bx = 4 * x + p*step;
 +                    int by = 4 * y + q*step;
 +                    DiracBlock *block = &s->blmotion[by*s->blwidth + bx];
 +                    decode_block_params(s, arith, block, s->blwidth, bx, by);
 +                    propagate_block_data(block, s->blwidth, step);
 +                }
 +        }
 +
 +    return 0;
 +}
 +
 +static int weight(int i, int blen, int offset)
 +{
 +#define ROLLOFF(i) offset == 1 ? ((i) ? 5 : 3) :        \
 +    (1 + (6*(i) + offset - 1) / (2*offset - 1))
 +
 +    if (i < 2*offset)
 +        return ROLLOFF(i);
 +    else if (i > blen-1 - 2*offset)
 +        return ROLLOFF(blen-1 - i);
 +    return 8;
 +}
 +
 +static void init_obmc_weight_row(Plane *p, uint8_t *obmc_weight, int stride,
 +                                 int left, int right, int wy)
 +{
 +    int x;
 +    for (x = 0; left && x < p->xblen >> 1; x++)
 +        obmc_weight[x] = wy*8;
 +    for (; x < p->xblen >> right; x++)
 +        obmc_weight[x] = wy*weight(x, p->xblen, p->xoffset);
 +    for (; x < p->xblen; x++)
 +        obmc_weight[x] = wy*8;
 +    for (; x < stride; x++)
 +        obmc_weight[x] = 0;
 +}
 +
 +static void init_obmc_weight(Plane *p, uint8_t *obmc_weight, int stride,
 +                             int left, int right, int top, int bottom)
 +{
 +    int y;
 +    for (y = 0; top && y < p->yblen >> 1; y++) {
 +        init_obmc_weight_row(p, obmc_weight, stride, left, right, 8);
 +        obmc_weight += stride;
 +    }
 +    for (; y < p->yblen >> bottom; y++) {
 +        int wy = weight(y, p->yblen, p->yoffset);
 +        init_obmc_weight_row(p, obmc_weight, stride, left, right, wy);
 +        obmc_weight += stride;
 +    }
 +    for (; y < p->yblen; y++) {
 +        init_obmc_weight_row(p, obmc_weight, stride, left, right, 8);
 +        obmc_weight += stride;
 +    }
 +}
 +
 +static void init_obmc_weights(DiracContext *s, Plane *p, int by)
 +{
 +    int top = !by;
 +    int bottom = by == s->blheight-1;
 +
 +    /* don't bother re-initing for rows 2 to blheight-2, the weights don't change */
 +    if (top || bottom || by == 1) {
 +        init_obmc_weight(p, s->obmc_weight[0], MAX_BLOCKSIZE, 1, 0, top, bottom);
 +        init_obmc_weight(p, s->obmc_weight[1], MAX_BLOCKSIZE, 0, 0, top, bottom);
 +        init_obmc_weight(p, s->obmc_weight[2], MAX_BLOCKSIZE, 0, 1, top, bottom);
 +    }
 +}
 +
 +static const uint8_t epel_weights[4][4][4] = {
 +    {{ 16,  0,  0,  0 },
 +     { 12,  4,  0,  0 },
 +     {  8,  8,  0,  0 },
 +     {  4, 12,  0,  0 }},
 +    {{ 12,  0,  4,  0 },
 +     {  9,  3,  3,  1 },
 +     {  6,  6,  2,  2 },
 +     {  3,  9,  1,  3 }},
 +    {{  8,  0,  8,  0 },
 +     {  6,  2,  6,  2 },
 +     {  4,  4,  4,  4 },
 +     {  2,  6,  2,  6 }},
 +    {{  4,  0, 12,  0 },
 +     {  3,  1,  9,  3 },
 +     {  2,  2,  6,  6 },
 +     {  1,  3,  3,  9 }}
 +};
 +
 +/**
 + * For block x,y, determine which of the hpel planes to do bilinear
 + * interpolation from and set src[] to the location in each hpel plane
 + * to MC from.
 + *
 + * @return the index of the put_dirac_pixels_tab function to use
 + *  0 for 1 plane (fpel,hpel), 1 for 2 planes (qpel), 2 for 4 planes (qpel), and 3 for epel
 + */
 +static int mc_subpel(DiracContext *s, DiracBlock *block, const uint8_t *src[5],
 +                     int x, int y, int ref, int plane)
 +{
 +    Plane *p = &s->plane[plane];
 +    uint8_t **ref_hpel = s->ref_pics[ref]->hpel[plane];
 +    int motion_x = block->u.mv[ref][0];
 +    int motion_y = block->u.mv[ref][1];
 +    int mx, my, i, epel, nplanes = 0;
 +
 +    if (plane) {
 +        motion_x >>= s->chroma_x_shift;
 +        motion_y >>= s->chroma_y_shift;
 +    }
 +
 +    mx         = motion_x & ~(-1U << s->mv_precision);
 +    my         = motion_y & ~(-1U << s->mv_precision);
 +    motion_x >>= s->mv_precision;
 +    motion_y >>= s->mv_precision;
 +    /* normalize subpel coordinates to epel */
 +    /* TODO: template this function? */
 +    mx      <<= 3 - s->mv_precision;
 +    my      <<= 3 - s->mv_precision;
 +
 +    x += motion_x;
 +    y += motion_y;
 +    epel = (mx|my)&1;
 +
 +    /* hpel position */
 +    if (!((mx|my)&3)) {
 +        nplanes = 1;
 +        src[0] = ref_hpel[(my>>1)+(mx>>2)] + y*p->stride + x;
 +    } else {
 +        /* qpel or epel */
 +        nplanes = 4;
 +        for (i = 0; i < 4; i++)
 +            src[i] = ref_hpel[i] + y*p->stride + x;
 +
 +        /* if we're interpolating in the right/bottom halves, adjust the planes as needed
 +           we increment x/y because the edge changes for half of the pixels */
 +        if (mx > 4) {
 +            src[0] += 1;
 +            src[2] += 1;
 +            x++;
 +        }
 +        if (my > 4) {
 +            src[0] += p->stride;
 +            src[1] += p->stride;
 +            y++;
 +        }
 +
 +        /* hpel planes are:
 +           [0]: F  [1]: H
 +           [2]: V  [3]: C */
 +        if (!epel) {
 +            /* check if we really only need 2 planes since either mx or my is
 +               a hpel position. (epel weights of 0 handle this there) */
 +            if (!(mx&3)) {
 +                /* mx == 0: average [0] and [2]
 +                   mx == 4: average [1] and [3] */
 +                src[!mx] = src[2 + !!mx];
 +                nplanes = 2;
 +            } else if (!(my&3)) {
 +                src[0] = src[(my>>1)  ];
 +                src[1] = src[(my>>1)+1];
 +                nplanes = 2;
 +            }
 +        } else {
 +            /* adjust the ordering if needed so the weights work */
 +            if (mx > 4) {
 +                FFSWAP(const uint8_t *, src[0], src[1]);
 +                FFSWAP(const uint8_t *, src[2], src[3]);
 +            }
 +            if (my > 4) {
 +                FFSWAP(const uint8_t *, src[0], src[2]);
 +                FFSWAP(const uint8_t *, src[1], src[3]);
 +            }
 +            src[4] = epel_weights[my&3][mx&3];
 +        }
 +    }
 +
 +    /* fixme: v/h _edge_pos */
 +    if (x + p->xblen > p->width +EDGE_WIDTH/2 ||
 +        y + p->yblen > p->height+EDGE_WIDTH/2 ||
 +        x < 0 || y < 0) {
 +        for (i = 0; i < nplanes; i++) {
 +            ff_emulated_edge_mc(s->edge_emu_buffer[i], src[i],
 +                                p->stride, p->stride,
 +                                p->xblen, p->yblen, x, y,
 +                                p->width+EDGE_WIDTH/2, p->height+EDGE_WIDTH/2);
 +            src[i] = s->edge_emu_buffer[i];
 +        }
 +    }
 +    return (nplanes>>1) + epel;
 +}
 +
 +static void add_dc(uint16_t *dst, int dc, int stride,
 +                   uint8_t *obmc_weight, int xblen, int yblen)
 +{
 +    int x, y;
 +    dc += 128;
 +
 +    for (y = 0; y < yblen; y++) {
 +        for (x = 0; x < xblen; x += 2) {
 +            dst[x  ] += dc * obmc_weight[x  ];
 +            dst[x+1] += dc * obmc_weight[x+1];
 +        }
 +        dst          += stride;
 +        obmc_weight  += MAX_BLOCKSIZE;
 +    }
 +}
 +
 +static void block_mc(DiracContext *s, DiracBlock *block,
 +                     uint16_t *mctmp, uint8_t *obmc_weight,
 +                     int plane, int dstx, int dsty)
 +{
 +    Plane *p = &s->plane[plane];
 +    const uint8_t *src[5];
 +    int idx;
 +
 +    switch (block->ref&3) {
 +    case 0: /* DC */
 +        add_dc(mctmp, block->u.dc[plane], p->stride, obmc_weight, p->xblen, p->yblen);
 +        return;
 +    case 1:
 +    case 2:
 +        idx = mc_subpel(s, block, src, dstx, dsty, (block->ref&3)-1, plane);
 +        s->put_pixels_tab[idx](s->mcscratch, src, p->stride, p->yblen);
 +        if (s->weight_func)
 +            s->weight_func(s->mcscratch, p->stride, s->weight_log2denom,
 +                           s->weight[0] + s->weight[1], p->yblen);
 +        break;
 +    case 3:
 +        idx = mc_subpel(s, block, src, dstx, dsty, 0, plane);
 +        s->put_pixels_tab[idx](s->mcscratch, src, p->stride, p->yblen);
 +        idx = mc_subpel(s, block, src, dstx, dsty, 1, plane);
 +        if (s->biweight_func) {
 +            /* fixme: +32 is a quick hack */
 +            s->put_pixels_tab[idx](s->mcscratch + 32, src, p->stride, p->yblen);
 +            s->biweight_func(s->mcscratch, s->mcscratch+32, p->stride, s->weight_log2denom,
 +                             s->weight[0], s->weight[1], p->yblen);
 +        } else
 +            s->avg_pixels_tab[idx](s->mcscratch, src, p->stride, p->yblen);
 +        break;
 +    }
 +    s->add_obmc(mctmp, s->mcscratch, p->stride, obmc_weight, p->yblen);
 +}
 +
 +static void mc_row(DiracContext *s, DiracBlock *block, uint16_t *mctmp, int plane, int dsty)
 +{
 +    Plane *p = &s->plane[plane];
 +    int x, dstx = p->xbsep - p->xoffset;
 +
 +    block_mc(s, block, mctmp, s->obmc_weight[0], plane, -p->xoffset, dsty);
 +    mctmp += p->xbsep;
 +
 +    for (x = 1; x < s->blwidth-1; x++) {
 +        block_mc(s, block+x, mctmp, s->obmc_weight[1], plane, dstx, dsty);
 +        dstx  += p->xbsep;
 +        mctmp += p->xbsep;
 +    }
 +    block_mc(s, block+x, mctmp, s->obmc_weight[2], plane, dstx, dsty);
 +}
 +
 +static void select_dsp_funcs(DiracContext *s, int width, int height, int xblen, int yblen)
 +{
 +    int idx = 0;
 +    if (xblen > 8)
 +        idx = 1;
 +    if (xblen > 16)
 +        idx = 2;
 +
 +    memcpy(s->put_pixels_tab, s->diracdsp.put_dirac_pixels_tab[idx], sizeof(s->put_pixels_tab));
 +    memcpy(s->avg_pixels_tab, s->diracdsp.avg_dirac_pixels_tab[idx], sizeof(s->avg_pixels_tab));
 +    s->add_obmc = s->diracdsp.add_dirac_obmc[idx];
 +    if (s->weight_log2denom > 1 || s->weight[0] != 1 || s->weight[1] != 1) {
 +        s->weight_func   = s->diracdsp.weight_dirac_pixels_tab[idx];
 +        s->biweight_func = s->diracdsp.biweight_dirac_pixels_tab[idx];
 +    } else {
 +        s->weight_func   = NULL;
 +        s->biweight_func = NULL;
 +    }
 +}
 +
 +static void interpolate_refplane(DiracContext *s, DiracFrame *ref, int plane, int width, int height)
 +{
 +    /* chroma allocates an edge of 8 when subsampled
 +       which for 4:2:2 means an h edge of 16 and v edge of 8
 +       just use 8 for everything for the moment */
 +    int i, edge = EDGE_WIDTH/2;
 +
 +    ref->hpel[plane][0] = ref->avframe->data[plane];
-         s->dsp.draw_edges(ref->hpel[plane][1], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
-         s->dsp.draw_edges(ref->hpel[plane][2], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
-         s->dsp.draw_edges(ref->hpel[plane][3], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
++    s->mpvencdsp.draw_edges(ref->hpel[plane][0], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM); /* EDGE_TOP | EDGE_BOTTOM values just copied to make it build, this needs to be ensured */
 +
 +    /* no need for hpel if we only have fpel vectors */
 +    if (!s->mv_precision)
 +        return;
 +
 +    for (i = 1; i < 4; i++) {
 +        if (!ref->hpel_base[plane][i])
 +            ref->hpel_base[plane][i] = av_malloc((height+2*edge) * ref->avframe->linesize[plane] + 32);
 +        /* we need to be 16-byte aligned even for chroma */
 +        ref->hpel[plane][i] = ref->hpel_base[plane][i] + edge*ref->avframe->linesize[plane] + 16;
 +    }
 +
 +    if (!ref->interpolated[plane]) {
 +        s->diracdsp.dirac_hpel_filter(ref->hpel[plane][1], ref->hpel[plane][2],
 +                                      ref->hpel[plane][3], ref->hpel[plane][0],
 +                                      ref->avframe->linesize[plane], width, height);
++        s->mpvencdsp.draw_edges(ref->hpel[plane][1], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
++        s->mpvencdsp.draw_edges(ref->hpel[plane][2], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
++        s->mpvencdsp.draw_edges(ref->hpel[plane][3], ref->avframe->linesize[plane], width, height, edge, edge, EDGE_TOP | EDGE_BOTTOM);
 +    }
 +    ref->interpolated[plane] = 1;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 13.0 Transform data syntax. transform_data()
 + */
 +static int dirac_decode_frame_internal(DiracContext *s)
 +{
 +    DWTContext d;
 +    int y, i, comp, dsty;
 +
 +    if (s->low_delay) {
 +        /* [DIRAC_STD] 13.5.1 low_delay_transform_data() */
 +        for (comp = 0; comp < 3; comp++) {
 +            Plane *p = &s->plane[comp];
 +            memset(p->idwt_buf, 0, p->idwt_stride * p->idwt_height * sizeof(IDWTELEM));
 +        }
 +        if (!s->zero_res)
 +            decode_lowdelay(s);
 +    }
 +
 +    for (comp = 0; comp < 3; comp++) {
 +        Plane *p       = &s->plane[comp];
 +        uint8_t *frame = s->current_picture->avframe->data[comp];
 +
 +        /* FIXME: small resolutions */
 +        for (i = 0; i < 4; i++)
 +            s->edge_emu_buffer[i] = s->edge_emu_buffer_base + i*FFALIGN(p->width, 16);
 +
 +        if (!s->zero_res && !s->low_delay)
 +        {
 +            memset(p->idwt_buf, 0, p->idwt_stride * p->idwt_height * sizeof(IDWTELEM));
 +            decode_component(s, comp); /* [DIRAC_STD] 13.4.1 core_transform_data() */
 +        }
 +        if (ff_spatial_idwt_init2(&d, p->idwt_buf, p->idwt_width, p->idwt_height, p->idwt_stride,
 +                                  s->wavelet_idx+2, s->wavelet_depth, p->idwt_tmp))
 +            return -1;
 +
 +        if (!s->num_refs) { /* intra */
 +            for (y = 0; y < p->height; y += 16) {
 +                ff_spatial_idwt_slice2(&d, y+16); /* decode */
 +                s->diracdsp.put_signed_rect_clamped(frame + y*p->stride, p->stride,
 +                                                    p->idwt_buf + y*p->idwt_stride, p->idwt_stride, p->width, 16);
 +            }
 +        } else { /* inter */
 +            int rowheight = p->ybsep*p->stride;
 +
 +            select_dsp_funcs(s, p->width, p->height, p->xblen, p->yblen);
 +
 +            for (i = 0; i < s->num_refs; i++)
 +                interpolate_refplane(s, s->ref_pics[i], comp, p->width, p->height);
 +
 +            memset(s->mctmp, 0, 4*p->yoffset*p->stride);
 +
 +            dsty = -p->yoffset;
 +            for (y = 0; y < s->blheight; y++) {
 +                int h     = 0,
 +                    start = FFMAX(dsty, 0);
 +                uint16_t *mctmp    = s->mctmp + y*rowheight;
 +                DiracBlock *blocks = s->blmotion + y*s->blwidth;
 +
 +                init_obmc_weights(s, p, y);
 +
 +                if (y == s->blheight-1 || start+p->ybsep > p->height)
 +                    h = p->height - start;
 +                else
 +                    h = p->ybsep - (start - dsty);
 +                if (h < 0)
 +                    break;
 +
 +                memset(mctmp+2*p->yoffset*p->stride, 0, 2*rowheight);
 +                mc_row(s, blocks, mctmp, comp, dsty);
 +
 +                mctmp += (start - dsty)*p->stride + p->xoffset;
 +                ff_spatial_idwt_slice2(&d, start + h); /* decode */
 +                s->diracdsp.add_rect_clamped(frame + start*p->stride, mctmp, p->stride,
 +                                             p->idwt_buf + start*p->idwt_stride, p->idwt_stride, p->width, h);
 +
 +                dsty += p->ybsep;
 +            }
 +        }
 +    }
 +
 +
 +    return 0;
 +}
 +
 +static int get_buffer_with_edge(AVCodecContext *avctx, AVFrame *f, int flags)
 +{
 +    int ret, i;
 +    int chroma_x_shift, chroma_y_shift;
 +    avcodec_get_chroma_sub_sample(avctx->pix_fmt, &chroma_x_shift, &chroma_y_shift);
 +
 +    f->width  = avctx->width  + 2 * EDGE_WIDTH;
 +    f->height = avctx->height + 2 * EDGE_WIDTH + 2;
 +    ret = ff_get_buffer(avctx, f, flags);
 +    if (ret < 0)
 +        return ret;
 +
 +    for (i = 0; f->data[i]; i++) {
 +        int offset = (EDGE_WIDTH >> (i && i<3 ? chroma_y_shift : 0)) *
 +                     f->linesize[i] + 32;
 +        f->data[i] += offset;
 +    }
 +    f->width  = avctx->width;
 +    f->height = avctx->height;
 +
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 11.1.1 Picture Header. picture_header()
 + */
 +static int dirac_decode_picture_header(DiracContext *s)
 +{
 +    int retire, picnum;
 +    int i, j, refnum, refdist;
 +    GetBitContext *gb = &s->gb;
 +
 +    /* [DIRAC_STD] 11.1.1 Picture Header. picture_header() PICTURE_NUM */
 +    picnum = s->current_picture->avframe->display_picture_number = get_bits_long(gb, 32);
 +
 +
 +    av_log(s->avctx,AV_LOG_DEBUG,"PICTURE_NUM: %d\n",picnum);
 +
 +    /* if this is the first keyframe after a sequence header, start our
 +       reordering from here */
 +    if (s->frame_number < 0)
 +        s->frame_number = picnum;
 +
 +    s->ref_pics[0] = s->ref_pics[1] = NULL;
 +    for (i = 0; i < s->num_refs; i++) {
 +        refnum = picnum + dirac_get_se_golomb(gb);
 +        refdist = INT_MAX;
 +
 +        /* find the closest reference to the one we want */
 +        /* Jordi: this is needed if the referenced picture hasn't yet arrived */
 +        for (j = 0; j < MAX_REFERENCE_FRAMES && refdist; j++)
 +            if (s->ref_frames[j]
 +                && FFABS(s->ref_frames[j]->avframe->display_picture_number - refnum) < refdist) {
 +                s->ref_pics[i] = s->ref_frames[j];
 +                refdist = FFABS(s->ref_frames[j]->avframe->display_picture_number - refnum);
 +            }
 +
 +        if (!s->ref_pics[i] || refdist)
 +            av_log(s->avctx, AV_LOG_DEBUG, "Reference not found\n");
 +
 +        /* if there were no references at all, allocate one */
 +        if (!s->ref_pics[i])
 +            for (j = 0; j < MAX_FRAMES; j++)
 +                if (!s->all_frames[j].avframe->data[0]) {
 +                    s->ref_pics[i] = &s->all_frames[j];
 +                    get_buffer_with_edge(s->avctx, s->ref_pics[i]->avframe, AV_GET_BUFFER_FLAG_REF);
 +                    break;
 +                }
 +    }
 +
 +    /* retire the reference frames that are not used anymore */
 +    if (s->current_picture->avframe->reference) {
 +        retire = picnum + dirac_get_se_golomb(gb);
 +        if (retire != picnum) {
 +            DiracFrame *retire_pic = remove_frame(s->ref_frames, retire);
 +
 +            if (retire_pic)
 +                retire_pic->avframe->reference &= DELAYED_PIC_REF;
 +            else
 +                av_log(s->avctx, AV_LOG_DEBUG, "Frame to retire not found\n");
 +        }
 +
 +        /* if reference array is full, remove the oldest as per the spec */
 +        while (add_frame(s->ref_frames, MAX_REFERENCE_FRAMES, s->current_picture)) {
 +            av_log(s->avctx, AV_LOG_ERROR, "Reference frame overflow\n");
 +            remove_frame(s->ref_frames, s->ref_frames[0]->avframe->display_picture_number)->avframe->reference &= DELAYED_PIC_REF;
 +        }
 +    }
 +
 +    if (s->num_refs) {
 +        if (dirac_unpack_prediction_parameters(s))  /* [DIRAC_STD] 11.2 Picture Prediction Data. picture_prediction() */
 +            return -1;
 +        if (dirac_unpack_block_motion_data(s))      /* [DIRAC_STD] 12. Block motion data syntax                       */
 +            return -1;
 +    }
 +    if (dirac_unpack_idwt_params(s))                /* [DIRAC_STD] 11.3 Wavelet transform data                        */
 +        return -1;
 +
 +    init_planes(s);
 +    return 0;
 +}
 +
 +static int get_delayed_pic(DiracContext *s, AVFrame *picture, int *got_frame)
 +{
 +    DiracFrame *out = s->delay_frames[0];
 +    int i, out_idx  = 0;
 +    int ret;
 +
 +    /* find frame with lowest picture number */
 +    for (i = 1; s->delay_frames[i]; i++)
 +        if (s->delay_frames[i]->avframe->display_picture_number < out->avframe->display_picture_number) {
 +            out     = s->delay_frames[i];
 +            out_idx = i;
 +        }
 +
 +    for (i = out_idx; s->delay_frames[i]; i++)
 +        s->delay_frames[i] = s->delay_frames[i+1];
 +
 +    if (out) {
 +        out->avframe->reference ^= DELAYED_PIC_REF;
 +        *got_frame = 1;
 +        if((ret = av_frame_ref(picture, out->avframe)) < 0)
 +            return ret;
 +    }
 +
 +    return 0;
 +}
 +
 +/**
 + * Dirac Specification ->
 + * 9.6 Parse Info Header Syntax. parse_info()
 + * 4 byte start code + byte parse code + 4 byte size + 4 byte previous size
 + */
 +#define DATA_UNIT_HEADER_SIZE 13
 +
 +/* [DIRAC_STD] dirac_decode_data_unit makes reference to the while defined in 9.3
 +   inside the function parse_sequence() */
 +static int dirac_decode_data_unit(AVCodecContext *avctx, const uint8_t *buf, int size)
 +{
 +    DiracContext *s   = avctx->priv_data;
 +    DiracFrame *pic   = NULL;
 +    int ret, i, parse_code = buf[4];
 +    unsigned tmp;
 +
 +    if (size < DATA_UNIT_HEADER_SIZE)
 +        return -1;
 +
 +    init_get_bits(&s->gb, &buf[13], 8*(size - DATA_UNIT_HEADER_SIZE));
 +
 +    if (parse_code == pc_seq_header) {
 +        if (s->seen_sequence_header)
 +            return 0;
 +
 +        /* [DIRAC_STD] 10. Sequence header */
 +        if (avpriv_dirac_parse_sequence_header(avctx, &s->gb, &s->source))
 +            return -1;
 +
 +        avcodec_get_chroma_sub_sample(avctx->pix_fmt, &s->chroma_x_shift, &s->chroma_y_shift);
 +
 +        if (alloc_sequence_buffers(s))
 +            return -1;
 +
 +        s->seen_sequence_header = 1;
 +    } else if (parse_code == pc_eos) { /* [DIRAC_STD] End of Sequence */
 +        free_sequence_buffers(s);
 +        s->seen_sequence_header = 0;
 +    } else if (parse_code == pc_aux_data) {
 +        if (buf[13] == 1) {     /* encoder implementation/version */
 +            int ver[3];
 +            /* versions older than 1.0.8 don't store quant delta for
 +               subbands with only one codeblock */
 +            if (sscanf(buf+14, "Schroedinger %d.%d.%d", ver, ver+1, ver+2) == 3)
 +                if (ver[0] == 1 && ver[1] == 0 && ver[2] <= 7)
 +                    s->old_delta_quant = 1;
 +        }
 +    } else if (parse_code & 0x8) {  /* picture data unit */
 +        if (!s->seen_sequence_header) {
 +            av_log(avctx, AV_LOG_DEBUG, "Dropping frame without sequence header\n");
 +            return -1;
 +        }
 +
 +        /* find an unused frame */
 +        for (i = 0; i < MAX_FRAMES; i++)
 +            if (s->all_frames[i].avframe->data[0] == NULL)
 +                pic = &s->all_frames[i];
 +        if (!pic) {
 +            av_log(avctx, AV_LOG_ERROR, "framelist full\n");
 +            return -1;
 +        }
 +
 +        av_frame_unref(pic->avframe);
 +
 +        /* [DIRAC_STD] Defined in 9.6.1 ... */
 +        tmp            =  parse_code & 0x03;                   /* [DIRAC_STD] num_refs()      */
 +        if (tmp > 2) {
 +            av_log(avctx, AV_LOG_ERROR, "num_refs of 3\n");
 +            return -1;
 +        }
 +        s->num_refs    = tmp;
 +        s->is_arith    = (parse_code & 0x48) == 0x08;          /* [DIRAC_STD] using_ac()      */
 +        s->low_delay   = (parse_code & 0x88) == 0x88;          /* [DIRAC_STD] is_low_delay()  */
 +        pic->avframe->reference = (parse_code & 0x0C) == 0x0C;  /* [DIRAC_STD]  is_reference() */
 +        pic->avframe->key_frame = s->num_refs == 0;             /* [DIRAC_STD] is_intra()      */
 +        pic->avframe->pict_type = s->num_refs + 1;              /* Definition of AVPictureType in avutil.h */
 +
 +        if ((ret = get_buffer_with_edge(avctx, pic->avframe, (parse_code & 0x0C) == 0x0C ? AV_GET_BUFFER_FLAG_REF : 0)) < 0)
 +            return ret;
 +        s->current_picture = pic;
 +        s->plane[0].stride = pic->avframe->linesize[0];
 +        s->plane[1].stride = pic->avframe->linesize[1];
 +        s->plane[2].stride = pic->avframe->linesize[2];
 +
 +        if (alloc_buffers(s, FFMAX3(FFABS(s->plane[0].stride), FFABS(s->plane[1].stride), FFABS(s->plane[2].stride))) < 0)
 +            return AVERROR(ENOMEM);
 +
 +        /* [DIRAC_STD] 11.1 Picture parse. picture_parse() */
 +        if (dirac_decode_picture_header(s))
 +            return -1;
 +
 +        /* [DIRAC_STD] 13.0 Transform data syntax. transform_data() */
 +        if (dirac_decode_frame_internal(s))
 +            return -1;
 +    }
 +    return 0;
 +}
 +
 +static int dirac_decode_frame(AVCodecContext *avctx, void *data, int *got_frame, AVPacket *pkt)
 +{
 +    DiracContext *s     = avctx->priv_data;
 +    AVFrame *picture    = data;
 +    uint8_t *buf        = pkt->data;
 +    int buf_size        = pkt->size;
 +    int i, data_unit_size, buf_idx = 0;
 +    int ret;
 +
 +    /* release unused frames */
 +    for (i = 0; i < MAX_FRAMES; i++)
 +        if (s->all_frames[i].avframe->data[0] && !s->all_frames[i].avframe->reference) {
 +            av_frame_unref(s->all_frames[i].avframe);
 +            memset(s->all_frames[i].interpolated, 0, sizeof(s->all_frames[i].interpolated));
 +        }
 +
 +    s->current_picture = NULL;
 +    *got_frame = 0;
 +
 +    /* end of stream, so flush delayed pics */
 +    if (buf_size == 0)
 +        return get_delayed_pic(s, (AVFrame *)data, got_frame);
 +
 +    for (;;) {
 +        /*[DIRAC_STD] Here starts the code from parse_info() defined in 9.6
 +          [DIRAC_STD] PARSE_INFO_PREFIX = "BBCD" as defined in ISO/IEC 646
 +          BBCD start code search */
 +        for (; buf_idx + DATA_UNIT_HEADER_SIZE < buf_size; buf_idx++) {
 +            if (buf[buf_idx  ] == 'B' && buf[buf_idx+1] == 'B' &&
 +                buf[buf_idx+2] == 'C' && buf[buf_idx+3] == 'D')
 +                break;
 +        }
 +        /* BBCD found or end of data */
 +        if (buf_idx + DATA_UNIT_HEADER_SIZE >= buf_size)
 +            break;
 +
 +        data_unit_size = AV_RB32(buf+buf_idx+5);
 +        if (buf_idx + data_unit_size > buf_size || !data_unit_size) {
 +            if(buf_idx + data_unit_size > buf_size)
 +            av_log(s->avctx, AV_LOG_ERROR,
 +                   "Data unit with size %d is larger than input buffer, discarding\n",
 +                   data_unit_size);
 +            buf_idx += 4;
 +            continue;
 +        }
 +        /* [DIRAC_STD] dirac_decode_data_unit makes reference to the while defined in 9.3 inside the function parse_sequence() */
 +        if (dirac_decode_data_unit(avctx, buf+buf_idx, data_unit_size))
 +        {
 +            av_log(s->avctx, AV_LOG_ERROR,"Error in dirac_decode_data_unit\n");
 +            return -1;
 +        }
 +        buf_idx += data_unit_size;
 +    }
 +
 +    if (!s->current_picture)
 +        return buf_size;
 +
 +    if (s->current_picture->avframe->display_picture_number > s->frame_number) {
 +        DiracFrame *delayed_frame = remove_frame(s->delay_frames, s->frame_number);
 +
 +        s->current_picture->avframe->reference |= DELAYED_PIC_REF;
 +
 +        if (add_frame(s->delay_frames, MAX_DELAY, s->current_picture)) {
 +            int min_num = s->delay_frames[0]->avframe->display_picture_number;
 +            /* Too many delayed frames, so we display the frame with the lowest pts */
 +            av_log(avctx, AV_LOG_ERROR, "Delay frame overflow\n");
 +            delayed_frame = s->delay_frames[0];
 +
 +            for (i = 1; s->delay_frames[i]; i++)
 +                if (s->delay_frames[i]->avframe->display_picture_number < min_num)
 +                    min_num = s->delay_frames[i]->avframe->display_picture_number;
 +
 +            delayed_frame = remove_frame(s->delay_frames, min_num);
 +            add_frame(s->delay_frames, MAX_DELAY, s->current_picture);
 +        }
 +
 +        if (delayed_frame) {
 +            delayed_frame->avframe->reference ^= DELAYED_PIC_REF;
 +            if((ret=av_frame_ref(data, delayed_frame->avframe)) < 0)
 +                return ret;
 +            *got_frame = 1;
 +        }
 +    } else if (s->current_picture->avframe->display_picture_number == s->frame_number) {
 +        /* The right frame at the right time :-) */
 +        if((ret=av_frame_ref(data, s->current_picture->avframe)) < 0)
 +            return ret;
 +        *got_frame = 1;
 +    }
 +
 +    if (*got_frame)
 +        s->frame_number = picture->display_picture_number + 1;
 +
 +    return buf_idx;
 +}
 +
 +AVCodec ff_dirac_decoder = {
 +    .name           = "dirac",
 +    .long_name      = NULL_IF_CONFIG_SMALL("BBC Dirac VC-2"),
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_DIRAC,
 +    .priv_data_size = sizeof(DiracContext),
 +    .init           = dirac_decode_init,
 +    .close          = dirac_decode_end,
 +    .decode         = dirac_decode_frame,
 +    .capabilities   = CODEC_CAP_DELAY,
 +    .flush          = dirac_decode_flush,
 +};
index 640a4bfa9c97dc9c9a0ae258083c947eff3e98a0,ec73bbab4e7bec08c4f19ab110356ee537c97e29..5d7fbb1126544d5649c68a441256f9a362f88284
@@@ -1063,12 -994,7 +1035,10 @@@ av_cold void ff_dsputil_init(DSPContex
      c->vsse[5] = vsse_intra8_c;
      c->nsse[0] = nsse16_c;
      c->nsse[1] = nsse8_c;
 +#if CONFIG_SNOW_DECODER || CONFIG_SNOW_ENCODER
 +    ff_dsputil_init_dwt(c);
 +#endif
  
-     c->draw_edges = draw_edges_8_c;
      switch (avctx->bits_per_raw_sample) {
      case 9:
      case 10:
Simple merge
Simple merge
index 0d630df4eae498dd0c506ec93366a94068dee173,5ea240e84ec0eb317c5ab6f3f35c2b0311b8e43f..d39f88eddef6ba3d675bcc78a33a36bc79a1455a
@@@ -1144,13 -1017,6 +1144,13 @@@ static int load_input_picture(MpegEncCo
                              src += src_stride;
                          }
                      }
-                         s->dsp.draw_edges(dst, dst_stride,
-                                           w, h,
-                                           16>>h_shift,
-                                           vpad>>v_shift,
-                                           EDGE_BOTTOM);
 +                    if ((s->width & 15) || (s->height & (vpad-1))) {
++                        s->mpvencdsp.draw_edges(dst, dst_stride,
++                                                w, h,
++                                                16>>h_shift,
++                                                vpad>>v_shift,
++                                                EDGE_BOTTOM);
 +                    }
                  }
              }
          }
@@@ -1529,18 -1391,22 +1529,25 @@@ static void frame_end(MpegEncContext *s
          const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(s->avctx->pix_fmt);
          int hshift = desc->log2_chroma_w;
          int vshift = desc->log2_chroma_h;
-         s->dsp.draw_edges(s->current_picture.f->data[0], s->current_picture.f->linesize[0],
-                           s->h_edge_pos, s->v_edge_pos,
-                           EDGE_WIDTH, EDGE_WIDTH,
-                           EDGE_TOP | EDGE_BOTTOM);
-         s->dsp.draw_edges(s->current_picture.f->data[1], s->current_picture.f->linesize[1],
-                           s->h_edge_pos >> hshift, s->v_edge_pos >> vshift,
-                           EDGE_WIDTH >> hshift, EDGE_WIDTH >> vshift,
-                           EDGE_TOP | EDGE_BOTTOM);
-         s->dsp.draw_edges(s->current_picture.f->data[2], s->current_picture.f->linesize[2],
-                           s->h_edge_pos >> hshift, s->v_edge_pos >> vshift,
-                           EDGE_WIDTH >> hshift, EDGE_WIDTH >> vshift,
-                           EDGE_TOP | EDGE_BOTTOM);
 -        s->mpvencdsp.draw_edges(s->current_picture.f->data[0], s->linesize,
++        s->mpvencdsp.draw_edges(s->current_picture.f->data[0],
++                                s->current_picture.f->linesize[0],
+                                 s->h_edge_pos, s->v_edge_pos,
+                                 EDGE_WIDTH, EDGE_WIDTH,
+                                 EDGE_TOP | EDGE_BOTTOM);
 -        s->mpvencdsp.draw_edges(s->current_picture.f->data[1], s->uvlinesize,
++        s->mpvencdsp.draw_edges(s->current_picture.f->data[1],
++                                s->current_picture.f->linesize[1],
+                                 s->h_edge_pos >> hshift,
+                                 s->v_edge_pos >> vshift,
+                                 EDGE_WIDTH >> hshift,
+                                 EDGE_WIDTH >> vshift,
+                                 EDGE_TOP | EDGE_BOTTOM);
 -        s->mpvencdsp.draw_edges(s->current_picture.f->data[2], s->uvlinesize,
++        s->mpvencdsp.draw_edges(s->current_picture.f->data[2],
++                                s->current_picture.f->linesize[2],
+                                 s->h_edge_pos >> hshift,
+                                 s->v_edge_pos >> vshift,
+                                 EDGE_WIDTH >> hshift,
+                                 EDGE_WIDTH >> vshift,
+                                 EDGE_TOP | EDGE_BOTTOM);
      }
  
      emms_c();
index bde43457508c47620c8e93750b2dae56299939ca,8202034643c56df3c2092d6c3acbfe176f2a7e42..10ad369a6753f37541e049a0da42ae62c63d5621
  
  #include <assert.h>
  #include <stdint.h>
+ #include <string.h>
  
  #include "config.h"
 +#include "libavutil/avassert.h"
  #include "libavutil/attributes.h"
  #include "libavutil/imgutils.h"
  #include "avcodec.h"
Simple merge
index e1ed29793d5972d4aec45c297ae4eec40151619e,0000000000000000000000000000000000000000..711d1a4f080ca4fb3dcc49b366a2a3f71f6b28a9
mode 100644,000000..100644
--- /dev/null
@@@ -1,732 -1,0 +1,733 @@@
-         s->dsp.draw_edges(s->current_picture->data[0],
-                           s->current_picture->linesize[0], w   , h   ,
-                           EDGE_WIDTH  , EDGE_WIDTH  , EDGE_TOP | EDGE_BOTTOM);
 +/*
 + * Copyright (C) 2004 Michael Niedermayer <michaelni@gmx.at>
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "libavutil/intmath.h"
 +#include "libavutil/log.h"
 +#include "libavutil/opt.h"
 +#include "avcodec.h"
 +#include "dsputil.h"
 +#include "snow_dwt.h"
 +#include "internal.h"
 +#include "snow.h"
 +#include "snowdata.h"
 +
 +#include "rangecoder.h"
 +#include "mathops.h"
 +#include "h263.h"
 +
 +
 +void ff_snow_inner_add_yblock(const uint8_t *obmc, const int obmc_stride, uint8_t * * block, int b_w, int b_h,
 +                              int src_x, int src_y, int src_stride, slice_buffer * sb, int add, uint8_t * dst8){
 +    int y, x;
 +    IDWTELEM * dst;
 +    for(y=0; y<b_h; y++){
 +        //FIXME ugly misuse of obmc_stride
 +        const uint8_t *obmc1= obmc + y*obmc_stride;
 +        const uint8_t *obmc2= obmc1+ (obmc_stride>>1);
 +        const uint8_t *obmc3= obmc1+ obmc_stride*(obmc_stride>>1);
 +        const uint8_t *obmc4= obmc3+ (obmc_stride>>1);
 +        dst = slice_buffer_get_line(sb, src_y + y);
 +        for(x=0; x<b_w; x++){
 +            int v=   obmc1[x] * block[3][x + y*src_stride]
 +                    +obmc2[x] * block[2][x + y*src_stride]
 +                    +obmc3[x] * block[1][x + y*src_stride]
 +                    +obmc4[x] * block[0][x + y*src_stride];
 +
 +            v <<= 8 - LOG2_OBMC_MAX;
 +            if(FRAC_BITS != 8){
 +                v >>= 8 - FRAC_BITS;
 +            }
 +            if(add){
 +                v += dst[x + src_x];
 +                v = (v + (1<<(FRAC_BITS-1))) >> FRAC_BITS;
 +                if(v&(~255)) v= ~(v>>31);
 +                dst8[x + y*src_stride] = v;
 +            }else{
 +                dst[x + src_x] -= v;
 +            }
 +        }
 +    }
 +}
 +
 +int ff_snow_get_buffer(SnowContext *s, AVFrame *frame)
 +{
 +    int ret, i;
 +
 +    frame->width  = s->avctx->width  + 2 * EDGE_WIDTH;
 +    frame->height = s->avctx->height + 2 * EDGE_WIDTH;
 +    if ((ret = ff_get_buffer(s->avctx, frame, AV_GET_BUFFER_FLAG_REF)) < 0)
 +        return ret;
 +    for (i = 0; frame->data[i]; i++) {
 +        int offset = (EDGE_WIDTH >> (i ? s->chroma_v_shift : 0)) *
 +                        frame->linesize[i] +
 +                        (EDGE_WIDTH >> (i ? s->chroma_h_shift : 0));
 +        frame->data[i] += offset;
 +    }
 +    frame->width  = s->avctx->width;
 +    frame->height = s->avctx->height;
 +
 +    return 0;
 +}
 +
 +void ff_snow_reset_contexts(SnowContext *s){ //FIXME better initial contexts
 +    int plane_index, level, orientation;
 +
 +    for(plane_index=0; plane_index<3; plane_index++){
 +        for(level=0; level<MAX_DECOMPOSITIONS; level++){
 +            for(orientation=level ? 1:0; orientation<4; orientation++){
 +                memset(s->plane[plane_index].band[level][orientation].state, MID_STATE, sizeof(s->plane[plane_index].band[level][orientation].state));
 +            }
 +        }
 +    }
 +    memset(s->header_state, MID_STATE, sizeof(s->header_state));
 +    memset(s->block_state, MID_STATE, sizeof(s->block_state));
 +}
 +
 +int ff_snow_alloc_blocks(SnowContext *s){
 +    int w= FF_CEIL_RSHIFT(s->avctx->width,  LOG2_MB_SIZE);
 +    int h= FF_CEIL_RSHIFT(s->avctx->height, LOG2_MB_SIZE);
 +
 +    s->b_width = w;
 +    s->b_height= h;
 +
 +    av_free(s->block);
 +    s->block= av_mallocz_array(w * h,  sizeof(BlockNode) << (s->block_max_depth*2));
 +    if (!s->block)
 +        return AVERROR(ENOMEM);
 +
 +    return 0;
 +}
 +
 +static av_cold void init_qexp(void){
 +    int i;
 +    double v=128;
 +
 +    for(i=0; i<QROOT; i++){
 +        ff_qexp[i]= lrintf(v);
 +        v *= pow(2, 1.0 / QROOT);
 +    }
 +}
 +static void mc_block(Plane *p, uint8_t *dst, const uint8_t *src, int stride, int b_w, int b_h, int dx, int dy){
 +    static const uint8_t weight[64]={
 +    8,7,6,5,4,3,2,1,
 +    7,7,0,0,0,0,0,1,
 +    6,0,6,0,0,0,2,0,
 +    5,0,0,5,0,3,0,0,
 +    4,0,0,0,4,0,0,0,
 +    3,0,0,5,0,3,0,0,
 +    2,0,6,0,0,0,2,0,
 +    1,7,0,0,0,0,0,1,
 +    };
 +
 +    static const uint8_t brane[256]={
 +    0x00,0x01,0x01,0x01,0x01,0x01,0x01,0x01,0x11,0x12,0x12,0x12,0x12,0x12,0x12,0x12,
 +    0x04,0x05,0xcc,0xcc,0xcc,0xcc,0xcc,0x41,0x15,0x16,0xcc,0xcc,0xcc,0xcc,0xcc,0x52,
 +    0x04,0xcc,0x05,0xcc,0xcc,0xcc,0x41,0xcc,0x15,0xcc,0x16,0xcc,0xcc,0xcc,0x52,0xcc,
 +    0x04,0xcc,0xcc,0x05,0xcc,0x41,0xcc,0xcc,0x15,0xcc,0xcc,0x16,0xcc,0x52,0xcc,0xcc,
 +    0x04,0xcc,0xcc,0xcc,0x41,0xcc,0xcc,0xcc,0x15,0xcc,0xcc,0xcc,0x16,0xcc,0xcc,0xcc,
 +    0x04,0xcc,0xcc,0x41,0xcc,0x05,0xcc,0xcc,0x15,0xcc,0xcc,0x52,0xcc,0x16,0xcc,0xcc,
 +    0x04,0xcc,0x41,0xcc,0xcc,0xcc,0x05,0xcc,0x15,0xcc,0x52,0xcc,0xcc,0xcc,0x16,0xcc,
 +    0x04,0x41,0xcc,0xcc,0xcc,0xcc,0xcc,0x05,0x15,0x52,0xcc,0xcc,0xcc,0xcc,0xcc,0x16,
 +    0x44,0x45,0x45,0x45,0x45,0x45,0x45,0x45,0x55,0x56,0x56,0x56,0x56,0x56,0x56,0x56,
 +    0x48,0x49,0xcc,0xcc,0xcc,0xcc,0xcc,0x85,0x59,0x5A,0xcc,0xcc,0xcc,0xcc,0xcc,0x96,
 +    0x48,0xcc,0x49,0xcc,0xcc,0xcc,0x85,0xcc,0x59,0xcc,0x5A,0xcc,0xcc,0xcc,0x96,0xcc,
 +    0x48,0xcc,0xcc,0x49,0xcc,0x85,0xcc,0xcc,0x59,0xcc,0xcc,0x5A,0xcc,0x96,0xcc,0xcc,
 +    0x48,0xcc,0xcc,0xcc,0x49,0xcc,0xcc,0xcc,0x59,0xcc,0xcc,0xcc,0x96,0xcc,0xcc,0xcc,
 +    0x48,0xcc,0xcc,0x85,0xcc,0x49,0xcc,0xcc,0x59,0xcc,0xcc,0x96,0xcc,0x5A,0xcc,0xcc,
 +    0x48,0xcc,0x85,0xcc,0xcc,0xcc,0x49,0xcc,0x59,0xcc,0x96,0xcc,0xcc,0xcc,0x5A,0xcc,
 +    0x48,0x85,0xcc,0xcc,0xcc,0xcc,0xcc,0x49,0x59,0x96,0xcc,0xcc,0xcc,0xcc,0xcc,0x5A,
 +    };
 +
 +    static const uint8_t needs[16]={
 +    0,1,0,0,
 +    2,4,2,0,
 +    0,1,0,0,
 +    15
 +    };
 +
 +    int x, y, b, r, l;
 +    int16_t tmpIt   [64*(32+HTAPS_MAX)];
 +    uint8_t tmp2t[3][64*(32+HTAPS_MAX)];
 +    int16_t *tmpI= tmpIt;
 +    uint8_t *tmp2= tmp2t[0];
 +    const uint8_t *hpel[11];
 +    av_assert2(dx<16 && dy<16);
 +    r= brane[dx + 16*dy]&15;
 +    l= brane[dx + 16*dy]>>4;
 +
 +    b= needs[l] | needs[r];
 +    if(p && !p->diag_mc)
 +        b= 15;
 +
 +    if(b&5){
 +        for(y=0; y < b_h+HTAPS_MAX-1; y++){
 +            for(x=0; x < b_w; x++){
 +                int a_1=src[x + HTAPS_MAX/2-4];
 +                int a0= src[x + HTAPS_MAX/2-3];
 +                int a1= src[x + HTAPS_MAX/2-2];
 +                int a2= src[x + HTAPS_MAX/2-1];
 +                int a3= src[x + HTAPS_MAX/2+0];
 +                int a4= src[x + HTAPS_MAX/2+1];
 +                int a5= src[x + HTAPS_MAX/2+2];
 +                int a6= src[x + HTAPS_MAX/2+3];
 +                int am=0;
 +                if(!p || p->fast_mc){
 +                    am= 20*(a2+a3) - 5*(a1+a4) + (a0+a5);
 +                    tmpI[x]= am;
 +                    am= (am+16)>>5;
 +                }else{
 +                    am= p->hcoeff[0]*(a2+a3) + p->hcoeff[1]*(a1+a4) + p->hcoeff[2]*(a0+a5) + p->hcoeff[3]*(a_1+a6);
 +                    tmpI[x]= am;
 +                    am= (am+32)>>6;
 +                }
 +
 +                if(am&(~255)) am= ~(am>>31);
 +                tmp2[x]= am;
 +            }
 +            tmpI+= 64;
 +            tmp2+= 64;
 +            src += stride;
 +        }
 +        src -= stride*y;
 +    }
 +    src += HTAPS_MAX/2 - 1;
 +    tmp2= tmp2t[1];
 +
 +    if(b&2){
 +        for(y=0; y < b_h; y++){
 +            for(x=0; x < b_w+1; x++){
 +                int a_1=src[x + (HTAPS_MAX/2-4)*stride];
 +                int a0= src[x + (HTAPS_MAX/2-3)*stride];
 +                int a1= src[x + (HTAPS_MAX/2-2)*stride];
 +                int a2= src[x + (HTAPS_MAX/2-1)*stride];
 +                int a3= src[x + (HTAPS_MAX/2+0)*stride];
 +                int a4= src[x + (HTAPS_MAX/2+1)*stride];
 +                int a5= src[x + (HTAPS_MAX/2+2)*stride];
 +                int a6= src[x + (HTAPS_MAX/2+3)*stride];
 +                int am=0;
 +                if(!p || p->fast_mc)
 +                    am= (20*(a2+a3) - 5*(a1+a4) + (a0+a5) + 16)>>5;
 +                else
 +                    am= (p->hcoeff[0]*(a2+a3) + p->hcoeff[1]*(a1+a4) + p->hcoeff[2]*(a0+a5) + p->hcoeff[3]*(a_1+a6) + 32)>>6;
 +
 +                if(am&(~255)) am= ~(am>>31);
 +                tmp2[x]= am;
 +            }
 +            src += stride;
 +            tmp2+= 64;
 +        }
 +        src -= stride*y;
 +    }
 +    src += stride*(HTAPS_MAX/2 - 1);
 +    tmp2= tmp2t[2];
 +    tmpI= tmpIt;
 +    if(b&4){
 +        for(y=0; y < b_h; y++){
 +            for(x=0; x < b_w; x++){
 +                int a_1=tmpI[x + (HTAPS_MAX/2-4)*64];
 +                int a0= tmpI[x + (HTAPS_MAX/2-3)*64];
 +                int a1= tmpI[x + (HTAPS_MAX/2-2)*64];
 +                int a2= tmpI[x + (HTAPS_MAX/2-1)*64];
 +                int a3= tmpI[x + (HTAPS_MAX/2+0)*64];
 +                int a4= tmpI[x + (HTAPS_MAX/2+1)*64];
 +                int a5= tmpI[x + (HTAPS_MAX/2+2)*64];
 +                int a6= tmpI[x + (HTAPS_MAX/2+3)*64];
 +                int am=0;
 +                if(!p || p->fast_mc)
 +                    am= (20*(a2+a3) - 5*(a1+a4) + (a0+a5) + 512)>>10;
 +                else
 +                    am= (p->hcoeff[0]*(a2+a3) + p->hcoeff[1]*(a1+a4) + p->hcoeff[2]*(a0+a5) + p->hcoeff[3]*(a_1+a6) + 2048)>>12;
 +                if(am&(~255)) am= ~(am>>31);
 +                tmp2[x]= am;
 +            }
 +            tmpI+= 64;
 +            tmp2+= 64;
 +        }
 +    }
 +
 +    hpel[ 0]= src;
 +    hpel[ 1]= tmp2t[0] + 64*(HTAPS_MAX/2-1);
 +    hpel[ 2]= src + 1;
 +
 +    hpel[ 4]= tmp2t[1];
 +    hpel[ 5]= tmp2t[2];
 +    hpel[ 6]= tmp2t[1] + 1;
 +
 +    hpel[ 8]= src + stride;
 +    hpel[ 9]= hpel[1] + 64;
 +    hpel[10]= hpel[8] + 1;
 +
 +#define MC_STRIDE(x) (needs[x] ? 64 : stride)
 +
 +    if(b==15){
 +        int dxy = dx / 8 + dy / 8 * 4;
 +        const uint8_t *src1 = hpel[dxy    ];
 +        const uint8_t *src2 = hpel[dxy + 1];
 +        const uint8_t *src3 = hpel[dxy + 4];
 +        const uint8_t *src4 = hpel[dxy + 5];
 +        int stride1 = MC_STRIDE(dxy);
 +        int stride2 = MC_STRIDE(dxy + 1);
 +        int stride3 = MC_STRIDE(dxy + 4);
 +        int stride4 = MC_STRIDE(dxy + 5);
 +        dx&=7;
 +        dy&=7;
 +        for(y=0; y < b_h; y++){
 +            for(x=0; x < b_w; x++){
 +                dst[x]= ((8-dx)*(8-dy)*src1[x] + dx*(8-dy)*src2[x]+
 +                         (8-dx)*   dy *src3[x] + dx*   dy *src4[x]+32)>>6;
 +            }
 +            src1+=stride1;
 +            src2+=stride2;
 +            src3+=stride3;
 +            src4+=stride4;
 +            dst +=stride;
 +        }
 +    }else{
 +        const uint8_t *src1= hpel[l];
 +        const uint8_t *src2= hpel[r];
 +        int stride1 = MC_STRIDE(l);
 +        int stride2 = MC_STRIDE(r);
 +        int a= weight[((dx&7) + (8*(dy&7)))];
 +        int b= 8-a;
 +        for(y=0; y < b_h; y++){
 +            for(x=0; x < b_w; x++){
 +                dst[x]= (a*src1[x] + b*src2[x] + 4)>>3;
 +            }
 +            src1+=stride1;
 +            src2+=stride2;
 +            dst +=stride;
 +        }
 +    }
 +}
 +
 +void ff_snow_pred_block(SnowContext *s, uint8_t *dst, uint8_t *tmp, ptrdiff_t stride, int sx, int sy, int b_w, int b_h, BlockNode *block, int plane_index, int w, int h){
 +    if(block->type & BLOCK_INTRA){
 +        int x, y;
 +        const unsigned color  = block->color[plane_index];
 +        const unsigned color4 = color*0x01010101;
 +        if(b_w==32){
 +            for(y=0; y < b_h; y++){
 +                *(uint32_t*)&dst[0 + y*stride]= color4;
 +                *(uint32_t*)&dst[4 + y*stride]= color4;
 +                *(uint32_t*)&dst[8 + y*stride]= color4;
 +                *(uint32_t*)&dst[12+ y*stride]= color4;
 +                *(uint32_t*)&dst[16+ y*stride]= color4;
 +                *(uint32_t*)&dst[20+ y*stride]= color4;
 +                *(uint32_t*)&dst[24+ y*stride]= color4;
 +                *(uint32_t*)&dst[28+ y*stride]= color4;
 +            }
 +        }else if(b_w==16){
 +            for(y=0; y < b_h; y++){
 +                *(uint32_t*)&dst[0 + y*stride]= color4;
 +                *(uint32_t*)&dst[4 + y*stride]= color4;
 +                *(uint32_t*)&dst[8 + y*stride]= color4;
 +                *(uint32_t*)&dst[12+ y*stride]= color4;
 +            }
 +        }else if(b_w==8){
 +            for(y=0; y < b_h; y++){
 +                *(uint32_t*)&dst[0 + y*stride]= color4;
 +                *(uint32_t*)&dst[4 + y*stride]= color4;
 +            }
 +        }else if(b_w==4){
 +            for(y=0; y < b_h; y++){
 +                *(uint32_t*)&dst[0 + y*stride]= color4;
 +            }
 +        }else{
 +            for(y=0; y < b_h; y++){
 +                for(x=0; x < b_w; x++){
 +                    dst[x + y*stride]= color;
 +                }
 +            }
 +        }
 +    }else{
 +        uint8_t *src= s->last_picture[block->ref]->data[plane_index];
 +        const int scale= plane_index ?  (2*s->mv_scale)>>s->chroma_h_shift : 2*s->mv_scale;
 +        int mx= block->mx*scale;
 +        int my= block->my*scale;
 +        const int dx= mx&15;
 +        const int dy= my&15;
 +        const int tab_index= 3 - (b_w>>2) + (b_w>>4);
 +        sx += (mx>>4) - (HTAPS_MAX/2-1);
 +        sy += (my>>4) - (HTAPS_MAX/2-1);
 +        src += sx + sy*stride;
 +        if(   (unsigned)sx >= FFMAX(w - b_w - (HTAPS_MAX-2), 0)
 +           || (unsigned)sy >= FFMAX(h - b_h - (HTAPS_MAX-2), 0)){
 +            s->vdsp.emulated_edge_mc(tmp + MB_SIZE, src,
 +                                     stride, stride,
 +                                     b_w+HTAPS_MAX-1, b_h+HTAPS_MAX-1,
 +                                     sx, sy, w, h);
 +            src= tmp + MB_SIZE;
 +        }
 +
 +        av_assert2(s->chroma_h_shift == s->chroma_v_shift); // only one mv_scale
 +
 +        av_assert2((tab_index>=0 && tab_index<4) || b_w==32);
 +        if(    (dx&3) || (dy&3)
 +            || !(b_w == b_h || 2*b_w == b_h || b_w == 2*b_h)
 +            || (b_w&(b_w-1))
 +            || b_w == 1
 +            || b_h == 1
 +            || !s->plane[plane_index].fast_mc )
 +            mc_block(&s->plane[plane_index], dst, src, stride, b_w, b_h, dx, dy);
 +        else if(b_w==32){
 +            int y;
 +            for(y=0; y<b_h; y+=16){
 +                s->h264qpel.put_h264_qpel_pixels_tab[0][dy+(dx>>2)](dst + y*stride, src + 3 + (y+3)*stride,stride);
 +                s->h264qpel.put_h264_qpel_pixels_tab[0][dy+(dx>>2)](dst + 16 + y*stride, src + 19 + (y+3)*stride,stride);
 +            }
 +        }else if(b_w==b_h)
 +            s->h264qpel.put_h264_qpel_pixels_tab[tab_index  ][dy+(dx>>2)](dst,src + 3 + 3*stride,stride);
 +        else if(b_w==2*b_h){
 +            s->h264qpel.put_h264_qpel_pixels_tab[tab_index+1][dy+(dx>>2)](dst    ,src + 3       + 3*stride,stride);
 +            s->h264qpel.put_h264_qpel_pixels_tab[tab_index+1][dy+(dx>>2)](dst+b_h,src + 3 + b_h + 3*stride,stride);
 +        }else{
 +            av_assert2(2*b_w==b_h);
 +            s->h264qpel.put_h264_qpel_pixels_tab[tab_index  ][dy+(dx>>2)](dst           ,src + 3 + 3*stride           ,stride);
 +            s->h264qpel.put_h264_qpel_pixels_tab[tab_index  ][dy+(dx>>2)](dst+b_w*stride,src + 3 + 3*stride+b_w*stride,stride);
 +        }
 +    }
 +}
 +
 +#define mca(dx,dy,b_w)\
 +static void mc_block_hpel ## dx ## dy ## b_w(uint8_t *dst, const uint8_t *src, ptrdiff_t stride, int h){\
 +    av_assert2(h==b_w);\
 +    mc_block(NULL, dst, src-(HTAPS_MAX/2-1)-(HTAPS_MAX/2-1)*stride, stride, b_w, b_w, dx, dy);\
 +}
 +
 +mca( 0, 0,16)
 +mca( 8, 0,16)
 +mca( 0, 8,16)
 +mca( 8, 8,16)
 +mca( 0, 0,8)
 +mca( 8, 0,8)
 +mca( 0, 8,8)
 +mca( 8, 8,8)
 +
 +av_cold int ff_snow_common_init(AVCodecContext *avctx){
 +    SnowContext *s = avctx->priv_data;
 +    int width, height;
 +    int i, j;
 +
 +    s->avctx= avctx;
 +    s->max_ref_frames=1; //just make sure it's not an invalid value in case of no initial keyframe
 +
 +    ff_dsputil_init(&s->dsp, avctx);
 +    ff_hpeldsp_init(&s->hdsp, avctx->flags);
 +    ff_videodsp_init(&s->vdsp, 8);
 +    ff_dwt_init(&s->dwt);
 +    ff_h264qpel_init(&s->h264qpel, 8);
++    ff_mpegvideoencdsp_init(&s->mpvencdsp, avctx);
 +
 +#define mcf(dx,dy)\
 +    s->qdsp.put_qpel_pixels_tab       [0][dy+dx/4]=\
 +    s->qdsp.put_no_rnd_qpel_pixels_tab[0][dy+dx/4]=\
 +        s->h264qpel.put_h264_qpel_pixels_tab[0][dy+dx/4];\
 +    s->qdsp.put_qpel_pixels_tab       [1][dy+dx/4]=\
 +    s->qdsp.put_no_rnd_qpel_pixels_tab[1][dy+dx/4]=\
 +        s->h264qpel.put_h264_qpel_pixels_tab[1][dy+dx/4];
 +
 +    mcf( 0, 0)
 +    mcf( 4, 0)
 +    mcf( 8, 0)
 +    mcf(12, 0)
 +    mcf( 0, 4)
 +    mcf( 4, 4)
 +    mcf( 8, 4)
 +    mcf(12, 4)
 +    mcf( 0, 8)
 +    mcf( 4, 8)
 +    mcf( 8, 8)
 +    mcf(12, 8)
 +    mcf( 0,12)
 +    mcf( 4,12)
 +    mcf( 8,12)
 +    mcf(12,12)
 +
 +#define mcfh(dx,dy)\
 +    s->hdsp.put_pixels_tab       [0][dy/4+dx/8]=\
 +    s->hdsp.put_no_rnd_pixels_tab[0][dy/4+dx/8]=\
 +        mc_block_hpel ## dx ## dy ## 16;\
 +    s->hdsp.put_pixels_tab       [1][dy/4+dx/8]=\
 +    s->hdsp.put_no_rnd_pixels_tab[1][dy/4+dx/8]=\
 +        mc_block_hpel ## dx ## dy ## 8;
 +
 +    mcfh(0, 0)
 +    mcfh(8, 0)
 +    mcfh(0, 8)
 +    mcfh(8, 8)
 +
 +    init_qexp();
 +
 +//    dec += FFMAX(s->chroma_h_shift, s->chroma_v_shift);
 +
 +    width= s->avctx->width;
 +    height= s->avctx->height;
 +
 +    FF_ALLOCZ_ARRAY_OR_GOTO(avctx, s->spatial_idwt_buffer, width, height * sizeof(IDWTELEM), fail);
 +    FF_ALLOCZ_ARRAY_OR_GOTO(avctx, s->spatial_dwt_buffer,  width, height * sizeof(DWTELEM),  fail); //FIXME this does not belong here
 +    FF_ALLOCZ_ARRAY_OR_GOTO(avctx, s->temp_dwt_buffer,     width, sizeof(DWTELEM),  fail);
 +    FF_ALLOCZ_ARRAY_OR_GOTO(avctx, s->temp_idwt_buffer,    width, sizeof(IDWTELEM), fail);
 +    FF_ALLOC_ARRAY_OR_GOTO(avctx,  s->run_buffer,          ((width + 1) >> 1), ((height + 1) >> 1) * sizeof(*s->run_buffer), fail);
 +
 +    for(i=0; i<MAX_REF_FRAMES; i++) {
 +        for(j=0; j<MAX_REF_FRAMES; j++)
 +            ff_scale_mv_ref[i][j] = 256*(i+1)/(j+1);
 +        s->last_picture[i] = av_frame_alloc();
 +        if (!s->last_picture[i])
 +            goto fail;
 +    }
 +
 +    s->mconly_picture = av_frame_alloc();
 +    s->current_picture = av_frame_alloc();
 +    if (!s->mconly_picture || !s->current_picture)
 +        goto fail;
 +
 +    return 0;
 +fail:
 +    return AVERROR(ENOMEM);
 +}
 +
 +int ff_snow_common_init_after_header(AVCodecContext *avctx) {
 +    SnowContext *s = avctx->priv_data;
 +    int plane_index, level, orientation;
 +    int ret, emu_buf_size;
 +
 +    if(!s->scratchbuf) {
 +        if ((ret = ff_get_buffer(s->avctx, s->mconly_picture,
 +                                 AV_GET_BUFFER_FLAG_REF)) < 0)
 +            return ret;
 +        FF_ALLOCZ_ARRAY_OR_GOTO(avctx, s->scratchbuf, FFMAX(s->mconly_picture->linesize[0], 2*avctx->width+256), 7*MB_SIZE, fail);
 +        emu_buf_size = FFMAX(s->mconly_picture->linesize[0], 2*avctx->width+256) * (2 * MB_SIZE + HTAPS_MAX - 1);
 +        FF_ALLOC_OR_GOTO(avctx, s->emu_edge_buffer, emu_buf_size, fail);
 +    }
 +
 +    if(s->mconly_picture->format != avctx->pix_fmt) {
 +        av_log(avctx, AV_LOG_ERROR, "pixel format changed\n");
 +        return AVERROR_INVALIDDATA;
 +    }
 +
 +    for(plane_index=0; plane_index < s->nb_planes; plane_index++){
 +        int w= s->avctx->width;
 +        int h= s->avctx->height;
 +
 +        if(plane_index){
 +            w>>= s->chroma_h_shift;
 +            h>>= s->chroma_v_shift;
 +        }
 +        s->plane[plane_index].width = w;
 +        s->plane[plane_index].height= h;
 +
 +        for(level=s->spatial_decomposition_count-1; level>=0; level--){
 +            for(orientation=level ? 1 : 0; orientation<4; orientation++){
 +                SubBand *b= &s->plane[plane_index].band[level][orientation];
 +
 +                b->buf= s->spatial_dwt_buffer;
 +                b->level= level;
 +                b->stride= s->plane[plane_index].width << (s->spatial_decomposition_count - level);
 +                b->width = (w + !(orientation&1))>>1;
 +                b->height= (h + !(orientation>1))>>1;
 +
 +                b->stride_line = 1 << (s->spatial_decomposition_count - level);
 +                b->buf_x_offset = 0;
 +                b->buf_y_offset = 0;
 +
 +                if(orientation&1){
 +                    b->buf += (w+1)>>1;
 +                    b->buf_x_offset = (w+1)>>1;
 +                }
 +                if(orientation>1){
 +                    b->buf += b->stride>>1;
 +                    b->buf_y_offset = b->stride_line >> 1;
 +                }
 +                b->ibuf= s->spatial_idwt_buffer + (b->buf - s->spatial_dwt_buffer);
 +
 +                if(level)
 +                    b->parent= &s->plane[plane_index].band[level-1][orientation];
 +                //FIXME avoid this realloc
 +                av_freep(&b->x_coeff);
 +                b->x_coeff=av_mallocz_array(((b->width+1) * b->height+1), sizeof(x_and_coeff));
 +                if (!b->x_coeff)
 +                    goto fail;
 +            }
 +            w= (w+1)>>1;
 +            h= (h+1)>>1;
 +        }
 +    }
 +
 +    return 0;
 +fail:
 +    return AVERROR(ENOMEM);
 +}
 +
 +#define USE_HALFPEL_PLANE 0
 +
 +static int halfpel_interpol(SnowContext *s, uint8_t *halfpel[4][4], AVFrame *frame){
 +    int p,x,y;
 +
 +    for(p=0; p < s->nb_planes; p++){
 +        int is_chroma= !!p;
 +        int w= is_chroma ? s->avctx->width >>s->chroma_h_shift : s->avctx->width;
 +        int h= is_chroma ? s->avctx->height>>s->chroma_v_shift : s->avctx->height;
 +        int ls= frame->linesize[p];
 +        uint8_t *src= frame->data[p];
 +
 +        halfpel[1][p] = (uint8_t*) av_malloc(ls * (h + 2 * EDGE_WIDTH)) + EDGE_WIDTH * (1 + ls);
 +        halfpel[2][p] = (uint8_t*) av_malloc(ls * (h + 2 * EDGE_WIDTH)) + EDGE_WIDTH * (1 + ls);
 +        halfpel[3][p] = (uint8_t*) av_malloc(ls * (h + 2 * EDGE_WIDTH)) + EDGE_WIDTH * (1 + ls);
 +        if (!halfpel[1][p] || !halfpel[2][p] || !halfpel[3][p])
 +            return AVERROR(ENOMEM);
 +
 +        halfpel[0][p]= src;
 +        for(y=0; y<h; y++){
 +            for(x=0; x<w; x++){
 +                int i= y*ls + x;
 +
 +                halfpel[1][p][i]= (20*(src[i] + src[i+1]) - 5*(src[i-1] + src[i+2]) + (src[i-2] + src[i+3]) + 16 )>>5;
 +            }
 +        }
 +        for(y=0; y<h; y++){
 +            for(x=0; x<w; x++){
 +                int i= y*ls + x;
 +
 +                halfpel[2][p][i]= (20*(src[i] + src[i+ls]) - 5*(src[i-ls] + src[i+2*ls]) + (src[i-2*ls] + src[i+3*ls]) + 16 )>>5;
 +            }
 +        }
 +        src= halfpel[1][p];
 +        for(y=0; y<h; y++){
 +            for(x=0; x<w; x++){
 +                int i= y*ls + x;
 +
 +                halfpel[3][p][i]= (20*(src[i] + src[i+ls]) - 5*(src[i-ls] + src[i+2*ls]) + (src[i-2*ls] + src[i+3*ls]) + 16 )>>5;
 +            }
 +        }
 +
 +//FIXME border!
 +    }
 +    return 0;
 +}
 +
 +void ff_snow_release_buffer(AVCodecContext *avctx)
 +{
 +    SnowContext *s = avctx->priv_data;
 +    int i;
 +
 +    if(s->last_picture[s->max_ref_frames-1]->data[0]){
 +        av_frame_unref(s->last_picture[s->max_ref_frames-1]);
 +        for(i=0; i<9; i++)
 +            if(s->halfpel_plane[s->max_ref_frames-1][1+i/3][i%3])
 +                av_free(s->halfpel_plane[s->max_ref_frames-1][1+i/3][i%3] - EDGE_WIDTH*(1+s->current_picture->linesize[i%3]));
 +    }
 +}
 +
 +int ff_snow_frame_start(SnowContext *s){
 +   AVFrame *tmp;
 +   int i, ret;
 +   int w= s->avctx->width; //FIXME round up to x16 ?
 +   int h= s->avctx->height;
 +
 +    if (s->current_picture->data[0] && !(s->avctx->flags&CODEC_FLAG_EMU_EDGE)) {
-             s->dsp.draw_edges(s->current_picture->data[1],
-                             s->current_picture->linesize[1], w>>s->chroma_h_shift, h>>s->chroma_v_shift,
-                             EDGE_WIDTH>>s->chroma_h_shift, EDGE_WIDTH>>s->chroma_v_shift, EDGE_TOP | EDGE_BOTTOM);
-             s->dsp.draw_edges(s->current_picture->data[2],
-                             s->current_picture->linesize[2], w>>s->chroma_h_shift, h>>s->chroma_v_shift,
-                             EDGE_WIDTH>>s->chroma_h_shift, EDGE_WIDTH>>s->chroma_v_shift, EDGE_TOP | EDGE_BOTTOM);
++        s->mpvencdsp.draw_edges(s->current_picture->data[0],
++                                s->current_picture->linesize[0], w   , h   ,
++                                EDGE_WIDTH  , EDGE_WIDTH  , EDGE_TOP | EDGE_BOTTOM);
 +        if (s->current_picture->data[2]) {
++            s->mpvencdsp.draw_edges(s->current_picture->data[1],
++                                    s->current_picture->linesize[1], w>>s->chroma_h_shift, h>>s->chroma_v_shift,
++                                    EDGE_WIDTH>>s->chroma_h_shift, EDGE_WIDTH>>s->chroma_v_shift, EDGE_TOP | EDGE_BOTTOM);
++            s->mpvencdsp.draw_edges(s->current_picture->data[2],
++                                    s->current_picture->linesize[2], w>>s->chroma_h_shift, h>>s->chroma_v_shift,
++                                    EDGE_WIDTH>>s->chroma_h_shift, EDGE_WIDTH>>s->chroma_v_shift, EDGE_TOP | EDGE_BOTTOM);
 +        }
 +    }
 +
 +    ff_snow_release_buffer(s->avctx);
 +
 +    tmp= s->last_picture[s->max_ref_frames-1];
 +    for(i=s->max_ref_frames-1; i>0; i--)
 +        s->last_picture[i] = s->last_picture[i-1];
 +    memmove(s->halfpel_plane+1, s->halfpel_plane, (s->max_ref_frames-1)*sizeof(void*)*4*4);
 +    if(USE_HALFPEL_PLANE && s->current_picture->data[0]) {
 +        if((ret = halfpel_interpol(s, s->halfpel_plane[0], s->current_picture)) < 0)
 +            return ret;
 +    }
 +    s->last_picture[0] = s->current_picture;
 +    s->current_picture = tmp;
 +
 +    if(s->keyframe){
 +        s->ref_frames= 0;
 +    }else{
 +        int i;
 +        for(i=0; i<s->max_ref_frames && s->last_picture[i]->data[0]; i++)
 +            if(i && s->last_picture[i-1]->key_frame)
 +                break;
 +        s->ref_frames= i;
 +        if(s->ref_frames==0){
 +            av_log(s->avctx,AV_LOG_ERROR, "No reference frames\n");
 +            return -1;
 +        }
 +    }
 +    if ((ret = ff_snow_get_buffer(s, s->current_picture)) < 0)
 +        return ret;
 +
 +    s->current_picture->key_frame= s->keyframe;
 +
 +    return 0;
 +}
 +
 +av_cold void ff_snow_common_end(SnowContext *s)
 +{
 +    int plane_index, level, orientation, i;
 +
 +    av_freep(&s->spatial_dwt_buffer);
 +    av_freep(&s->temp_dwt_buffer);
 +    av_freep(&s->spatial_idwt_buffer);
 +    av_freep(&s->temp_idwt_buffer);
 +    av_freep(&s->run_buffer);
 +
 +    s->m.me.temp= NULL;
 +    av_freep(&s->m.me.scratchpad);
 +    av_freep(&s->m.me.map);
 +    av_freep(&s->m.me.score_map);
 +    av_freep(&s->m.obmc_scratchpad);
 +
 +    av_freep(&s->block);
 +    av_freep(&s->scratchbuf);
 +    av_freep(&s->emu_edge_buffer);
 +
 +    for(i=0; i<MAX_REF_FRAMES; i++){
 +        av_freep(&s->ref_mvs[i]);
 +        av_freep(&s->ref_scores[i]);
 +        if(s->last_picture[i]->data[0]) {
 +            av_assert0(s->last_picture[i]->data[0] != s->current_picture->data[0]);
 +        }
 +        av_frame_free(&s->last_picture[i]);
 +    }
 +
 +    for(plane_index=0; plane_index < s->nb_planes; plane_index++){
 +        for(level=s->spatial_decomposition_count-1; level>=0; level--){
 +            for(orientation=level ? 1 : 0; orientation<4; orientation++){
 +                SubBand *b= &s->plane[plane_index].band[level][orientation];
 +
 +                av_freep(&b->x_coeff);
 +            }
 +        }
 +    }
 +    av_frame_free(&s->mconly_picture);
 +    av_frame_free(&s->current_picture);
 +}
index a9c8518d75a215442ba52b15ce62342045c00166,0000000000000000000000000000000000000000..2cda5b323df2e555b4251a4226cfff501024fa1b
mode 100644,000000..100644
--- /dev/null
@@@ -1,709 -1,0 +1,710 @@@
 +/*
 + * Copyright (C) 2004 Michael Niedermayer <michaelni@gmx.at>
 + * Copyright (C) 2006 Robert Edele <yartrebo@earthlink.net>
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#ifndef AVCODEC_SNOW_H
 +#define AVCODEC_SNOW_H
 +
 +#include "dsputil.h"
 +#include "hpeldsp.h"
 +#include "qpeldsp.h"
 +#include "snow_dwt.h"
 +
 +#include "rangecoder.h"
 +#include "mathops.h"
 +#include "mpegvideo.h"
 +#include "h264qpel.h"
 +
 +#define MID_STATE 128
 +
 +#define MAX_PLANES 4
 +#define QSHIFT 5
 +#define QROOT (1<<QSHIFT)
 +#define LOSSLESS_QLOG -128
 +#define FRAC_BITS 4
 +#define MAX_REF_FRAMES 8
 +
 +#define LOG2_OBMC_MAX 8
 +#define OBMC_MAX (1<<(LOG2_OBMC_MAX))
 +typedef struct BlockNode{
 +    int16_t mx;
 +    int16_t my;
 +    uint8_t ref;
 +    uint8_t color[3];
 +    uint8_t type;
 +//#define TYPE_SPLIT    1
 +#define BLOCK_INTRA   1
 +#define BLOCK_OPT     2
 +//#define TYPE_NOCOLOR  4
 +    uint8_t level; //FIXME merge into type?
 +}BlockNode;
 +
 +static const BlockNode null_block= { //FIXME add border maybe
 +    .color= {128,128,128},
 +    .mx= 0,
 +    .my= 0,
 +    .ref= 0,
 +    .type= 0,
 +    .level= 0,
 +};
 +
 +#define LOG2_MB_SIZE 4
 +#define MB_SIZE (1<<LOG2_MB_SIZE)
 +#define ENCODER_EXTRA_BITS 4
 +#define HTAPS_MAX 8
 +
 +typedef struct x_and_coeff{
 +    int16_t x;
 +    uint16_t coeff;
 +} x_and_coeff;
 +
 +typedef struct SubBand{
 +    int level;
 +    int stride;
 +    int width;
 +    int height;
 +    int qlog;        ///< log(qscale)/log[2^(1/6)]
 +    DWTELEM *buf;
 +    IDWTELEM *ibuf;
 +    int buf_x_offset;
 +    int buf_y_offset;
 +    int stride_line; ///< Stride measured in lines, not pixels.
 +    x_and_coeff * x_coeff;
 +    struct SubBand *parent;
 +    uint8_t state[/*7*2*/ 7 + 512][32];
 +}SubBand;
 +
 +typedef struct Plane{
 +    int width;
 +    int height;
 +    SubBand band[MAX_DECOMPOSITIONS][4];
 +
 +    int htaps;
 +    int8_t hcoeff[HTAPS_MAX/2];
 +    int diag_mc;
 +    int fast_mc;
 +
 +    int last_htaps;
 +    int8_t last_hcoeff[HTAPS_MAX/2];
 +    int last_diag_mc;
 +}Plane;
 +
 +typedef struct SnowContext{
 +    AVClass *class;
 +    AVCodecContext *avctx;
 +    RangeCoder c;
 +    DSPContext dsp;
 +    HpelDSPContext hdsp;
 +    QpelDSPContext qdsp;
 +    VideoDSPContext vdsp;
 +    H264QpelContext h264qpel;
++    MpegvideoEncDSPContext mpvencdsp;
 +    SnowDWTContext dwt;
 +    AVFrame *new_picture;
 +    AVFrame *input_picture;              ///< new_picture with the internal linesizes
 +    AVFrame *current_picture;
 +    AVFrame *last_picture[MAX_REF_FRAMES];
 +    uint8_t *halfpel_plane[MAX_REF_FRAMES][4][4];
 +    AVFrame *mconly_picture;
 +//     uint8_t q_context[16];
 +    uint8_t header_state[32];
 +    uint8_t block_state[128 + 32*128];
 +    int keyframe;
 +    int always_reset;
 +    int version;
 +    int spatial_decomposition_type;
 +    int last_spatial_decomposition_type;
 +    int temporal_decomposition_type;
 +    int spatial_decomposition_count;
 +    int last_spatial_decomposition_count;
 +    int temporal_decomposition_count;
 +    int max_ref_frames;
 +    int ref_frames;
 +    int16_t (*ref_mvs[MAX_REF_FRAMES])[2];
 +    uint32_t *ref_scores[MAX_REF_FRAMES];
 +    DWTELEM *spatial_dwt_buffer;
 +    DWTELEM *temp_dwt_buffer;
 +    IDWTELEM *spatial_idwt_buffer;
 +    IDWTELEM *temp_idwt_buffer;
 +    int *run_buffer;
 +    int colorspace_type;
 +    int chroma_h_shift;
 +    int chroma_v_shift;
 +    int spatial_scalability;
 +    int qlog;
 +    int last_qlog;
 +    int lambda;
 +    int lambda2;
 +    int pass1_rc;
 +    int mv_scale;
 +    int last_mv_scale;
 +    int qbias;
 +    int last_qbias;
 +#define QBIAS_SHIFT 3
 +    int b_width;
 +    int b_height;
 +    int block_max_depth;
 +    int last_block_max_depth;
 +    int nb_planes;
 +    Plane plane[MAX_PLANES];
 +    BlockNode *block;
 +#define ME_CACHE_SIZE 1024
 +    unsigned me_cache[ME_CACHE_SIZE];
 +    unsigned me_cache_generation;
 +    slice_buffer sb;
 +    int memc_only;
 +    int no_bitstream;
 +
 +    MpegEncContext m; // needed for motion estimation, should not be used for anything else, the idea is to eventually make the motion estimation independent of MpegEncContext, so this will be removed then (FIXME/XXX)
 +
 +    uint8_t *scratchbuf;
 +    uint8_t *emu_edge_buffer;
 +}SnowContext;
 +
 +/* Tables */
 +extern const uint8_t * const ff_obmc_tab[4];
 +extern uint8_t ff_qexp[QROOT];
 +extern int ff_scale_mv_ref[MAX_REF_FRAMES][MAX_REF_FRAMES];
 +
 +/* C bits used by mmx/sse2/altivec */
 +
 +static av_always_inline void snow_interleave_line_header(int * i, int width, IDWTELEM * low, IDWTELEM * high){
 +    (*i) = (width) - 2;
 +
 +    if (width & 1){
 +        low[(*i)+1] = low[((*i)+1)>>1];
 +        (*i)--;
 +    }
 +}
 +
 +static av_always_inline void snow_interleave_line_footer(int * i, IDWTELEM * low, IDWTELEM * high){
 +    for (; (*i)>=0; (*i)-=2){
 +        low[(*i)+1] = high[(*i)>>1];
 +        low[*i] = low[(*i)>>1];
 +    }
 +}
 +
 +static av_always_inline void snow_horizontal_compose_lift_lead_out(int i, IDWTELEM * dst, IDWTELEM * src, IDWTELEM * ref, int width, int w, int lift_high, int mul, int add, int shift){
 +    for(; i<w; i++){
 +        dst[i] = src[i] - ((mul * (ref[i] + ref[i + 1]) + add) >> shift);
 +    }
 +
 +    if((width^lift_high)&1){
 +        dst[w] = src[w] - ((mul * 2 * ref[w] + add) >> shift);
 +    }
 +}
 +
 +static av_always_inline void snow_horizontal_compose_liftS_lead_out(int i, IDWTELEM * dst, IDWTELEM * src, IDWTELEM * ref, int width, int w){
 +        for(; i<w; i++){
 +            dst[i] = src[i] + ((ref[i] + ref[(i+1)]+W_BO + 4 * src[i]) >> W_BS);
 +        }
 +
 +        if(width&1){
 +            dst[w] = src[w] + ((2 * ref[w] + W_BO + 4 * src[w]) >> W_BS);
 +        }
 +}
 +
 +/* common code */
 +
 +int ff_snow_common_init(AVCodecContext *avctx);
 +int ff_snow_common_init_after_header(AVCodecContext *avctx);
 +void ff_snow_common_end(SnowContext *s);
 +void ff_snow_release_buffer(AVCodecContext *avctx);
 +void ff_snow_reset_contexts(SnowContext *s);
 +int ff_snow_alloc_blocks(SnowContext *s);
 +int ff_snow_frame_start(SnowContext *s);
 +void ff_snow_pred_block(SnowContext *s, uint8_t *dst, uint8_t *tmp, ptrdiff_t stride,
 +                     int sx, int sy, int b_w, int b_h, BlockNode *block,
 +                     int plane_index, int w, int h);
 +int ff_snow_get_buffer(SnowContext *s, AVFrame *frame);
 +/* common inline functions */
 +//XXX doublecheck all of them should stay inlined
 +
 +static inline void snow_set_blocks(SnowContext *s, int level, int x, int y, int l, int cb, int cr, int mx, int my, int ref, int type){
 +    const int w= s->b_width << s->block_max_depth;
 +    const int rem_depth= s->block_max_depth - level;
 +    const int index= (x + y*w) << rem_depth;
 +    const int block_w= 1<<rem_depth;
 +    BlockNode block;
 +    int i,j;
 +
 +    block.color[0]= l;
 +    block.color[1]= cb;
 +    block.color[2]= cr;
 +    block.mx= mx;
 +    block.my= my;
 +    block.ref= ref;
 +    block.type= type;
 +    block.level= level;
 +
 +    for(j=0; j<block_w; j++){
 +        for(i=0; i<block_w; i++){
 +            s->block[index + i + j*w]= block;
 +        }
 +    }
 +}
 +
 +static inline void pred_mv(SnowContext *s, int *mx, int *my, int ref,
 +                           const BlockNode *left, const BlockNode *top, const BlockNode *tr){
 +    if(s->ref_frames == 1){
 +        *mx = mid_pred(left->mx, top->mx, tr->mx);
 +        *my = mid_pred(left->my, top->my, tr->my);
 +    }else{
 +        const int *scale = ff_scale_mv_ref[ref];
 +        *mx = mid_pred((left->mx * scale[left->ref] + 128) >>8,
 +                       (top ->mx * scale[top ->ref] + 128) >>8,
 +                       (tr  ->mx * scale[tr  ->ref] + 128) >>8);
 +        *my = mid_pred((left->my * scale[left->ref] + 128) >>8,
 +                       (top ->my * scale[top ->ref] + 128) >>8,
 +                       (tr  ->my * scale[tr  ->ref] + 128) >>8);
 +    }
 +}
 +
 +static av_always_inline int same_block(BlockNode *a, BlockNode *b){
 +    if((a->type&BLOCK_INTRA) && (b->type&BLOCK_INTRA)){
 +        return !((a->color[0] - b->color[0]) | (a->color[1] - b->color[1]) | (a->color[2] - b->color[2]));
 +    }else{
 +        return !((a->mx - b->mx) | (a->my - b->my) | (a->ref - b->ref) | ((a->type ^ b->type)&BLOCK_INTRA));
 +    }
 +}
 +
 +//FIXME name cleanup (b_w, block_w, b_width stuff)
 +//XXX should we really inline it?
 +static av_always_inline void add_yblock(SnowContext *s, int sliced, slice_buffer *sb, IDWTELEM *dst, uint8_t *dst8, const uint8_t *obmc, int src_x, int src_y, int b_w, int b_h, int w, int h, int dst_stride, int src_stride, int obmc_stride, int b_x, int b_y, int add, int offset_dst, int plane_index){
 +    const int b_width = s->b_width  << s->block_max_depth;
 +    const int b_height= s->b_height << s->block_max_depth;
 +    const int b_stride= b_width;
 +    BlockNode *lt= &s->block[b_x + b_y*b_stride];
 +    BlockNode *rt= lt+1;
 +    BlockNode *lb= lt+b_stride;
 +    BlockNode *rb= lb+1;
 +    uint8_t *block[4];
 +    int tmp_step= src_stride >= 7*MB_SIZE ? MB_SIZE : MB_SIZE*src_stride;
 +    uint8_t *tmp = s->scratchbuf;
 +    uint8_t *ptmp;
 +    int x,y;
 +
 +    if(b_x<0){
 +        lt= rt;
 +        lb= rb;
 +    }else if(b_x + 1 >= b_width){
 +        rt= lt;
 +        rb= lb;
 +    }
 +    if(b_y<0){
 +        lt= lb;
 +        rt= rb;
 +    }else if(b_y + 1 >= b_height){
 +        lb= lt;
 +        rb= rt;
 +    }
 +
 +    if(src_x<0){ //FIXME merge with prev & always round internal width up to *16
 +        obmc -= src_x;
 +        b_w += src_x;
 +        if(!sliced && !offset_dst)
 +            dst -= src_x;
 +        src_x=0;
 +    }
 +    if(src_x + b_w > w){
 +        b_w = w - src_x;
 +    }
 +    if(src_y<0){
 +        obmc -= src_y*obmc_stride;
 +        b_h += src_y;
 +        if(!sliced && !offset_dst)
 +            dst -= src_y*dst_stride;
 +        src_y=0;
 +    }
 +    if(src_y + b_h> h){
 +        b_h = h - src_y;
 +    }
 +
 +    if(b_w<=0 || b_h<=0) return;
 +
 +    av_assert2(src_stride > 2*MB_SIZE + 5);
 +
 +    if(!sliced && offset_dst)
 +        dst += src_x + src_y*dst_stride;
 +    dst8+= src_x + src_y*src_stride;
 +//    src += src_x + src_y*src_stride;
 +
 +    ptmp= tmp + 3*tmp_step;
 +    block[0]= ptmp;
 +    ptmp+=tmp_step;
 +    ff_snow_pred_block(s, block[0], tmp, src_stride, src_x, src_y, b_w, b_h, lt, plane_index, w, h);
 +
 +    if(same_block(lt, rt)){
 +        block[1]= block[0];
 +    }else{
 +        block[1]= ptmp;
 +        ptmp+=tmp_step;
 +        ff_snow_pred_block(s, block[1], tmp, src_stride, src_x, src_y, b_w, b_h, rt, plane_index, w, h);
 +    }
 +
 +    if(same_block(lt, lb)){
 +        block[2]= block[0];
 +    }else if(same_block(rt, lb)){
 +        block[2]= block[1];
 +    }else{
 +        block[2]= ptmp;
 +        ptmp+=tmp_step;
 +        ff_snow_pred_block(s, block[2], tmp, src_stride, src_x, src_y, b_w, b_h, lb, plane_index, w, h);
 +    }
 +
 +    if(same_block(lt, rb) ){
 +        block[3]= block[0];
 +    }else if(same_block(rt, rb)){
 +        block[3]= block[1];
 +    }else if(same_block(lb, rb)){
 +        block[3]= block[2];
 +    }else{
 +        block[3]= ptmp;
 +        ff_snow_pred_block(s, block[3], tmp, src_stride, src_x, src_y, b_w, b_h, rb, plane_index, w, h);
 +    }
 +    if(sliced){
 +        s->dwt.inner_add_yblock(obmc, obmc_stride, block, b_w, b_h, src_x,src_y, src_stride, sb, add, dst8);
 +    }else{
 +        for(y=0; y<b_h; y++){
 +            //FIXME ugly misuse of obmc_stride
 +            const uint8_t *obmc1= obmc + y*obmc_stride;
 +            const uint8_t *obmc2= obmc1+ (obmc_stride>>1);
 +            const uint8_t *obmc3= obmc1+ obmc_stride*(obmc_stride>>1);
 +            const uint8_t *obmc4= obmc3+ (obmc_stride>>1);
 +            for(x=0; x<b_w; x++){
 +                int v=   obmc1[x] * block[3][x + y*src_stride]
 +                        +obmc2[x] * block[2][x + y*src_stride]
 +                        +obmc3[x] * block[1][x + y*src_stride]
 +                        +obmc4[x] * block[0][x + y*src_stride];
 +
 +                v <<= 8 - LOG2_OBMC_MAX;
 +                if(FRAC_BITS != 8){
 +                    v >>= 8 - FRAC_BITS;
 +                }
 +                if(add){
 +                    v += dst[x + y*dst_stride];
 +                    v = (v + (1<<(FRAC_BITS-1))) >> FRAC_BITS;
 +                    if(v&(~255)) v= ~(v>>31);
 +                    dst8[x + y*src_stride] = v;
 +                }else{
 +                    dst[x + y*dst_stride] -= v;
 +                }
 +            }
 +        }
 +    }
 +}
 +
 +static av_always_inline void predict_slice(SnowContext *s, IDWTELEM *buf, int plane_index, int add, int mb_y){
 +    Plane *p= &s->plane[plane_index];
 +    const int mb_w= s->b_width  << s->block_max_depth;
 +    const int mb_h= s->b_height << s->block_max_depth;
 +    int x, y, mb_x;
 +    int block_size = MB_SIZE >> s->block_max_depth;
 +    int block_w    = plane_index ? block_size>>s->chroma_h_shift : block_size;
 +    int block_h    = plane_index ? block_size>>s->chroma_v_shift : block_size;
 +    const uint8_t *obmc  = plane_index ? ff_obmc_tab[s->block_max_depth+s->chroma_h_shift] : ff_obmc_tab[s->block_max_depth];
 +    const int obmc_stride= plane_index ? (2*block_size)>>s->chroma_h_shift : 2*block_size;
 +    int ref_stride= s->current_picture->linesize[plane_index];
 +    uint8_t *dst8= s->current_picture->data[plane_index];
 +    int w= p->width;
 +    int h= p->height;
 +    av_assert2(s->chroma_h_shift == s->chroma_v_shift); // obmc params assume squares
 +    if(s->keyframe || (s->avctx->debug&512)){
 +        if(mb_y==mb_h)
 +            return;
 +
 +        if(add){
 +            for(y=block_h*mb_y; y<FFMIN(h,block_h*(mb_y+1)); y++){
 +                for(x=0; x<w; x++){
 +                    int v= buf[x + y*w] + (128<<FRAC_BITS) + (1<<(FRAC_BITS-1));
 +                    v >>= FRAC_BITS;
 +                    if(v&(~255)) v= ~(v>>31);
 +                    dst8[x + y*ref_stride]= v;
 +                }
 +            }
 +        }else{
 +            for(y=block_h*mb_y; y<FFMIN(h,block_h*(mb_y+1)); y++){
 +                for(x=0; x<w; x++){
 +                    buf[x + y*w]-= 128<<FRAC_BITS;
 +                }
 +            }
 +        }
 +
 +        return;
 +    }
 +
 +    for(mb_x=0; mb_x<=mb_w; mb_x++){
 +        add_yblock(s, 0, NULL, buf, dst8, obmc,
 +                   block_w*mb_x - block_w/2,
 +                   block_h*mb_y - block_h/2,
 +                   block_w, block_h,
 +                   w, h,
 +                   w, ref_stride, obmc_stride,
 +                   mb_x - 1, mb_y - 1,
 +                   add, 1, plane_index);
 +    }
 +}
 +
 +static av_always_inline void predict_plane(SnowContext *s, IDWTELEM *buf, int plane_index, int add){
 +    const int mb_h= s->b_height << s->block_max_depth;
 +    int mb_y;
 +    for(mb_y=0; mb_y<=mb_h; mb_y++)
 +        predict_slice(s, buf, plane_index, add, mb_y);
 +}
 +
 +static inline void set_blocks(SnowContext *s, int level, int x, int y, int l, int cb, int cr, int mx, int my, int ref, int type){
 +    const int w= s->b_width << s->block_max_depth;
 +    const int rem_depth= s->block_max_depth - level;
 +    const int index= (x + y*w) << rem_depth;
 +    const int block_w= 1<<rem_depth;
 +    const int block_h= 1<<rem_depth; //FIXME "w!=h"
 +    BlockNode block;
 +    int i,j;
 +
 +    block.color[0]= l;
 +    block.color[1]= cb;
 +    block.color[2]= cr;
 +    block.mx= mx;
 +    block.my= my;
 +    block.ref= ref;
 +    block.type= type;
 +    block.level= level;
 +
 +    for(j=0; j<block_h; j++){
 +        for(i=0; i<block_w; i++){
 +            s->block[index + i + j*w]= block;
 +        }
 +    }
 +}
 +
 +static inline void init_ref(MotionEstContext *c, uint8_t *src[3], uint8_t *ref[3], uint8_t *ref2[3], int x, int y, int ref_index){
 +    SnowContext *s = c->avctx->priv_data;
 +    const int offset[3]= {
 +          y*c->  stride + x,
 +        ((y*c->uvstride + x)>>s->chroma_h_shift),
 +        ((y*c->uvstride + x)>>s->chroma_h_shift),
 +    };
 +    int i;
 +    for(i=0; i<3; i++){
 +        c->src[0][i]= src [i];
 +        c->ref[0][i]= ref [i] + offset[i];
 +    }
 +    av_assert2(!ref_index);
 +}
 +
 +
 +/* bitstream functions */
 +
 +extern const int8_t ff_quant3bA[256];
 +
 +#define QEXPSHIFT (7-FRAC_BITS+8) //FIXME try to change this to 0
 +
 +static inline void put_symbol(RangeCoder *c, uint8_t *state, int v, int is_signed){
 +    int i;
 +
 +    if(v){
 +        const int a= FFABS(v);
 +        const int e= av_log2(a);
 +        const int el= FFMIN(e, 10);
 +        put_rac(c, state+0, 0);
 +
 +        for(i=0; i<el; i++){
 +            put_rac(c, state+1+i, 1);  //1..10
 +        }
 +        for(; i<e; i++){
 +            put_rac(c, state+1+9, 1);  //1..10
 +        }
 +        put_rac(c, state+1+FFMIN(i,9), 0);
 +
 +        for(i=e-1; i>=el; i--){
 +            put_rac(c, state+22+9, (a>>i)&1); //22..31
 +        }
 +        for(; i>=0; i--){
 +            put_rac(c, state+22+i, (a>>i)&1); //22..31
 +        }
 +
 +        if(is_signed)
 +            put_rac(c, state+11 + el, v < 0); //11..21
 +    }else{
 +        put_rac(c, state+0, 1);
 +    }
 +}
 +
 +static inline int get_symbol(RangeCoder *c, uint8_t *state, int is_signed){
 +    if(get_rac(c, state+0))
 +        return 0;
 +    else{
 +        int i, e, a;
 +        e= 0;
 +        while(get_rac(c, state+1 + FFMIN(e,9))){ //1..10
 +            e++;
 +        }
 +
 +        a= 1;
 +        for(i=e-1; i>=0; i--){
 +            a += a + get_rac(c, state+22 + FFMIN(i,9)); //22..31
 +        }
 +
 +        e= -(is_signed && get_rac(c, state+11 + FFMIN(e,10))); //11..21
 +        return (a^e)-e;
 +    }
 +}
 +
 +static inline void put_symbol2(RangeCoder *c, uint8_t *state, int v, int log2){
 +    int i;
 +    int r= log2>=0 ? 1<<log2 : 1;
 +
 +    av_assert2(v>=0);
 +    av_assert2(log2>=-4);
 +
 +    while(v >= r){
 +        put_rac(c, state+4+log2, 1);
 +        v -= r;
 +        log2++;
 +        if(log2>0) r+=r;
 +    }
 +    put_rac(c, state+4+log2, 0);
 +
 +    for(i=log2-1; i>=0; i--){
 +        put_rac(c, state+31-i, (v>>i)&1);
 +    }
 +}
 +
 +static inline int get_symbol2(RangeCoder *c, uint8_t *state, int log2){
 +    int i;
 +    int r= log2>=0 ? 1<<log2 : 1;
 +    int v=0;
 +
 +    av_assert2(log2>=-4);
 +
 +    while(log2<28 && get_rac(c, state+4+log2)){
 +        v+= r;
 +        log2++;
 +        if(log2>0) r+=r;
 +    }
 +
 +    for(i=log2-1; i>=0; i--){
 +        v+= get_rac(c, state+31-i)<<i;
 +    }
 +
 +    return v;
 +}
 +
 +static inline void unpack_coeffs(SnowContext *s, SubBand *b, SubBand * parent, int orientation){
 +    const int w= b->width;
 +    const int h= b->height;
 +    int x,y;
 +
 +    int run, runs;
 +    x_and_coeff *xc= b->x_coeff;
 +    x_and_coeff *prev_xc= NULL;
 +    x_and_coeff *prev2_xc= xc;
 +    x_and_coeff *parent_xc= parent ? parent->x_coeff : NULL;
 +    x_and_coeff *prev_parent_xc= parent_xc;
 +
 +    runs= get_symbol2(&s->c, b->state[30], 0);
 +    if(runs-- > 0) run= get_symbol2(&s->c, b->state[1], 3);
 +    else           run= INT_MAX;
 +
 +    for(y=0; y<h; y++){
 +        int v=0;
 +        int lt=0, t=0, rt=0;
 +
 +        if(y && prev_xc->x == 0){
 +            rt= prev_xc->coeff;
 +        }
 +        for(x=0; x<w; x++){
 +            int p=0;
 +            const int l= v;
 +
 +            lt= t; t= rt;
 +
 +            if(y){
 +                if(prev_xc->x <= x)
 +                    prev_xc++;
 +                if(prev_xc->x == x + 1)
 +                    rt= prev_xc->coeff;
 +                else
 +                    rt=0;
 +            }
 +            if(parent_xc){
 +                if(x>>1 > parent_xc->x){
 +                    parent_xc++;
 +                }
 +                if(x>>1 == parent_xc->x){
 +                    p= parent_xc->coeff;
 +                }
 +            }
 +            if(/*ll|*/l|lt|t|rt|p){
 +                int context= av_log2(/*FFABS(ll) + */3*(l>>1) + (lt>>1) + (t&~1) + (rt>>1) + (p>>1));
 +
 +                v=get_rac(&s->c, &b->state[0][context]);
 +                if(v){
 +                    v= 2*(get_symbol2(&s->c, b->state[context + 2], context-4) + 1);
 +                    v+=get_rac(&s->c, &b->state[0][16 + 1 + 3 + ff_quant3bA[l&0xFF] + 3*ff_quant3bA[t&0xFF]]);
 +
 +                    xc->x=x;
 +                    (xc++)->coeff= v;
 +                }
 +            }else{
 +                if(!run){
 +                    if(runs-- > 0) run= get_symbol2(&s->c, b->state[1], 3);
 +                    else           run= INT_MAX;
 +                    v= 2*(get_symbol2(&s->c, b->state[0 + 2], 0-4) + 1);
 +                    v+=get_rac(&s->c, &b->state[0][16 + 1 + 3]);
 +
 +                    xc->x=x;
 +                    (xc++)->coeff= v;
 +                }else{
 +                    int max_run;
 +                    run--;
 +                    v=0;
 +                    av_assert2(run >= 0);
 +                    if(y) max_run= FFMIN(run, prev_xc->x - x - 2);
 +                    else  max_run= FFMIN(run, w-x-1);
 +                    if(parent_xc)
 +                        max_run= FFMIN(max_run, 2*parent_xc->x - x - 1);
 +                    av_assert2(max_run >= 0 && max_run <= run);
 +
 +                    x+= max_run;
 +                    run-= max_run;
 +                }
 +            }
 +        }
 +        (xc++)->x= w+1; //end marker
 +        prev_xc= prev2_xc;
 +        prev2_xc= xc;
 +
 +        if(parent_xc){
 +            if(y&1){
 +                while(parent_xc->x != parent->width+1)
 +                    parent_xc++;
 +                parent_xc++;
 +                prev_parent_xc= parent_xc;
 +            }else{
 +                parent_xc= prev_parent_xc;
 +            }
 +        }
 +    }
 +
 +    (xc++)->x= w+1; //end marker
 +}
 +
 +#endif /* AVCODEC_SNOW_H */
index a39cd84403813d8447a27ee3d447f09f74cfd89c,0000000000000000000000000000000000000000..cb8382154ddf8cc226b8aa9df22083ca0d9ba967
mode 100644,000000..100644
--- /dev/null
@@@ -1,2007 -1,0 +1,2007 @@@
-         s->dsp.draw_edges(s->input_picture->data[i], s->input_picture->linesize[i],
-                             width >> hshift, height >> vshift,
-                             EDGE_WIDTH >> hshift, EDGE_WIDTH >> vshift,
-                             EDGE_TOP | EDGE_BOTTOM);
 +/*
 + * Copyright (C) 2004 Michael Niedermayer <michaelni@gmx.at>
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +
 +#include "libavutil/intmath.h"
 +#include "libavutil/log.h"
 +#include "libavutil/opt.h"
 +#include "avcodec.h"
 +#include "dsputil.h"
 +#include "internal.h"
 +#include "snow_dwt.h"
 +#include "snow.h"
 +
 +#include "rangecoder.h"
 +#include "mathops.h"
 +
 +#include "mpegvideo.h"
 +#include "h263.h"
 +
 +static av_cold int encode_init(AVCodecContext *avctx)
 +{
 +    SnowContext *s = avctx->priv_data;
 +    int plane_index, ret;
 +    int i;
 +
 +    if(avctx->prediction_method == DWT_97
 +       && (avctx->flags & CODEC_FLAG_QSCALE)
 +       && avctx->global_quality == 0){
 +        av_log(avctx, AV_LOG_ERROR, "The 9/7 wavelet is incompatible with lossless mode.\n");
 +        return -1;
 +    }
 +
 +    s->spatial_decomposition_type= avctx->prediction_method; //FIXME add decorrelator type r transform_type
 +
 +    s->mv_scale       = (avctx->flags & CODEC_FLAG_QPEL) ? 2 : 4;
 +    s->block_max_depth= (avctx->flags & CODEC_FLAG_4MV ) ? 1 : 0;
 +
 +    for(plane_index=0; plane_index<3; plane_index++){
 +        s->plane[plane_index].diag_mc= 1;
 +        s->plane[plane_index].htaps= 6;
 +        s->plane[plane_index].hcoeff[0]=  40;
 +        s->plane[plane_index].hcoeff[1]= -10;
 +        s->plane[plane_index].hcoeff[2]=   2;
 +        s->plane[plane_index].fast_mc= 1;
 +    }
 +
 +    if ((ret = ff_snow_common_init(avctx)) < 0) {
 +        ff_snow_common_end(avctx->priv_data);
 +        return ret;
 +    }
 +    ff_snow_alloc_blocks(s);
 +
 +    s->version=0;
 +
 +    s->m.avctx   = avctx;
 +    s->m.flags   = avctx->flags;
 +    s->m.bit_rate= avctx->bit_rate;
 +
 +    s->m.me.temp      =
 +    s->m.me.scratchpad= av_mallocz_array((avctx->width+64), 2*16*2*sizeof(uint8_t));
 +    s->m.me.map       = av_mallocz(ME_MAP_SIZE*sizeof(uint32_t));
 +    s->m.me.score_map = av_mallocz(ME_MAP_SIZE*sizeof(uint32_t));
 +    s->m.obmc_scratchpad= av_mallocz(MB_SIZE*MB_SIZE*12*sizeof(uint32_t));
 +    if (!s->m.me.scratchpad || !s->m.me.map || !s->m.me.score_map || !s->m.obmc_scratchpad)
 +        return AVERROR(ENOMEM);
 +
 +    ff_h263_encode_init(&s->m); //mv_penalty
 +
 +    s->max_ref_frames = FFMAX(FFMIN(avctx->refs, MAX_REF_FRAMES), 1);
 +
 +    if(avctx->flags&CODEC_FLAG_PASS1){
 +        if(!avctx->stats_out)
 +            avctx->stats_out = av_mallocz(256);
 +
 +        if (!avctx->stats_out)
 +            return AVERROR(ENOMEM);
 +    }
 +    if((avctx->flags&CODEC_FLAG_PASS2) || !(avctx->flags&CODEC_FLAG_QSCALE)){
 +        if(ff_rate_control_init(&s->m) < 0)
 +            return -1;
 +    }
 +    s->pass1_rc= !(avctx->flags & (CODEC_FLAG_QSCALE|CODEC_FLAG_PASS2));
 +
 +    switch(avctx->pix_fmt){
 +    case AV_PIX_FMT_YUV444P:
 +//    case AV_PIX_FMT_YUV422P:
 +    case AV_PIX_FMT_YUV420P:
 +//    case AV_PIX_FMT_YUV411P:
 +    case AV_PIX_FMT_YUV410P:
 +        s->nb_planes = 3;
 +        s->colorspace_type= 0;
 +        break;
 +    case AV_PIX_FMT_GRAY8:
 +        s->nb_planes = 1;
 +        s->colorspace_type = 1;
 +        break;
 +/*    case AV_PIX_FMT_RGB32:
 +        s->colorspace= 1;
 +        break;*/
 +    default:
 +        av_log(avctx, AV_LOG_ERROR, "pixel format not supported\n");
 +        return -1;
 +    }
 +    avcodec_get_chroma_sub_sample(avctx->pix_fmt, &s->chroma_h_shift, &s->chroma_v_shift);
 +
 +    ff_set_cmp(&s->dsp, s->dsp.me_cmp, s->avctx->me_cmp);
 +    ff_set_cmp(&s->dsp, s->dsp.me_sub_cmp, s->avctx->me_sub_cmp);
 +
 +    s->input_picture = av_frame_alloc();
 +    if (!s->input_picture)
 +        return AVERROR(ENOMEM);
 +
 +    if ((ret = ff_snow_get_buffer(s, s->input_picture)) < 0)
 +        return ret;
 +
 +    if(s->avctx->me_method == ME_ITER){
 +        int size= s->b_width * s->b_height << 2*s->block_max_depth;
 +        for(i=0; i<s->max_ref_frames; i++){
 +            s->ref_mvs[i]= av_mallocz_array(size, sizeof(int16_t[2]));
 +            s->ref_scores[i]= av_mallocz_array(size, sizeof(uint32_t));
 +            if (!s->ref_mvs[i] || !s->ref_scores[i])
 +                return AVERROR(ENOMEM);
 +        }
 +    }
 +
 +    return 0;
 +}
 +
 +//near copy & paste from dsputil, FIXME
 +static int pix_sum(uint8_t * pix, int line_size, int w, int h)
 +{
 +    int s, i, j;
 +
 +    s = 0;
 +    for (i = 0; i < h; i++) {
 +        for (j = 0; j < w; j++) {
 +            s += pix[0];
 +            pix ++;
 +        }
 +        pix += line_size - w;
 +    }
 +    return s;
 +}
 +
 +//near copy & paste from dsputil, FIXME
 +static int pix_norm1(uint8_t * pix, int line_size, int w)
 +{
 +    int s, i, j;
 +    uint32_t *sq = ff_square_tab + 256;
 +
 +    s = 0;
 +    for (i = 0; i < w; i++) {
 +        for (j = 0; j < w; j ++) {
 +            s += sq[pix[0]];
 +            pix ++;
 +        }
 +        pix += line_size - w;
 +    }
 +    return s;
 +}
 +
 +static inline int get_penalty_factor(int lambda, int lambda2, int type){
 +    switch(type&0xFF){
 +    default:
 +    case FF_CMP_SAD:
 +        return lambda>>FF_LAMBDA_SHIFT;
 +    case FF_CMP_DCT:
 +        return (3*lambda)>>(FF_LAMBDA_SHIFT+1);
 +    case FF_CMP_W53:
 +        return (4*lambda)>>(FF_LAMBDA_SHIFT);
 +    case FF_CMP_W97:
 +        return (2*lambda)>>(FF_LAMBDA_SHIFT);
 +    case FF_CMP_SATD:
 +    case FF_CMP_DCT264:
 +        return (2*lambda)>>FF_LAMBDA_SHIFT;
 +    case FF_CMP_RD:
 +    case FF_CMP_PSNR:
 +    case FF_CMP_SSE:
 +    case FF_CMP_NSSE:
 +        return lambda2>>FF_LAMBDA_SHIFT;
 +    case FF_CMP_BIT:
 +        return 1;
 +    }
 +}
 +
 +//FIXME copy&paste
 +#define P_LEFT P[1]
 +#define P_TOP P[2]
 +#define P_TOPRIGHT P[3]
 +#define P_MEDIAN P[4]
 +#define P_MV1 P[9]
 +#define FLAG_QPEL   1 //must be 1
 +
 +static int encode_q_branch(SnowContext *s, int level, int x, int y){
 +    uint8_t p_buffer[1024];
 +    uint8_t i_buffer[1024];
 +    uint8_t p_state[sizeof(s->block_state)];
 +    uint8_t i_state[sizeof(s->block_state)];
 +    RangeCoder pc, ic;
 +    uint8_t *pbbak= s->c.bytestream;
 +    uint8_t *pbbak_start= s->c.bytestream_start;
 +    int score, score2, iscore, i_len, p_len, block_s, sum, base_bits;
 +    const int w= s->b_width  << s->block_max_depth;
 +    const int h= s->b_height << s->block_max_depth;
 +    const int rem_depth= s->block_max_depth - level;
 +    const int index= (x + y*w) << rem_depth;
 +    const int block_w= 1<<(LOG2_MB_SIZE - level);
 +    int trx= (x+1)<<rem_depth;
 +    int try= (y+1)<<rem_depth;
 +    const BlockNode *left  = x ? &s->block[index-1] : &null_block;
 +    const BlockNode *top   = y ? &s->block[index-w] : &null_block;
 +    const BlockNode *right = trx<w ? &s->block[index+1] : &null_block;
 +    const BlockNode *bottom= try<h ? &s->block[index+w] : &null_block;
 +    const BlockNode *tl    = y && x ? &s->block[index-w-1] : left;
 +    const BlockNode *tr    = y && trx<w && ((x&1)==0 || level==0) ? &s->block[index-w+(1<<rem_depth)] : tl; //FIXME use lt
 +    int pl = left->color[0];
 +    int pcb= left->color[1];
 +    int pcr= left->color[2];
 +    int pmx, pmy;
 +    int mx=0, my=0;
 +    int l,cr,cb;
 +    const int stride= s->current_picture->linesize[0];
 +    const int uvstride= s->current_picture->linesize[1];
 +    uint8_t *current_data[3]= { s->input_picture->data[0] + (x + y*  stride)*block_w,
 +                                s->input_picture->data[1] + ((x*block_w)>>s->chroma_h_shift) + ((y*uvstride*block_w)>>s->chroma_v_shift),
 +                                s->input_picture->data[2] + ((x*block_w)>>s->chroma_h_shift) + ((y*uvstride*block_w)>>s->chroma_v_shift)};
 +    int P[10][2];
 +    int16_t last_mv[3][2];
 +    int qpel= !!(s->avctx->flags & CODEC_FLAG_QPEL); //unused
 +    const int shift= 1+qpel;
 +    MotionEstContext *c= &s->m.me;
 +    int ref_context= av_log2(2*left->ref) + av_log2(2*top->ref);
 +    int mx_context= av_log2(2*FFABS(left->mx - top->mx));
 +    int my_context= av_log2(2*FFABS(left->my - top->my));
 +    int s_context= 2*left->level + 2*top->level + tl->level + tr->level;
 +    int ref, best_ref, ref_score, ref_mx, ref_my;
 +
 +    av_assert0(sizeof(s->block_state) >= 256);
 +    if(s->keyframe){
 +        set_blocks(s, level, x, y, pl, pcb, pcr, 0, 0, 0, BLOCK_INTRA);
 +        return 0;
 +    }
 +
 +//    clip predictors / edge ?
 +
 +    P_LEFT[0]= left->mx;
 +    P_LEFT[1]= left->my;
 +    P_TOP [0]= top->mx;
 +    P_TOP [1]= top->my;
 +    P_TOPRIGHT[0]= tr->mx;
 +    P_TOPRIGHT[1]= tr->my;
 +
 +    last_mv[0][0]= s->block[index].mx;
 +    last_mv[0][1]= s->block[index].my;
 +    last_mv[1][0]= right->mx;
 +    last_mv[1][1]= right->my;
 +    last_mv[2][0]= bottom->mx;
 +    last_mv[2][1]= bottom->my;
 +
 +    s->m.mb_stride=2;
 +    s->m.mb_x=
 +    s->m.mb_y= 0;
 +    c->skip= 0;
 +
 +    av_assert1(c->  stride ==   stride);
 +    av_assert1(c->uvstride == uvstride);
 +
 +    c->penalty_factor    = get_penalty_factor(s->lambda, s->lambda2, c->avctx->me_cmp);
 +    c->sub_penalty_factor= get_penalty_factor(s->lambda, s->lambda2, c->avctx->me_sub_cmp);
 +    c->mb_penalty_factor = get_penalty_factor(s->lambda, s->lambda2, c->avctx->mb_cmp);
 +    c->current_mv_penalty= c->mv_penalty[s->m.f_code=1] + MAX_MV;
 +
 +    c->xmin = - x*block_w - 16+3;
 +    c->ymin = - y*block_w - 16+3;
 +    c->xmax = - (x+1)*block_w + (w<<(LOG2_MB_SIZE - s->block_max_depth)) + 16-3;
 +    c->ymax = - (y+1)*block_w + (h<<(LOG2_MB_SIZE - s->block_max_depth)) + 16-3;
 +
 +    if(P_LEFT[0]     > (c->xmax<<shift)) P_LEFT[0]    = (c->xmax<<shift);
 +    if(P_LEFT[1]     > (c->ymax<<shift)) P_LEFT[1]    = (c->ymax<<shift);
 +    if(P_TOP[0]      > (c->xmax<<shift)) P_TOP[0]     = (c->xmax<<shift);
 +    if(P_TOP[1]      > (c->ymax<<shift)) P_TOP[1]     = (c->ymax<<shift);
 +    if(P_TOPRIGHT[0] < (c->xmin<<shift)) P_TOPRIGHT[0]= (c->xmin<<shift);
 +    if(P_TOPRIGHT[0] > (c->xmax<<shift)) P_TOPRIGHT[0]= (c->xmax<<shift); //due to pmx no clip
 +    if(P_TOPRIGHT[1] > (c->ymax<<shift)) P_TOPRIGHT[1]= (c->ymax<<shift);
 +
 +    P_MEDIAN[0]= mid_pred(P_LEFT[0], P_TOP[0], P_TOPRIGHT[0]);
 +    P_MEDIAN[1]= mid_pred(P_LEFT[1], P_TOP[1], P_TOPRIGHT[1]);
 +
 +    if (!y) {
 +        c->pred_x= P_LEFT[0];
 +        c->pred_y= P_LEFT[1];
 +    } else {
 +        c->pred_x = P_MEDIAN[0];
 +        c->pred_y = P_MEDIAN[1];
 +    }
 +
 +    score= INT_MAX;
 +    best_ref= 0;
 +    for(ref=0; ref<s->ref_frames; ref++){
 +        init_ref(c, current_data, s->last_picture[ref]->data, NULL, block_w*x, block_w*y, 0);
 +
 +        ref_score= ff_epzs_motion_search(&s->m, &ref_mx, &ref_my, P, 0, /*ref_index*/ 0, last_mv,
 +                                         (1<<16)>>shift, level-LOG2_MB_SIZE+4, block_w);
 +
 +        av_assert2(ref_mx >= c->xmin);
 +        av_assert2(ref_mx <= c->xmax);
 +        av_assert2(ref_my >= c->ymin);
 +        av_assert2(ref_my <= c->ymax);
 +
 +        ref_score= c->sub_motion_search(&s->m, &ref_mx, &ref_my, ref_score, 0, 0, level-LOG2_MB_SIZE+4, block_w);
 +        ref_score= ff_get_mb_score(&s->m, ref_mx, ref_my, 0, 0, level-LOG2_MB_SIZE+4, block_w, 0);
 +        ref_score+= 2*av_log2(2*ref)*c->penalty_factor;
 +        if(s->ref_mvs[ref]){
 +            s->ref_mvs[ref][index][0]= ref_mx;
 +            s->ref_mvs[ref][index][1]= ref_my;
 +            s->ref_scores[ref][index]= ref_score;
 +        }
 +        if(score > ref_score){
 +            score= ref_score;
 +            best_ref= ref;
 +            mx= ref_mx;
 +            my= ref_my;
 +        }
 +    }
 +    //FIXME if mb_cmp != SSE then intra cannot be compared currently and mb_penalty vs. lambda2
 +
 +  //  subpel search
 +    base_bits= get_rac_count(&s->c) - 8*(s->c.bytestream - s->c.bytestream_start);
 +    pc= s->c;
 +    pc.bytestream_start=
 +    pc.bytestream= p_buffer; //FIXME end/start? and at the other stoo
 +    memcpy(p_state, s->block_state, sizeof(s->block_state));
 +
 +    if(level!=s->block_max_depth)
 +        put_rac(&pc, &p_state[4 + s_context], 1);
 +    put_rac(&pc, &p_state[1 + left->type + top->type], 0);
 +    if(s->ref_frames > 1)
 +        put_symbol(&pc, &p_state[128 + 1024 + 32*ref_context], best_ref, 0);
 +    pred_mv(s, &pmx, &pmy, best_ref, left, top, tr);
 +    put_symbol(&pc, &p_state[128 + 32*(mx_context + 16*!!best_ref)], mx - pmx, 1);
 +    put_symbol(&pc, &p_state[128 + 32*(my_context + 16*!!best_ref)], my - pmy, 1);
 +    p_len= pc.bytestream - pc.bytestream_start;
 +    score += (s->lambda2*(get_rac_count(&pc)-base_bits))>>FF_LAMBDA_SHIFT;
 +
 +    block_s= block_w*block_w;
 +    sum = pix_sum(current_data[0], stride, block_w, block_w);
 +    l= (sum + block_s/2)/block_s;
 +    iscore = pix_norm1(current_data[0], stride, block_w) - 2*l*sum + l*l*block_s;
 +
 +    if (s->nb_planes > 2) {
 +        block_s= block_w*block_w>>(s->chroma_h_shift + s->chroma_v_shift);
 +        sum = pix_sum(current_data[1], uvstride, block_w>>s->chroma_h_shift, block_w>>s->chroma_v_shift);
 +        cb= (sum + block_s/2)/block_s;
 +    //    iscore += pix_norm1(&current_mb[1][0], uvstride, block_w>>1) - 2*cb*sum + cb*cb*block_s;
 +        sum = pix_sum(current_data[2], uvstride, block_w>>s->chroma_h_shift, block_w>>s->chroma_v_shift);
 +        cr= (sum + block_s/2)/block_s;
 +    //    iscore += pix_norm1(&current_mb[2][0], uvstride, block_w>>1) - 2*cr*sum + cr*cr*block_s;
 +    }else
 +        cb = cr = 0;
 +
 +    ic= s->c;
 +    ic.bytestream_start=
 +    ic.bytestream= i_buffer; //FIXME end/start? and at the other stoo
 +    memcpy(i_state, s->block_state, sizeof(s->block_state));
 +    if(level!=s->block_max_depth)
 +        put_rac(&ic, &i_state[4 + s_context], 1);
 +    put_rac(&ic, &i_state[1 + left->type + top->type], 1);
 +    put_symbol(&ic, &i_state[32],  l-pl , 1);
 +    if (s->nb_planes > 2) {
 +        put_symbol(&ic, &i_state[64], cb-pcb, 1);
 +        put_symbol(&ic, &i_state[96], cr-pcr, 1);
 +    }
 +    i_len= ic.bytestream - ic.bytestream_start;
 +    iscore += (s->lambda2*(get_rac_count(&ic)-base_bits))>>FF_LAMBDA_SHIFT;
 +
 +//    assert(score==256*256*256*64-1);
 +    av_assert1(iscore < 255*255*256 + s->lambda2*10);
 +    av_assert1(iscore >= 0);
 +    av_assert1(l>=0 && l<=255);
 +    av_assert1(pl>=0 && pl<=255);
 +
 +    if(level==0){
 +        int varc= iscore >> 8;
 +        int vard= score >> 8;
 +        if (vard <= 64 || vard < varc)
 +            c->scene_change_score+= ff_sqrt(vard) - ff_sqrt(varc);
 +        else
 +            c->scene_change_score+= s->m.qscale;
 +    }
 +
 +    if(level!=s->block_max_depth){
 +        put_rac(&s->c, &s->block_state[4 + s_context], 0);
 +        score2 = encode_q_branch(s, level+1, 2*x+0, 2*y+0);
 +        score2+= encode_q_branch(s, level+1, 2*x+1, 2*y+0);
 +        score2+= encode_q_branch(s, level+1, 2*x+0, 2*y+1);
 +        score2+= encode_q_branch(s, level+1, 2*x+1, 2*y+1);
 +        score2+= s->lambda2>>FF_LAMBDA_SHIFT; //FIXME exact split overhead
 +
 +        if(score2 < score && score2 < iscore)
 +            return score2;
 +    }
 +
 +    if(iscore < score){
 +        pred_mv(s, &pmx, &pmy, 0, left, top, tr);
 +        memcpy(pbbak, i_buffer, i_len);
 +        s->c= ic;
 +        s->c.bytestream_start= pbbak_start;
 +        s->c.bytestream= pbbak + i_len;
 +        set_blocks(s, level, x, y, l, cb, cr, pmx, pmy, 0, BLOCK_INTRA);
 +        memcpy(s->block_state, i_state, sizeof(s->block_state));
 +        return iscore;
 +    }else{
 +        memcpy(pbbak, p_buffer, p_len);
 +        s->c= pc;
 +        s->c.bytestream_start= pbbak_start;
 +        s->c.bytestream= pbbak + p_len;
 +        set_blocks(s, level, x, y, pl, pcb, pcr, mx, my, best_ref, 0);
 +        memcpy(s->block_state, p_state, sizeof(s->block_state));
 +        return score;
 +    }
 +}
 +
 +static void encode_q_branch2(SnowContext *s, int level, int x, int y){
 +    const int w= s->b_width  << s->block_max_depth;
 +    const int rem_depth= s->block_max_depth - level;
 +    const int index= (x + y*w) << rem_depth;
 +    int trx= (x+1)<<rem_depth;
 +    BlockNode *b= &s->block[index];
 +    const BlockNode *left  = x ? &s->block[index-1] : &null_block;
 +    const BlockNode *top   = y ? &s->block[index-w] : &null_block;
 +    const BlockNode *tl    = y && x ? &s->block[index-w-1] : left;
 +    const BlockNode *tr    = y && trx<w && ((x&1)==0 || level==0) ? &s->block[index-w+(1<<rem_depth)] : tl; //FIXME use lt
 +    int pl = left->color[0];
 +    int pcb= left->color[1];
 +    int pcr= left->color[2];
 +    int pmx, pmy;
 +    int ref_context= av_log2(2*left->ref) + av_log2(2*top->ref);
 +    int mx_context= av_log2(2*FFABS(left->mx - top->mx)) + 16*!!b->ref;
 +    int my_context= av_log2(2*FFABS(left->my - top->my)) + 16*!!b->ref;
 +    int s_context= 2*left->level + 2*top->level + tl->level + tr->level;
 +
 +    if(s->keyframe){
 +        set_blocks(s, level, x, y, pl, pcb, pcr, 0, 0, 0, BLOCK_INTRA);
 +        return;
 +    }
 +
 +    if(level!=s->block_max_depth){
 +        if(same_block(b,b+1) && same_block(b,b+w) && same_block(b,b+w+1)){
 +            put_rac(&s->c, &s->block_state[4 + s_context], 1);
 +        }else{
 +            put_rac(&s->c, &s->block_state[4 + s_context], 0);
 +            encode_q_branch2(s, level+1, 2*x+0, 2*y+0);
 +            encode_q_branch2(s, level+1, 2*x+1, 2*y+0);
 +            encode_q_branch2(s, level+1, 2*x+0, 2*y+1);
 +            encode_q_branch2(s, level+1, 2*x+1, 2*y+1);
 +            return;
 +        }
 +    }
 +    if(b->type & BLOCK_INTRA){
 +        pred_mv(s, &pmx, &pmy, 0, left, top, tr);
 +        put_rac(&s->c, &s->block_state[1 + (left->type&1) + (top->type&1)], 1);
 +        put_symbol(&s->c, &s->block_state[32], b->color[0]-pl , 1);
 +        if (s->nb_planes > 2) {
 +            put_symbol(&s->c, &s->block_state[64], b->color[1]-pcb, 1);
 +            put_symbol(&s->c, &s->block_state[96], b->color[2]-pcr, 1);
 +        }
 +        set_blocks(s, level, x, y, b->color[0], b->color[1], b->color[2], pmx, pmy, 0, BLOCK_INTRA);
 +    }else{
 +        pred_mv(s, &pmx, &pmy, b->ref, left, top, tr);
 +        put_rac(&s->c, &s->block_state[1 + (left->type&1) + (top->type&1)], 0);
 +        if(s->ref_frames > 1)
 +            put_symbol(&s->c, &s->block_state[128 + 1024 + 32*ref_context], b->ref, 0);
 +        put_symbol(&s->c, &s->block_state[128 + 32*mx_context], b->mx - pmx, 1);
 +        put_symbol(&s->c, &s->block_state[128 + 32*my_context], b->my - pmy, 1);
 +        set_blocks(s, level, x, y, pl, pcb, pcr, b->mx, b->my, b->ref, 0);
 +    }
 +}
 +
 +static int get_dc(SnowContext *s, int mb_x, int mb_y, int plane_index){
 +    int i, x2, y2;
 +    Plane *p= &s->plane[plane_index];
 +    const int block_size = MB_SIZE >> s->block_max_depth;
 +    const int block_w    = plane_index ? block_size>>s->chroma_h_shift : block_size;
 +    const int block_h    = plane_index ? block_size>>s->chroma_v_shift : block_size;
 +    const uint8_t *obmc  = plane_index ? ff_obmc_tab[s->block_max_depth+s->chroma_h_shift] : ff_obmc_tab[s->block_max_depth];
 +    const int obmc_stride= plane_index ? (2*block_size)>>s->chroma_h_shift : 2*block_size;
 +    const int ref_stride= s->current_picture->linesize[plane_index];
 +    uint8_t *src= s-> input_picture->data[plane_index];
 +    IDWTELEM *dst= (IDWTELEM*)s->m.obmc_scratchpad + plane_index*block_size*block_size*4; //FIXME change to unsigned
 +    const int b_stride = s->b_width << s->block_max_depth;
 +    const int w= p->width;
 +    const int h= p->height;
 +    int index= mb_x + mb_y*b_stride;
 +    BlockNode *b= &s->block[index];
 +    BlockNode backup= *b;
 +    int ab=0;
 +    int aa=0;
 +
 +    av_assert2(s->chroma_h_shift == s->chroma_v_shift); //obmc stuff above
 +
 +    b->type|= BLOCK_INTRA;
 +    b->color[plane_index]= 0;
 +    memset(dst, 0, obmc_stride*obmc_stride*sizeof(IDWTELEM));
 +
 +    for(i=0; i<4; i++){
 +        int mb_x2= mb_x + (i &1) - 1;
 +        int mb_y2= mb_y + (i>>1) - 1;
 +        int x= block_w*mb_x2 + block_w/2;
 +        int y= block_h*mb_y2 + block_h/2;
 +
 +        add_yblock(s, 0, NULL, dst + (i&1)*block_w + (i>>1)*obmc_stride*block_h, NULL, obmc,
 +                    x, y, block_w, block_h, w, h, obmc_stride, ref_stride, obmc_stride, mb_x2, mb_y2, 0, 0, plane_index);
 +
 +        for(y2= FFMAX(y, 0); y2<FFMIN(h, y+block_h); y2++){
 +            for(x2= FFMAX(x, 0); x2<FFMIN(w, x+block_w); x2++){
 +                int index= x2-(block_w*mb_x - block_w/2) + (y2-(block_h*mb_y - block_h/2))*obmc_stride;
 +                int obmc_v= obmc[index];
 +                int d;
 +                if(y<0) obmc_v += obmc[index + block_h*obmc_stride];
 +                if(x<0) obmc_v += obmc[index + block_w];
 +                if(y+block_h>h) obmc_v += obmc[index - block_h*obmc_stride];
 +                if(x+block_w>w) obmc_v += obmc[index - block_w];
 +                //FIXME precalculate this or simplify it somehow else
 +
 +                d = -dst[index] + (1<<(FRAC_BITS-1));
 +                dst[index] = d;
 +                ab += (src[x2 + y2*ref_stride] - (d>>FRAC_BITS)) * obmc_v;
 +                aa += obmc_v * obmc_v; //FIXME precalculate this
 +            }
 +        }
 +    }
 +    *b= backup;
 +
 +    return av_clip( ROUNDED_DIV(ab<<LOG2_OBMC_MAX, aa), 0, 255); //FIXME we should not need clipping
 +}
 +
 +static inline int get_block_bits(SnowContext *s, int x, int y, int w){
 +    const int b_stride = s->b_width << s->block_max_depth;
 +    const int b_height = s->b_height<< s->block_max_depth;
 +    int index= x + y*b_stride;
 +    const BlockNode *b     = &s->block[index];
 +    const BlockNode *left  = x ? &s->block[index-1] : &null_block;
 +    const BlockNode *top   = y ? &s->block[index-b_stride] : &null_block;
 +    const BlockNode *tl    = y && x ? &s->block[index-b_stride-1] : left;
 +    const BlockNode *tr    = y && x+w<b_stride ? &s->block[index-b_stride+w] : tl;
 +    int dmx, dmy;
 +//  int mx_context= av_log2(2*FFABS(left->mx - top->mx));
 +//  int my_context= av_log2(2*FFABS(left->my - top->my));
 +
 +    if(x<0 || x>=b_stride || y>=b_height)
 +        return 0;
 +/*
 +1            0      0
 +01X          1-2    1
 +001XX        3-6    2-3
 +0001XXX      7-14   4-7
 +00001XXXX   15-30   8-15
 +*/
 +//FIXME try accurate rate
 +//FIXME intra and inter predictors if surrounding blocks are not the same type
 +    if(b->type & BLOCK_INTRA){
 +        return 3+2*( av_log2(2*FFABS(left->color[0] - b->color[0]))
 +                   + av_log2(2*FFABS(left->color[1] - b->color[1]))
 +                   + av_log2(2*FFABS(left->color[2] - b->color[2])));
 +    }else{
 +        pred_mv(s, &dmx, &dmy, b->ref, left, top, tr);
 +        dmx-= b->mx;
 +        dmy-= b->my;
 +        return 2*(1 + av_log2(2*FFABS(dmx)) //FIXME kill the 2* can be merged in lambda
 +                    + av_log2(2*FFABS(dmy))
 +                    + av_log2(2*b->ref));
 +    }
 +}
 +
 +static int get_block_rd(SnowContext *s, int mb_x, int mb_y, int plane_index, uint8_t (*obmc_edged)[MB_SIZE * 2]){
 +    Plane *p= &s->plane[plane_index];
 +    const int block_size = MB_SIZE >> s->block_max_depth;
 +    const int block_w    = plane_index ? block_size>>s->chroma_h_shift : block_size;
 +    const int block_h    = plane_index ? block_size>>s->chroma_v_shift : block_size;
 +    const int obmc_stride= plane_index ? (2*block_size)>>s->chroma_h_shift : 2*block_size;
 +    const int ref_stride= s->current_picture->linesize[plane_index];
 +    uint8_t *dst= s->current_picture->data[plane_index];
 +    uint8_t *src= s->  input_picture->data[plane_index];
 +    IDWTELEM *pred= (IDWTELEM*)s->m.obmc_scratchpad + plane_index*block_size*block_size*4;
 +    uint8_t *cur = s->scratchbuf;
 +    uint8_t *tmp = s->emu_edge_buffer;
 +    const int b_stride = s->b_width << s->block_max_depth;
 +    const int b_height = s->b_height<< s->block_max_depth;
 +    const int w= p->width;
 +    const int h= p->height;
 +    int distortion;
 +    int rate= 0;
 +    const int penalty_factor= get_penalty_factor(s->lambda, s->lambda2, s->avctx->me_cmp);
 +    int sx= block_w*mb_x - block_w/2;
 +    int sy= block_h*mb_y - block_h/2;
 +    int x0= FFMAX(0,-sx);
 +    int y0= FFMAX(0,-sy);
 +    int x1= FFMIN(block_w*2, w-sx);
 +    int y1= FFMIN(block_h*2, h-sy);
 +    int i,x,y;
 +
 +    av_assert2(s->chroma_h_shift == s->chroma_v_shift); //obmc and square assumtions below chckinhg only block_w
 +
 +    ff_snow_pred_block(s, cur, tmp, ref_stride, sx, sy, block_w*2, block_h*2, &s->block[mb_x + mb_y*b_stride], plane_index, w, h);
 +
 +    for(y=y0; y<y1; y++){
 +        const uint8_t *obmc1= obmc_edged[y];
 +        const IDWTELEM *pred1 = pred + y*obmc_stride;
 +        uint8_t *cur1 = cur + y*ref_stride;
 +        uint8_t *dst1 = dst + sx + (sy+y)*ref_stride;
 +        for(x=x0; x<x1; x++){
 +#if FRAC_BITS >= LOG2_OBMC_MAX
 +            int v = (cur1[x] * obmc1[x]) << (FRAC_BITS - LOG2_OBMC_MAX);
 +#else
 +            int v = (cur1[x] * obmc1[x] + (1<<(LOG2_OBMC_MAX - FRAC_BITS-1))) >> (LOG2_OBMC_MAX - FRAC_BITS);
 +#endif
 +            v = (v + pred1[x]) >> FRAC_BITS;
 +            if(v&(~255)) v= ~(v>>31);
 +            dst1[x] = v;
 +        }
 +    }
 +
 +    /* copy the regions where obmc[] = (uint8_t)256 */
 +    if(LOG2_OBMC_MAX == 8
 +        && (mb_x == 0 || mb_x == b_stride-1)
 +        && (mb_y == 0 || mb_y == b_height-1)){
 +        if(mb_x == 0)
 +            x1 = block_w;
 +        else
 +            x0 = block_w;
 +        if(mb_y == 0)
 +            y1 = block_h;
 +        else
 +            y0 = block_h;
 +        for(y=y0; y<y1; y++)
 +            memcpy(dst + sx+x0 + (sy+y)*ref_stride, cur + x0 + y*ref_stride, x1-x0);
 +    }
 +
 +    if(block_w==16){
 +        /* FIXME rearrange dsputil to fit 32x32 cmp functions */
 +        /* FIXME check alignment of the cmp wavelet vs the encoding wavelet */
 +        /* FIXME cmps overlap but do not cover the wavelet's whole support.
 +         * So improving the score of one block is not strictly guaranteed
 +         * to improve the score of the whole frame, thus iterative motion
 +         * estimation does not always converge. */
 +        if(s->avctx->me_cmp == FF_CMP_W97)
 +            distortion = ff_w97_32_c(&s->m, src + sx + sy*ref_stride, dst + sx + sy*ref_stride, ref_stride, 32);
 +        else if(s->avctx->me_cmp == FF_CMP_W53)
 +            distortion = ff_w53_32_c(&s->m, src + sx + sy*ref_stride, dst + sx + sy*ref_stride, ref_stride, 32);
 +        else{
 +            distortion = 0;
 +            for(i=0; i<4; i++){
 +                int off = sx+16*(i&1) + (sy+16*(i>>1))*ref_stride;
 +                distortion += s->dsp.me_cmp[0](&s->m, src + off, dst + off, ref_stride, 16);
 +            }
 +        }
 +    }else{
 +        av_assert2(block_w==8);
 +        distortion = s->dsp.me_cmp[0](&s->m, src + sx + sy*ref_stride, dst + sx + sy*ref_stride, ref_stride, block_w*2);
 +    }
 +
 +    if(plane_index==0){
 +        for(i=0; i<4; i++){
 +/* ..RRr
 + * .RXx.
 + * rxx..
 + */
 +            rate += get_block_bits(s, mb_x + (i&1) - (i>>1), mb_y + (i>>1), 1);
 +        }
 +        if(mb_x == b_stride-2)
 +            rate += get_block_bits(s, mb_x + 1, mb_y + 1, 1);
 +    }
 +    return distortion + rate*penalty_factor;
 +}
 +
 +static int get_4block_rd(SnowContext *s, int mb_x, int mb_y, int plane_index){
 +    int i, y2;
 +    Plane *p= &s->plane[plane_index];
 +    const int block_size = MB_SIZE >> s->block_max_depth;
 +    const int block_w    = plane_index ? block_size>>s->chroma_h_shift : block_size;
 +    const int block_h    = plane_index ? block_size>>s->chroma_v_shift : block_size;
 +    const uint8_t *obmc  = plane_index ? ff_obmc_tab[s->block_max_depth+s->chroma_h_shift] : ff_obmc_tab[s->block_max_depth];
 +    const int obmc_stride= plane_index ? (2*block_size)>>s->chroma_h_shift : 2*block_size;
 +    const int ref_stride= s->current_picture->linesize[plane_index];
 +    uint8_t *dst= s->current_picture->data[plane_index];
 +    uint8_t *src= s-> input_picture->data[plane_index];
 +    //FIXME zero_dst is const but add_yblock changes dst if add is 0 (this is never the case for dst=zero_dst
 +    // const has only been removed from zero_dst to suppress a warning
 +    static IDWTELEM zero_dst[4096]; //FIXME
 +    const int b_stride = s->b_width << s->block_max_depth;
 +    const int w= p->width;
 +    const int h= p->height;
 +    int distortion= 0;
 +    int rate= 0;
 +    const int penalty_factor= get_penalty_factor(s->lambda, s->lambda2, s->avctx->me_cmp);
 +
 +    av_assert2(s->chroma_h_shift == s->chroma_v_shift); //obmc and square assumtions below
 +
 +    for(i=0; i<9; i++){
 +        int mb_x2= mb_x + (i%3) - 1;
 +        int mb_y2= mb_y + (i/3) - 1;
 +        int x= block_w*mb_x2 + block_w/2;
 +        int y= block_h*mb_y2 + block_h/2;
 +
 +        add_yblock(s, 0, NULL, zero_dst, dst, obmc,
 +                   x, y, block_w, block_h, w, h, /*dst_stride*/0, ref_stride, obmc_stride, mb_x2, mb_y2, 1, 1, plane_index);
 +
 +        //FIXME find a cleaner/simpler way to skip the outside stuff
 +        for(y2= y; y2<0; y2++)
 +            memcpy(dst + x + y2*ref_stride, src + x + y2*ref_stride, block_w);
 +        for(y2= h; y2<y+block_h; y2++)
 +            memcpy(dst + x + y2*ref_stride, src + x + y2*ref_stride, block_w);
 +        if(x<0){
 +            for(y2= y; y2<y+block_h; y2++)
 +                memcpy(dst + x + y2*ref_stride, src + x + y2*ref_stride, -x);
 +        }
 +        if(x+block_w > w){
 +            for(y2= y; y2<y+block_h; y2++)
 +                memcpy(dst + w + y2*ref_stride, src + w + y2*ref_stride, x+block_w - w);
 +        }
 +
 +        av_assert1(block_w== 8 || block_w==16);
 +        distortion += s->dsp.me_cmp[block_w==8](&s->m, src + x + y*ref_stride, dst + x + y*ref_stride, ref_stride, block_h);
 +    }
 +
 +    if(plane_index==0){
 +        BlockNode *b= &s->block[mb_x+mb_y*b_stride];
 +        int merged= same_block(b,b+1) && same_block(b,b+b_stride) && same_block(b,b+b_stride+1);
 +
 +/* ..RRRr
 + * .RXXx.
 + * .RXXx.
 + * rxxx.
 + */
 +        if(merged)
 +            rate = get_block_bits(s, mb_x, mb_y, 2);
 +        for(i=merged?4:0; i<9; i++){
 +            static const int dxy[9][2] = {{0,0},{1,0},{0,1},{1,1},{2,0},{2,1},{-1,2},{0,2},{1,2}};
 +            rate += get_block_bits(s, mb_x + dxy[i][0], mb_y + dxy[i][1], 1);
 +        }
 +    }
 +    return distortion + rate*penalty_factor;
 +}
 +
 +static int encode_subband_c0run(SnowContext *s, SubBand *b, const IDWTELEM *src, const IDWTELEM *parent, int stride, int orientation){
 +    const int w= b->width;
 +    const int h= b->height;
 +    int x, y;
 +
 +    if(1){
 +        int run=0;
 +        int *runs = s->run_buffer;
 +        int run_index=0;
 +        int max_index;
 +
 +        for(y=0; y<h; y++){
 +            for(x=0; x<w; x++){
 +                int v, p=0;
 +                int /*ll=0, */l=0, lt=0, t=0, rt=0;
 +                v= src[x + y*stride];
 +
 +                if(y){
 +                    t= src[x + (y-1)*stride];
 +                    if(x){
 +                        lt= src[x - 1 + (y-1)*stride];
 +                    }
 +                    if(x + 1 < w){
 +                        rt= src[x + 1 + (y-1)*stride];
 +                    }
 +                }
 +                if(x){
 +                    l= src[x - 1 + y*stride];
 +                    /*if(x > 1){
 +                        if(orientation==1) ll= src[y + (x-2)*stride];
 +                        else               ll= src[x - 2 + y*stride];
 +                    }*/
 +                }
 +                if(parent){
 +                    int px= x>>1;
 +                    int py= y>>1;
 +                    if(px<b->parent->width && py<b->parent->height)
 +                        p= parent[px + py*2*stride];
 +                }
 +                if(!(/*ll|*/l|lt|t|rt|p)){
 +                    if(v){
 +                        runs[run_index++]= run;
 +                        run=0;
 +                    }else{
 +                        run++;
 +                    }
 +                }
 +            }
 +        }
 +        max_index= run_index;
 +        runs[run_index++]= run;
 +        run_index=0;
 +        run= runs[run_index++];
 +
 +        put_symbol2(&s->c, b->state[30], max_index, 0);
 +        if(run_index <= max_index)
 +            put_symbol2(&s->c, b->state[1], run, 3);
 +
 +        for(y=0; y<h; y++){
 +            if(s->c.bytestream_end - s->c.bytestream < w*40){
 +                av_log(s->avctx, AV_LOG_ERROR, "encoded frame too large\n");
 +                return -1;
 +            }
 +            for(x=0; x<w; x++){
 +                int v, p=0;
 +                int /*ll=0, */l=0, lt=0, t=0, rt=0;
 +                v= src[x + y*stride];
 +
 +                if(y){
 +                    t= src[x + (y-1)*stride];
 +                    if(x){
 +                        lt= src[x - 1 + (y-1)*stride];
 +                    }
 +                    if(x + 1 < w){
 +                        rt= src[x + 1 + (y-1)*stride];
 +                    }
 +                }
 +                if(x){
 +                    l= src[x - 1 + y*stride];
 +                    /*if(x > 1){
 +                        if(orientation==1) ll= src[y + (x-2)*stride];
 +                        else               ll= src[x - 2 + y*stride];
 +                    }*/
 +                }
 +                if(parent){
 +                    int px= x>>1;
 +                    int py= y>>1;
 +                    if(px<b->parent->width && py<b->parent->height)
 +                        p= parent[px + py*2*stride];
 +                }
 +                if(/*ll|*/l|lt|t|rt|p){
 +                    int context= av_log2(/*FFABS(ll) + */3*FFABS(l) + FFABS(lt) + 2*FFABS(t) + FFABS(rt) + FFABS(p));
 +
 +                    put_rac(&s->c, &b->state[0][context], !!v);
 +                }else{
 +                    if(!run){
 +                        run= runs[run_index++];
 +
 +                        if(run_index <= max_index)
 +                            put_symbol2(&s->c, b->state[1], run, 3);
 +                        av_assert2(v);
 +                    }else{
 +                        run--;
 +                        av_assert2(!v);
 +                    }
 +                }
 +                if(v){
 +                    int context= av_log2(/*FFABS(ll) + */3*FFABS(l) + FFABS(lt) + 2*FFABS(t) + FFABS(rt) + FFABS(p));
 +                    int l2= 2*FFABS(l) + (l<0);
 +                    int t2= 2*FFABS(t) + (t<0);
 +
 +                    put_symbol2(&s->c, b->state[context + 2], FFABS(v)-1, context-4);
 +                    put_rac(&s->c, &b->state[0][16 + 1 + 3 + ff_quant3bA[l2&0xFF] + 3*ff_quant3bA[t2&0xFF]], v<0);
 +                }
 +            }
 +        }
 +    }
 +    return 0;
 +}
 +
 +static int encode_subband(SnowContext *s, SubBand *b, const IDWTELEM *src, const IDWTELEM *parent, int stride, int orientation){
 +//    encode_subband_qtree(s, b, src, parent, stride, orientation);
 +//    encode_subband_z0run(s, b, src, parent, stride, orientation);
 +    return encode_subband_c0run(s, b, src, parent, stride, orientation);
 +//    encode_subband_dzr(s, b, src, parent, stride, orientation);
 +}
 +
 +static av_always_inline int check_block(SnowContext *s, int mb_x, int mb_y, int p[3], int intra, uint8_t (*obmc_edged)[MB_SIZE * 2], int *best_rd){
 +    const int b_stride= s->b_width << s->block_max_depth;
 +    BlockNode *block= &s->block[mb_x + mb_y * b_stride];
 +    BlockNode backup= *block;
 +    unsigned value;
 +    int rd, index;
 +
 +    av_assert2(mb_x>=0 && mb_y>=0);
 +    av_assert2(mb_x<b_stride);
 +
 +    if(intra){
 +        block->color[0] = p[0];
 +        block->color[1] = p[1];
 +        block->color[2] = p[2];
 +        block->type |= BLOCK_INTRA;
 +    }else{
 +        index= (p[0] + 31*p[1]) & (ME_CACHE_SIZE-1);
 +        value= s->me_cache_generation + (p[0]>>10) + (p[1]<<6) + (block->ref<<12);
 +        if(s->me_cache[index] == value)
 +            return 0;
 +        s->me_cache[index]= value;
 +
 +        block->mx= p[0];
 +        block->my= p[1];
 +        block->type &= ~BLOCK_INTRA;
 +    }
 +
 +    rd= get_block_rd(s, mb_x, mb_y, 0, obmc_edged);
 +
 +//FIXME chroma
 +    if(rd < *best_rd){
 +        *best_rd= rd;
 +        return 1;
 +    }else{
 +        *block= backup;
 +        return 0;
 +    }
 +}
 +
 +/* special case for int[2] args we discard afterwards,
 + * fixes compilation problem with gcc 2.95 */
 +static av_always_inline int check_block_inter(SnowContext *s, int mb_x, int mb_y, int p0, int p1, uint8_t (*obmc_edged)[MB_SIZE * 2], int *best_rd){
 +    int p[2] = {p0, p1};
 +    return check_block(s, mb_x, mb_y, p, 0, obmc_edged, best_rd);
 +}
 +
 +static av_always_inline int check_4block_inter(SnowContext *s, int mb_x, int mb_y, int p0, int p1, int ref, int *best_rd){
 +    const int b_stride= s->b_width << s->block_max_depth;
 +    BlockNode *block= &s->block[mb_x + mb_y * b_stride];
 +    BlockNode backup[4];
 +    unsigned value;
 +    int rd, index;
 +
 +    /* We don't initialize backup[] during variable declaration, because
 +     * that fails to compile on MSVC: "cannot convert from 'BlockNode' to
 +     * 'int16_t'". */
 +    backup[0] = block[0];
 +    backup[1] = block[1];
 +    backup[2] = block[b_stride];
 +    backup[3] = block[b_stride + 1];
 +
 +    av_assert2(mb_x>=0 && mb_y>=0);
 +    av_assert2(mb_x<b_stride);
 +    av_assert2(((mb_x|mb_y)&1) == 0);
 +
 +    index= (p0 + 31*p1) & (ME_CACHE_SIZE-1);
 +    value= s->me_cache_generation + (p0>>10) + (p1<<6) + (block->ref<<12);
 +    if(s->me_cache[index] == value)
 +        return 0;
 +    s->me_cache[index]= value;
 +
 +    block->mx= p0;
 +    block->my= p1;
 +    block->ref= ref;
 +    block->type &= ~BLOCK_INTRA;
 +    block[1]= block[b_stride]= block[b_stride+1]= *block;
 +
 +    rd= get_4block_rd(s, mb_x, mb_y, 0);
 +
 +//FIXME chroma
 +    if(rd < *best_rd){
 +        *best_rd= rd;
 +        return 1;
 +    }else{
 +        block[0]= backup[0];
 +        block[1]= backup[1];
 +        block[b_stride]= backup[2];
 +        block[b_stride+1]= backup[3];
 +        return 0;
 +    }
 +}
 +
 +static void iterative_me(SnowContext *s){
 +    int pass, mb_x, mb_y;
 +    const int b_width = s->b_width  << s->block_max_depth;
 +    const int b_height= s->b_height << s->block_max_depth;
 +    const int b_stride= b_width;
 +    int color[3];
 +
 +    {
 +        RangeCoder r = s->c;
 +        uint8_t state[sizeof(s->block_state)];
 +        memcpy(state, s->block_state, sizeof(s->block_state));
 +        for(mb_y= 0; mb_y<s->b_height; mb_y++)
 +            for(mb_x= 0; mb_x<s->b_width; mb_x++)
 +                encode_q_branch(s, 0, mb_x, mb_y);
 +        s->c = r;
 +        memcpy(s->block_state, state, sizeof(s->block_state));
 +    }
 +
 +    for(pass=0; pass<25; pass++){
 +        int change= 0;
 +
 +        for(mb_y= 0; mb_y<b_height; mb_y++){
 +            for(mb_x= 0; mb_x<b_width; mb_x++){
 +                int dia_change, i, j, ref;
 +                int best_rd= INT_MAX, ref_rd;
 +                BlockNode backup, ref_b;
 +                const int index= mb_x + mb_y * b_stride;
 +                BlockNode *block= &s->block[index];
 +                BlockNode *tb =                   mb_y            ? &s->block[index-b_stride  ] : NULL;
 +                BlockNode *lb = mb_x                              ? &s->block[index         -1] : NULL;
 +                BlockNode *rb = mb_x+1<b_width                    ? &s->block[index         +1] : NULL;
 +                BlockNode *bb =                   mb_y+1<b_height ? &s->block[index+b_stride  ] : NULL;
 +                BlockNode *tlb= mb_x           && mb_y            ? &s->block[index-b_stride-1] : NULL;
 +                BlockNode *trb= mb_x+1<b_width && mb_y            ? &s->block[index-b_stride+1] : NULL;
 +                BlockNode *blb= mb_x           && mb_y+1<b_height ? &s->block[index+b_stride-1] : NULL;
 +                BlockNode *brb= mb_x+1<b_width && mb_y+1<b_height ? &s->block[index+b_stride+1] : NULL;
 +                const int b_w= (MB_SIZE >> s->block_max_depth);
 +                uint8_t obmc_edged[MB_SIZE * 2][MB_SIZE * 2];
 +
 +                if(pass && (block->type & BLOCK_OPT))
 +                    continue;
 +                block->type |= BLOCK_OPT;
 +
 +                backup= *block;
 +
 +                if(!s->me_cache_generation)
 +                    memset(s->me_cache, 0, sizeof(s->me_cache));
 +                s->me_cache_generation += 1<<22;
 +
 +                //FIXME precalculate
 +                {
 +                    int x, y;
 +                    for (y = 0; y < b_w * 2; y++)
 +                        memcpy(obmc_edged[y], ff_obmc_tab[s->block_max_depth] + y * b_w * 2, b_w * 2);
 +                    if(mb_x==0)
 +                        for(y=0; y<b_w*2; y++)
 +                            memset(obmc_edged[y], obmc_edged[y][0] + obmc_edged[y][b_w-1], b_w);
 +                    if(mb_x==b_stride-1)
 +                        for(y=0; y<b_w*2; y++)
 +                            memset(obmc_edged[y]+b_w, obmc_edged[y][b_w] + obmc_edged[y][b_w*2-1], b_w);
 +                    if(mb_y==0){
 +                        for(x=0; x<b_w*2; x++)
 +                            obmc_edged[0][x] += obmc_edged[b_w-1][x];
 +                        for(y=1; y<b_w; y++)
 +                            memcpy(obmc_edged[y], obmc_edged[0], b_w*2);
 +                    }
 +                    if(mb_y==b_height-1){
 +                        for(x=0; x<b_w*2; x++)
 +                            obmc_edged[b_w*2-1][x] += obmc_edged[b_w][x];
 +                        for(y=b_w; y<b_w*2-1; y++)
 +                            memcpy(obmc_edged[y], obmc_edged[b_w*2-1], b_w*2);
 +                    }
 +                }
 +
 +                //skip stuff outside the picture
 +                if(mb_x==0 || mb_y==0 || mb_x==b_width-1 || mb_y==b_height-1){
 +                    uint8_t *src= s->  input_picture->data[0];
 +                    uint8_t *dst= s->current_picture->data[0];
 +                    const int stride= s->current_picture->linesize[0];
 +                    const int block_w= MB_SIZE >> s->block_max_depth;
 +                    const int block_h= MB_SIZE >> s->block_max_depth;
 +                    const int sx= block_w*mb_x - block_w/2;
 +                    const int sy= block_h*mb_y - block_h/2;
 +                    const int w= s->plane[0].width;
 +                    const int h= s->plane[0].height;
 +                    int y;
 +
 +                    for(y=sy; y<0; y++)
 +                        memcpy(dst + sx + y*stride, src + sx + y*stride, block_w*2);
 +                    for(y=h; y<sy+block_h*2; y++)
 +                        memcpy(dst + sx + y*stride, src + sx + y*stride, block_w*2);
 +                    if(sx<0){
 +                        for(y=sy; y<sy+block_h*2; y++)
 +                            memcpy(dst + sx + y*stride, src + sx + y*stride, -sx);
 +                    }
 +                    if(sx+block_w*2 > w){
 +                        for(y=sy; y<sy+block_h*2; y++)
 +                            memcpy(dst + w + y*stride, src + w + y*stride, sx+block_w*2 - w);
 +                    }
 +                }
 +
 +                // intra(black) = neighbors' contribution to the current block
 +                for(i=0; i < s->nb_planes; i++)
 +                    color[i]= get_dc(s, mb_x, mb_y, i);
 +
 +                // get previous score (cannot be cached due to OBMC)
 +                if(pass > 0 && (block->type&BLOCK_INTRA)){
 +                    int color0[3]= {block->color[0], block->color[1], block->color[2]};
 +                    check_block(s, mb_x, mb_y, color0, 1, obmc_edged, &best_rd);
 +                }else
 +                    check_block_inter(s, mb_x, mb_y, block->mx, block->my, obmc_edged, &best_rd);
 +
 +                ref_b= *block;
 +                ref_rd= best_rd;
 +                for(ref=0; ref < s->ref_frames; ref++){
 +                    int16_t (*mvr)[2]= &s->ref_mvs[ref][index];
 +                    if(s->ref_scores[ref][index] > s->ref_scores[ref_b.ref][index]*3/2) //FIXME tune threshold
 +                        continue;
 +                    block->ref= ref;
 +                    best_rd= INT_MAX;
 +
 +                    check_block_inter(s, mb_x, mb_y, mvr[0][0], mvr[0][1], obmc_edged, &best_rd);
 +                    check_block_inter(s, mb_x, mb_y, 0, 0, obmc_edged, &best_rd);
 +                    if(tb)
 +                        check_block_inter(s, mb_x, mb_y, mvr[-b_stride][0], mvr[-b_stride][1], obmc_edged, &best_rd);
 +                    if(lb)
 +                        check_block_inter(s, mb_x, mb_y, mvr[-1][0], mvr[-1][1], obmc_edged, &best_rd);
 +                    if(rb)
 +                        check_block_inter(s, mb_x, mb_y, mvr[1][0], mvr[1][1], obmc_edged, &best_rd);
 +                    if(bb)
 +                        check_block_inter(s, mb_x, mb_y, mvr[b_stride][0], mvr[b_stride][1], obmc_edged, &best_rd);
 +
 +                    /* fullpel ME */
 +                    //FIXME avoid subpel interpolation / round to nearest integer
 +                    do{
 +                        dia_change=0;
 +                        for(i=0; i<FFMAX(s->avctx->dia_size, 1); i++){
 +                            for(j=0; j<i; j++){
 +                                dia_change |= check_block_inter(s, mb_x, mb_y, block->mx+4*(i-j), block->my+(4*j), obmc_edged, &best_rd);
 +                                dia_change |= check_block_inter(s, mb_x, mb_y, block->mx-4*(i-j), block->my-(4*j), obmc_edged, &best_rd);
 +                                dia_change |= check_block_inter(s, mb_x, mb_y, block->mx+4*(i-j), block->my-(4*j), obmc_edged, &best_rd);
 +                                dia_change |= check_block_inter(s, mb_x, mb_y, block->mx-4*(i-j), block->my+(4*j), obmc_edged, &best_rd);
 +                            }
 +                        }
 +                    }while(dia_change);
 +                    /* subpel ME */
 +                    do{
 +                        static const int square[8][2]= {{+1, 0},{-1, 0},{ 0,+1},{ 0,-1},{+1,+1},{-1,-1},{+1,-1},{-1,+1},};
 +                        dia_change=0;
 +                        for(i=0; i<8; i++)
 +                            dia_change |= check_block_inter(s, mb_x, mb_y, block->mx+square[i][0], block->my+square[i][1], obmc_edged, &best_rd);
 +                    }while(dia_change);
 +                    //FIXME or try the standard 2 pass qpel or similar
 +
 +                    mvr[0][0]= block->mx;
 +                    mvr[0][1]= block->my;
 +                    if(ref_rd > best_rd){
 +                        ref_rd= best_rd;
 +                        ref_b= *block;
 +                    }
 +                }
 +                best_rd= ref_rd;
 +                *block= ref_b;
 +                check_block(s, mb_x, mb_y, color, 1, obmc_edged, &best_rd);
 +                //FIXME RD style color selection
 +                if(!same_block(block, &backup)){
 +                    if(tb ) tb ->type &= ~BLOCK_OPT;
 +                    if(lb ) lb ->type &= ~BLOCK_OPT;
 +                    if(rb ) rb ->type &= ~BLOCK_OPT;
 +                    if(bb ) bb ->type &= ~BLOCK_OPT;
 +                    if(tlb) tlb->type &= ~BLOCK_OPT;
 +                    if(trb) trb->type &= ~BLOCK_OPT;
 +                    if(blb) blb->type &= ~BLOCK_OPT;
 +                    if(brb) brb->type &= ~BLOCK_OPT;
 +                    change ++;
 +                }
 +            }
 +        }
 +        av_log(s->avctx, AV_LOG_ERROR, "pass:%d changed:%d\n", pass, change);
 +        if(!change)
 +            break;
 +    }
 +
 +    if(s->block_max_depth == 1){
 +        int change= 0;
 +        for(mb_y= 0; mb_y<b_height; mb_y+=2){
 +            for(mb_x= 0; mb_x<b_width; mb_x+=2){
 +                int i;
 +                int best_rd, init_rd;
 +                const int index= mb_x + mb_y * b_stride;
 +                BlockNode *b[4];
 +
 +                b[0]= &s->block[index];
 +                b[1]= b[0]+1;
 +                b[2]= b[0]+b_stride;
 +                b[3]= b[2]+1;
 +                if(same_block(b[0], b[1]) &&
 +                   same_block(b[0], b[2]) &&
 +                   same_block(b[0], b[3]))
 +                    continue;
 +
 +                if(!s->me_cache_generation)
 +                    memset(s->me_cache, 0, sizeof(s->me_cache));
 +                s->me_cache_generation += 1<<22;
 +
 +                init_rd= best_rd= get_4block_rd(s, mb_x, mb_y, 0);
 +
 +                //FIXME more multiref search?
 +                check_4block_inter(s, mb_x, mb_y,
 +                                   (b[0]->mx + b[1]->mx + b[2]->mx + b[3]->mx + 2) >> 2,
 +                                   (b[0]->my + b[1]->my + b[2]->my + b[3]->my + 2) >> 2, 0, &best_rd);
 +
 +                for(i=0; i<4; i++)
 +                    if(!(b[i]->type&BLOCK_INTRA))
 +                        check_4block_inter(s, mb_x, mb_y, b[i]->mx, b[i]->my, b[i]->ref, &best_rd);
 +
 +                if(init_rd != best_rd)
 +                    change++;
 +            }
 +        }
 +        av_log(s->avctx, AV_LOG_ERROR, "pass:4mv changed:%d\n", change*4);
 +    }
 +}
 +
 +static void encode_blocks(SnowContext *s, int search){
 +    int x, y;
 +    int w= s->b_width;
 +    int h= s->b_height;
 +
 +    if(s->avctx->me_method == ME_ITER && !s->keyframe && search)
 +        iterative_me(s);
 +
 +    for(y=0; y<h; y++){
 +        if(s->c.bytestream_end - s->c.bytestream < w*MB_SIZE*MB_SIZE*3){ //FIXME nicer limit
 +            av_log(s->avctx, AV_LOG_ERROR, "encoded frame too large\n");
 +            return;
 +        }
 +        for(x=0; x<w; x++){
 +            if(s->avctx->me_method == ME_ITER || !search)
 +                encode_q_branch2(s, 0, x, y);
 +            else
 +                encode_q_branch (s, 0, x, y);
 +        }
 +    }
 +}
 +
 +static void quantize(SnowContext *s, SubBand *b, IDWTELEM *dst, DWTELEM *src, int stride, int bias){
 +    const int w= b->width;
 +    const int h= b->height;
 +    const int qlog= av_clip(s->qlog + b->qlog, 0, QROOT*16);
 +    const int qmul= ff_qexp[qlog&(QROOT-1)]<<((qlog>>QSHIFT) + ENCODER_EXTRA_BITS);
 +    int x,y, thres1, thres2;
 +
 +    if(s->qlog == LOSSLESS_QLOG){
 +        for(y=0; y<h; y++)
 +            for(x=0; x<w; x++)
 +                dst[x + y*stride]= src[x + y*stride];
 +        return;
 +    }
 +
 +    bias= bias ? 0 : (3*qmul)>>3;
 +    thres1= ((qmul - bias)>>QEXPSHIFT) - 1;
 +    thres2= 2*thres1;
 +
 +    if(!bias){
 +        for(y=0; y<h; y++){
 +            for(x=0; x<w; x++){
 +                int i= src[x + y*stride];
 +
 +                if((unsigned)(i+thres1) > thres2){
 +                    if(i>=0){
 +                        i<<= QEXPSHIFT;
 +                        i/= qmul; //FIXME optimize
 +                        dst[x + y*stride]=  i;
 +                    }else{
 +                        i= -i;
 +                        i<<= QEXPSHIFT;
 +                        i/= qmul; //FIXME optimize
 +                        dst[x + y*stride]= -i;
 +                    }
 +                }else
 +                    dst[x + y*stride]= 0;
 +            }
 +        }
 +    }else{
 +        for(y=0; y<h; y++){
 +            for(x=0; x<w; x++){
 +                int i= src[x + y*stride];
 +
 +                if((unsigned)(i+thres1) > thres2){
 +                    if(i>=0){
 +                        i<<= QEXPSHIFT;
 +                        i= (i + bias) / qmul; //FIXME optimize
 +                        dst[x + y*stride]=  i;
 +                    }else{
 +                        i= -i;
 +                        i<<= QEXPSHIFT;
 +                        i= (i + bias) / qmul; //FIXME optimize
 +                        dst[x + y*stride]= -i;
 +                    }
 +                }else
 +                    dst[x + y*stride]= 0;
 +            }
 +        }
 +    }
 +}
 +
 +static void dequantize(SnowContext *s, SubBand *b, IDWTELEM *src, int stride){
 +    const int w= b->width;
 +    const int h= b->height;
 +    const int qlog= av_clip(s->qlog + b->qlog, 0, QROOT*16);
 +    const int qmul= ff_qexp[qlog&(QROOT-1)]<<(qlog>>QSHIFT);
 +    const int qadd= (s->qbias*qmul)>>QBIAS_SHIFT;
 +    int x,y;
 +
 +    if(s->qlog == LOSSLESS_QLOG) return;
 +
 +    for(y=0; y<h; y++){
 +        for(x=0; x<w; x++){
 +            int i= src[x + y*stride];
 +            if(i<0){
 +                src[x + y*stride]= -((-i*qmul + qadd)>>(QEXPSHIFT)); //FIXME try different bias
 +            }else if(i>0){
 +                src[x + y*stride]=  (( i*qmul + qadd)>>(QEXPSHIFT));
 +            }
 +        }
 +    }
 +}
 +
 +static void decorrelate(SnowContext *s, SubBand *b, IDWTELEM *src, int stride, int inverse, int use_median){
 +    const int w= b->width;
 +    const int h= b->height;
 +    int x,y;
 +
 +    for(y=h-1; y>=0; y--){
 +        for(x=w-1; x>=0; x--){
 +            int i= x + y*stride;
 +
 +            if(x){
 +                if(use_median){
 +                    if(y && x+1<w) src[i] -= mid_pred(src[i - 1], src[i - stride], src[i - stride + 1]);
 +                    else  src[i] -= src[i - 1];
 +                }else{
 +                    if(y) src[i] -= mid_pred(src[i - 1], src[i - stride], src[i - 1] + src[i - stride] - src[i - 1 - stride]);
 +                    else  src[i] -= src[i - 1];
 +                }
 +            }else{
 +                if(y) src[i] -= src[i - stride];
 +            }
 +        }
 +    }
 +}
 +
 +static void correlate(SnowContext *s, SubBand *b, IDWTELEM *src, int stride, int inverse, int use_median){
 +    const int w= b->width;
 +    const int h= b->height;
 +    int x,y;
 +
 +    for(y=0; y<h; y++){
 +        for(x=0; x<w; x++){
 +            int i= x + y*stride;
 +
 +            if(x){
 +                if(use_median){
 +                    if(y && x+1<w) src[i] += mid_pred(src[i - 1], src[i - stride], src[i - stride + 1]);
 +                    else  src[i] += src[i - 1];
 +                }else{
 +                    if(y) src[i] += mid_pred(src[i - 1], src[i - stride], src[i - 1] + src[i - stride] - src[i - 1 - stride]);
 +                    else  src[i] += src[i - 1];
 +                }
 +            }else{
 +                if(y) src[i] += src[i - stride];
 +            }
 +        }
 +    }
 +}
 +
 +static void encode_qlogs(SnowContext *s){
 +    int plane_index, level, orientation;
 +
 +    for(plane_index=0; plane_index<FFMIN(s->nb_planes, 2); plane_index++){
 +        for(level=0; level<s->spatial_decomposition_count; level++){
 +            for(orientation=level ? 1:0; orientation<4; orientation++){
 +                if(orientation==2) continue;
 +                put_symbol(&s->c, s->header_state, s->plane[plane_index].band[level][orientation].qlog, 1);
 +            }
 +        }
 +    }
 +}
 +
 +static void encode_header(SnowContext *s){
 +    int plane_index, i;
 +    uint8_t kstate[32];
 +
 +    memset(kstate, MID_STATE, sizeof(kstate));
 +
 +    put_rac(&s->c, kstate, s->keyframe);
 +    if(s->keyframe || s->always_reset){
 +        ff_snow_reset_contexts(s);
 +        s->last_spatial_decomposition_type=
 +        s->last_qlog=
 +        s->last_qbias=
 +        s->last_mv_scale=
 +        s->last_block_max_depth= 0;
 +        for(plane_index=0; plane_index<2; plane_index++){
 +            Plane *p= &s->plane[plane_index];
 +            p->last_htaps=0;
 +            p->last_diag_mc=0;
 +            memset(p->last_hcoeff, 0, sizeof(p->last_hcoeff));
 +        }
 +    }
 +    if(s->keyframe){
 +        put_symbol(&s->c, s->header_state, s->version, 0);
 +        put_rac(&s->c, s->header_state, s->always_reset);
 +        put_symbol(&s->c, s->header_state, s->temporal_decomposition_type, 0);
 +        put_symbol(&s->c, s->header_state, s->temporal_decomposition_count, 0);
 +        put_symbol(&s->c, s->header_state, s->spatial_decomposition_count, 0);
 +        put_symbol(&s->c, s->header_state, s->colorspace_type, 0);
 +        if (s->nb_planes > 2) {
 +            put_symbol(&s->c, s->header_state, s->chroma_h_shift, 0);
 +            put_symbol(&s->c, s->header_state, s->chroma_v_shift, 0);
 +        }
 +        put_rac(&s->c, s->header_state, s->spatial_scalability);
 +//        put_rac(&s->c, s->header_state, s->rate_scalability);
 +        put_symbol(&s->c, s->header_state, s->max_ref_frames-1, 0);
 +
 +        encode_qlogs(s);
 +    }
 +
 +    if(!s->keyframe){
 +        int update_mc=0;
 +        for(plane_index=0; plane_index<FFMIN(s->nb_planes, 2); plane_index++){
 +            Plane *p= &s->plane[plane_index];
 +            update_mc |= p->last_htaps   != p->htaps;
 +            update_mc |= p->last_diag_mc != p->diag_mc;
 +            update_mc |= !!memcmp(p->last_hcoeff, p->hcoeff, sizeof(p->hcoeff));
 +        }
 +        put_rac(&s->c, s->header_state, update_mc);
 +        if(update_mc){
 +            for(plane_index=0; plane_index<FFMIN(s->nb_planes, 2); plane_index++){
 +                Plane *p= &s->plane[plane_index];
 +                put_rac(&s->c, s->header_state, p->diag_mc);
 +                put_symbol(&s->c, s->header_state, p->htaps/2-1, 0);
 +                for(i= p->htaps/2; i; i--)
 +                    put_symbol(&s->c, s->header_state, FFABS(p->hcoeff[i]), 0);
 +            }
 +        }
 +        if(s->last_spatial_decomposition_count != s->spatial_decomposition_count){
 +            put_rac(&s->c, s->header_state, 1);
 +            put_symbol(&s->c, s->header_state, s->spatial_decomposition_count, 0);
 +            encode_qlogs(s);
 +        }else
 +            put_rac(&s->c, s->header_state, 0);
 +    }
 +
 +    put_symbol(&s->c, s->header_state, s->spatial_decomposition_type - s->last_spatial_decomposition_type, 1);
 +    put_symbol(&s->c, s->header_state, s->qlog            - s->last_qlog    , 1);
 +    put_symbol(&s->c, s->header_state, s->mv_scale        - s->last_mv_scale, 1);
 +    put_symbol(&s->c, s->header_state, s->qbias           - s->last_qbias   , 1);
 +    put_symbol(&s->c, s->header_state, s->block_max_depth - s->last_block_max_depth, 1);
 +
 +}
 +
 +static void update_last_header_values(SnowContext *s){
 +    int plane_index;
 +
 +    if(!s->keyframe){
 +        for(plane_index=0; plane_index<2; plane_index++){
 +            Plane *p= &s->plane[plane_index];
 +            p->last_diag_mc= p->diag_mc;
 +            p->last_htaps  = p->htaps;
 +            memcpy(p->last_hcoeff, p->hcoeff, sizeof(p->hcoeff));
 +        }
 +    }
 +
 +    s->last_spatial_decomposition_type  = s->spatial_decomposition_type;
 +    s->last_qlog                        = s->qlog;
 +    s->last_qbias                       = s->qbias;
 +    s->last_mv_scale                    = s->mv_scale;
 +    s->last_block_max_depth             = s->block_max_depth;
 +    s->last_spatial_decomposition_count = s->spatial_decomposition_count;
 +}
 +
 +static int qscale2qlog(int qscale){
 +    return rint(QROOT*log2(qscale / (float)FF_QP2LAMBDA))
 +           + 61*QROOT/8; ///< 64 > 60
 +}
 +
 +static int ratecontrol_1pass(SnowContext *s, AVFrame *pict)
 +{
 +    /* Estimate the frame's complexity as a sum of weighted dwt coefficients.
 +     * FIXME we know exact mv bits at this point,
 +     * but ratecontrol isn't set up to include them. */
 +    uint32_t coef_sum= 0;
 +    int level, orientation, delta_qlog;
 +
 +    for(level=0; level<s->spatial_decomposition_count; level++){
 +        for(orientation=level ? 1 : 0; orientation<4; orientation++){
 +            SubBand *b= &s->plane[0].band[level][orientation];
 +            IDWTELEM *buf= b->ibuf;
 +            const int w= b->width;
 +            const int h= b->height;
 +            const int stride= b->stride;
 +            const int qlog= av_clip(2*QROOT + b->qlog, 0, QROOT*16);
 +            const int qmul= ff_qexp[qlog&(QROOT-1)]<<(qlog>>QSHIFT);
 +            const int qdiv= (1<<16)/qmul;
 +            int x, y;
 +            //FIXME this is ugly
 +            for(y=0; y<h; y++)
 +                for(x=0; x<w; x++)
 +                    buf[x+y*stride]= b->buf[x+y*stride];
 +            if(orientation==0)
 +                decorrelate(s, b, buf, stride, 1, 0);
 +            for(y=0; y<h; y++)
 +                for(x=0; x<w; x++)
 +                    coef_sum+= abs(buf[x+y*stride]) * qdiv >> 16;
 +        }
 +    }
 +
 +    /* ugly, ratecontrol just takes a sqrt again */
 +    av_assert0(coef_sum < INT_MAX);
 +    coef_sum = (uint64_t)coef_sum * coef_sum >> 16;
 +
 +    if(pict->pict_type == AV_PICTURE_TYPE_I){
 +        s->m.current_picture.mb_var_sum= coef_sum;
 +        s->m.current_picture.mc_mb_var_sum= 0;
 +    }else{
 +        s->m.current_picture.mc_mb_var_sum= coef_sum;
 +        s->m.current_picture.mb_var_sum= 0;
 +    }
 +
 +    pict->quality= ff_rate_estimate_qscale(&s->m, 1);
 +    if (pict->quality < 0)
 +        return INT_MIN;
 +    s->lambda= pict->quality * 3/2;
 +    delta_qlog= qscale2qlog(pict->quality) - s->qlog;
 +    s->qlog+= delta_qlog;
 +    return delta_qlog;
 +}
 +
 +static void calculate_visual_weight(SnowContext *s, Plane *p){
 +    int width = p->width;
 +    int height= p->height;
 +    int level, orientation, x, y;
 +
 +    for(level=0; level<s->spatial_decomposition_count; level++){
 +        for(orientation=level ? 1 : 0; orientation<4; orientation++){
 +            SubBand *b= &p->band[level][orientation];
 +            IDWTELEM *ibuf= b->ibuf;
 +            int64_t error=0;
 +
 +            memset(s->spatial_idwt_buffer, 0, sizeof(*s->spatial_idwt_buffer)*width*height);
 +            ibuf[b->width/2 + b->height/2*b->stride]= 256*16;
 +            ff_spatial_idwt(s->spatial_idwt_buffer, s->temp_idwt_buffer, width, height, width, s->spatial_decomposition_type, s->spatial_decomposition_count);
 +            for(y=0; y<height; y++){
 +                for(x=0; x<width; x++){
 +                    int64_t d= s->spatial_idwt_buffer[x + y*width]*16;
 +                    error += d*d;
 +                }
 +            }
 +
 +            b->qlog= (int)(log(352256.0/sqrt(error)) / log(pow(2.0, 1.0/QROOT))+0.5);
 +        }
 +    }
 +}
 +
 +static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
 +                        const AVFrame *pict, int *got_packet)
 +{
 +    SnowContext *s = avctx->priv_data;
 +    RangeCoder * const c= &s->c;
 +    AVFrame *pic = pict;
 +    const int width= s->avctx->width;
 +    const int height= s->avctx->height;
 +    int level, orientation, plane_index, i, y, ret;
 +    uint8_t rc_header_bak[sizeof(s->header_state)];
 +    uint8_t rc_block_bak[sizeof(s->block_state)];
 +
 +    if ((ret = ff_alloc_packet2(avctx, pkt, s->b_width*s->b_height*MB_SIZE*MB_SIZE*3 + FF_MIN_BUFFER_SIZE)) < 0)
 +        return ret;
 +
 +    ff_init_range_encoder(c, pkt->data, pkt->size);
 +    ff_build_rac_states(c, 0.05*(1LL<<32), 256-8);
 +
 +    for(i=0; i < s->nb_planes; i++){
 +        int hshift= i ? s->chroma_h_shift : 0;
 +        int vshift= i ? s->chroma_v_shift : 0;
 +        for(y=0; y<(height>>vshift); y++)
 +            memcpy(&s->input_picture->data[i][y * s->input_picture->linesize[i]],
 +                   &pict->data[i][y * pict->linesize[i]],
 +                   width>>hshift);
++        s->mpvencdsp.draw_edges(s->input_picture->data[i], s->input_picture->linesize[i],
++                                width >> hshift, height >> vshift,
++                                EDGE_WIDTH >> hshift, EDGE_WIDTH >> vshift,
++                                EDGE_TOP | EDGE_BOTTOM);
 +
 +    }
 +    emms_c();
 +    s->new_picture = pict;
 +
 +    s->m.picture_number= avctx->frame_number;
 +    if(avctx->flags&CODEC_FLAG_PASS2){
 +        s->m.pict_type = pic->pict_type = s->m.rc_context.entry[avctx->frame_number].new_pict_type;
 +        s->keyframe = pic->pict_type == AV_PICTURE_TYPE_I;
 +        if(!(avctx->flags&CODEC_FLAG_QSCALE)) {
 +            pic->quality = ff_rate_estimate_qscale(&s->m, 0);
 +            if (pic->quality < 0)
 +                return -1;
 +        }
 +    }else{
 +        s->keyframe= avctx->gop_size==0 || avctx->frame_number % avctx->gop_size == 0;
 +        s->m.pict_type = pic->pict_type = s->keyframe ? AV_PICTURE_TYPE_I : AV_PICTURE_TYPE_P;
 +    }
 +
 +    if(s->pass1_rc && avctx->frame_number == 0)
 +        pic->quality = 2*FF_QP2LAMBDA;
 +    if (pic->quality) {
 +        s->qlog   = qscale2qlog(pic->quality);
 +        s->lambda = pic->quality * 3/2;
 +    }
 +    if (s->qlog < 0 || (!pic->quality && (avctx->flags & CODEC_FLAG_QSCALE))) {
 +        s->qlog= LOSSLESS_QLOG;
 +        s->lambda = 0;
 +    }//else keep previous frame's qlog until after motion estimation
 +
 +    ff_snow_frame_start(s);
 +    avctx->coded_frame= s->current_picture;
 +
 +    s->m.current_picture_ptr= &s->m.current_picture;
 +    s->m.current_picture.f = s->current_picture;
 +    s->m.current_picture.f->pts = pict->pts;
 +    if(pic->pict_type == AV_PICTURE_TYPE_P){
 +        int block_width = (width +15)>>4;
 +        int block_height= (height+15)>>4;
 +        int stride= s->current_picture->linesize[0];
 +
 +        av_assert0(s->current_picture->data[0]);
 +        av_assert0(s->last_picture[0]->data[0]);
 +
 +        s->m.avctx= s->avctx;
 +        s->m.   last_picture.f = s->last_picture[0];
 +        s->m.    new_picture.f = s->input_picture;
 +        s->m.   last_picture_ptr= &s->m.   last_picture;
 +        s->m.linesize = stride;
 +        s->m.uvlinesize= s->current_picture->linesize[1];
 +        s->m.width = width;
 +        s->m.height= height;
 +        s->m.mb_width = block_width;
 +        s->m.mb_height= block_height;
 +        s->m.mb_stride=   s->m.mb_width+1;
 +        s->m.b8_stride= 2*s->m.mb_width+1;
 +        s->m.f_code=1;
 +        s->m.pict_type = pic->pict_type;
 +        s->m.me_method= s->avctx->me_method;
 +        s->m.me.scene_change_score=0;
 +        s->m.flags= s->avctx->flags;
 +        s->m.quarter_sample= (s->avctx->flags & CODEC_FLAG_QPEL)!=0;
 +        s->m.out_format= FMT_H263;
 +        s->m.unrestricted_mv= 1;
 +
 +        s->m.lambda = s->lambda;
 +        s->m.qscale= (s->m.lambda*139 + FF_LAMBDA_SCALE*64) >> (FF_LAMBDA_SHIFT + 7);
 +        s->lambda2= s->m.lambda2= (s->m.lambda*s->m.lambda + FF_LAMBDA_SCALE/2) >> FF_LAMBDA_SHIFT;
 +
 +        s->m.dsp= s->dsp; //move
 +        s->m.qdsp= s->qdsp; //move
 +        s->m.hdsp = s->hdsp;
 +        ff_init_me(&s->m);
 +        s->hdsp = s->m.hdsp;
 +        s->dsp= s->m.dsp;
 +    }
 +
 +    if(s->pass1_rc){
 +        memcpy(rc_header_bak, s->header_state, sizeof(s->header_state));
 +        memcpy(rc_block_bak, s->block_state, sizeof(s->block_state));
 +    }
 +
 +redo_frame:
 +
 +    s->spatial_decomposition_count= 5;
 +
 +    while(   !(width >>(s->chroma_h_shift + s->spatial_decomposition_count))
 +          || !(height>>(s->chroma_v_shift + s->spatial_decomposition_count)))
 +        s->spatial_decomposition_count--;
 +
 +    if (s->spatial_decomposition_count <= 0) {
 +        av_log(avctx, AV_LOG_ERROR, "Resolution too low\n");
 +        return AVERROR(EINVAL);
 +    }
 +
 +    s->m.pict_type = pic->pict_type;
 +    s->qbias = pic->pict_type == AV_PICTURE_TYPE_P ? 2 : 0;
 +
 +    ff_snow_common_init_after_header(avctx);
 +
 +    if(s->last_spatial_decomposition_count != s->spatial_decomposition_count){
 +        for(plane_index=0; plane_index < s->nb_planes; plane_index++){
 +            calculate_visual_weight(s, &s->plane[plane_index]);
 +        }
 +    }
 +
 +    encode_header(s);
 +    s->m.misc_bits = 8*(s->c.bytestream - s->c.bytestream_start);
 +    encode_blocks(s, 1);
 +    s->m.mv_bits = 8*(s->c.bytestream - s->c.bytestream_start) - s->m.misc_bits;
 +
 +    for(plane_index=0; plane_index < s->nb_planes; plane_index++){
 +        Plane *p= &s->plane[plane_index];
 +        int w= p->width;
 +        int h= p->height;
 +        int x, y;
 +//        int bits= put_bits_count(&s->c.pb);
 +
 +        if (!s->memc_only) {
 +            //FIXME optimize
 +            if(pict->data[plane_index]) //FIXME gray hack
 +                for(y=0; y<h; y++){
 +                    for(x=0; x<w; x++){
 +                        s->spatial_idwt_buffer[y*w + x]= pict->data[plane_index][y*pict->linesize[plane_index] + x]<<FRAC_BITS;
 +                    }
 +                }
 +            predict_plane(s, s->spatial_idwt_buffer, plane_index, 0);
 +
 +            if(   plane_index==0
 +               && pic->pict_type == AV_PICTURE_TYPE_P
 +               && !(avctx->flags&CODEC_FLAG_PASS2)
 +               && s->m.me.scene_change_score > s->avctx->scenechange_threshold){
 +                ff_init_range_encoder(c, pkt->data, pkt->size);
 +                ff_build_rac_states(c, 0.05*(1LL<<32), 256-8);
 +                pic->pict_type= AV_PICTURE_TYPE_I;
 +                s->keyframe=1;
 +                s->current_picture->key_frame=1;
 +                goto redo_frame;
 +            }
 +
 +            if(s->qlog == LOSSLESS_QLOG){
 +                for(y=0; y<h; y++){
 +                    for(x=0; x<w; x++){
 +                        s->spatial_dwt_buffer[y*w + x]= (s->spatial_idwt_buffer[y*w + x] + (1<<(FRAC_BITS-1))-1)>>FRAC_BITS;
 +                    }
 +                }
 +            }else{
 +                for(y=0; y<h; y++){
 +                    for(x=0; x<w; x++){
 +                        s->spatial_dwt_buffer[y*w + x]=s->spatial_idwt_buffer[y*w + x]<<ENCODER_EXTRA_BITS;
 +                    }
 +                }
 +            }
 +
 +            ff_spatial_dwt(s->spatial_dwt_buffer, s->temp_dwt_buffer, w, h, w, s->spatial_decomposition_type, s->spatial_decomposition_count);
 +
 +            if(s->pass1_rc && plane_index==0){
 +                int delta_qlog = ratecontrol_1pass(s, pic);
 +                if (delta_qlog <= INT_MIN)
 +                    return -1;
 +                if(delta_qlog){
 +                    //reordering qlog in the bitstream would eliminate this reset
 +                    ff_init_range_encoder(c, pkt->data, pkt->size);
 +                    memcpy(s->header_state, rc_header_bak, sizeof(s->header_state));
 +                    memcpy(s->block_state, rc_block_bak, sizeof(s->block_state));
 +                    encode_header(s);
 +                    encode_blocks(s, 0);
 +                }
 +            }
 +
 +            for(level=0; level<s->spatial_decomposition_count; level++){
 +                for(orientation=level ? 1 : 0; orientation<4; orientation++){
 +                    SubBand *b= &p->band[level][orientation];
 +
 +                    quantize(s, b, b->ibuf, b->buf, b->stride, s->qbias);
 +                    if(orientation==0)
 +                        decorrelate(s, b, b->ibuf, b->stride, pic->pict_type == AV_PICTURE_TYPE_P, 0);
 +                    if (!s->no_bitstream)
 +                    encode_subband(s, b, b->ibuf, b->parent ? b->parent->ibuf : NULL, b->stride, orientation);
 +                    av_assert0(b->parent==NULL || b->parent->stride == b->stride*2);
 +                    if(orientation==0)
 +                        correlate(s, b, b->ibuf, b->stride, 1, 0);
 +                }
 +            }
 +
 +            for(level=0; level<s->spatial_decomposition_count; level++){
 +                for(orientation=level ? 1 : 0; orientation<4; orientation++){
 +                    SubBand *b= &p->band[level][orientation];
 +
 +                    dequantize(s, b, b->ibuf, b->stride);
 +                }
 +            }
 +
 +            ff_spatial_idwt(s->spatial_idwt_buffer, s->temp_idwt_buffer, w, h, w, s->spatial_decomposition_type, s->spatial_decomposition_count);
 +            if(s->qlog == LOSSLESS_QLOG){
 +                for(y=0; y<h; y++){
 +                    for(x=0; x<w; x++){
 +                        s->spatial_idwt_buffer[y*w + x]<<=FRAC_BITS;
 +                    }
 +                }
 +            }
 +            predict_plane(s, s->spatial_idwt_buffer, plane_index, 1);
 +        }else{
 +            //ME/MC only
 +            if(pic->pict_type == AV_PICTURE_TYPE_I){
 +                for(y=0; y<h; y++){
 +                    for(x=0; x<w; x++){
 +                        s->current_picture->data[plane_index][y*s->current_picture->linesize[plane_index] + x]=
 +                            pict->data[plane_index][y*pict->linesize[plane_index] + x];
 +                    }
 +                }
 +            }else{
 +                memset(s->spatial_idwt_buffer, 0, sizeof(IDWTELEM)*w*h);
 +                predict_plane(s, s->spatial_idwt_buffer, plane_index, 1);
 +            }
 +        }
 +        if(s->avctx->flags&CODEC_FLAG_PSNR){
 +            int64_t error= 0;
 +
 +            if(pict->data[plane_index]) //FIXME gray hack
 +                for(y=0; y<h; y++){
 +                    for(x=0; x<w; x++){
 +                        int d= s->current_picture->data[plane_index][y*s->current_picture->linesize[plane_index] + x] - pict->data[plane_index][y*pict->linesize[plane_index] + x];
 +                        error += d*d;
 +                    }
 +                }
 +            s->avctx->error[plane_index] += error;
 +            s->current_picture->error[plane_index] = error;
 +        }
 +
 +    }
 +
 +    update_last_header_values(s);
 +
 +    ff_snow_release_buffer(avctx);
 +
 +    s->current_picture->coded_picture_number = avctx->frame_number;
 +    s->current_picture->pict_type = pict->pict_type;
 +    s->current_picture->quality = pict->quality;
 +    s->m.frame_bits = 8*(s->c.bytestream - s->c.bytestream_start);
 +    s->m.p_tex_bits = s->m.frame_bits - s->m.misc_bits - s->m.mv_bits;
 +    s->m.current_picture.f->display_picture_number =
 +    s->m.current_picture.f->coded_picture_number   = avctx->frame_number;
 +    s->m.current_picture.f->quality                = pic->quality;
 +    s->m.total_bits += 8*(s->c.bytestream - s->c.bytestream_start);
 +    if(s->pass1_rc)
 +        if (ff_rate_estimate_qscale(&s->m, 0) < 0)
 +            return -1;
 +    if(avctx->flags&CODEC_FLAG_PASS1)
 +        ff_write_pass1_stats(&s->m);
 +    s->m.last_pict_type = s->m.pict_type;
 +    avctx->frame_bits = s->m.frame_bits;
 +    avctx->mv_bits = s->m.mv_bits;
 +    avctx->misc_bits = s->m.misc_bits;
 +    avctx->p_tex_bits = s->m.p_tex_bits;
 +
 +    emms_c();
 +
 +    pkt->size = ff_rac_terminate(c);
 +    if (avctx->coded_frame->key_frame)
 +        pkt->flags |= AV_PKT_FLAG_KEY;
 +    *got_packet = 1;
 +
 +    return 0;
 +}
 +
 +static av_cold int encode_end(AVCodecContext *avctx)
 +{
 +    SnowContext *s = avctx->priv_data;
 +
 +    ff_snow_common_end(s);
 +    ff_rate_control_uninit(&s->m);
 +    av_frame_free(&s->input_picture);
 +    av_free(avctx->stats_out);
 +
 +    return 0;
 +}
 +
 +#define OFFSET(x) offsetof(SnowContext, x)
 +#define VE AV_OPT_FLAG_VIDEO_PARAM | AV_OPT_FLAG_ENCODING_PARAM
 +static const AVOption options[] = {
 +    { "memc_only",      "Only do ME/MC (I frames -> ref, P frame -> ME+MC).",   OFFSET(memc_only), AV_OPT_TYPE_INT, { .i64 = 0 }, 0, 1, VE },
 +    { "no_bitstream",   "Skip final bitstream writeout.",                    OFFSET(no_bitstream), AV_OPT_TYPE_INT, { .i64 = 0 }, 0, 1, VE },
 +    { NULL },
 +};
 +
 +static const AVClass snowenc_class = {
 +    .class_name = "snow encoder",
 +    .item_name  = av_default_item_name,
 +    .option     = options,
 +    .version    = LIBAVUTIL_VERSION_INT,
 +};
 +
 +AVCodec ff_snow_encoder = {
 +    .name           = "snow",
 +    .long_name      = NULL_IF_CONFIG_SMALL("Snow"),
 +    .type           = AVMEDIA_TYPE_VIDEO,
 +    .id             = AV_CODEC_ID_SNOW,
 +    .priv_data_size = sizeof(SnowContext),
 +    .init           = encode_init,
 +    .encode2        = encode_frame,
 +    .close          = encode_end,
 +    .pix_fmts       = (const enum AVPixelFormat[]){
 +        AV_PIX_FMT_YUV420P, AV_PIX_FMT_YUV410P, AV_PIX_FMT_YUV444P,
 +        AV_PIX_FMT_GRAY8,
 +        AV_PIX_FMT_NONE
 +    },
 +    .priv_class     = &snowenc_class,
 +};
 +
 +
 +#ifdef TEST
 +#undef malloc
 +#undef free
 +#undef printf
 +
 +#include "libavutil/lfg.h"
 +#include "libavutil/mathematics.h"
 +
 +int main(void){
 +#define width  256
 +#define height 256
 +    int buffer[2][width*height];
 +    SnowContext s;
 +    int i;
 +    AVLFG prng;
 +    s.spatial_decomposition_count=6;
 +    s.spatial_decomposition_type=1;
 +
 +    s.temp_dwt_buffer  = av_mallocz(width * sizeof(DWTELEM));
 +    s.temp_idwt_buffer = av_mallocz(width * sizeof(IDWTELEM));
 +
 +    av_lfg_init(&prng, 1);
 +
 +    printf("testing 5/3 DWT\n");
 +    for(i=0; i<width*height; i++)
 +        buffer[0][i] = buffer[1][i] = av_lfg_get(&prng) % 54321 - 12345;
 +
 +    ff_spatial_dwt(buffer[0], s.temp_dwt_buffer, width, height, width, s.spatial_decomposition_type, s.spatial_decomposition_count);
 +    ff_spatial_idwt((IDWTELEM*)buffer[0], s.temp_idwt_buffer, width, height, width, s.spatial_decomposition_type, s.spatial_decomposition_count);
 +
 +    for(i=0; i<width*height; i++)
 +        if(buffer[0][i]!= buffer[1][i]) printf("fsck: %6d %12d %7d\n",i, buffer[0][i], buffer[1][i]);
 +
 +    printf("testing 9/7 DWT\n");
 +    s.spatial_decomposition_type=0;
 +    for(i=0; i<width*height; i++)
 +        buffer[0][i] = buffer[1][i] = av_lfg_get(&prng) % 54321 - 12345;
 +
 +    ff_spatial_dwt(buffer[0], s.temp_dwt_buffer, width, height, width, s.spatial_decomposition_type, s.spatial_decomposition_count);
 +    ff_spatial_idwt((IDWTELEM*)buffer[0], s.temp_idwt_buffer, width, height, width, s.spatial_decomposition_type, s.spatial_decomposition_count);
 +
 +    for(i=0; i<width*height; i++)
 +        if(FFABS(buffer[0][i] - buffer[1][i])>20) printf("fsck: %6d %12d %7d\n",i, buffer[0][i], buffer[1][i]);
 +
 +    {
 +    int level, orientation, x, y;
 +    int64_t errors[8][4];
 +    int64_t g=0;
 +
 +        memset(errors, 0, sizeof(errors));
 +        s.spatial_decomposition_count=3;
 +        s.spatial_decomposition_type=0;
 +        for(level=0; level<s.spatial_decomposition_count; level++){
 +            for(orientation=level ? 1 : 0; orientation<4; orientation++){
 +                int w= width  >> (s.spatial_decomposition_count-level);
 +                int h= height >> (s.spatial_decomposition_count-level);
 +                int stride= width  << (s.spatial_decomposition_count-level);
 +                DWTELEM *buf= buffer[0];
 +                int64_t error=0;
 +
 +                if(orientation&1) buf+=w;
 +                if(orientation>1) buf+=stride>>1;
 +
 +                memset(buffer[0], 0, sizeof(int)*width*height);
 +                buf[w/2 + h/2*stride]= 256*256;
 +                ff_spatial_idwt((IDWTELEM*)buffer[0], s.temp_idwt_buffer, width, height, width, s.spatial_decomposition_type, s.spatial_decomposition_count);
 +                for(y=0; y<height; y++){
 +                    for(x=0; x<width; x++){
 +                        int64_t d= buffer[0][x + y*width];
 +                        error += d*d;
 +                        if(FFABS(width/2-x)<9 && FFABS(height/2-y)<9 && level==2) printf("%8"PRId64" ", d);
 +                    }
 +                    if(FFABS(height/2-y)<9 && level==2) printf("\n");
 +                }
 +                error= (int)(sqrt(error)+0.5);
 +                errors[level][orientation]= error;
 +                if(g) g=av_gcd(g, error);
 +                else g= error;
 +            }
 +        }
 +        printf("static int const visual_weight[][4]={\n");
 +        for(level=0; level<s.spatial_decomposition_count; level++){
 +            printf("  {");
 +            for(orientation=0; orientation<4; orientation++){
 +                printf("%8"PRId64",", errors[level][orientation]/g);
 +            }
 +            printf("},\n");
 +        }
 +        printf("};\n");
 +        {
 +            int level=2;
 +            int w= width  >> (s.spatial_decomposition_count-level);
 +            //int h= height >> (s.spatial_decomposition_count-level);
 +            int stride= width  << (s.spatial_decomposition_count-level);
 +            DWTELEM *buf= buffer[0];
 +            int64_t error=0;
 +
 +            buf+=w;
 +            buf+=stride>>1;
 +
 +            memset(buffer[0], 0, sizeof(int)*width*height);
 +            for(y=0; y<height; y++){
 +                for(x=0; x<width; x++){
 +                    int tab[4]={0,2,3,1};
 +                    buffer[0][x+width*y]= 256*256*tab[(x&1) + 2*(y&1)];
 +                }
 +            }
 +            ff_spatial_dwt(buffer[0], s.temp_dwt_buffer, width, height, width, s.spatial_decomposition_type, s.spatial_decomposition_count);
 +            for(y=0; y<height; y++){
 +                for(x=0; x<width; x++){
 +                    int64_t d= buffer[0][x + y*width];
 +                    error += d*d;
 +                    if(FFABS(width/2-x)<9 && FFABS(height/2-y)<9) printf("%8"PRId64" ", d);
 +                }
 +                if(FFABS(height/2-y)<9) printf("\n");
 +            }
 +        }
 +
 +    }
 +    return 0;
 +}
 +#endif /* TEST */
index 65f8c363b1f6e08fba538468ac53bed73324671d,3af56e9f4685eafd5e967f7334666b468e33c150..9fa8e16042a234c7791a4e7459dba1dd91b183bd
  #include "avcodec.h"
  #include "dsputil.h"
  #include "libavutil/opt.h"
+ #include "mpegvideo.h"
  #include "thread.h"
 +#include "frame_thread_encoder.h"
  #include "internal.h"
 +#include "raw.h"
  #include "bytestream.h"
  #include "version.h"
  #include <stdlib.h>
index ac336c7d86926be17dedb877afcd8f53059b259b,58b27b5d5b9b3f2a36835524bafb29cd96bc4557..adcf62746aad96e9c8d911f30c8c1d7c33af1b5c
@@@ -56,11 -49,11 +56,10 @@@ OBJS-$(CONFIG_VP6_DECODER)             
  OBJS-$(CONFIG_VP7_DECODER)             += x86/vp8dsp_init.o
  OBJS-$(CONFIG_VP8_DECODER)             += x86/vp8dsp_init.o
  OBJS-$(CONFIG_VP9_DECODER)             += x86/vp9dsp_init.o
 +OBJS-$(CONFIG_WEBP_DECODER)            += x86/vp8dsp_init.o
  
- MMX-OBJS-$(CONFIG_DSPUTIL)             += x86/dsputil_mmx.o
 -MMX-OBJS-$(CONFIG_AUDIODSP)            += x86/audiodsp_mmx.o
 +MMX-OBJS-$(CONFIG_DIRAC_DECODER)       += x86/dirac_dwt.o
  MMX-OBJS-$(CONFIG_ENCODERS)            += x86/fdct.o
 -MMX-OBJS-$(CONFIG_HPELDSP)             += x86/fpel_mmx.o                \
 -                                          x86/hpeldsp_mmx.o
  MMX-OBJS-$(CONFIG_IDCTDSP)             += x86/idctdsp_mmx.o             \
                                            x86/idct_mmx_xvid.o           \
                                            x86/idct_sse2_xvid.o          \
Simple merge
index c94d00438bcd5201713707ccefc81d739fce9f6e,b6bddf22286c748ebd638c9690e2ad1758a7e3c8..3e6f364a4471c6a48339cdf4b61bc5e4263e0386
@@@ -31,10 -31,4 +31,7 @@@ void ff_dsputilenc_init_mmx(DSPContext 
                              unsigned high_bit_depth);
  void ff_dsputil_init_pix_mmx(DSPContext *c, AVCodecContext *avctx);
  
- void ff_draw_edges_mmx(uint8_t *buf, int wrap, int width, int height,
-                        int w, int h, int sides);
 +
 +void ff_mmx_idct(int16_t *block);
 +void ff_mmxext_idct(int16_t *block);
  #endif /* AVCODEC_X86_DSPUTIL_X86_H */
index 16841893a4a4cbbfa1b9c1eb3daa70c66e47d654,7732e7307f2264277b5988f637d0b701abdcef68..d91b902187ebded004e9b336c67d7782c923c89a
@@@ -17,6 -17,6 +17,7 @@@
   */
  
  #include "libavutil/attributes.h"
++#include "libavutil/avassert.h"
  #include "libavutil/cpu.h"
  #include "libavutil/x86/cpu.h"
  #include "libavcodec/avcodec.h"
@@@ -96,6 -93,101 +97,120 @@@ int ff_pix_norm1_sse2(uint8_t *pix, in
  #undef PHADDD
  #endif /* HAVE_SSSE3_INLINE */
  
 -    } else {
+ /* Draw the edges of width 'w' of an image of size width, height
+  * this MMX version can only handle w == 8 || w == 16. */
+ static void draw_edges_mmx(uint8_t *buf, int wrap, int width, int height,
+                            int w, int h, int sides)
+ {
+     uint8_t *ptr, *last_line;
+     int i;
+     last_line = buf + (height - 1) * wrap;
+     /* left and right */
+     ptr = buf;
+     if (w == 8) {
+         __asm__ volatile (
+             "1:                             \n\t"
+             "movd            (%0), %%mm0    \n\t"
+             "punpcklbw      %%mm0, %%mm0    \n\t"
+             "punpcklwd      %%mm0, %%mm0    \n\t"
+             "punpckldq      %%mm0, %%mm0    \n\t"
+             "movq           %%mm0, -8(%0)   \n\t"
+             "movq      -8(%0, %2), %%mm1    \n\t"
+             "punpckhbw      %%mm1, %%mm1    \n\t"
+             "punpckhwd      %%mm1, %%mm1    \n\t"
+             "punpckhdq      %%mm1, %%mm1    \n\t"
+             "movq           %%mm1, (%0, %2) \n\t"
+             "add               %1, %0       \n\t"
+             "cmp               %3, %0       \n\t"
+             "jb                1b           \n\t"
+             : "+r" (ptr)
+             : "r" ((x86_reg) wrap), "r" ((x86_reg) width),
+               "r" (ptr + wrap * height));
++    } else if (w == 16) {
+         __asm__ volatile (
+             "1:                                 \n\t"
+             "movd            (%0), %%mm0        \n\t"
+             "punpcklbw      %%mm0, %%mm0        \n\t"
+             "punpcklwd      %%mm0, %%mm0        \n\t"
+             "punpckldq      %%mm0, %%mm0        \n\t"
+             "movq           %%mm0, -8(%0)       \n\t"
+             "movq           %%mm0, -16(%0)      \n\t"
+             "movq      -8(%0, %2), %%mm1        \n\t"
+             "punpckhbw      %%mm1, %%mm1        \n\t"
+             "punpckhwd      %%mm1, %%mm1        \n\t"
+             "punpckhdq      %%mm1, %%mm1        \n\t"
+             "movq           %%mm1,  (%0, %2)    \n\t"
+             "movq           %%mm1, 8(%0, %2)    \n\t"
+             "add               %1, %0           \n\t"
+             "cmp               %3, %0           \n\t"
+             "jb                1b               \n\t"
++            : "+r"(ptr)
++            : "r"((x86_reg)wrap), "r"((x86_reg)width), "r"(ptr + wrap * height)
++            );
++    } else {
++        av_assert1(w == 4);
++        __asm__ volatile (
++            "1:                             \n\t"
++            "movd            (%0), %%mm0    \n\t"
++            "punpcklbw      %%mm0, %%mm0    \n\t"
++            "punpcklwd      %%mm0, %%mm0    \n\t"
++            "movd           %%mm0, -4(%0)   \n\t"
++            "movd      -4(%0, %2), %%mm1    \n\t"
++            "punpcklbw      %%mm1, %%mm1    \n\t"
++            "punpckhwd      %%mm1, %%mm1    \n\t"
++            "punpckhdq      %%mm1, %%mm1    \n\t"
++            "movd           %%mm1, (%0, %2) \n\t"
++            "add               %1, %0       \n\t"
++            "cmp               %3, %0       \n\t"
++            "jb                1b           \n\t"
+             : "+r" (ptr)
+             : "r" ((x86_reg) wrap), "r" ((x86_reg) width),
+               "r" (ptr + wrap * height));
+     }
+     /* top and bottom (and hopefully also the corners) */
+     if (sides & EDGE_TOP) {
+         for (i = 0; i < h; i += 4) {
+             ptr = buf - (i + 1) * wrap - w;
+             __asm__ volatile (
+                 "1:                             \n\t"
+                 "movq (%1, %0), %%mm0           \n\t"
+                 "movq    %%mm0, (%0)            \n\t"
+                 "movq    %%mm0, (%0, %2)        \n\t"
+                 "movq    %%mm0, (%0, %2, 2)     \n\t"
+                 "movq    %%mm0, (%0, %3)        \n\t"
+                 "add        $8, %0              \n\t"
+                 "cmp        %4, %0              \n\t"
+                 "jb         1b                  \n\t"
+                 : "+r" (ptr)
+                 : "r" ((x86_reg) buf - (x86_reg) ptr - w),
+                   "r" ((x86_reg) - wrap), "r" ((x86_reg) - wrap * 3),
+                   "r" (ptr + width + 2 * w));
+         }
+     }
+     if (sides & EDGE_BOTTOM) {
+         for (i = 0; i < h; i += 4) {
+             ptr = last_line + (i + 1) * wrap - w;
+             __asm__ volatile (
+                 "1:                             \n\t"
+                 "movq (%1, %0), %%mm0           \n\t"
+                 "movq    %%mm0, (%0)            \n\t"
+                 "movq    %%mm0, (%0, %2)        \n\t"
+                 "movq    %%mm0, (%0, %2, 2)     \n\t"
+                 "movq    %%mm0, (%0, %3)        \n\t"
+                 "add        $8, %0              \n\t"
+                 "cmp        %4, %0              \n\t"
+                 "jb         1b                  \n\t"
+                 : "+r" (ptr)
+                 : "r" ((x86_reg) last_line - (x86_reg) ptr - w),
+                   "r" ((x86_reg) wrap), "r" ((x86_reg) wrap * 3),
+                   "r" (ptr + width + 2 * w));
+         }
+     }
+ }
  #endif /* HAVE_INLINE_ASM */
  
  av_cold void ff_mpegvideoencdsp_init_x86(MpegvideoEncDSPContext *c,