]> git.sesse.net Git - ffmpeg/blob - libavcodec/wmv2.c
mxf: Support AAC
[ffmpeg] / libavcodec / wmv2.c
1 /*
2  * Copyright (c) 2002 The Libav Project
3  *
4  * This file is part of Libav.
5  *
6  * Libav is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2.1 of the License, or (at your option) any later version.
10  *
11  * Libav is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with Libav; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
19  */
20
21 #include "avcodec.h"
22 #include "idctdsp.h"
23 #include "mpegvideo.h"
24 #include "msmpeg4data.h"
25 #include "simple_idct.h"
26 #include "wmv2.h"
27
28
29 av_cold void ff_wmv2_common_init(Wmv2Context * w){
30     MpegEncContext * const s= &w->s;
31
32     ff_blockdsp_init(&s->bdsp, s->avctx);
33     ff_wmv2dsp_init(&w->wdsp);
34     s->idsp.perm_type = w->wdsp.idct_perm;
35     ff_init_scantable_permutation(s->idsp.idct_permutation,
36                                   w->wdsp.idct_perm);
37     ff_init_scantable(s->idsp.idct_permutation, &w->abt_scantable[0],
38                       ff_wmv2_scantableA);
39     ff_init_scantable(s->idsp.idct_permutation, &w->abt_scantable[1],
40                       ff_wmv2_scantableB);
41     ff_init_scantable(s->idsp.idct_permutation, &s->intra_scantable,
42                       ff_wmv1_scantable[1]);
43     ff_init_scantable(s->idsp.idct_permutation, &s->intra_h_scantable,
44                       ff_wmv1_scantable[2]);
45     ff_init_scantable(s->idsp.idct_permutation, &s->intra_v_scantable,
46                       ff_wmv1_scantable[3]);
47     ff_init_scantable(s->idsp.idct_permutation, &s->inter_scantable,
48                       ff_wmv1_scantable[0]);
49     s->idsp.idct_put = w->wdsp.idct_put;
50     s->idsp.idct_add = w->wdsp.idct_add;
51     s->idsp.idct     = NULL;
52 }
53
54 static void wmv2_add_block(Wmv2Context *w, int16_t *block1, uint8_t *dst, int stride, int n){
55     MpegEncContext * const s= &w->s;
56
57   if (s->block_last_index[n] >= 0) {
58     switch(w->abt_type_table[n]){
59     case 0:
60         w->wdsp.idct_add(dst, stride, block1);
61         break;
62     case 1:
63         ff_simple_idct84_add(dst           , stride, block1);
64         ff_simple_idct84_add(dst + 4*stride, stride, w->abt_block2[n]);
65         s->bdsp.clear_block(w->abt_block2[n]);
66         break;
67     case 2:
68         ff_simple_idct48_add(dst           , stride, block1);
69         ff_simple_idct48_add(dst + 4       , stride, w->abt_block2[n]);
70         s->bdsp.clear_block(w->abt_block2[n]);
71         break;
72     default:
73         av_log(s->avctx, AV_LOG_ERROR, "internal error in WMV2 abt\n");
74     }
75   }
76 }
77
78 void ff_wmv2_add_mb(MpegEncContext *s, int16_t block1[6][64], uint8_t *dest_y, uint8_t *dest_cb, uint8_t *dest_cr){
79     Wmv2Context * const w= (Wmv2Context*)s;
80
81     wmv2_add_block(w, block1[0], dest_y                    , s->linesize, 0);
82     wmv2_add_block(w, block1[1], dest_y + 8                , s->linesize, 1);
83     wmv2_add_block(w, block1[2], dest_y +     8*s->linesize, s->linesize, 2);
84     wmv2_add_block(w, block1[3], dest_y + 8 + 8*s->linesize, s->linesize, 3);
85
86     if(s->flags&CODEC_FLAG_GRAY) return;
87
88     wmv2_add_block(w, block1[4], dest_cb                   , s->uvlinesize, 4);
89     wmv2_add_block(w, block1[5], dest_cr                   , s->uvlinesize, 5);
90 }
91
92 void ff_mspel_motion(MpegEncContext *s,
93                                uint8_t *dest_y, uint8_t *dest_cb, uint8_t *dest_cr,
94                                uint8_t **ref_picture, op_pixels_func (*pix_op)[4],
95                                int motion_x, int motion_y, int h)
96 {
97     Wmv2Context * const w= (Wmv2Context*)s;
98     uint8_t *ptr;
99     int dxy, offset, mx, my, src_x, src_y, v_edge_pos;
100     ptrdiff_t linesize, uvlinesize;
101     int emu=0;
102
103     dxy = ((motion_y & 1) << 1) | (motion_x & 1);
104     dxy = 2*dxy + w->hshift;
105     src_x = s->mb_x * 16 + (motion_x >> 1);
106     src_y = s->mb_y * 16 + (motion_y >> 1);
107
108     /* WARNING: do no forget half pels */
109     v_edge_pos = s->v_edge_pos;
110     src_x = av_clip(src_x, -16, s->width);
111     src_y = av_clip(src_y, -16, s->height);
112
113     if(src_x<=-16 || src_x >= s->width)
114         dxy &= ~3;
115     if(src_y<=-16 || src_y >= s->height)
116         dxy &= ~4;
117
118     linesize   = s->linesize;
119     uvlinesize = s->uvlinesize;
120     ptr = ref_picture[0] + (src_y * linesize) + src_x;
121
122     if(src_x<1 || src_y<1 || src_x + 17  >= s->h_edge_pos
123                           || src_y + h+1 >= v_edge_pos){
124         s->vdsp.emulated_edge_mc(s->edge_emu_buffer,
125                                  ptr - 1 - s->linesize,
126                                  s->linesize, s->linesize,
127                                  19, 19,
128                                  src_x - 1, src_y - 1,
129                                  s->h_edge_pos, s->v_edge_pos);
130         ptr= s->edge_emu_buffer + 1 + s->linesize;
131         emu=1;
132     }
133
134     w->wdsp.put_mspel_pixels_tab[dxy](dest_y,                    ptr,                    linesize);
135     w->wdsp.put_mspel_pixels_tab[dxy](dest_y     + 8,            ptr     + 8,            linesize);
136     w->wdsp.put_mspel_pixels_tab[dxy](dest_y     + 8 * linesize, ptr     + 8 * linesize, linesize);
137     w->wdsp.put_mspel_pixels_tab[dxy](dest_y + 8 + 8 * linesize, ptr + 8 + 8 * linesize, linesize);
138
139     if(s->flags&CODEC_FLAG_GRAY) return;
140
141     if (s->out_format == FMT_H263) {
142         dxy = 0;
143         if ((motion_x & 3) != 0)
144             dxy |= 1;
145         if ((motion_y & 3) != 0)
146             dxy |= 2;
147         mx = motion_x >> 2;
148         my = motion_y >> 2;
149     } else {
150         mx = motion_x / 2;
151         my = motion_y / 2;
152         dxy = ((my & 1) << 1) | (mx & 1);
153         mx >>= 1;
154         my >>= 1;
155     }
156
157     src_x = s->mb_x * 8 + mx;
158     src_y = s->mb_y * 8 + my;
159     src_x = av_clip(src_x, -8, s->width >> 1);
160     if (src_x == (s->width >> 1))
161         dxy &= ~1;
162     src_y = av_clip(src_y, -8, s->height >> 1);
163     if (src_y == (s->height >> 1))
164         dxy &= ~2;
165     offset = (src_y * uvlinesize) + src_x;
166     ptr = ref_picture[1] + offset;
167     if(emu){
168         s->vdsp.emulated_edge_mc(s->edge_emu_buffer, ptr,
169                                  s->uvlinesize, s->uvlinesize,
170                                  9, 9,
171                                  src_x, src_y,
172                                  s->h_edge_pos >> 1, s->v_edge_pos >> 1);
173         ptr= s->edge_emu_buffer;
174     }
175     pix_op[1][dxy](dest_cb, ptr, uvlinesize, h >> 1);
176
177     ptr = ref_picture[2] + offset;
178     if(emu){
179         s->vdsp.emulated_edge_mc(s->edge_emu_buffer, ptr,
180                                  s->uvlinesize, s->uvlinesize,
181                                  9, 9,
182                                  src_x, src_y,
183                                  s->h_edge_pos >> 1, s->v_edge_pos >> 1);
184         ptr= s->edge_emu_buffer;
185     }
186     pix_op[1][dxy](dest_cr, ptr, uvlinesize, h >> 1);
187 }