]> git.sesse.net Git - ffmpeg/blob - libavcodec/mpegvideo_motion.c
Merge commit '3c84eaae9da0dc450ae99c65bb6b9865e3ba7fad'
[ffmpeg] / libavcodec / mpegvideo_motion.c
1 /*
2  * Copyright (c) 2000,2001 Fabrice Bellard
3  * Copyright (c) 2002-2004 Michael Niedermayer <michaelni@gmx.at>
4  *
5  * 4MV & hq & B-frame encoding stuff by Michael Niedermayer <michaelni@gmx.at>
6  *
7  * This file is part of FFmpeg.
8  *
9  * FFmpeg is free software; you can redistribute it and/or
10  * modify it under the terms of the GNU Lesser General Public
11  * License as published by the Free Software Foundation; either
12  * version 2.1 of the License, or (at your option) any later version.
13  *
14  * FFmpeg is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
17  * Lesser General Public License for more details.
18  *
19  * You should have received a copy of the GNU Lesser General Public
20  * License along with FFmpeg; if not, write to the Free Software
21  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
22  */
23
24 #include <string.h>
25
26 #include "libavutil/avassert.h"
27 #include "libavutil/internal.h"
28 #include "avcodec.h"
29 #include "h261.h"
30 #include "mpegutils.h"
31 #include "mpegvideo.h"
32 #include "mjpegenc.h"
33 #include "msmpeg4.h"
34 #include "qpeldsp.h"
35 #include "wmv2.h"
36 #include <limits.h>
37
38 static void gmc1_motion(MpegEncContext *s,
39                         uint8_t *dest_y, uint8_t *dest_cb, uint8_t *dest_cr,
40                         uint8_t **ref_picture)
41 {
42     uint8_t *ptr;
43     int src_x, src_y, motion_x, motion_y;
44     ptrdiff_t offset, linesize, uvlinesize;
45     int emu = 0;
46
47     motion_x   = s->sprite_offset[0][0];
48     motion_y   = s->sprite_offset[0][1];
49     src_x      = s->mb_x * 16 + (motion_x >> (s->sprite_warping_accuracy + 1));
50     src_y      = s->mb_y * 16 + (motion_y >> (s->sprite_warping_accuracy + 1));
51     motion_x <<= (3 - s->sprite_warping_accuracy);
52     motion_y <<= (3 - s->sprite_warping_accuracy);
53     src_x      = av_clip(src_x, -16, s->width);
54     if (src_x == s->width)
55         motion_x = 0;
56     src_y = av_clip(src_y, -16, s->height);
57     if (src_y == s->height)
58         motion_y = 0;
59
60     linesize   = s->linesize;
61     uvlinesize = s->uvlinesize;
62
63     ptr = ref_picture[0] + src_y * linesize + src_x;
64
65     if ((unsigned)src_x >= FFMAX(s->h_edge_pos - 17, 0) ||
66         (unsigned)src_y >= FFMAX(s->v_edge_pos - 17, 0)) {
67         s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr,
68                                  linesize, linesize,
69                                  17, 17,
70                                  src_x, src_y,
71                                  s->h_edge_pos, s->v_edge_pos);
72         ptr = s->sc.edge_emu_buffer;
73     }
74
75     if ((motion_x | motion_y) & 7) {
76         s->mdsp.gmc1(dest_y, ptr, linesize, 16,
77                      motion_x & 15, motion_y & 15, 128 - s->no_rounding);
78         s->mdsp.gmc1(dest_y + 8, ptr + 8, linesize, 16,
79                      motion_x & 15, motion_y & 15, 128 - s->no_rounding);
80     } else {
81         int dxy;
82
83         dxy = ((motion_x >> 3) & 1) | ((motion_y >> 2) & 2);
84         if (s->no_rounding) {
85             s->hdsp.put_no_rnd_pixels_tab[0][dxy](dest_y, ptr, linesize, 16);
86         } else {
87             s->hdsp.put_pixels_tab[0][dxy](dest_y, ptr, linesize, 16);
88         }
89     }
90
91     if (CONFIG_GRAY && s->avctx->flags & AV_CODEC_FLAG_GRAY)
92         return;
93
94     motion_x   = s->sprite_offset[1][0];
95     motion_y   = s->sprite_offset[1][1];
96     src_x      = s->mb_x * 8 + (motion_x >> (s->sprite_warping_accuracy + 1));
97     src_y      = s->mb_y * 8 + (motion_y >> (s->sprite_warping_accuracy + 1));
98     motion_x <<= (3 - s->sprite_warping_accuracy);
99     motion_y <<= (3 - s->sprite_warping_accuracy);
100     src_x      = av_clip(src_x, -8, s->width >> 1);
101     if (src_x == s->width >> 1)
102         motion_x = 0;
103     src_y = av_clip(src_y, -8, s->height >> 1);
104     if (src_y == s->height >> 1)
105         motion_y = 0;
106
107     offset = (src_y * uvlinesize) + src_x;
108     ptr    = ref_picture[1] + offset;
109     if ((unsigned)src_x >= FFMAX((s->h_edge_pos >> 1) - 9, 0) ||
110         (unsigned)src_y >= FFMAX((s->v_edge_pos >> 1) - 9, 0)) {
111         s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr,
112                                  uvlinesize, uvlinesize,
113                                  9, 9,
114                                  src_x, src_y,
115                                  s->h_edge_pos >> 1, s->v_edge_pos >> 1);
116         ptr = s->sc.edge_emu_buffer;
117         emu = 1;
118     }
119     s->mdsp.gmc1(dest_cb, ptr, uvlinesize, 8,
120                  motion_x & 15, motion_y & 15, 128 - s->no_rounding);
121
122     ptr = ref_picture[2] + offset;
123     if (emu) {
124         s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr,
125                                  uvlinesize, uvlinesize,
126                                  9, 9,
127                                  src_x, src_y,
128                                  s->h_edge_pos >> 1, s->v_edge_pos >> 1);
129         ptr = s->sc.edge_emu_buffer;
130     }
131     s->mdsp.gmc1(dest_cr, ptr, uvlinesize, 8,
132                  motion_x & 15, motion_y & 15, 128 - s->no_rounding);
133 }
134
135 static void gmc_motion(MpegEncContext *s,
136                        uint8_t *dest_y, uint8_t *dest_cb, uint8_t *dest_cr,
137                        uint8_t **ref_picture)
138 {
139     uint8_t *ptr;
140     int linesize, uvlinesize;
141     const int a = s->sprite_warping_accuracy;
142     int ox, oy;
143
144     linesize   = s->linesize;
145     uvlinesize = s->uvlinesize;
146
147     ptr = ref_picture[0];
148
149     ox = s->sprite_offset[0][0] + s->sprite_delta[0][0] * s->mb_x * 16 +
150          s->sprite_delta[0][1] * s->mb_y * 16;
151     oy = s->sprite_offset[0][1] + s->sprite_delta[1][0] * s->mb_x * 16 +
152          s->sprite_delta[1][1] * s->mb_y * 16;
153
154     s->mdsp.gmc(dest_y, ptr, linesize, 16,
155                 ox, oy,
156                 s->sprite_delta[0][0], s->sprite_delta[0][1],
157                 s->sprite_delta[1][0], s->sprite_delta[1][1],
158                 a + 1, (1 << (2 * a + 1)) - s->no_rounding,
159                 s->h_edge_pos, s->v_edge_pos);
160     s->mdsp.gmc(dest_y + 8, ptr, linesize, 16,
161                 ox + s->sprite_delta[0][0] * 8,
162                 oy + s->sprite_delta[1][0] * 8,
163                 s->sprite_delta[0][0], s->sprite_delta[0][1],
164                 s->sprite_delta[1][0], s->sprite_delta[1][1],
165                 a + 1, (1 << (2 * a + 1)) - s->no_rounding,
166                 s->h_edge_pos, s->v_edge_pos);
167
168     if (CONFIG_GRAY && s->avctx->flags & AV_CODEC_FLAG_GRAY)
169         return;
170
171     ox = s->sprite_offset[1][0] + s->sprite_delta[0][0] * s->mb_x * 8 +
172          s->sprite_delta[0][1] * s->mb_y * 8;
173     oy = s->sprite_offset[1][1] + s->sprite_delta[1][0] * s->mb_x * 8 +
174          s->sprite_delta[1][1] * s->mb_y * 8;
175
176     ptr = ref_picture[1];
177     s->mdsp.gmc(dest_cb, ptr, uvlinesize, 8,
178                 ox, oy,
179                 s->sprite_delta[0][0], s->sprite_delta[0][1],
180                 s->sprite_delta[1][0], s->sprite_delta[1][1],
181                 a + 1, (1 << (2 * a + 1)) - s->no_rounding,
182                 (s->h_edge_pos + 1) >> 1, (s->v_edge_pos + 1) >> 1);
183
184     ptr = ref_picture[2];
185     s->mdsp.gmc(dest_cr, ptr, uvlinesize, 8,
186                 ox, oy,
187                 s->sprite_delta[0][0], s->sprite_delta[0][1],
188                 s->sprite_delta[1][0], s->sprite_delta[1][1],
189                 a + 1, (1 << (2 * a + 1)) - s->no_rounding,
190                 (s->h_edge_pos + 1) >> 1, (s->v_edge_pos + 1) >> 1);
191 }
192
193 static inline int hpel_motion(MpegEncContext *s,
194                               uint8_t *dest, uint8_t *src,
195                               int src_x, int src_y,
196                               op_pixels_func *pix_op,
197                               int motion_x, int motion_y)
198 {
199     int dxy = 0;
200     int emu = 0;
201
202     src_x += motion_x >> 1;
203     src_y += motion_y >> 1;
204
205     /* WARNING: do no forget half pels */
206     src_x = av_clip(src_x, -16, s->width); // FIXME unneeded for emu?
207     if (src_x != s->width)
208         dxy |= motion_x & 1;
209     src_y = av_clip(src_y, -16, s->height);
210     if (src_y != s->height)
211         dxy |= (motion_y & 1) << 1;
212     src += src_y * s->linesize + src_x;
213
214         if ((unsigned)src_x >= FFMAX(s->h_edge_pos - (motion_x & 1) - 7, 0) ||
215             (unsigned)src_y >= FFMAX(s->v_edge_pos - (motion_y & 1) - 7, 0)) {
216             s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, src,
217                                      s->linesize, s->linesize,
218                                      9, 9,
219                                      src_x, src_y,
220                                      s->h_edge_pos, s->v_edge_pos);
221             src = s->sc.edge_emu_buffer;
222             emu = 1;
223         }
224     pix_op[dxy](dest, src, s->linesize, 8);
225     return emu;
226 }
227
228 static av_always_inline
229 void mpeg_motion_internal(MpegEncContext *s,
230                           uint8_t *dest_y,
231                           uint8_t *dest_cb,
232                           uint8_t *dest_cr,
233                           int field_based,
234                           int bottom_field,
235                           int field_select,
236                           uint8_t **ref_picture,
237                           op_pixels_func (*pix_op)[4],
238                           int motion_x,
239                           int motion_y,
240                           int h,
241                           int is_mpeg12,
242                           int mb_y)
243 {
244     uint8_t *ptr_y, *ptr_cb, *ptr_cr;
245     int dxy, uvdxy, mx, my, src_x, src_y,
246         uvsrc_x, uvsrc_y, v_edge_pos;
247     ptrdiff_t uvlinesize, linesize;
248
249 #if 0
250     if (s->quarter_sample) {
251         motion_x >>= 1;
252         motion_y >>= 1;
253     }
254 #endif
255
256     v_edge_pos = s->v_edge_pos >> field_based;
257     linesize   = s->current_picture.f->linesize[0] << field_based;
258     uvlinesize = s->current_picture.f->linesize[1] << field_based;
259
260     dxy   = ((motion_y & 1) << 1) | (motion_x & 1);
261     src_x = s->mb_x * 16 + (motion_x >> 1);
262     src_y = (mb_y << (4 - field_based)) + (motion_y >> 1);
263
264     if (!is_mpeg12 && s->out_format == FMT_H263) {
265         if ((s->workaround_bugs & FF_BUG_HPEL_CHROMA) && field_based) {
266             mx      = (motion_x >> 1) | (motion_x & 1);
267             my      = motion_y >> 1;
268             uvdxy   = ((my & 1) << 1) | (mx & 1);
269             uvsrc_x = s->mb_x * 8 + (mx >> 1);
270             uvsrc_y = (mb_y << (3 - field_based)) + (my >> 1);
271         } else {
272             uvdxy   = dxy | (motion_y & 2) | ((motion_x & 2) >> 1);
273             uvsrc_x = src_x >> 1;
274             uvsrc_y = src_y >> 1;
275         }
276     // Even chroma mv's are full pel in H261
277     } else if (!is_mpeg12 && s->out_format == FMT_H261) {
278         mx      = motion_x / 4;
279         my      = motion_y / 4;
280         uvdxy   = 0;
281         uvsrc_x = s->mb_x * 8 + mx;
282         uvsrc_y = mb_y * 8 + my;
283     } else {
284         if (s->chroma_y_shift) {
285             mx      = motion_x / 2;
286             my      = motion_y / 2;
287             uvdxy   = ((my & 1) << 1) | (mx & 1);
288             uvsrc_x = s->mb_x * 8 + (mx >> 1);
289             uvsrc_y = (mb_y << (3 - field_based)) + (my >> 1);
290         } else {
291             if (s->chroma_x_shift) {
292                 // Chroma422
293                 mx      = motion_x / 2;
294                 uvdxy   = ((motion_y & 1) << 1) | (mx & 1);
295                 uvsrc_x = s->mb_x * 8 + (mx >> 1);
296                 uvsrc_y = src_y;
297             } else {
298                 // Chroma444
299                 uvdxy   = dxy;
300                 uvsrc_x = src_x;
301                 uvsrc_y = src_y;
302             }
303         }
304     }
305
306     ptr_y  = ref_picture[0] + src_y * linesize + src_x;
307     ptr_cb = ref_picture[1] + uvsrc_y * uvlinesize + uvsrc_x;
308     ptr_cr = ref_picture[2] + uvsrc_y * uvlinesize + uvsrc_x;
309
310     if ((unsigned)src_x >= FFMAX(s->h_edge_pos - (motion_x & 1) - 15   , 0) ||
311         (unsigned)src_y >= FFMAX(   v_edge_pos - (motion_y & 1) - h + 1, 0)) {
312         if (is_mpeg12 ||
313             s->codec_id == AV_CODEC_ID_MPEG2VIDEO ||
314             s->codec_id == AV_CODEC_ID_MPEG1VIDEO) {
315             av_log(s->avctx, AV_LOG_DEBUG,
316                    "MPEG motion vector out of boundary (%d %d)\n", src_x,
317                    src_y);
318             return;
319         }
320         src_y = (unsigned)src_y << field_based;
321         s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr_y,
322                                  s->linesize, s->linesize,
323                                  17, 17 + field_based,
324                                  src_x, src_y,
325                                  s->h_edge_pos, s->v_edge_pos);
326         ptr_y = s->sc.edge_emu_buffer;
327         if (!CONFIG_GRAY || !(s->avctx->flags & AV_CODEC_FLAG_GRAY)) {
328             uint8_t *ubuf = s->sc.edge_emu_buffer + 18 * s->linesize;
329             uint8_t *vbuf = ubuf + 9 * s->uvlinesize;
330             uvsrc_y = (unsigned)uvsrc_y << field_based;
331             s->vdsp.emulated_edge_mc(ubuf, ptr_cb,
332                                      s->uvlinesize, s->uvlinesize,
333                                      9, 9 + field_based,
334                                      uvsrc_x, uvsrc_y,
335                                      s->h_edge_pos >> 1, s->v_edge_pos >> 1);
336             s->vdsp.emulated_edge_mc(vbuf, ptr_cr,
337                                      s->uvlinesize, s->uvlinesize,
338                                      9, 9 + field_based,
339                                      uvsrc_x, uvsrc_y,
340                                      s->h_edge_pos >> 1, s->v_edge_pos >> 1);
341             ptr_cb = ubuf;
342             ptr_cr = vbuf;
343         }
344     }
345
346     /* FIXME use this for field pix too instead of the obnoxious hack which
347      * changes picture.data */
348     if (bottom_field) {
349         dest_y  += s->linesize;
350         dest_cb += s->uvlinesize;
351         dest_cr += s->uvlinesize;
352     }
353
354     if (field_select) {
355         ptr_y  += s->linesize;
356         ptr_cb += s->uvlinesize;
357         ptr_cr += s->uvlinesize;
358     }
359
360     pix_op[0][dxy](dest_y, ptr_y, linesize, h);
361
362     if (!CONFIG_GRAY || !(s->avctx->flags & AV_CODEC_FLAG_GRAY)) {
363         pix_op[s->chroma_x_shift][uvdxy]
364             (dest_cb, ptr_cb, uvlinesize, h >> s->chroma_y_shift);
365         pix_op[s->chroma_x_shift][uvdxy]
366             (dest_cr, ptr_cr, uvlinesize, h >> s->chroma_y_shift);
367     }
368     if (!is_mpeg12 && (CONFIG_H261_ENCODER || CONFIG_H261_DECODER) &&
369         s->out_format == FMT_H261) {
370         ff_h261_loop_filter(s);
371     }
372 }
373 /* apply one mpeg motion vector to the three components */
374 static void mpeg_motion(MpegEncContext *s,
375                         uint8_t *dest_y, uint8_t *dest_cb, uint8_t *dest_cr,
376                         int field_select, uint8_t **ref_picture,
377                         op_pixels_func (*pix_op)[4],
378                         int motion_x, int motion_y, int h, int mb_y)
379 {
380 #if !CONFIG_SMALL
381     if (s->out_format == FMT_MPEG1)
382         mpeg_motion_internal(s, dest_y, dest_cb, dest_cr, 0, 0,
383                              field_select, ref_picture, pix_op,
384                              motion_x, motion_y, h, 1, mb_y);
385     else
386 #endif
387         mpeg_motion_internal(s, dest_y, dest_cb, dest_cr, 0, 0,
388                              field_select, ref_picture, pix_op,
389                              motion_x, motion_y, h, 0, mb_y);
390 }
391
392 static void mpeg_motion_field(MpegEncContext *s, uint8_t *dest_y,
393                               uint8_t *dest_cb, uint8_t *dest_cr,
394                               int bottom_field, int field_select,
395                               uint8_t **ref_picture,
396                               op_pixels_func (*pix_op)[4],
397                               int motion_x, int motion_y, int h, int mb_y)
398 {
399 #if !CONFIG_SMALL
400     if (s->out_format == FMT_MPEG1)
401         mpeg_motion_internal(s, dest_y, dest_cb, dest_cr, 1,
402                              bottom_field, field_select, ref_picture, pix_op,
403                              motion_x, motion_y, h, 1, mb_y);
404     else
405 #endif
406         mpeg_motion_internal(s, dest_y, dest_cb, dest_cr, 1,
407                              bottom_field, field_select, ref_picture, pix_op,
408                              motion_x, motion_y, h, 0, mb_y);
409 }
410
411 // FIXME: SIMDify, avg variant, 16x16 version
412 static inline void put_obmc(uint8_t *dst, uint8_t *src[5], int stride)
413 {
414     int x;
415     uint8_t *const top    = src[1];
416     uint8_t *const left   = src[2];
417     uint8_t *const mid    = src[0];
418     uint8_t *const right  = src[3];
419     uint8_t *const bottom = src[4];
420 #define OBMC_FILTER(x, t, l, m, r, b)\
421     dst[x]= (t*top[x] + l*left[x] + m*mid[x] + r*right[x] + b*bottom[x] + 4)>>3
422 #define OBMC_FILTER4(x, t, l, m, r, b)\
423     OBMC_FILTER(x         , t, l, m, r, b);\
424     OBMC_FILTER(x+1       , t, l, m, r, b);\
425     OBMC_FILTER(x  +stride, t, l, m, r, b);\
426     OBMC_FILTER(x+1+stride, t, l, m, r, b);
427
428     x = 0;
429     OBMC_FILTER (x    , 2, 2, 4, 0, 0);
430     OBMC_FILTER (x + 1, 2, 1, 5, 0, 0);
431     OBMC_FILTER4(x + 2, 2, 1, 5, 0, 0);
432     OBMC_FILTER4(x + 4, 2, 0, 5, 1, 0);
433     OBMC_FILTER (x + 6, 2, 0, 5, 1, 0);
434     OBMC_FILTER (x + 7, 2, 0, 4, 2, 0);
435     x += stride;
436     OBMC_FILTER (x    , 1, 2, 5, 0, 0);
437     OBMC_FILTER (x + 1, 1, 2, 5, 0, 0);
438     OBMC_FILTER (x + 6, 1, 0, 5, 2, 0);
439     OBMC_FILTER (x + 7, 1, 0, 5, 2, 0);
440     x += stride;
441     OBMC_FILTER4(x    , 1, 2, 5, 0, 0);
442     OBMC_FILTER4(x + 2, 1, 1, 6, 0, 0);
443     OBMC_FILTER4(x + 4, 1, 0, 6, 1, 0);
444     OBMC_FILTER4(x + 6, 1, 0, 5, 2, 0);
445     x += 2 * stride;
446     OBMC_FILTER4(x    , 0, 2, 5, 0, 1);
447     OBMC_FILTER4(x + 2, 0, 1, 6, 0, 1);
448     OBMC_FILTER4(x + 4, 0, 0, 6, 1, 1);
449     OBMC_FILTER4(x + 6, 0, 0, 5, 2, 1);
450     x += 2*stride;
451     OBMC_FILTER (x    , 0, 2, 5, 0, 1);
452     OBMC_FILTER (x + 1, 0, 2, 5, 0, 1);
453     OBMC_FILTER4(x + 2, 0, 1, 5, 0, 2);
454     OBMC_FILTER4(x + 4, 0, 0, 5, 1, 2);
455     OBMC_FILTER (x + 6, 0, 0, 5, 2, 1);
456     OBMC_FILTER (x + 7, 0, 0, 5, 2, 1);
457     x += stride;
458     OBMC_FILTER (x    , 0, 2, 4, 0, 2);
459     OBMC_FILTER (x + 1, 0, 1, 5, 0, 2);
460     OBMC_FILTER (x + 6, 0, 0, 5, 1, 2);
461     OBMC_FILTER (x + 7, 0, 0, 4, 2, 2);
462 }
463
464 /* obmc for 1 8x8 luma block */
465 static inline void obmc_motion(MpegEncContext *s,
466                                uint8_t *dest, uint8_t *src,
467                                int src_x, int src_y,
468                                op_pixels_func *pix_op,
469                                int16_t mv[5][2] /* mid top left right bottom */)
470 #define MID    0
471 {
472     int i;
473     uint8_t *ptr[5];
474
475     av_assert2(s->quarter_sample == 0);
476
477     for (i = 0; i < 5; i++) {
478         if (i && mv[i][0] == mv[MID][0] && mv[i][1] == mv[MID][1]) {
479             ptr[i] = ptr[MID];
480         } else {
481             ptr[i] = s->sc.obmc_scratchpad + 8 * (i & 1) +
482                      s->linesize * 8 * (i >> 1);
483             hpel_motion(s, ptr[i], src, src_x, src_y, pix_op,
484                         mv[i][0], mv[i][1]);
485         }
486     }
487
488     put_obmc(dest, ptr, s->linesize);
489 }
490
491 static inline void qpel_motion(MpegEncContext *s,
492                                uint8_t *dest_y,
493                                uint8_t *dest_cb,
494                                uint8_t *dest_cr,
495                                int field_based, int bottom_field,
496                                int field_select, uint8_t **ref_picture,
497                                op_pixels_func (*pix_op)[4],
498                                qpel_mc_func (*qpix_op)[16],
499                                int motion_x, int motion_y, int h)
500 {
501     uint8_t *ptr_y, *ptr_cb, *ptr_cr;
502     int dxy, uvdxy, mx, my, src_x, src_y, uvsrc_x, uvsrc_y, v_edge_pos;
503     ptrdiff_t linesize, uvlinesize;
504
505     dxy   = ((motion_y & 3) << 2) | (motion_x & 3);
506
507     src_x = s->mb_x *  16                 + (motion_x >> 2);
508     src_y = s->mb_y * (16 >> field_based) + (motion_y >> 2);
509
510     v_edge_pos = s->v_edge_pos >> field_based;
511     linesize   = s->linesize   << field_based;
512     uvlinesize = s->uvlinesize << field_based;
513
514     if (field_based) {
515         mx = motion_x / 2;
516         my = motion_y >> 1;
517     } else if (s->workaround_bugs & FF_BUG_QPEL_CHROMA2) {
518         static const int rtab[8] = { 0, 0, 1, 1, 0, 0, 0, 1 };
519         mx = (motion_x >> 1) + rtab[motion_x & 7];
520         my = (motion_y >> 1) + rtab[motion_y & 7];
521     } else if (s->workaround_bugs & FF_BUG_QPEL_CHROMA) {
522         mx = (motion_x >> 1) | (motion_x & 1);
523         my = (motion_y >> 1) | (motion_y & 1);
524     } else {
525         mx = motion_x / 2;
526         my = motion_y / 2;
527     }
528     mx = (mx >> 1) | (mx & 1);
529     my = (my >> 1) | (my & 1);
530
531     uvdxy = (mx & 1) | ((my & 1) << 1);
532     mx  >>= 1;
533     my  >>= 1;
534
535     uvsrc_x = s->mb_x *  8                 + mx;
536     uvsrc_y = s->mb_y * (8 >> field_based) + my;
537
538     ptr_y  = ref_picture[0] + src_y   * linesize   + src_x;
539     ptr_cb = ref_picture[1] + uvsrc_y * uvlinesize + uvsrc_x;
540     ptr_cr = ref_picture[2] + uvsrc_y * uvlinesize + uvsrc_x;
541
542     if ((unsigned)src_x >= FFMAX(s->h_edge_pos - (motion_x & 3) - 15   , 0) ||
543         (unsigned)src_y >= FFMAX(   v_edge_pos - (motion_y & 3) - h + 1, 0)) {
544         s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr_y,
545                                  s->linesize, s->linesize,
546                                  17, 17 + field_based,
547                                  src_x, src_y * (1 << field_based),
548                                  s->h_edge_pos, s->v_edge_pos);
549         ptr_y = s->sc.edge_emu_buffer;
550         if (!CONFIG_GRAY || !(s->avctx->flags & AV_CODEC_FLAG_GRAY)) {
551             uint8_t *ubuf = s->sc.edge_emu_buffer + 18 * s->linesize;
552             uint8_t *vbuf = ubuf + 9 * s->uvlinesize;
553             s->vdsp.emulated_edge_mc(ubuf, ptr_cb,
554                                      s->uvlinesize, s->uvlinesize,
555                                      9, 9 + field_based,
556                                      uvsrc_x, uvsrc_y * (1 << field_based),
557                                      s->h_edge_pos >> 1, s->v_edge_pos >> 1);
558             s->vdsp.emulated_edge_mc(vbuf, ptr_cr,
559                                      s->uvlinesize, s->uvlinesize,
560                                      9, 9 + field_based,
561                                      uvsrc_x, uvsrc_y * (1 << field_based),
562                                      s->h_edge_pos >> 1, s->v_edge_pos >> 1);
563             ptr_cb = ubuf;
564             ptr_cr = vbuf;
565         }
566     }
567
568     if (!field_based)
569         qpix_op[0][dxy](dest_y, ptr_y, linesize);
570     else {
571         if (bottom_field) {
572             dest_y  += s->linesize;
573             dest_cb += s->uvlinesize;
574             dest_cr += s->uvlinesize;
575         }
576
577         if (field_select) {
578             ptr_y  += s->linesize;
579             ptr_cb += s->uvlinesize;
580             ptr_cr += s->uvlinesize;
581         }
582         // damn interlaced mode
583         // FIXME boundary mirroring is not exactly correct here
584         qpix_op[1][dxy](dest_y, ptr_y, linesize);
585         qpix_op[1][dxy](dest_y + 8, ptr_y + 8, linesize);
586     }
587     if (!CONFIG_GRAY || !(s->avctx->flags & AV_CODEC_FLAG_GRAY)) {
588         pix_op[1][uvdxy](dest_cr, ptr_cr, uvlinesize, h >> 1);
589         pix_op[1][uvdxy](dest_cb, ptr_cb, uvlinesize, h >> 1);
590     }
591 }
592
593 /**
594  * H.263 chroma 4mv motion compensation.
595  */
596 static void chroma_4mv_motion(MpegEncContext *s,
597                               uint8_t *dest_cb, uint8_t *dest_cr,
598                               uint8_t **ref_picture,
599                               op_pixels_func *pix_op,
600                               int mx, int my)
601 {
602     uint8_t *ptr;
603     int src_x, src_y, dxy, emu = 0;
604     ptrdiff_t offset;
605
606     /* In case of 8X8, we construct a single chroma motion vector
607      * with a special rounding */
608     mx = ff_h263_round_chroma(mx);
609     my = ff_h263_round_chroma(my);
610
611     dxy  = ((my & 1) << 1) | (mx & 1);
612     mx >>= 1;
613     my >>= 1;
614
615     src_x = s->mb_x * 8 + mx;
616     src_y = s->mb_y * 8 + my;
617     src_x = av_clip(src_x, -8, (s->width >> 1));
618     if (src_x == (s->width >> 1))
619         dxy &= ~1;
620     src_y = av_clip(src_y, -8, (s->height >> 1));
621     if (src_y == (s->height >> 1))
622         dxy &= ~2;
623
624     offset = src_y * s->uvlinesize + src_x;
625     ptr    = ref_picture[1] + offset;
626     if ((unsigned)src_x >= FFMAX((s->h_edge_pos >> 1) - (dxy  & 1) - 7, 0) ||
627         (unsigned)src_y >= FFMAX((s->v_edge_pos >> 1) - (dxy >> 1) - 7, 0)) {
628         s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr,
629                                  s->uvlinesize, s->uvlinesize,
630                                  9, 9, src_x, src_y,
631                                  s->h_edge_pos >> 1, s->v_edge_pos >> 1);
632         ptr = s->sc.edge_emu_buffer;
633         emu = 1;
634     }
635     pix_op[dxy](dest_cb, ptr, s->uvlinesize, 8);
636
637     ptr = ref_picture[2] + offset;
638     if (emu) {
639         s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr,
640                                  s->uvlinesize, s->uvlinesize,
641                                  9, 9, src_x, src_y,
642                                  s->h_edge_pos >> 1, s->v_edge_pos >> 1);
643         ptr = s->sc.edge_emu_buffer;
644     }
645     pix_op[dxy](dest_cr, ptr, s->uvlinesize, 8);
646 }
647
648 static inline void prefetch_motion(MpegEncContext *s, uint8_t **pix, int dir)
649 {
650     /* fetch pixels for estimated mv 4 macroblocks ahead
651      * optimized for 64byte cache lines */
652     const int shift = s->quarter_sample ? 2 : 1;
653     const int mx    = (s->mv[dir][0][0] >> shift) + 16 * s->mb_x + 8;
654     const int my    = (s->mv[dir][0][1] >> shift) + 16 * s->mb_y;
655     int off         = mx + (my + (s->mb_x & 3) * 4) * s->linesize + 64;
656
657     s->vdsp.prefetch(pix[0] + off, s->linesize, 4);
658     off = (mx >> 1) + ((my >> 1) + (s->mb_x & 7)) * s->uvlinesize + 64;
659     s->vdsp.prefetch(pix[1] + off, pix[2] - pix[1], 2);
660 }
661
662 static inline void apply_obmc(MpegEncContext *s,
663                               uint8_t *dest_y,
664                               uint8_t *dest_cb,
665                               uint8_t *dest_cr,
666                               uint8_t **ref_picture,
667                               op_pixels_func (*pix_op)[4])
668 {
669     LOCAL_ALIGNED_8(int16_t, mv_cache, [4], [4][2]);
670     Picture *cur_frame   = &s->current_picture;
671     int mb_x = s->mb_x;
672     int mb_y = s->mb_y;
673     const int xy         = mb_x + mb_y * s->mb_stride;
674     const int mot_stride = s->b8_stride;
675     const int mot_xy     = mb_x * 2 + mb_y * 2 * mot_stride;
676     int mx, my, i;
677
678     av_assert2(!s->mb_skipped);
679
680     AV_COPY32(mv_cache[1][1], cur_frame->motion_val[0][mot_xy]);
681     AV_COPY32(mv_cache[1][2], cur_frame->motion_val[0][mot_xy + 1]);
682
683     AV_COPY32(mv_cache[2][1],
684               cur_frame->motion_val[0][mot_xy + mot_stride]);
685     AV_COPY32(mv_cache[2][2],
686               cur_frame->motion_val[0][mot_xy + mot_stride + 1]);
687
688     AV_COPY32(mv_cache[3][1],
689               cur_frame->motion_val[0][mot_xy + mot_stride]);
690     AV_COPY32(mv_cache[3][2],
691               cur_frame->motion_val[0][mot_xy + mot_stride + 1]);
692
693     if (mb_y == 0 || IS_INTRA(cur_frame->mb_type[xy - s->mb_stride])) {
694         AV_COPY32(mv_cache[0][1], mv_cache[1][1]);
695         AV_COPY32(mv_cache[0][2], mv_cache[1][2]);
696     } else {
697         AV_COPY32(mv_cache[0][1],
698                   cur_frame->motion_val[0][mot_xy - mot_stride]);
699         AV_COPY32(mv_cache[0][2],
700                   cur_frame->motion_val[0][mot_xy - mot_stride + 1]);
701     }
702
703     if (mb_x == 0 || IS_INTRA(cur_frame->mb_type[xy - 1])) {
704         AV_COPY32(mv_cache[1][0], mv_cache[1][1]);
705         AV_COPY32(mv_cache[2][0], mv_cache[2][1]);
706     } else {
707         AV_COPY32(mv_cache[1][0], cur_frame->motion_val[0][mot_xy - 1]);
708         AV_COPY32(mv_cache[2][0],
709                   cur_frame->motion_val[0][mot_xy - 1 + mot_stride]);
710     }
711
712     if (mb_x + 1 >= s->mb_width || IS_INTRA(cur_frame->mb_type[xy + 1])) {
713         AV_COPY32(mv_cache[1][3], mv_cache[1][2]);
714         AV_COPY32(mv_cache[2][3], mv_cache[2][2]);
715     } else {
716         AV_COPY32(mv_cache[1][3], cur_frame->motion_val[0][mot_xy + 2]);
717         AV_COPY32(mv_cache[2][3],
718                   cur_frame->motion_val[0][mot_xy + 2 + mot_stride]);
719     }
720
721     mx = 0;
722     my = 0;
723     for (i = 0; i < 4; i++) {
724         const int x      = (i & 1) + 1;
725         const int y      = (i >> 1) + 1;
726         int16_t mv[5][2] = {
727             { mv_cache[y][x][0],     mv_cache[y][x][1]         },
728             { mv_cache[y - 1][x][0], mv_cache[y - 1][x][1]     },
729             { mv_cache[y][x - 1][0], mv_cache[y][x - 1][1]     },
730             { mv_cache[y][x + 1][0], mv_cache[y][x + 1][1]     },
731             { mv_cache[y + 1][x][0], mv_cache[y + 1][x][1]     }
732         };
733         // FIXME cleanup
734         obmc_motion(s, dest_y + ((i & 1) * 8) + (i >> 1) * 8 * s->linesize,
735                     ref_picture[0],
736                     mb_x * 16 + (i & 1) * 8, mb_y * 16 + (i >> 1) * 8,
737                     pix_op[1],
738                     mv);
739
740         mx += mv[0][0];
741         my += mv[0][1];
742     }
743     if (!CONFIG_GRAY || !(s->avctx->flags & AV_CODEC_FLAG_GRAY))
744         chroma_4mv_motion(s, dest_cb, dest_cr,
745                           ref_picture, pix_op[1],
746                           mx, my);
747 }
748
749 static inline void apply_8x8(MpegEncContext *s,
750                              uint8_t *dest_y,
751                              uint8_t *dest_cb,
752                              uint8_t *dest_cr,
753                              int dir,
754                              uint8_t **ref_picture,
755                              qpel_mc_func (*qpix_op)[16],
756                              op_pixels_func (*pix_op)[4])
757 {
758     int dxy, mx, my, src_x, src_y;
759     int i;
760     int mb_x = s->mb_x;
761     int mb_y = s->mb_y;
762     uint8_t *ptr, *dest;
763
764     mx = 0;
765     my = 0;
766     if (s->quarter_sample) {
767         for (i = 0; i < 4; i++) {
768             int motion_x = s->mv[dir][i][0];
769             int motion_y = s->mv[dir][i][1];
770
771             dxy   = ((motion_y & 3) << 2) | (motion_x & 3);
772             src_x = mb_x * 16 + (motion_x >> 2) + (i & 1) * 8;
773             src_y = mb_y * 16 + (motion_y >> 2) + (i >> 1) * 8;
774
775             /* WARNING: do no forget half pels */
776             src_x = av_clip(src_x, -16, s->width);
777             if (src_x == s->width)
778                 dxy &= ~3;
779             src_y = av_clip(src_y, -16, s->height);
780             if (src_y == s->height)
781                 dxy &= ~12;
782
783             ptr = ref_picture[0] + (src_y * s->linesize) + (src_x);
784             if ((unsigned)src_x >= FFMAX(s->h_edge_pos - (motion_x & 3) - 7, 0) ||
785                 (unsigned)src_y >= FFMAX(s->v_edge_pos - (motion_y & 3) - 7, 0)) {
786                 s->vdsp.emulated_edge_mc(s->sc.edge_emu_buffer, ptr,
787                                          s->linesize, s->linesize,
788                                          9, 9,
789                                          src_x, src_y,
790                                          s->h_edge_pos,
791                                          s->v_edge_pos);
792                 ptr = s->sc.edge_emu_buffer;
793             }
794             dest = dest_y + ((i & 1) * 8) + (i >> 1) * 8 * s->linesize;
795             qpix_op[1][dxy](dest, ptr, s->linesize);
796
797             mx += s->mv[dir][i][0] / 2;
798             my += s->mv[dir][i][1] / 2;
799         }
800     } else {
801         for (i = 0; i < 4; i++) {
802             hpel_motion(s,
803                         dest_y + ((i & 1) * 8) + (i >> 1) * 8 * s->linesize,
804                         ref_picture[0],
805                         mb_x * 16 + (i & 1) * 8,
806                         mb_y * 16 + (i >> 1) * 8,
807                         pix_op[1],
808                         s->mv[dir][i][0],
809                         s->mv[dir][i][1]);
810
811             mx += s->mv[dir][i][0];
812             my += s->mv[dir][i][1];
813         }
814     }
815
816     if (!CONFIG_GRAY || !(s->avctx->flags & AV_CODEC_FLAG_GRAY))
817         chroma_4mv_motion(s, dest_cb, dest_cr,
818                           ref_picture, pix_op[1], mx, my);
819 }
820
821 /**
822  * motion compensation of a single macroblock
823  * @param s context
824  * @param dest_y luma destination pointer
825  * @param dest_cb chroma cb/u destination pointer
826  * @param dest_cr chroma cr/v destination pointer
827  * @param dir direction (0->forward, 1->backward)
828  * @param ref_picture array[3] of pointers to the 3 planes of the reference picture
829  * @param pix_op halfpel motion compensation function (average or put normally)
830  * @param qpix_op qpel motion compensation function (average or put normally)
831  * the motion vectors are taken from s->mv and the MV type from s->mv_type
832  */
833 static av_always_inline void mpv_motion_internal(MpegEncContext *s,
834                                                  uint8_t *dest_y,
835                                                  uint8_t *dest_cb,
836                                                  uint8_t *dest_cr,
837                                                  int dir,
838                                                  uint8_t **ref_picture,
839                                                  op_pixels_func (*pix_op)[4],
840                                                  qpel_mc_func (*qpix_op)[16],
841                                                  int is_mpeg12)
842 {
843     int i;
844     int mb_y = s->mb_y;
845
846     prefetch_motion(s, ref_picture, dir);
847
848     if (!is_mpeg12 && s->obmc && s->pict_type != AV_PICTURE_TYPE_B) {
849         apply_obmc(s, dest_y, dest_cb, dest_cr, ref_picture, pix_op);
850         return;
851     }
852
853     switch (s->mv_type) {
854     case MV_TYPE_16X16:
855         if (s->mcsel) {
856             if (s->real_sprite_warping_points == 1) {
857                 gmc1_motion(s, dest_y, dest_cb, dest_cr,
858                             ref_picture);
859             } else {
860                 gmc_motion(s, dest_y, dest_cb, dest_cr,
861                            ref_picture);
862             }
863         } else if (!is_mpeg12 && s->quarter_sample) {
864             qpel_motion(s, dest_y, dest_cb, dest_cr,
865                         0, 0, 0,
866                         ref_picture, pix_op, qpix_op,
867                         s->mv[dir][0][0], s->mv[dir][0][1], 16);
868         } else if (!is_mpeg12 && (CONFIG_WMV2_DECODER || CONFIG_WMV2_ENCODER) &&
869                    s->mspel && s->codec_id == AV_CODEC_ID_WMV2) {
870             ff_mspel_motion(s, dest_y, dest_cb, dest_cr,
871                             ref_picture, pix_op,
872                             s->mv[dir][0][0], s->mv[dir][0][1], 16);
873         } else {
874             mpeg_motion(s, dest_y, dest_cb, dest_cr, 0,
875                         ref_picture, pix_op,
876                         s->mv[dir][0][0], s->mv[dir][0][1], 16, mb_y);
877         }
878         break;
879     case MV_TYPE_8X8:
880         if (!is_mpeg12)
881             apply_8x8(s, dest_y, dest_cb, dest_cr,
882                       dir, ref_picture, qpix_op, pix_op);
883         break;
884     case MV_TYPE_FIELD:
885         if (s->picture_structure == PICT_FRAME) {
886             if (!is_mpeg12 && s->quarter_sample) {
887                 for (i = 0; i < 2; i++)
888                     qpel_motion(s, dest_y, dest_cb, dest_cr,
889                                 1, i, s->field_select[dir][i],
890                                 ref_picture, pix_op, qpix_op,
891                                 s->mv[dir][i][0], s->mv[dir][i][1], 8);
892             } else {
893                 /* top field */
894                 mpeg_motion_field(s, dest_y, dest_cb, dest_cr,
895                                   0, s->field_select[dir][0],
896                                   ref_picture, pix_op,
897                                   s->mv[dir][0][0], s->mv[dir][0][1], 8, mb_y);
898                 /* bottom field */
899                 mpeg_motion_field(s, dest_y, dest_cb, dest_cr,
900                                   1, s->field_select[dir][1],
901                                   ref_picture, pix_op,
902                                   s->mv[dir][1][0], s->mv[dir][1][1], 8, mb_y);
903             }
904         } else {
905             if (   s->picture_structure != s->field_select[dir][0] + 1 && s->pict_type != AV_PICTURE_TYPE_B && !s->first_field
906                 || !ref_picture[0]) {
907                 ref_picture = s->current_picture_ptr->f->data;
908             }
909
910             mpeg_motion(s, dest_y, dest_cb, dest_cr,
911                         s->field_select[dir][0],
912                         ref_picture, pix_op,
913                         s->mv[dir][0][0], s->mv[dir][0][1], 16, mb_y >> 1);
914         }
915         break;
916     case MV_TYPE_16X8:
917         for (i = 0; i < 2; i++) {
918             uint8_t **ref2picture;
919
920             if ((s->picture_structure == s->field_select[dir][i] + 1
921                 || s->pict_type == AV_PICTURE_TYPE_B || s->first_field) && ref_picture[0]) {
922                 ref2picture = ref_picture;
923             } else {
924                 ref2picture = s->current_picture_ptr->f->data;
925             }
926
927             mpeg_motion(s, dest_y, dest_cb, dest_cr,
928                         s->field_select[dir][i],
929                         ref2picture, pix_op,
930                         s->mv[dir][i][0], s->mv[dir][i][1] + 16 * i,
931                         8, mb_y >> 1);
932
933             dest_y  += 16 * s->linesize;
934             dest_cb += (16 >> s->chroma_y_shift) * s->uvlinesize;
935             dest_cr += (16 >> s->chroma_y_shift) * s->uvlinesize;
936         }
937         break;
938     case MV_TYPE_DMV:
939         if (s->picture_structure == PICT_FRAME) {
940             for (i = 0; i < 2; i++) {
941                 int j;
942                 for (j = 0; j < 2; j++)
943                     mpeg_motion_field(s, dest_y, dest_cb, dest_cr,
944                                       j, j ^ i, ref_picture, pix_op,
945                                       s->mv[dir][2 * i + j][0],
946                                       s->mv[dir][2 * i + j][1], 8, mb_y);
947                 pix_op = s->hdsp.avg_pixels_tab;
948             }
949         } else {
950             if (!ref_picture[0]) {
951                 ref_picture = s->current_picture_ptr->f->data;
952             }
953             for (i = 0; i < 2; i++) {
954                 mpeg_motion(s, dest_y, dest_cb, dest_cr,
955                             s->picture_structure != i + 1,
956                             ref_picture, pix_op,
957                             s->mv[dir][2 * i][0], s->mv[dir][2 * i][1],
958                             16, mb_y >> 1);
959
960                 // after put we make avg of the same block
961                 pix_op = s->hdsp.avg_pixels_tab;
962
963                 /* opposite parity is always in the same frame if this is
964                  * second field */
965                 if (!s->first_field) {
966                     ref_picture = s->current_picture_ptr->f->data;
967                 }
968             }
969         }
970         break;
971     default: av_assert2(0);
972     }
973 }
974
975 void ff_mpv_motion(MpegEncContext *s,
976                    uint8_t *dest_y, uint8_t *dest_cb,
977                    uint8_t *dest_cr, int dir,
978                    uint8_t **ref_picture,
979                    op_pixels_func (*pix_op)[4],
980                    qpel_mc_func (*qpix_op)[16])
981 {
982 #if !CONFIG_SMALL
983     if (s->out_format == FMT_MPEG1)
984         mpv_motion_internal(s, dest_y, dest_cb, dest_cr, dir,
985                             ref_picture, pix_op, qpix_op, 1);
986     else
987 #endif
988         mpv_motion_internal(s, dest_y, dest_cb, dest_cr, dir,
989                             ref_picture, pix_op, qpix_op, 0);
990 }