]> git.sesse.net Git - x264/blob - common/deblock.c
MBAFF: Implement left edge deblocking functions
[x264] / common / deblock.c
1 /*****************************************************************************
2  * deblock.c: deblocking
3  *****************************************************************************
4  * Copyright (C) 2003-2011 x264 project
5  *
6  * Authors: Laurent Aimar <fenrir@via.ecp.fr>
7  *          Loren Merritt <lorenm@u.washington.edu>
8  *          Fiona Glaser <fiona@x264.com>
9  *
10  * This program is free software; you can redistribute it and/or modify
11  * it under the terms of the GNU General Public License as published by
12  * the Free Software Foundation; either version 2 of the License, or
13  * (at your option) any later version.
14  *
15  * This program is distributed in the hope that it will be useful,
16  * but WITHOUT ANY WARRANTY; without even the implied warranty of
17  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
18  * GNU General Public License for more details.
19  *
20  * You should have received a copy of the GNU General Public License
21  * along with this program; if not, write to the Free Software
22  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02111, USA.
23  *
24  * This program is also available under a commercial proprietary license.
25  * For more information, contact us at licensing@x264.com.
26  *****************************************************************************/
27
28 #include "common.h"
29
30 /* Deblocking filter */
31 static const uint8_t i_alpha_table[52+12*3] =
32 {
33      0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,
34      0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,
35      0,  0,  0,  0,  0,  0,  0,  0,  0,  0,
36      0,  0,  0,  0,  0,  0,  4,  4,  5,  6,
37      7,  8,  9, 10, 12, 13, 15, 17, 20, 22,
38     25, 28, 32, 36, 40, 45, 50, 56, 63, 71,
39     80, 90,101,113,127,144,162,182,203,226,
40    255,255,
41    255,255,255,255,255,255,255,255,255,255,255,255,
42 };
43 static const uint8_t i_beta_table[52+12*3] =
44 {
45      0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,
46      0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,
47      0,  0,  0,  0,  0,  0,  0,  0,  0,  0,
48      0,  0,  0,  0,  0,  0,  2,  2,  2,  3,
49      3,  3,  3,  4,  4,  4,  6,  6,  7,  7,
50      8,  8,  9,  9, 10, 10, 11, 11, 12, 12,
51     13, 13, 14, 14, 15, 15, 16, 16, 17, 17,
52     18, 18,
53     18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18,
54 };
55 static const int8_t i_tc0_table[52+12*3][4] =
56 {
57     {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 },
58     {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 },
59     {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 },
60     {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 },
61     {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 },
62     {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 },
63     {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 0 }, {-1, 0, 0, 1 },
64     {-1, 0, 0, 1 }, {-1, 0, 0, 1 }, {-1, 0, 0, 1 }, {-1, 0, 1, 1 }, {-1, 0, 1, 1 }, {-1, 1, 1, 1 },
65     {-1, 1, 1, 1 }, {-1, 1, 1, 1 }, {-1, 1, 1, 1 }, {-1, 1, 1, 2 }, {-1, 1, 1, 2 }, {-1, 1, 1, 2 },
66     {-1, 1, 1, 2 }, {-1, 1, 2, 3 }, {-1, 1, 2, 3 }, {-1, 2, 2, 3 }, {-1, 2, 2, 4 }, {-1, 2, 3, 4 },
67     {-1, 2, 3, 4 }, {-1, 3, 3, 5 }, {-1, 3, 4, 6 }, {-1, 3, 4, 6 }, {-1, 4, 5, 7 }, {-1, 4, 5, 8 },
68     {-1, 4, 6, 9 }, {-1, 5, 7,10 }, {-1, 6, 8,11 }, {-1, 6, 8,13 }, {-1, 7,10,14 }, {-1, 8,11,16 },
69     {-1, 9,12,18 }, {-1,10,13,20 }, {-1,11,15,23 }, {-1,13,17,25 },
70     {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 },
71     {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 }, {-1,13,17,25 },
72 };
73 #define alpha_table(x) i_alpha_table[(x)+24]
74 #define beta_table(x)  i_beta_table[(x)+24]
75 #define tc0_table(x)   i_tc0_table[(x)+24]
76
77 /* From ffmpeg */
78 static ALWAYS_INLINE void deblock_edge_luma_c( pixel *pix, int xstride, int alpha, int beta, int8_t tc0 )
79 {
80     int p2 = pix[-3*xstride];
81     int p1 = pix[-2*xstride];
82     int p0 = pix[-1*xstride];
83     int q0 = pix[ 0*xstride];
84     int q1 = pix[ 1*xstride];
85     int q2 = pix[ 2*xstride];
86
87     if( abs( p0 - q0 ) < alpha && abs( p1 - p0 ) < beta && abs( q1 - q0 ) < beta )
88     {
89         int tc = tc0;
90         int delta;
91         if( abs( p2 - p0 ) < beta )
92         {
93             if( tc0 )
94                 pix[-2*xstride] = p1 + x264_clip3( (( p2 + ((p0 + q0 + 1) >> 1)) >> 1) - p1, -tc0, tc0 );
95             tc++;
96         }
97         if( abs( q2 - q0 ) < beta )
98         {
99             if( tc0 )
100                 pix[ 1*xstride] = q1 + x264_clip3( (( q2 + ((p0 + q0 + 1) >> 1)) >> 1) - q1, -tc0, tc0 );
101             tc++;
102         }
103
104         delta = x264_clip3( (((q0 - p0 ) << 2) + (p1 - q1) + 4) >> 3, -tc, tc );
105         pix[-1*xstride] = x264_clip_pixel( p0 + delta );    /* p0' */
106         pix[ 0*xstride] = x264_clip_pixel( q0 - delta );    /* q0' */
107     }
108 }
109 static inline void deblock_luma_c( pixel *pix, int xstride, int ystride, int alpha, int beta, int8_t *tc0 )
110 {
111     for( int i = 0; i < 4; i++ )
112     {
113         if( tc0[i] < 0 )
114         {
115             pix += 4*ystride;
116             continue;
117         }
118         for( int d = 0; d < 4; d++, pix += ystride )
119             deblock_edge_luma_c( pix, xstride, alpha, beta, tc0[i] );
120     }
121 }
122 static inline void deblock_v_luma_mbaff_c( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 )
123 {
124     for( int d = 0; d < 8; d++, pix += stride )
125         deblock_edge_luma_c( pix, 1, alpha, beta, tc0[d>>1] );
126 }
127 static void deblock_v_luma_c( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 )
128 {
129     deblock_luma_c( pix, stride, 1, alpha, beta, tc0 );
130 }
131 static void deblock_h_luma_c( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 )
132 {
133     deblock_luma_c( pix, 1, stride, alpha, beta, tc0 );
134 }
135
136 static ALWAYS_INLINE void deblock_edge_chroma_c( pixel *pix, int xstride, int alpha, int beta, int8_t tc )
137 {
138     int p1 = pix[-2*xstride];
139     int p0 = pix[-1*xstride];
140     int q0 = pix[ 0*xstride];
141     int q1 = pix[ 1*xstride];
142
143     if( abs( p0 - q0 ) < alpha && abs( p1 - p0 ) < beta && abs( q1 - q0 ) < beta )
144     {
145         int delta = x264_clip3( (((q0 - p0 ) << 2) + (p1 - q1) + 4) >> 3, -tc, tc );
146         pix[-1*xstride] = x264_clip_pixel( p0 + delta );    /* p0' */
147         pix[ 0*xstride] = x264_clip_pixel( q0 - delta );    /* q0' */
148     }
149 }
150 static inline void deblock_chroma_c( pixel *pix, int xstride, int ystride, int alpha, int beta, int8_t *tc0 )
151 {
152     for( int i = 0; i < 4; i++ )
153     {
154         int tc = tc0[i];
155         if( tc <= 0 )
156         {
157             pix += 2*ystride;
158             continue;
159         }
160         for( int d = 0; d < 2; d++, pix += ystride-2 )
161         for( int e = 0; e < 2; e++, pix++ )
162             deblock_edge_chroma_c( pix, xstride, alpha, beta, tc0[i] );
163     }
164 }
165 static inline void deblock_v_chroma_mbaff_c( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 )
166 {
167     for( int i = 0; i < 4; i++, pix += stride )
168         deblock_edge_chroma_c( pix, 2, alpha, beta, tc0[i] );
169 }
170 static void deblock_v_chroma_c( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 )
171 {
172     deblock_chroma_c( pix, stride, 2, alpha, beta, tc0 );
173 }
174 static void deblock_h_chroma_c( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 )
175 {
176     deblock_chroma_c( pix, 2, stride, alpha, beta, tc0 );
177 }
178
179 static ALWAYS_INLINE void deblock_edge_luma_intra_c( pixel *pix, int xstride, int alpha, int beta )
180 {
181     int p2 = pix[-3*xstride];
182     int p1 = pix[-2*xstride];
183     int p0 = pix[-1*xstride];
184     int q0 = pix[ 0*xstride];
185     int q1 = pix[ 1*xstride];
186     int q2 = pix[ 2*xstride];
187
188     if( abs( p0 - q0 ) < alpha && abs( p1 - p0 ) < beta && abs( q1 - q0 ) < beta )
189     {
190         if( abs( p0 - q0 ) < ((alpha >> 2) + 2) )
191         {
192             if( abs( p2 - p0 ) < beta ) /* p0', p1', p2' */
193             {
194                 const int p3 = pix[-4*xstride];
195                 pix[-1*xstride] = ( p2 + 2*p1 + 2*p0 + 2*q0 + q1 + 4 ) >> 3;
196                 pix[-2*xstride] = ( p2 + p1 + p0 + q0 + 2 ) >> 2;
197                 pix[-3*xstride] = ( 2*p3 + 3*p2 + p1 + p0 + q0 + 4 ) >> 3;
198             }
199             else /* p0' */
200                 pix[-1*xstride] = ( 2*p1 + p0 + q1 + 2 ) >> 2;
201             if( abs( q2 - q0 ) < beta ) /* q0', q1', q2' */
202             {
203                 const int q3 = pix[3*xstride];
204                 pix[0*xstride] = ( p1 + 2*p0 + 2*q0 + 2*q1 + q2 + 4 ) >> 3;
205                 pix[1*xstride] = ( p0 + q0 + q1 + q2 + 2 ) >> 2;
206                 pix[2*xstride] = ( 2*q3 + 3*q2 + q1 + q0 + p0 + 4 ) >> 3;
207             }
208             else /* q0' */
209                 pix[0*xstride] = ( 2*q1 + q0 + p1 + 2 ) >> 2;
210         }
211         else /* p0', q0' */
212         {
213             pix[-1*xstride] = ( 2*p1 + p0 + q1 + 2 ) >> 2;
214             pix[ 0*xstride] = ( 2*q1 + q0 + p1 + 2 ) >> 2;
215         }
216     }
217 }
218 static inline void deblock_luma_intra_c( pixel *pix, int xstride, int ystride, int alpha, int beta )
219 {
220     for( int d = 0; d < 16; d++, pix += ystride )
221         deblock_edge_luma_intra_c( pix, xstride, alpha, beta );
222 }
223 static inline void deblock_v_luma_intra_mbaff_c( pixel *pix, int ystride, int alpha, int beta )
224 {
225     for( int d = 0; d < 8; d++, pix += ystride )
226         deblock_edge_luma_intra_c( pix, 1, alpha, beta );
227 }
228 static void deblock_v_luma_intra_c( pixel *pix, int stride, int alpha, int beta )
229 {
230     deblock_luma_intra_c( pix, stride, 1, alpha, beta );
231 }
232 static void deblock_h_luma_intra_c( pixel *pix, int stride, int alpha, int beta )
233 {
234     deblock_luma_intra_c( pix, 1, stride, alpha, beta );
235 }
236
237 static ALWAYS_INLINE void deblock_edge_chroma_intra_c( pixel *pix, int xstride, int alpha, int beta )
238 {
239     int p1 = pix[-2*xstride];
240     int p0 = pix[-1*xstride];
241     int q0 = pix[ 0*xstride];
242     int q1 = pix[ 1*xstride];
243
244     if( abs( p0 - q0 ) < alpha && abs( p1 - p0 ) < beta && abs( q1 - q0 ) < beta )
245     {
246         pix[-1*xstride] = (2*p1 + p0 + q1 + 2) >> 2;   /* p0' */
247         pix[ 0*xstride] = (2*q1 + q0 + p1 + 2) >> 2;   /* q0' */
248     }
249 }
250 static inline void deblock_chroma_intra_c( pixel *pix, int xstride, int ystride, int alpha, int beta, int dir )
251 {
252     for( int d = 0; d < (dir?16:8); d++, pix += ystride-2 )
253     for( int e = 0; e < (dir?1:2); e++, pix++ )
254         deblock_edge_chroma_intra_c( pix, xstride, alpha, beta );
255 }
256 static inline void deblock_v_chroma_intra_mbaff_c( pixel *pix, int stride, int alpha, int beta )
257 {
258     for( int i = 0; i < 4; i++, pix += stride )
259         deblock_edge_chroma_intra_c( pix, 2, alpha, beta );
260 }
261 static void deblock_v_chroma_intra_c( pixel *pix, int stride, int alpha, int beta )
262 {
263     deblock_chroma_intra_c( pix, stride, 2, alpha, beta, 1 );
264 }
265 static void deblock_h_chroma_intra_c( pixel *pix, int stride, int alpha, int beta )
266 {
267     deblock_chroma_intra_c( pix, 2, stride, alpha, beta, 0 );
268 }
269
270 static void deblock_strength_c( uint8_t nnz[X264_SCAN8_SIZE], int8_t ref[2][X264_SCAN8_LUMA_SIZE],
271                                 int16_t mv[2][X264_SCAN8_LUMA_SIZE][2], uint8_t bs[2][8][4], int mvy_limit,
272                                 int bframe, x264_t *h )
273 {
274     for( int dir = 0; dir < 2; dir++ )
275     {
276         int s1 = dir ? 1 : 8;
277         int s2 = dir ? 8 : 1;
278         for( int edge = 0; edge < 4; edge++ )
279             for( int i = 0, loc = X264_SCAN8_0+edge*s2; i < 4; i++, loc += s1 )
280             {
281                 int locn = loc - s2;
282                 if( nnz[loc] || nnz[locn] )
283                     bs[dir][edge][i] = 2;
284                 else if( ref[0][loc] != ref[0][locn] ||
285                          abs( mv[0][loc][0] - mv[0][locn][0] ) >= 4 ||
286                          abs( mv[0][loc][1] - mv[0][locn][1] ) >= mvy_limit ||
287                         (bframe && (ref[1][loc] != ref[1][locn] ||
288                          abs( mv[1][loc][0] - mv[1][locn][0] ) >= 4 ||
289                          abs( mv[1][loc][1] - mv[1][locn][1] ) >= mvy_limit )))
290                 {
291                     bs[dir][edge][i] = 1;
292                 }
293                 else
294                     bs[dir][edge][i] = 0;
295             }
296     }
297 }
298
299 void deblock_strength_mbaff_c( uint8_t nnz_cache[X264_SCAN8_SIZE], int8_t ref[2][X264_SCAN8_LUMA_SIZE],
300                                int16_t mv[2][X264_SCAN8_LUMA_SIZE][2], uint8_t bs[2][8][4],
301                                int mvy_limit, int bframe, x264_t *h )
302 {
303     int neighbour_field[2];
304     neighbour_field[0] = h->mb.i_mb_left_xy[0] >= 0 && h->mb.field[h->mb.i_mb_left_xy[0]];
305     neighbour_field[1] = h->mb.i_mb_top_xy >= 0 && h->mb.field[h->mb.i_mb_top_xy];
306     int intra_cur = IS_INTRA( h->mb.i_type );
307
308     if( !intra_cur )
309     {
310         for( int dir = 0; dir < 2; dir++ )
311         {
312             int edge_stride = dir ? 8 : 1;
313             int part_stride = dir ? 1 : 8;
314             for( int edge = 0; edge < 4; edge++ )
315             {
316                 for( int i = 0, q = X264_SCAN8_0+edge*edge_stride; i < 4; i++, q += part_stride )
317                 {
318                     int p = q - edge_stride;
319                     if( nnz_cache[q] || nnz_cache[p] )
320                     {
321                         bs[dir][edge][i] = 2;
322                     }
323                     else if( (edge == 0 && h->mb.b_interlaced != neighbour_field[dir]) ||
324                              ref[0][q] != ref[0][p] ||
325                              abs( mv[0][q][0] - mv[0][p][0] ) >= 4 ||
326                              abs( mv[0][q][1] - mv[0][p][1] ) >= mvy_limit ||
327                             (bframe && (ref[1][q] != ref[1][p] ||
328                              abs( mv[1][q][0] - mv[1][p][0] ) >= 4 ||
329                              abs( mv[1][q][1] - mv[1][p][1] ) >= mvy_limit )) )
330                     {
331                         bs[dir][edge][i] = 1;
332                     }
333                     else
334                         bs[dir][edge][i] = 0;
335                 }
336             }
337         }
338     }
339 }
340
341 static inline void deblock_edge( x264_t *h, pixel *pix, int i_stride, uint8_t bS[4], int i_qp, int b_chroma, x264_deblock_inter_t pf_inter )
342 {
343     int index_a = i_qp-QP_BD_OFFSET + h->sh.i_alpha_c0_offset;
344     int index_b = i_qp-QP_BD_OFFSET + h->sh.i_beta_offset;
345     int alpha = alpha_table(index_a) << (BIT_DEPTH-8);
346     int beta  = beta_table(index_b) << (BIT_DEPTH-8);
347     int8_t tc[4];
348
349     if( !M32(bS) || !alpha || !beta )
350         return;
351
352     tc[0] = (tc0_table(index_a)[bS[0]] << (BIT_DEPTH-8)) + b_chroma;
353     tc[1] = (tc0_table(index_a)[bS[1]] << (BIT_DEPTH-8)) + b_chroma;
354     tc[2] = (tc0_table(index_a)[bS[2]] << (BIT_DEPTH-8)) + b_chroma;
355     tc[3] = (tc0_table(index_a)[bS[3]] << (BIT_DEPTH-8)) + b_chroma;
356
357     pf_inter( pix, i_stride, alpha, beta, tc );
358 }
359
360 static inline void deblock_edge_intra( x264_t *h, pixel *pix, int i_stride, uint8_t bS[4], int i_qp, int b_chroma, x264_deblock_intra_t pf_intra )
361 {
362     int index_a = i_qp-QP_BD_OFFSET + h->sh.i_alpha_c0_offset;
363     int index_b = i_qp-QP_BD_OFFSET + h->sh.i_beta_offset;
364     int alpha = alpha_table(index_a) << (BIT_DEPTH-8);
365     int beta  = beta_table(index_b) << (BIT_DEPTH-8);
366
367     if( !alpha || !beta )
368         return;
369
370     pf_intra( pix, i_stride, alpha, beta );
371 }
372
373 void x264_frame_deblock_row( x264_t *h, int mb_y )
374 {
375     int b_interlaced = h->sh.b_mbaff;
376     int qp_thresh = 15 - X264_MIN( h->sh.i_alpha_c0_offset, h->sh.i_beta_offset ) - X264_MAX( 0, h->pps->i_chroma_qp_index_offset );
377     int stridey   = h->fdec->i_stride[0];
378     int strideuv  = h->fdec->i_stride[1];
379
380     for( int mb_x = 0; mb_x < h->mb.i_mb_width; mb_x += (~b_interlaced | mb_y)&1, mb_y ^= b_interlaced )
381     {
382         x264_prefetch_fenc( h, h->fdec, mb_x, mb_y );
383         x264_macroblock_cache_load_neighbours_deblock( h, mb_x, mb_y );
384
385         int mb_xy = h->mb.i_mb_xy;
386         int transform_8x8 = h->mb.mb_transform_size[h->mb.i_mb_xy];
387         int intra_cur = IS_INTRA( h->mb.type[mb_xy] );
388         uint8_t (*bs)[8][4] = h->deblock_strength[mb_y&1][mb_x];
389
390         pixel *pixy = h->fdec->plane[0] + 16*mb_y*stridey  + 16*mb_x;
391         pixel *pixuv = h->fdec->plane[1] + 8*mb_y*strideuv + 16*mb_x;
392         if( mb_y & h->mb.b_interlaced )
393         {
394             pixy -= 15*stridey;
395             pixuv -= 7*strideuv;
396         }
397
398         int stride2y  = stridey << h->mb.b_interlaced;
399         int stride2uv = strideuv << h->mb.b_interlaced;
400         int qp = h->mb.qp[mb_xy];
401         int qpc = h->chroma_qp_table[qp];
402         int first_edge_only = h->mb.type[mb_xy] == P_SKIP || qp <= qp_thresh;
403
404         #define FILTER( intra, dir, edge, qp, chroma_qp )\
405         do\
406         {\
407             deblock_edge##intra( h, pixy + 4*edge*(dir?stride2y:1),\
408                                  stride2y, bs[dir][edge], qp, 0,\
409                                  h->loopf.deblock_luma##intra[dir] );\
410             if( !(edge & 1) )\
411                 deblock_edge##intra( h, pixuv + 2*edge*(dir?stride2uv:2),\
412                                      stride2uv, bs[dir][edge], chroma_qp, 1,\
413                                      h->loopf.deblock_chroma##intra[dir] );\
414         } while(0)
415
416         if( h->mb.i_neighbour & MB_LEFT )
417         {
418             int qpl = h->mb.qp[h->mb.i_mb_left_xy[0]];
419             int qp_left = (qp + qpl + 1) >> 1;
420             int qpc_left = (h->chroma_qp_table[qp] + h->chroma_qp_table[qpl] + 1) >> 1;
421             int intra_left = IS_INTRA( h->mb.type[h->mb.i_mb_left_xy[0]] );
422             if( intra_cur || intra_left )
423                 FILTER( _intra, 0, 0, qp_left, qpc_left );
424             else
425                 FILTER(       , 0, 0, qp_left, qpc_left );
426         }
427
428         if( !first_edge_only )
429         {
430             if( !transform_8x8 ) FILTER( , 0, 1, qp, qpc );
431                                  FILTER( , 0, 2, qp, qpc );
432             if( !transform_8x8 ) FILTER( , 0, 3, qp, qpc );
433         }
434
435         if( h->mb.i_neighbour & MB_TOP )
436         {
437             int qpt = h->mb.qp[h->mb.i_mb_top_xy];
438             int qp_top = (qp + qpt + 1) >> 1;
439             int qpc_top = (h->chroma_qp_table[qp] + h->chroma_qp_table[qpt] + 1) >> 1;
440             int intra_top = IS_INTRA( h->mb.type[h->mb.i_mb_top_xy] );
441             if( ~b_interlaced & (intra_cur | intra_top) )
442                 FILTER( _intra, 1, 0, qp_top, qpc_top );
443             else
444             {
445                 if( intra_top )
446                     M32( bs[1][0] ) = 0x03030303;
447                 FILTER(       , 1, 0, qp_top, qpc_top );
448             }
449         }
450
451         if( !first_edge_only )
452         {
453             if( !transform_8x8 ) FILTER( , 1, 1, qp, qpc );
454                                  FILTER( , 1, 2, qp, qpc );
455             if( !transform_8x8 ) FILTER( , 1, 3, qp, qpc );
456         }
457
458         #undef FILTER
459     }
460 }
461
462 /* For deblock-aware RD.
463  * TODO:
464  *  deblock macroblock edges
465  *  support analysis partitions smaller than 16x16
466  *  deblock chroma
467  *  handle duplicate refs correctly
468  *  handle cavlc+8x8dct correctly
469  */
470 void x264_macroblock_deblock( x264_t *h )
471 {
472     int qp_thresh = 15 - X264_MIN( h->sh.i_alpha_c0_offset, h->sh.i_beta_offset ) - X264_MAX( 0, h->pps->i_chroma_qp_index_offset );
473     int qp = h->mb.i_qp;
474     if( qp <= qp_thresh || h->mb.i_type == P_SKIP )
475         return;
476
477     uint8_t (*bs)[8][4] = h->deblock_strength[h->mb.i_mb_y&1][h->mb.i_mb_x];
478     if( IS_INTRA( h->mb.i_type ) )
479         memset( bs, 3, 2*8*4*sizeof(uint8_t) );
480     else
481         h->loopf.deblock_strength( h->mb.cache.non_zero_count, h->mb.cache.ref, h->mb.cache.mv,
482                                    bs, 4 >> h->sh.b_mbaff, h->sh.i_type == SLICE_TYPE_B, h );
483
484     int transform_8x8 = h->mb.b_transform_8x8;
485     pixel *fdec = h->mb.pic.p_fdec[0];
486
487     #define FILTER( dir, edge )\
488     do\
489     {\
490         deblock_edge( h, fdec + 4*edge*(dir?FDEC_STRIDE:1),\
491                       FDEC_STRIDE, bs[dir][edge], qp, 0,\
492                       h->loopf.deblock_luma[dir] );\
493     } while(0)
494
495     if( !transform_8x8 ) FILTER( 0, 1 );
496                          FILTER( 0, 2 );
497     if( !transform_8x8 ) FILTER( 0, 3 );
498
499     if( !transform_8x8 ) FILTER( 1, 1 );
500                          FILTER( 1, 2 );
501     if( !transform_8x8 ) FILTER( 1, 3 );
502
503     #undef FILTER
504 }
505
506 #if HAVE_MMX
507 void x264_deblock_v_luma_sse2( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
508 void x264_deblock_v_luma_avx ( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
509 void x264_deblock_h_luma_sse2( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
510 void x264_deblock_h_luma_avx ( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
511 void x264_deblock_v_chroma_sse2( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
512 void x264_deblock_v_chroma_avx ( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
513 void x264_deblock_h_chroma_sse2( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
514 void x264_deblock_h_chroma_avx ( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
515 void x264_deblock_v_luma_intra_sse2( pixel *pix, int stride, int alpha, int beta );
516 void x264_deblock_v_luma_intra_avx ( pixel *pix, int stride, int alpha, int beta );
517 void x264_deblock_h_luma_intra_sse2( pixel *pix, int stride, int alpha, int beta );
518 void x264_deblock_h_luma_intra_avx ( pixel *pix, int stride, int alpha, int beta );
519 void x264_deblock_v_chroma_intra_sse2( pixel *pix, int stride, int alpha, int beta );
520 void x264_deblock_v_chroma_intra_avx ( pixel *pix, int stride, int alpha, int beta );
521 void x264_deblock_h_chroma_intra_sse2( pixel *pix, int stride, int alpha, int beta );
522 void x264_deblock_h_chroma_intra_avx ( pixel *pix, int stride, int alpha, int beta );
523 void x264_deblock_strength_mmxext( uint8_t nnz[X264_SCAN8_SIZE], int8_t ref[2][X264_SCAN8_LUMA_SIZE],
524                                    int16_t mv[2][X264_SCAN8_LUMA_SIZE][2], uint8_t bs[2][8][4],
525                                    int mvy_limit, int bframe, x264_t *h );
526 void x264_deblock_strength_sse2  ( uint8_t nnz[X264_SCAN8_SIZE], int8_t ref[2][X264_SCAN8_LUMA_SIZE],
527                                    int16_t mv[2][X264_SCAN8_LUMA_SIZE][2], uint8_t bs[2][8][4],
528                                    int mvy_limit, int bframe, x264_t *h );
529 void x264_deblock_strength_ssse3 ( uint8_t nnz[X264_SCAN8_SIZE], int8_t ref[2][X264_SCAN8_LUMA_SIZE],
530                                    int16_t mv[2][X264_SCAN8_LUMA_SIZE][2], uint8_t bs[2][8][4],
531                                    int mvy_limit, int bframe, x264_t *h );
532 void x264_deblock_strength_avx   ( uint8_t nnz[X264_SCAN8_SIZE], int8_t ref[2][X264_SCAN8_LUMA_SIZE],
533                                    int16_t mv[2][X264_SCAN8_LUMA_SIZE][2], uint8_t bs[2][8][4],
534                                    int mvy_limit, int bframe, x264_t *h );
535 #if ARCH_X86
536 void x264_deblock_h_luma_mmxext( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
537 void x264_deblock_v8_luma_mmxext( uint8_t *pix, int stride, int alpha, int beta, int8_t *tc0 );
538 void x264_deblock_v_chroma_mmxext( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
539 void x264_deblock_h_chroma_mmxext( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
540 void x264_deblock_h_luma_intra_mmxext( pixel *pix, int stride, int alpha, int beta );
541 void x264_deblock_v8_luma_intra_mmxext( uint8_t *pix, int stride, int alpha, int beta );
542 void x264_deblock_v_chroma_intra_mmxext( pixel *pix, int stride, int alpha, int beta );
543 void x264_deblock_h_chroma_intra_mmxext( pixel *pix, int stride, int alpha, int beta );
544
545 #if HIGH_BIT_DEPTH
546 void x264_deblock_v_luma_mmxext( pixel *pix, int stride, int alpha, int beta, int8_t *tc0 );
547 void x264_deblock_v_luma_intra_mmxext( pixel *pix, int stride, int alpha, int beta );
548 #else
549 // FIXME this wrapper has a significant cpu cost
550 static void x264_deblock_v_luma_mmxext( uint8_t *pix, int stride, int alpha, int beta, int8_t *tc0 )
551 {
552     x264_deblock_v8_luma_mmxext( pix,   stride, alpha, beta, tc0   );
553     x264_deblock_v8_luma_mmxext( pix+8, stride, alpha, beta, tc0+2 );
554 }
555 static void x264_deblock_v_luma_intra_mmxext( uint8_t *pix, int stride, int alpha, int beta )
556 {
557     x264_deblock_v8_luma_intra_mmxext( pix,   stride, alpha, beta );
558     x264_deblock_v8_luma_intra_mmxext( pix+8, stride, alpha, beta );
559 }
560 #endif // HIGH_BIT_DEPTH
561 #endif
562 #endif
563
564 #if ARCH_PPC
565 void x264_deblock_v_luma_altivec( uint8_t *pix, int stride, int alpha, int beta, int8_t *tc0 );
566 void x264_deblock_h_luma_altivec( uint8_t *pix, int stride, int alpha, int beta, int8_t *tc0 );
567 #endif // ARCH_PPC
568
569 #if HAVE_ARMV6
570 void x264_deblock_v_luma_neon( uint8_t *, int, int, int, int8_t * );
571 void x264_deblock_h_luma_neon( uint8_t *, int, int, int, int8_t * );
572 void x264_deblock_v_chroma_neon( uint8_t *, int, int, int, int8_t * );
573 void x264_deblock_h_chroma_neon( uint8_t *, int, int, int, int8_t * );
574 #endif
575
576 void x264_deblock_init( int cpu, x264_deblock_function_t *pf, int b_mbaff )
577 {
578     pf->deblock_luma[1] = deblock_v_luma_c;
579     pf->deblock_luma[0] = deblock_h_luma_c;
580     pf->deblock_chroma[1] = deblock_v_chroma_c;
581     pf->deblock_chroma[0] = deblock_h_chroma_c;
582     pf->deblock_luma_intra[1] = deblock_v_luma_intra_c;
583     pf->deblock_luma_intra[0] = deblock_h_luma_intra_c;
584     pf->deblock_chroma_intra[1] = deblock_v_chroma_intra_c;
585     pf->deblock_chroma_intra[0] = deblock_h_chroma_intra_c;
586     pf->deblock_strength = deblock_strength_c;
587
588 #if HAVE_MMX
589     if( cpu&X264_CPU_MMXEXT )
590     {
591 #if ARCH_X86
592         pf->deblock_luma[1] = x264_deblock_v_luma_mmxext;
593         pf->deblock_luma[0] = x264_deblock_h_luma_mmxext;
594         pf->deblock_chroma[1] = x264_deblock_v_chroma_mmxext;
595         pf->deblock_chroma[0] = x264_deblock_h_chroma_mmxext;
596         pf->deblock_luma_intra[1] = x264_deblock_v_luma_intra_mmxext;
597         pf->deblock_luma_intra[0] = x264_deblock_h_luma_intra_mmxext;
598         pf->deblock_chroma_intra[1] = x264_deblock_v_chroma_intra_mmxext;
599         pf->deblock_chroma_intra[0] = x264_deblock_h_chroma_intra_mmxext;
600 #endif
601         pf->deblock_strength = x264_deblock_strength_mmxext;
602         if( cpu&X264_CPU_SSE2 )
603         {
604             pf->deblock_strength = x264_deblock_strength_sse2;
605             if( !(cpu&X264_CPU_STACK_MOD4) )
606             {
607                 pf->deblock_luma[1] = x264_deblock_v_luma_sse2;
608                 pf->deblock_luma[0] = x264_deblock_h_luma_sse2;
609                 pf->deblock_chroma[1] = x264_deblock_v_chroma_sse2;
610                 pf->deblock_chroma[0] = x264_deblock_h_chroma_sse2;
611                 pf->deblock_luma_intra[1] = x264_deblock_v_luma_intra_sse2;
612                 pf->deblock_luma_intra[0] = x264_deblock_h_luma_intra_sse2;
613                 pf->deblock_chroma_intra[1] = x264_deblock_v_chroma_intra_sse2;
614                 pf->deblock_chroma_intra[0] = x264_deblock_h_chroma_intra_sse2;
615             }
616         }
617         if( cpu&X264_CPU_SSSE3 )
618             pf->deblock_strength = x264_deblock_strength_ssse3;
619         if( cpu&X264_CPU_AVX )
620         {
621             pf->deblock_strength = x264_deblock_strength_avx;
622             if( !(cpu&X264_CPU_STACK_MOD4) )
623             {
624                 pf->deblock_luma[1] = x264_deblock_v_luma_avx;
625                 pf->deblock_luma[0] = x264_deblock_h_luma_avx;
626                 pf->deblock_chroma[1] = x264_deblock_v_chroma_avx;
627                 pf->deblock_chroma[0] = x264_deblock_h_chroma_avx;
628                 pf->deblock_luma_intra[1] = x264_deblock_v_luma_intra_avx;
629                 pf->deblock_luma_intra[0] = x264_deblock_h_luma_intra_avx;
630                 pf->deblock_chroma_intra[1] = x264_deblock_v_chroma_intra_avx;
631                 pf->deblock_chroma_intra[0] = x264_deblock_h_chroma_intra_avx;
632             }
633         }
634     }
635 #endif
636
637 #if !HIGH_BIT_DEPTH
638 #if HAVE_ALTIVEC
639     if( cpu&X264_CPU_ALTIVEC )
640     {
641         pf->deblock_luma[1] = x264_deblock_v_luma_altivec;
642         pf->deblock_luma[0] = x264_deblock_h_luma_altivec;
643    }
644 #endif // HAVE_ALTIVEC
645
646 #if HAVE_ARMV6
647    if( cpu&X264_CPU_NEON )
648    {
649         pf->deblock_luma[1] = x264_deblock_v_luma_neon;
650         pf->deblock_luma[0] = x264_deblock_h_luma_neon;
651 //      pf->deblock_chroma[1] = x264_deblock_v_chroma_neon;
652 //      pf->deblock_chroma[0] = x264_deblock_h_chroma_neon;
653    }
654 #endif
655 #endif // !HIGH_BIT_DEPTH
656
657     if( b_mbaff ) pf->deblock_strength = deblock_strength_mbaff_c;
658 }