]> git.sesse.net Git - ffmpeg/blob - libavcodec/h264_slice.c
lavc: introduce a new decoding/encoding API with decoupled input/output
[ffmpeg] / libavcodec / h264_slice.c
1 /*
2  * H.26L/H.264/AVC/JVT/14496-10/... decoder
3  * Copyright (c) 2003 Michael Niedermayer <michaelni@gmx.at>
4  *
5  * This file is part of Libav.
6  *
7  * Libav is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU Lesser General Public
9  * License as published by the Free Software Foundation; either
10  * version 2.1 of the License, or (at your option) any later version.
11  *
12  * Libav is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * Lesser General Public License for more details.
16  *
17  * You should have received a copy of the GNU Lesser General Public
18  * License along with Libav; if not, write to the Free Software
19  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
20  */
21
22 /**
23  * @file
24  * H.264 / AVC / MPEG4 part10 codec.
25  * @author Michael Niedermayer <michaelni@gmx.at>
26  */
27
28 #include "libavutil/avassert.h"
29 #include "libavutil/imgutils.h"
30 #include "libavutil/timer.h"
31 #include "internal.h"
32 #include "cabac.h"
33 #include "cabac_functions.h"
34 #include "error_resilience.h"
35 #include "avcodec.h"
36 #include "h264.h"
37 #include "h264data.h"
38 #include "h264chroma.h"
39 #include "h264_mvpred.h"
40 #include "golomb.h"
41 #include "mathops.h"
42 #include "mpegutils.h"
43 #include "rectangle.h"
44 #include "thread.h"
45
46
47 static const uint8_t rem6[QP_MAX_NUM + 1] = {
48     0, 1, 2, 3, 4, 5, 0, 1, 2, 3, 4, 5, 0, 1, 2, 3, 4, 5, 0, 1, 2,
49     3, 4, 5, 0, 1, 2, 3, 4, 5, 0, 1, 2, 3, 4, 5, 0, 1, 2, 3, 4, 5,
50     0, 1, 2, 3, 4, 5, 0, 1, 2, 3, 4, 5, 0, 1, 2, 3, 4, 5, 0, 1, 2, 3,
51 };
52
53 static const uint8_t div6[QP_MAX_NUM + 1] = {
54     0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3,  3,  3,
55     3, 3, 3, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6,  6,  6,
56     7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10,
57 };
58
59 static const uint8_t field_scan[16] = {
60     0 + 0 * 4, 0 + 1 * 4, 1 + 0 * 4, 0 + 2 * 4,
61     0 + 3 * 4, 1 + 1 * 4, 1 + 2 * 4, 1 + 3 * 4,
62     2 + 0 * 4, 2 + 1 * 4, 2 + 2 * 4, 2 + 3 * 4,
63     3 + 0 * 4, 3 + 1 * 4, 3 + 2 * 4, 3 + 3 * 4,
64 };
65
66 static const uint8_t field_scan8x8[64] = {
67     0 + 0 * 8, 0 + 1 * 8, 0 + 2 * 8, 1 + 0 * 8,
68     1 + 1 * 8, 0 + 3 * 8, 0 + 4 * 8, 1 + 2 * 8,
69     2 + 0 * 8, 1 + 3 * 8, 0 + 5 * 8, 0 + 6 * 8,
70     0 + 7 * 8, 1 + 4 * 8, 2 + 1 * 8, 3 + 0 * 8,
71     2 + 2 * 8, 1 + 5 * 8, 1 + 6 * 8, 1 + 7 * 8,
72     2 + 3 * 8, 3 + 1 * 8, 4 + 0 * 8, 3 + 2 * 8,
73     2 + 4 * 8, 2 + 5 * 8, 2 + 6 * 8, 2 + 7 * 8,
74     3 + 3 * 8, 4 + 1 * 8, 5 + 0 * 8, 4 + 2 * 8,
75     3 + 4 * 8, 3 + 5 * 8, 3 + 6 * 8, 3 + 7 * 8,
76     4 + 3 * 8, 5 + 1 * 8, 6 + 0 * 8, 5 + 2 * 8,
77     4 + 4 * 8, 4 + 5 * 8, 4 + 6 * 8, 4 + 7 * 8,
78     5 + 3 * 8, 6 + 1 * 8, 6 + 2 * 8, 5 + 4 * 8,
79     5 + 5 * 8, 5 + 6 * 8, 5 + 7 * 8, 6 + 3 * 8,
80     7 + 0 * 8, 7 + 1 * 8, 6 + 4 * 8, 6 + 5 * 8,
81     6 + 6 * 8, 6 + 7 * 8, 7 + 2 * 8, 7 + 3 * 8,
82     7 + 4 * 8, 7 + 5 * 8, 7 + 6 * 8, 7 + 7 * 8,
83 };
84
85 static const uint8_t field_scan8x8_cavlc[64] = {
86     0 + 0 * 8, 1 + 1 * 8, 2 + 0 * 8, 0 + 7 * 8,
87     2 + 2 * 8, 2 + 3 * 8, 2 + 4 * 8, 3 + 3 * 8,
88     3 + 4 * 8, 4 + 3 * 8, 4 + 4 * 8, 5 + 3 * 8,
89     5 + 5 * 8, 7 + 0 * 8, 6 + 6 * 8, 7 + 4 * 8,
90     0 + 1 * 8, 0 + 3 * 8, 1 + 3 * 8, 1 + 4 * 8,
91     1 + 5 * 8, 3 + 1 * 8, 2 + 5 * 8, 4 + 1 * 8,
92     3 + 5 * 8, 5 + 1 * 8, 4 + 5 * 8, 6 + 1 * 8,
93     5 + 6 * 8, 7 + 1 * 8, 6 + 7 * 8, 7 + 5 * 8,
94     0 + 2 * 8, 0 + 4 * 8, 0 + 5 * 8, 2 + 1 * 8,
95     1 + 6 * 8, 4 + 0 * 8, 2 + 6 * 8, 5 + 0 * 8,
96     3 + 6 * 8, 6 + 0 * 8, 4 + 6 * 8, 6 + 2 * 8,
97     5 + 7 * 8, 6 + 4 * 8, 7 + 2 * 8, 7 + 6 * 8,
98     1 + 0 * 8, 1 + 2 * 8, 0 + 6 * 8, 3 + 0 * 8,
99     1 + 7 * 8, 3 + 2 * 8, 2 + 7 * 8, 4 + 2 * 8,
100     3 + 7 * 8, 5 + 2 * 8, 4 + 7 * 8, 5 + 4 * 8,
101     6 + 3 * 8, 6 + 5 * 8, 7 + 3 * 8, 7 + 7 * 8,
102 };
103
104 // zigzag_scan8x8_cavlc[i] = zigzag_scan8x8[(i/4) + 16*(i%4)]
105 static const uint8_t zigzag_scan8x8_cavlc[64] = {
106     0 + 0 * 8, 1 + 1 * 8, 1 + 2 * 8, 2 + 2 * 8,
107     4 + 1 * 8, 0 + 5 * 8, 3 + 3 * 8, 7 + 0 * 8,
108     3 + 4 * 8, 1 + 7 * 8, 5 + 3 * 8, 6 + 3 * 8,
109     2 + 7 * 8, 6 + 4 * 8, 5 + 6 * 8, 7 + 5 * 8,
110     1 + 0 * 8, 2 + 0 * 8, 0 + 3 * 8, 3 + 1 * 8,
111     3 + 2 * 8, 0 + 6 * 8, 4 + 2 * 8, 6 + 1 * 8,
112     2 + 5 * 8, 2 + 6 * 8, 6 + 2 * 8, 5 + 4 * 8,
113     3 + 7 * 8, 7 + 3 * 8, 4 + 7 * 8, 7 + 6 * 8,
114     0 + 1 * 8, 3 + 0 * 8, 0 + 4 * 8, 4 + 0 * 8,
115     2 + 3 * 8, 1 + 5 * 8, 5 + 1 * 8, 5 + 2 * 8,
116     1 + 6 * 8, 3 + 5 * 8, 7 + 1 * 8, 4 + 5 * 8,
117     4 + 6 * 8, 7 + 4 * 8, 5 + 7 * 8, 6 + 7 * 8,
118     0 + 2 * 8, 2 + 1 * 8, 1 + 3 * 8, 5 + 0 * 8,
119     1 + 4 * 8, 2 + 4 * 8, 6 + 0 * 8, 4 + 3 * 8,
120     0 + 7 * 8, 4 + 4 * 8, 7 + 2 * 8, 3 + 6 * 8,
121     5 + 5 * 8, 6 + 5 * 8, 6 + 6 * 8, 7 + 7 * 8,
122 };
123
124 static const uint8_t dequant4_coeff_init[6][3] = {
125     { 10, 13, 16 },
126     { 11, 14, 18 },
127     { 13, 16, 20 },
128     { 14, 18, 23 },
129     { 16, 20, 25 },
130     { 18, 23, 29 },
131 };
132
133 static const uint8_t dequant8_coeff_init_scan[16] = {
134     0, 3, 4, 3, 3, 1, 5, 1, 4, 5, 2, 5, 3, 1, 5, 1
135 };
136
137 static const uint8_t dequant8_coeff_init[6][6] = {
138     { 20, 18, 32, 19, 25, 24 },
139     { 22, 19, 35, 21, 28, 26 },
140     { 26, 23, 42, 24, 33, 31 },
141     { 28, 25, 45, 26, 35, 33 },
142     { 32, 28, 51, 30, 40, 38 },
143     { 36, 32, 58, 34, 46, 43 },
144 };
145
146
147 static void release_unused_pictures(H264Context *h, int remove_current)
148 {
149     int i;
150
151     /* release non reference frames */
152     for (i = 0; i < H264_MAX_PICTURE_COUNT; i++) {
153         if (h->DPB[i].f->buf[0] && !h->DPB[i].reference &&
154             (remove_current || &h->DPB[i] != h->cur_pic_ptr)) {
155             ff_h264_unref_picture(h, &h->DPB[i]);
156         }
157     }
158 }
159
160 static int alloc_scratch_buffers(H264SliceContext *sl, int linesize)
161 {
162     const H264Context *h = sl->h264;
163     int alloc_size = FFALIGN(FFABS(linesize) + 32, 32);
164
165     av_fast_malloc(&sl->bipred_scratchpad, &sl->bipred_scratchpad_allocated, 16 * 6 * alloc_size);
166     // edge emu needs blocksize + filter length - 1
167     // (= 21x21 for  h264)
168     av_fast_malloc(&sl->edge_emu_buffer, &sl->edge_emu_buffer_allocated, alloc_size * 2 * 21);
169
170     av_fast_malloc(&sl->top_borders[0], &sl->top_borders_allocated[0],
171                    h->mb_width * 16 * 3 * sizeof(uint8_t) * 2);
172     av_fast_malloc(&sl->top_borders[1], &sl->top_borders_allocated[1],
173                    h->mb_width * 16 * 3 * sizeof(uint8_t) * 2);
174
175     if (!sl->bipred_scratchpad || !sl->edge_emu_buffer ||
176         !sl->top_borders[0]    || !sl->top_borders[1]) {
177         av_freep(&sl->bipred_scratchpad);
178         av_freep(&sl->edge_emu_buffer);
179         av_freep(&sl->top_borders[0]);
180         av_freep(&sl->top_borders[1]);
181
182         sl->bipred_scratchpad_allocated = 0;
183         sl->edge_emu_buffer_allocated   = 0;
184         sl->top_borders_allocated[0]    = 0;
185         sl->top_borders_allocated[1]    = 0;
186         return AVERROR(ENOMEM);
187     }
188
189     return 0;
190 }
191
192 static int init_table_pools(H264Context *h)
193 {
194     const int big_mb_num    = h->mb_stride * (h->mb_height + 1) + 1;
195     const int mb_array_size = h->mb_stride * h->mb_height;
196     const int b4_stride     = h->mb_width * 4 + 1;
197     const int b4_array_size = b4_stride * h->mb_height * 4;
198
199     h->qscale_table_pool = av_buffer_pool_init(big_mb_num + h->mb_stride,
200                                                av_buffer_allocz);
201     h->mb_type_pool      = av_buffer_pool_init((big_mb_num + h->mb_stride) *
202                                                sizeof(uint32_t), av_buffer_allocz);
203     h->motion_val_pool   = av_buffer_pool_init(2 * (b4_array_size + 4) *
204                                                sizeof(int16_t), av_buffer_allocz);
205     h->ref_index_pool    = av_buffer_pool_init(4 * mb_array_size, av_buffer_allocz);
206
207     if (!h->qscale_table_pool || !h->mb_type_pool || !h->motion_val_pool ||
208         !h->ref_index_pool) {
209         av_buffer_pool_uninit(&h->qscale_table_pool);
210         av_buffer_pool_uninit(&h->mb_type_pool);
211         av_buffer_pool_uninit(&h->motion_val_pool);
212         av_buffer_pool_uninit(&h->ref_index_pool);
213         return AVERROR(ENOMEM);
214     }
215
216     return 0;
217 }
218
219 static int alloc_picture(H264Context *h, H264Picture *pic)
220 {
221     int i, ret = 0;
222
223     av_assert0(!pic->f->data[0]);
224
225     pic->tf.f = pic->f;
226     ret = ff_thread_get_buffer(h->avctx, &pic->tf, pic->reference ?
227                                                    AV_GET_BUFFER_FLAG_REF : 0);
228     if (ret < 0)
229         goto fail;
230
231     if (h->avctx->hwaccel) {
232         const AVHWAccel *hwaccel = h->avctx->hwaccel;
233         av_assert0(!pic->hwaccel_picture_private);
234         if (hwaccel->frame_priv_data_size) {
235             pic->hwaccel_priv_buf = av_buffer_allocz(hwaccel->frame_priv_data_size);
236             if (!pic->hwaccel_priv_buf)
237                 return AVERROR(ENOMEM);
238             pic->hwaccel_picture_private = pic->hwaccel_priv_buf->data;
239         }
240     }
241
242     if (!h->qscale_table_pool) {
243         ret = init_table_pools(h);
244         if (ret < 0)
245             goto fail;
246     }
247
248     pic->qscale_table_buf = av_buffer_pool_get(h->qscale_table_pool);
249     pic->mb_type_buf      = av_buffer_pool_get(h->mb_type_pool);
250     if (!pic->qscale_table_buf || !pic->mb_type_buf)
251         goto fail;
252
253     pic->mb_type      = (uint32_t*)pic->mb_type_buf->data + 2 * h->mb_stride + 1;
254     pic->qscale_table = pic->qscale_table_buf->data + 2 * h->mb_stride + 1;
255
256     for (i = 0; i < 2; i++) {
257         pic->motion_val_buf[i] = av_buffer_pool_get(h->motion_val_pool);
258         pic->ref_index_buf[i]  = av_buffer_pool_get(h->ref_index_pool);
259         if (!pic->motion_val_buf[i] || !pic->ref_index_buf[i])
260             goto fail;
261
262         pic->motion_val[i] = (int16_t (*)[2])pic->motion_val_buf[i]->data + 4;
263         pic->ref_index[i]  = pic->ref_index_buf[i]->data;
264     }
265
266     return 0;
267 fail:
268     ff_h264_unref_picture(h, pic);
269     return (ret < 0) ? ret : AVERROR(ENOMEM);
270 }
271
272 static inline int pic_is_unused(H264Context *h, H264Picture *pic)
273 {
274     if (!pic->f->buf[0])
275         return 1;
276     return 0;
277 }
278
279 static int find_unused_picture(H264Context *h)
280 {
281     int i;
282
283     for (i = 0; i < H264_MAX_PICTURE_COUNT; i++) {
284         if (pic_is_unused(h, &h->DPB[i]))
285             break;
286     }
287     if (i == H264_MAX_PICTURE_COUNT)
288         return AVERROR_INVALIDDATA;
289
290     return i;
291 }
292
293 static int initialize_cur_frame(H264Context *h)
294 {
295     H264Picture *cur;
296     int ret;
297
298     release_unused_pictures(h, 1);
299     ff_h264_unref_picture(h, &h->cur_pic);
300     h->cur_pic_ptr = NULL;
301
302     ret = find_unused_picture(h);
303     if (ret < 0) {
304         av_log(h->avctx, AV_LOG_ERROR, "no frame buffer available\n");
305         return ret;
306     }
307     cur = &h->DPB[ret];
308
309     ret = alloc_picture(h, cur);
310     if (ret < 0)
311         return ret;
312
313     ret = ff_h264_ref_picture(h, &h->cur_pic, cur);
314     if (ret < 0)
315         return ret;
316     h->cur_pic_ptr = cur;
317
318     return 0;
319 }
320
321 static void init_dequant8_coeff_table(H264Context *h)
322 {
323     int i, j, q, x;
324     const int max_qp = 51 + 6 * (h->sps.bit_depth_luma - 8);
325
326     for (i = 0; i < 6; i++) {
327         h->dequant8_coeff[i] = h->dequant8_buffer[i];
328         for (j = 0; j < i; j++)
329             if (!memcmp(h->pps.scaling_matrix8[j], h->pps.scaling_matrix8[i],
330                         64 * sizeof(uint8_t))) {
331                 h->dequant8_coeff[i] = h->dequant8_buffer[j];
332                 break;
333             }
334         if (j < i)
335             continue;
336
337         for (q = 0; q < max_qp + 1; q++) {
338             int shift = div6[q];
339             int idx   = rem6[q];
340             for (x = 0; x < 64; x++)
341                 h->dequant8_coeff[i][q][(x >> 3) | ((x & 7) << 3)] =
342                     ((uint32_t)dequant8_coeff_init[idx][dequant8_coeff_init_scan[((x >> 1) & 12) | (x & 3)]] *
343                      h->pps.scaling_matrix8[i][x]) << shift;
344         }
345     }
346 }
347
348 static void init_dequant4_coeff_table(H264Context *h)
349 {
350     int i, j, q, x;
351     const int max_qp = 51 + 6 * (h->sps.bit_depth_luma - 8);
352     for (i = 0; i < 6; i++) {
353         h->dequant4_coeff[i] = h->dequant4_buffer[i];
354         for (j = 0; j < i; j++)
355             if (!memcmp(h->pps.scaling_matrix4[j], h->pps.scaling_matrix4[i],
356                         16 * sizeof(uint8_t))) {
357                 h->dequant4_coeff[i] = h->dequant4_buffer[j];
358                 break;
359             }
360         if (j < i)
361             continue;
362
363         for (q = 0; q < max_qp + 1; q++) {
364             int shift = div6[q] + 2;
365             int idx   = rem6[q];
366             for (x = 0; x < 16; x++)
367                 h->dequant4_coeff[i][q][(x >> 2) | ((x << 2) & 0xF)] =
368                     ((uint32_t)dequant4_coeff_init[idx][(x & 1) + ((x >> 2) & 1)] *
369                      h->pps.scaling_matrix4[i][x]) << shift;
370         }
371     }
372 }
373
374 void h264_init_dequant_tables(H264Context *h)
375 {
376     int i, x;
377     init_dequant4_coeff_table(h);
378     if (h->pps.transform_8x8_mode)
379         init_dequant8_coeff_table(h);
380     if (h->sps.transform_bypass) {
381         for (i = 0; i < 6; i++)
382             for (x = 0; x < 16; x++)
383                 h->dequant4_coeff[i][0][x] = 1 << 6;
384         if (h->pps.transform_8x8_mode)
385             for (i = 0; i < 6; i++)
386                 for (x = 0; x < 64; x++)
387                     h->dequant8_coeff[i][0][x] = 1 << 6;
388     }
389 }
390
391 #define IN_RANGE(a, b, size) (((a) >= (b)) && ((a) < ((b) + (size))))
392
393 #define REBASE_PICTURE(pic, new_ctx, old_ctx)             \
394     ((pic && pic >= old_ctx->DPB &&                       \
395       pic < old_ctx->DPB + H264_MAX_PICTURE_COUNT) ?          \
396      &new_ctx->DPB[pic - old_ctx->DPB] : NULL)
397
398 static void copy_picture_range(H264Picture **to, H264Picture **from, int count,
399                                H264Context *new_base,
400                                H264Context *old_base)
401 {
402     int i;
403
404     for (i = 0; i < count; i++) {
405         assert((IN_RANGE(from[i], old_base, sizeof(*old_base)) ||
406                 IN_RANGE(from[i], old_base->DPB,
407                          sizeof(H264Picture) * H264_MAX_PICTURE_COUNT) ||
408                 !from[i]));
409         to[i] = REBASE_PICTURE(from[i], new_base, old_base);
410     }
411 }
412
413 static int copy_parameter_set(void **to, void **from, int count, int size)
414 {
415     int i;
416
417     for (i = 0; i < count; i++) {
418         if (to[i] && !from[i]) {
419             av_freep(&to[i]);
420         } else if (from[i] && !to[i]) {
421             to[i] = av_malloc(size);
422             if (!to[i])
423                 return AVERROR(ENOMEM);
424         }
425
426         if (from[i])
427             memcpy(to[i], from[i], size);
428     }
429
430     return 0;
431 }
432
433 #define copy_fields(to, from, start_field, end_field)                   \
434     memcpy(&to->start_field, &from->start_field,                        \
435            (char *)&to->end_field - (char *)&to->start_field)
436
437 static int h264_slice_header_init(H264Context *h);
438
439 int ff_h264_update_thread_context(AVCodecContext *dst,
440                                   const AVCodecContext *src)
441 {
442     H264Context *h = dst->priv_data, *h1 = src->priv_data;
443     int inited = h->context_initialized, err = 0;
444     int need_reinit = 0;
445     int i, ret;
446
447     if (dst == src || !h1->context_initialized)
448         return 0;
449
450     if (inited &&
451         (h->width                 != h1->width                 ||
452          h->height                != h1->height                ||
453          h->mb_width              != h1->mb_width              ||
454          h->mb_height             != h1->mb_height             ||
455          h->sps.bit_depth_luma    != h1->sps.bit_depth_luma    ||
456          h->sps.chroma_format_idc != h1->sps.chroma_format_idc ||
457          h->sps.colorspace        != h1->sps.colorspace)) {
458         need_reinit = 1;
459     }
460
461     // SPS/PPS
462     if ((ret = copy_parameter_set((void **)h->sps_buffers,
463                                   (void **)h1->sps_buffers,
464                                   MAX_SPS_COUNT, sizeof(SPS))) < 0)
465         return ret;
466     h->sps = h1->sps;
467     if ((ret = copy_parameter_set((void **)h->pps_buffers,
468                                   (void **)h1->pps_buffers,
469                                   MAX_PPS_COUNT, sizeof(PPS))) < 0)
470         return ret;
471     h->pps = h1->pps;
472
473     if (need_reinit || !inited) {
474         h->width     = h1->width;
475         h->height    = h1->height;
476         h->mb_height = h1->mb_height;
477         h->mb_width  = h1->mb_width;
478         h->mb_num    = h1->mb_num;
479         h->mb_stride = h1->mb_stride;
480         h->b_stride  = h1->b_stride;
481
482         if ((err = h264_slice_header_init(h)) < 0) {
483             av_log(h->avctx, AV_LOG_ERROR, "h264_slice_header_init() failed");
484             return err;
485         }
486
487         /* copy block_offset since frame_start may not be called */
488         memcpy(h->block_offset, h1->block_offset, sizeof(h->block_offset));
489     }
490
491     h->avctx->coded_height  = h1->avctx->coded_height;
492     h->avctx->coded_width   = h1->avctx->coded_width;
493     h->avctx->width         = h1->avctx->width;
494     h->avctx->height        = h1->avctx->height;
495     h->coded_picture_number = h1->coded_picture_number;
496     h->first_field          = h1->first_field;
497     h->picture_structure    = h1->picture_structure;
498     h->droppable            = h1->droppable;
499     h->low_delay            = h1->low_delay;
500
501     for (i = 0; i < H264_MAX_PICTURE_COUNT; i++) {
502         ff_h264_unref_picture(h, &h->DPB[i]);
503         if (h1->DPB[i].f->buf[0] &&
504             (ret = ff_h264_ref_picture(h, &h->DPB[i], &h1->DPB[i])) < 0)
505             return ret;
506     }
507
508     h->cur_pic_ptr = REBASE_PICTURE(h1->cur_pic_ptr, h, h1);
509     ff_h264_unref_picture(h, &h->cur_pic);
510     if (h1->cur_pic.f->buf[0]) {
511         ret = ff_h264_ref_picture(h, &h->cur_pic, &h1->cur_pic);
512         if (ret < 0)
513             return ret;
514     }
515
516     h->enable_er       = h1->enable_er;
517     h->workaround_bugs = h1->workaround_bugs;
518     h->low_delay       = h1->low_delay;
519     h->droppable       = h1->droppable;
520
521     // extradata/NAL handling
522     h->is_avc = h1->is_avc;
523     h->nal_length_size = h1->nal_length_size;
524
525     // Dequantization matrices
526     // FIXME these are big - can they be only copied when PPS changes?
527     copy_fields(h, h1, dequant4_buffer, dequant4_coeff);
528
529     for (i = 0; i < 6; i++)
530         h->dequant4_coeff[i] = h->dequant4_buffer[0] +
531                                (h1->dequant4_coeff[i] - h1->dequant4_buffer[0]);
532
533     for (i = 0; i < 6; i++)
534         h->dequant8_coeff[i] = h->dequant8_buffer[0] +
535                                (h1->dequant8_coeff[i] - h1->dequant8_buffer[0]);
536
537     h->dequant_coeff_pps = h1->dequant_coeff_pps;
538
539     // POC timing
540     copy_fields(h, h1, poc_lsb, current_slice);
541
542     copy_picture_range(h->short_ref, h1->short_ref, 32, h, h1);
543     copy_picture_range(h->long_ref, h1->long_ref, 32, h, h1);
544     copy_picture_range(h->delayed_pic, h1->delayed_pic,
545                        MAX_DELAYED_PIC_COUNT + 2, h, h1);
546
547     if (!h->cur_pic_ptr)
548         return 0;
549
550     if (!h->droppable) {
551         err = ff_h264_execute_ref_pic_marking(h, h->mmco, h->mmco_index);
552         h->prev_poc_msb = h->poc_msb;
553         h->prev_poc_lsb = h->poc_lsb;
554     }
555     h->prev_frame_num_offset = h->frame_num_offset;
556     h->prev_frame_num        = h->frame_num;
557
558     h->recovery_frame        = h1->recovery_frame;
559     h->frame_recovered       = h1->frame_recovered;
560
561     return err;
562 }
563
564 static int h264_frame_start(H264Context *h)
565 {
566     H264Picture *pic;
567     int i, ret;
568     const int pixel_shift = h->pixel_shift;
569
570     ret = initialize_cur_frame(h);
571     if (ret < 0)
572         return ret;
573
574     pic = h->cur_pic_ptr;
575     pic->reference              = h->droppable ? 0 : h->picture_structure;
576     pic->f->coded_picture_number = h->coded_picture_number++;
577     pic->field_picture          = h->picture_structure != PICT_FRAME;
578     pic->frame_num               = h->frame_num;
579     /*
580      * Zero key_frame here; IDR markings per slice in frame or fields are ORed
581      * in later.
582      * See decode_nal_units().
583      */
584     pic->f->key_frame = 0;
585     pic->mmco_reset  = 0;
586     pic->recovered   = 0;
587
588     if (CONFIG_ERROR_RESILIENCE && h->enable_er)
589         ff_er_frame_start(&h->slice_ctx[0].er);
590
591     for (i = 0; i < 16; i++) {
592         h->block_offset[i]           = (4 * ((scan8[i] - scan8[0]) & 7) << pixel_shift) + 4 * pic->f->linesize[0] * ((scan8[i] - scan8[0]) >> 3);
593         h->block_offset[48 + i]      = (4 * ((scan8[i] - scan8[0]) & 7) << pixel_shift) + 8 * pic->f->linesize[0] * ((scan8[i] - scan8[0]) >> 3);
594     }
595     for (i = 0; i < 16; i++) {
596         h->block_offset[16 + i]      =
597         h->block_offset[32 + i]      = (4 * ((scan8[i] - scan8[0]) & 7) << pixel_shift) + 4 * pic->f->linesize[1] * ((scan8[i] - scan8[0]) >> 3);
598         h->block_offset[48 + 16 + i] =
599         h->block_offset[48 + 32 + i] = (4 * ((scan8[i] - scan8[0]) & 7) << pixel_shift) + 8 * pic->f->linesize[1] * ((scan8[i] - scan8[0]) >> 3);
600     }
601
602     /* Some macroblocks can be accessed before they're available in case
603      * of lost slices, MBAFF or threading. */
604     memset(h->slice_table, -1,
605            (h->mb_height * h->mb_stride - 1) * sizeof(*h->slice_table));
606
607     /* We mark the current picture as non-reference after allocating it, so
608      * that if we break out due to an error it can be released automatically
609      * in the next ff_mpv_frame_start().
610      */
611     h->cur_pic_ptr->reference = 0;
612
613     h->cur_pic_ptr->field_poc[0] = h->cur_pic_ptr->field_poc[1] = INT_MAX;
614
615     h->next_output_pic = NULL;
616
617     assert(h->cur_pic_ptr->long_ref == 0);
618
619     return 0;
620 }
621
622 static av_always_inline void backup_mb_border(const H264Context *h, H264SliceContext *sl,
623                                               uint8_t *src_y,
624                                               uint8_t *src_cb, uint8_t *src_cr,
625                                               int linesize, int uvlinesize,
626                                               int simple)
627 {
628     uint8_t *top_border;
629     int top_idx = 1;
630     const int pixel_shift = h->pixel_shift;
631     int chroma444 = CHROMA444(h);
632     int chroma422 = CHROMA422(h);
633
634     src_y  -= linesize;
635     src_cb -= uvlinesize;
636     src_cr -= uvlinesize;
637
638     if (!simple && FRAME_MBAFF(h)) {
639         if (sl->mb_y & 1) {
640             if (!MB_MBAFF(sl)) {
641                 top_border = sl->top_borders[0][sl->mb_x];
642                 AV_COPY128(top_border, src_y + 15 * linesize);
643                 if (pixel_shift)
644                     AV_COPY128(top_border + 16, src_y + 15 * linesize + 16);
645                 if (simple || !CONFIG_GRAY || !(h->flags & AV_CODEC_FLAG_GRAY)) {
646                     if (chroma444) {
647                         if (pixel_shift) {
648                             AV_COPY128(top_border + 32, src_cb + 15 * uvlinesize);
649                             AV_COPY128(top_border + 48, src_cb + 15 * uvlinesize + 16);
650                             AV_COPY128(top_border + 64, src_cr + 15 * uvlinesize);
651                             AV_COPY128(top_border + 80, src_cr + 15 * uvlinesize + 16);
652                         } else {
653                             AV_COPY128(top_border + 16, src_cb + 15 * uvlinesize);
654                             AV_COPY128(top_border + 32, src_cr + 15 * uvlinesize);
655                         }
656                     } else if (chroma422) {
657                         if (pixel_shift) {
658                             AV_COPY128(top_border + 32, src_cb + 15 * uvlinesize);
659                             AV_COPY128(top_border + 48, src_cr + 15 * uvlinesize);
660                         } else {
661                             AV_COPY64(top_border + 16, src_cb + 15 * uvlinesize);
662                             AV_COPY64(top_border + 24, src_cr + 15 * uvlinesize);
663                         }
664                     } else {
665                         if (pixel_shift) {
666                             AV_COPY128(top_border + 32, src_cb + 7 * uvlinesize);
667                             AV_COPY128(top_border + 48, src_cr + 7 * uvlinesize);
668                         } else {
669                             AV_COPY64(top_border + 16, src_cb + 7 * uvlinesize);
670                             AV_COPY64(top_border + 24, src_cr + 7 * uvlinesize);
671                         }
672                     }
673                 }
674             }
675         } else if (MB_MBAFF(sl)) {
676             top_idx = 0;
677         } else
678             return;
679     }
680
681     top_border = sl->top_borders[top_idx][sl->mb_x];
682     /* There are two lines saved, the line above the top macroblock
683      * of a pair, and the line above the bottom macroblock. */
684     AV_COPY128(top_border, src_y + 16 * linesize);
685     if (pixel_shift)
686         AV_COPY128(top_border + 16, src_y + 16 * linesize + 16);
687
688     if (simple || !CONFIG_GRAY || !(h->flags & AV_CODEC_FLAG_GRAY)) {
689         if (chroma444) {
690             if (pixel_shift) {
691                 AV_COPY128(top_border + 32, src_cb + 16 * linesize);
692                 AV_COPY128(top_border + 48, src_cb + 16 * linesize + 16);
693                 AV_COPY128(top_border + 64, src_cr + 16 * linesize);
694                 AV_COPY128(top_border + 80, src_cr + 16 * linesize + 16);
695             } else {
696                 AV_COPY128(top_border + 16, src_cb + 16 * linesize);
697                 AV_COPY128(top_border + 32, src_cr + 16 * linesize);
698             }
699         } else if (chroma422) {
700             if (pixel_shift) {
701                 AV_COPY128(top_border + 32, src_cb + 16 * uvlinesize);
702                 AV_COPY128(top_border + 48, src_cr + 16 * uvlinesize);
703             } else {
704                 AV_COPY64(top_border + 16, src_cb + 16 * uvlinesize);
705                 AV_COPY64(top_border + 24, src_cr + 16 * uvlinesize);
706             }
707         } else {
708             if (pixel_shift) {
709                 AV_COPY128(top_border + 32, src_cb + 8 * uvlinesize);
710                 AV_COPY128(top_border + 48, src_cr + 8 * uvlinesize);
711             } else {
712                 AV_COPY64(top_border + 16, src_cb + 8 * uvlinesize);
713                 AV_COPY64(top_border + 24, src_cr + 8 * uvlinesize);
714             }
715         }
716     }
717 }
718
719 /**
720  * Initialize implicit_weight table.
721  * @param field  0/1 initialize the weight for interlaced MBAFF
722  *                -1 initializes the rest
723  */
724 static void implicit_weight_table(const H264Context *h, H264SliceContext *sl, int field)
725 {
726     int ref0, ref1, i, cur_poc, ref_start, ref_count0, ref_count1;
727
728     for (i = 0; i < 2; i++) {
729         sl->luma_weight_flag[i]   = 0;
730         sl->chroma_weight_flag[i] = 0;
731     }
732
733     if (field < 0) {
734         if (h->picture_structure == PICT_FRAME) {
735             cur_poc = h->cur_pic_ptr->poc;
736         } else {
737             cur_poc = h->cur_pic_ptr->field_poc[h->picture_structure - 1];
738         }
739         if (sl->ref_count[0] == 1 && sl->ref_count[1] == 1 && !FRAME_MBAFF(h) &&
740             sl->ref_list[0][0].poc + sl->ref_list[1][0].poc == 2 * cur_poc) {
741             sl->use_weight        = 0;
742             sl->use_weight_chroma = 0;
743             return;
744         }
745         ref_start  = 0;
746         ref_count0 = sl->ref_count[0];
747         ref_count1 = sl->ref_count[1];
748     } else {
749         cur_poc    = h->cur_pic_ptr->field_poc[field];
750         ref_start  = 16;
751         ref_count0 = 16 + 2 * sl->ref_count[0];
752         ref_count1 = 16 + 2 * sl->ref_count[1];
753     }
754
755     sl->use_weight               = 2;
756     sl->use_weight_chroma        = 2;
757     sl->luma_log2_weight_denom   = 5;
758     sl->chroma_log2_weight_denom = 5;
759
760     for (ref0 = ref_start; ref0 < ref_count0; ref0++) {
761         int poc0 = sl->ref_list[0][ref0].poc;
762         for (ref1 = ref_start; ref1 < ref_count1; ref1++) {
763             int w = 32;
764             if (!sl->ref_list[0][ref0].parent->long_ref && !sl->ref_list[1][ref1].parent->long_ref) {
765                 int poc1 = sl->ref_list[1][ref1].poc;
766                 int td   = av_clip_int8(poc1 - poc0);
767                 if (td) {
768                     int tb = av_clip_int8(cur_poc - poc0);
769                     int tx = (16384 + (FFABS(td) >> 1)) / td;
770                     int dist_scale_factor = (tb * tx + 32) >> 8;
771                     if (dist_scale_factor >= -64 && dist_scale_factor <= 128)
772                         w = 64 - dist_scale_factor;
773                 }
774             }
775             if (field < 0) {
776                 sl->implicit_weight[ref0][ref1][0] =
777                 sl->implicit_weight[ref0][ref1][1] = w;
778             } else {
779                 sl->implicit_weight[ref0][ref1][field] = w;
780             }
781         }
782     }
783 }
784
785 /**
786  * initialize scan tables
787  */
788 static void init_scan_tables(H264Context *h)
789 {
790     int i;
791     for (i = 0; i < 16; i++) {
792 #define TRANSPOSE(x) (x >> 2) | ((x << 2) & 0xF)
793         h->zigzag_scan[i] = TRANSPOSE(zigzag_scan[i]);
794         h->field_scan[i]  = TRANSPOSE(field_scan[i]);
795 #undef TRANSPOSE
796     }
797     for (i = 0; i < 64; i++) {
798 #define TRANSPOSE(x) (x >> 3) | ((x & 7) << 3)
799         h->zigzag_scan8x8[i]       = TRANSPOSE(ff_zigzag_direct[i]);
800         h->zigzag_scan8x8_cavlc[i] = TRANSPOSE(zigzag_scan8x8_cavlc[i]);
801         h->field_scan8x8[i]        = TRANSPOSE(field_scan8x8[i]);
802         h->field_scan8x8_cavlc[i]  = TRANSPOSE(field_scan8x8_cavlc[i]);
803 #undef TRANSPOSE
804     }
805     if (h->sps.transform_bypass) { // FIXME same ugly
806         h->zigzag_scan_q0          = zigzag_scan;
807         h->zigzag_scan8x8_q0       = ff_zigzag_direct;
808         h->zigzag_scan8x8_cavlc_q0 = zigzag_scan8x8_cavlc;
809         h->field_scan_q0           = field_scan;
810         h->field_scan8x8_q0        = field_scan8x8;
811         h->field_scan8x8_cavlc_q0  = field_scan8x8_cavlc;
812     } else {
813         h->zigzag_scan_q0          = h->zigzag_scan;
814         h->zigzag_scan8x8_q0       = h->zigzag_scan8x8;
815         h->zigzag_scan8x8_cavlc_q0 = h->zigzag_scan8x8_cavlc;
816         h->field_scan_q0           = h->field_scan;
817         h->field_scan8x8_q0        = h->field_scan8x8;
818         h->field_scan8x8_cavlc_q0  = h->field_scan8x8_cavlc;
819     }
820 }
821
822 static enum AVPixelFormat get_pixel_format(H264Context *h)
823 {
824 #define HWACCEL_MAX (CONFIG_H264_DXVA2_HWACCEL + \
825                      CONFIG_H264_D3D11VA_HWACCEL + \
826                      CONFIG_H264_VAAPI_HWACCEL + \
827                      (CONFIG_H264_VDA_HWACCEL * 2) + \
828                      CONFIG_H264_VDPAU_HWACCEL)
829     enum AVPixelFormat pix_fmts[HWACCEL_MAX + 2], *fmt = pix_fmts;
830     const enum AVPixelFormat *choices = pix_fmts;
831
832     switch (h->sps.bit_depth_luma) {
833     case 9:
834         if (CHROMA444(h)) {
835             if (h->avctx->colorspace == AVCOL_SPC_RGB) {
836                 *fmt++ = AV_PIX_FMT_GBRP9;
837             } else
838                 *fmt++ = AV_PIX_FMT_YUV444P9;
839         } else if (CHROMA422(h))
840             *fmt++ = AV_PIX_FMT_YUV422P9;
841         else
842             *fmt++ = AV_PIX_FMT_YUV420P9;
843         break;
844     case 10:
845         if (CHROMA444(h)) {
846             if (h->avctx->colorspace == AVCOL_SPC_RGB) {
847                 *fmt++ = AV_PIX_FMT_GBRP10;
848             } else
849                 *fmt++ = AV_PIX_FMT_YUV444P10;
850         } else if (CHROMA422(h))
851             *fmt++ = AV_PIX_FMT_YUV422P10;
852         else
853             *fmt++ = AV_PIX_FMT_YUV420P10;
854         break;
855     case 8:
856 #if CONFIG_H264_VDPAU_HWACCEL
857         *fmt++ = AV_PIX_FMT_VDPAU;
858 #endif
859         if (CHROMA444(h)) {
860             if (h->avctx->colorspace == AVCOL_SPC_RGB)
861                 *fmt++ = AV_PIX_FMT_GBRP;
862             else if (h->avctx->color_range == AVCOL_RANGE_JPEG)
863                 *fmt++ = AV_PIX_FMT_YUVJ444P;
864             else
865                 *fmt++ = AV_PIX_FMT_YUV444P;
866         } else if (CHROMA422(h)) {
867             if (h->avctx->color_range == AVCOL_RANGE_JPEG)
868                 *fmt++ = AV_PIX_FMT_YUVJ422P;
869             else
870                 *fmt++ = AV_PIX_FMT_YUV422P;
871         } else {
872 #if CONFIG_H264_DXVA2_HWACCEL
873             *fmt++ = AV_PIX_FMT_DXVA2_VLD;
874 #endif
875 #if CONFIG_H264_D3D11VA_HWACCEL
876             *fmt++ = AV_PIX_FMT_D3D11VA_VLD;
877 #endif
878 #if CONFIG_H264_VAAPI_HWACCEL
879             *fmt++ = AV_PIX_FMT_VAAPI;
880 #endif
881 #if CONFIG_H264_VDA_HWACCEL
882             *fmt++ = AV_PIX_FMT_VDA_VLD;
883             *fmt++ = AV_PIX_FMT_VDA;
884 #endif
885             if (h->avctx->codec->pix_fmts)
886                 choices = h->avctx->codec->pix_fmts;
887             else if (h->avctx->color_range == AVCOL_RANGE_JPEG)
888                 *fmt++ = AV_PIX_FMT_YUVJ420P;
889             else
890                 *fmt++ = AV_PIX_FMT_YUV420P;
891         }
892         break;
893     default:
894         av_log(h->avctx, AV_LOG_ERROR,
895                "Unsupported bit depth %d\n", h->sps.bit_depth_luma);
896         return AVERROR_INVALIDDATA;
897     }
898
899     *fmt = AV_PIX_FMT_NONE;
900
901     return ff_get_format(h->avctx, choices);
902 }
903
904 /* export coded and cropped frame dimensions to AVCodecContext */
905 static int init_dimensions(H264Context *h)
906 {
907     int width  = h->width  - (h->sps.crop_right + h->sps.crop_left);
908     int height = h->height - (h->sps.crop_top   + h->sps.crop_bottom);
909
910     /* handle container cropping */
911     if (FFALIGN(h->avctx->width,  16) == FFALIGN(width,  16) &&
912         FFALIGN(h->avctx->height, 16) == FFALIGN(height, 16)) {
913         width  = h->avctx->width;
914         height = h->avctx->height;
915     }
916
917     if (width <= 0 || height <= 0) {
918         av_log(h->avctx, AV_LOG_ERROR, "Invalid cropped dimensions: %dx%d.\n",
919                width, height);
920         if (h->avctx->err_recognition & AV_EF_EXPLODE)
921             return AVERROR_INVALIDDATA;
922
923         av_log(h->avctx, AV_LOG_WARNING, "Ignoring cropping information.\n");
924         h->sps.crop_bottom =
925         h->sps.crop_top    =
926         h->sps.crop_right  =
927         h->sps.crop_left   =
928         h->sps.crop        = 0;
929
930         width  = h->width;
931         height = h->height;
932     }
933
934     h->avctx->coded_width  = h->width;
935     h->avctx->coded_height = h->height;
936     h->avctx->width        = width;
937     h->avctx->height       = height;
938
939     return 0;
940 }
941
942 static int h264_slice_header_init(H264Context *h)
943 {
944     int nb_slices = (HAVE_THREADS &&
945                      h->avctx->active_thread_type & FF_THREAD_SLICE) ?
946                     h->avctx->thread_count : 1;
947     int i, ret;
948
949     ff_set_sar(h->avctx, h->sps.sar);
950     av_pix_fmt_get_chroma_sub_sample(h->avctx->pix_fmt,
951                                      &h->chroma_x_shift, &h->chroma_y_shift);
952
953     if (h->sps.timing_info_present_flag) {
954         int64_t den = h->sps.time_scale;
955         if (h->x264_build < 44U)
956             den *= 2;
957         av_reduce(&h->avctx->framerate.den, &h->avctx->framerate.num,
958                   h->sps.num_units_in_tick, den, 1 << 30);
959     }
960
961     ff_h264_free_tables(h);
962
963     h->first_field           = 0;
964     h->prev_interlaced_frame = 1;
965
966     init_scan_tables(h);
967     ret = ff_h264_alloc_tables(h);
968     if (ret < 0) {
969         av_log(h->avctx, AV_LOG_ERROR, "Could not allocate memory\n");
970         return ret;
971     }
972
973     if (h->sps.bit_depth_luma < 8 || h->sps.bit_depth_luma > 10) {
974         av_log(h->avctx, AV_LOG_ERROR, "Unsupported bit depth %d\n",
975                h->sps.bit_depth_luma);
976         return AVERROR_INVALIDDATA;
977     }
978
979     h->avctx->bits_per_raw_sample = h->sps.bit_depth_luma;
980     h->pixel_shift                = h->sps.bit_depth_luma > 8;
981     h->chroma_format_idc          = h->sps.chroma_format_idc;
982     h->bit_depth_luma             = h->sps.bit_depth_luma;
983
984     ff_h264dsp_init(&h->h264dsp, h->sps.bit_depth_luma,
985                     h->sps.chroma_format_idc);
986     ff_h264chroma_init(&h->h264chroma, h->sps.bit_depth_chroma);
987     ff_h264qpel_init(&h->h264qpel, h->sps.bit_depth_luma);
988     ff_h264_pred_init(&h->hpc, h->avctx->codec_id, h->sps.bit_depth_luma,
989                       h->sps.chroma_format_idc);
990     ff_videodsp_init(&h->vdsp, h->sps.bit_depth_luma);
991
992     if (nb_slices > H264_MAX_THREADS || (nb_slices > h->mb_height && h->mb_height)) {
993         int max_slices;
994         if (h->mb_height)
995             max_slices = FFMIN(H264_MAX_THREADS, h->mb_height);
996         else
997             max_slices = H264_MAX_THREADS;
998         av_log(h->avctx, AV_LOG_WARNING, "too many threads/slices %d,"
999                " reducing to %d\n", nb_slices, max_slices);
1000         nb_slices = max_slices;
1001     }
1002     h->slice_context_count = nb_slices;
1003
1004     if (!HAVE_THREADS || !(h->avctx->active_thread_type & FF_THREAD_SLICE)) {
1005         ret = ff_h264_slice_context_init(h, &h->slice_ctx[0]);
1006         if (ret < 0) {
1007             av_log(h->avctx, AV_LOG_ERROR, "context_init() failed.\n");
1008             return ret;
1009         }
1010     } else {
1011         for (i = 0; i < h->slice_context_count; i++) {
1012             H264SliceContext *sl = &h->slice_ctx[i];
1013
1014             sl->h264               = h;
1015             sl->intra4x4_pred_mode = h->intra4x4_pred_mode + i * 8 * 2 * h->mb_stride;
1016             sl->mvd_table[0]       = h->mvd_table[0]       + i * 8 * 2 * h->mb_stride;
1017             sl->mvd_table[1]       = h->mvd_table[1]       + i * 8 * 2 * h->mb_stride;
1018
1019             if ((ret = ff_h264_slice_context_init(h, sl)) < 0) {
1020                 av_log(h->avctx, AV_LOG_ERROR, "context_init() failed.\n");
1021                 return ret;
1022             }
1023         }
1024     }
1025
1026     h->context_initialized = 1;
1027
1028     return 0;
1029 }
1030
1031 /**
1032  * Decode a slice header.
1033  * This will (re)intialize the decoder and call h264_frame_start() as needed.
1034  *
1035  * @param h h264context
1036  *
1037  * @return 0 if okay, <0 if an error occurred, 1 if decoding must not be multithreaded
1038  */
1039 int ff_h264_decode_slice_header(H264Context *h, H264SliceContext *sl)
1040 {
1041     unsigned int first_mb_in_slice;
1042     unsigned int pps_id;
1043     int ret;
1044     unsigned int slice_type, tmp, i, j;
1045     int last_pic_structure, last_pic_droppable;
1046     int needs_reinit = 0;
1047     int field_pic_flag, bottom_field_flag;
1048     int frame_num, droppable, picture_structure;
1049     int mb_aff_frame = 0;
1050
1051     h->qpel_put = h->h264qpel.put_h264_qpel_pixels_tab;
1052     h->qpel_avg = h->h264qpel.avg_h264_qpel_pixels_tab;
1053
1054     first_mb_in_slice = get_ue_golomb(&sl->gb);
1055
1056     if (first_mb_in_slice == 0) { // FIXME better field boundary detection
1057         if (h->current_slice && h->cur_pic_ptr && FIELD_PICTURE(h)) {
1058             ff_h264_field_end(h, sl, 1);
1059         }
1060
1061         h->current_slice = 0;
1062         if (!h->first_field) {
1063             if (h->cur_pic_ptr && !h->droppable) {
1064                 ff_thread_report_progress(&h->cur_pic_ptr->tf, INT_MAX,
1065                                           h->picture_structure == PICT_BOTTOM_FIELD);
1066             }
1067             h->cur_pic_ptr = NULL;
1068         }
1069     }
1070
1071     slice_type = get_ue_golomb_31(&sl->gb);
1072     if (slice_type > 9) {
1073         av_log(h->avctx, AV_LOG_ERROR,
1074                "slice type %d too large at %d\n",
1075                slice_type, first_mb_in_slice);
1076         return AVERROR_INVALIDDATA;
1077     }
1078     if (slice_type > 4) {
1079         slice_type -= 5;
1080         sl->slice_type_fixed = 1;
1081     } else
1082         sl->slice_type_fixed = 0;
1083
1084     slice_type = golomb_to_pict_type[slice_type];
1085     sl->slice_type     = slice_type;
1086     sl->slice_type_nos = slice_type & 3;
1087
1088     if (h->nal_unit_type  == NAL_IDR_SLICE &&
1089         sl->slice_type_nos != AV_PICTURE_TYPE_I) {
1090         av_log(h->avctx, AV_LOG_ERROR, "A non-intra slice in an IDR NAL unit.\n");
1091         return AVERROR_INVALIDDATA;
1092     }
1093
1094     // to make a few old functions happy, it's wrong though
1095     if (!h->setup_finished)
1096         h->pict_type = sl->slice_type;
1097
1098     pps_id = get_ue_golomb(&sl->gb);
1099     if (pps_id >= MAX_PPS_COUNT) {
1100         av_log(h->avctx, AV_LOG_ERROR, "pps_id %u out of range\n", pps_id);
1101         return AVERROR_INVALIDDATA;
1102     }
1103     if (!h->pps_buffers[pps_id]) {
1104         av_log(h->avctx, AV_LOG_ERROR,
1105                "non-existing PPS %u referenced\n",
1106                pps_id);
1107         return AVERROR_INVALIDDATA;
1108     }
1109     if (!h->setup_finished) {
1110         h->pps = *h->pps_buffers[pps_id];
1111     } else if (h->dequant_coeff_pps != pps_id) {
1112         av_log(h->avctx, AV_LOG_ERROR, "PPS changed between slices\n");
1113         return AVERROR_INVALIDDATA;
1114     }
1115
1116     if (!h->sps_buffers[h->pps.sps_id]) {
1117         av_log(h->avctx, AV_LOG_ERROR,
1118                "non-existing SPS %u referenced\n",
1119                h->pps.sps_id);
1120         return AVERROR_INVALIDDATA;
1121     }
1122
1123     if (h->pps.sps_id != h->sps.sps_id ||
1124         h->sps_buffers[h->pps.sps_id]->new) {
1125         h->sps_buffers[h->pps.sps_id]->new = 0;
1126
1127         h->sps = *h->sps_buffers[h->pps.sps_id];
1128
1129         if (h->bit_depth_luma    != h->sps.bit_depth_luma ||
1130             h->chroma_format_idc != h->sps.chroma_format_idc)
1131             needs_reinit         = 1;
1132
1133         if (h->flags & AV_CODEC_FLAG_LOW_DELAY ||
1134             (h->sps.bitstream_restriction_flag &&
1135              !h->sps.num_reorder_frames)) {
1136             if (h->avctx->has_b_frames > 1 || h->delayed_pic[0])
1137                 av_log(h->avctx, AV_LOG_WARNING, "Delayed frames seen. "
1138                        "Reenabling low delay requires a codec flush.\n");
1139             else
1140                 h->low_delay = 1;
1141         }
1142
1143         if (h->avctx->has_b_frames < 2)
1144             h->avctx->has_b_frames = !h->low_delay;
1145
1146     }
1147
1148     if (!h->setup_finished) {
1149         h->avctx->profile = ff_h264_get_profile(&h->sps);
1150         h->avctx->level   = h->sps.level_idc;
1151         h->avctx->refs    = h->sps.ref_frame_count;
1152
1153         if (h->mb_width  != h->sps.mb_width ||
1154             h->mb_height != h->sps.mb_height * (2 - h->sps.frame_mbs_only_flag))
1155             needs_reinit = 1;
1156
1157         h->mb_width  = h->sps.mb_width;
1158         h->mb_height = h->sps.mb_height * (2 - h->sps.frame_mbs_only_flag);
1159         h->mb_num    = h->mb_width * h->mb_height;
1160         h->mb_stride = h->mb_width + 1;
1161
1162         h->b_stride = h->mb_width * 4;
1163
1164         h->chroma_y_shift = h->sps.chroma_format_idc <= 1; // 400 uses yuv420p
1165
1166         h->width  = 16 * h->mb_width;
1167         h->height = 16 * h->mb_height;
1168
1169         ret = init_dimensions(h);
1170         if (ret < 0)
1171             return ret;
1172
1173         if (h->sps.video_signal_type_present_flag) {
1174             h->avctx->color_range = h->sps.full_range ? AVCOL_RANGE_JPEG
1175                 : AVCOL_RANGE_MPEG;
1176             if (h->sps.colour_description_present_flag) {
1177                 if (h->avctx->colorspace != h->sps.colorspace)
1178                     needs_reinit = 1;
1179                 h->avctx->color_primaries = h->sps.color_primaries;
1180                 h->avctx->color_trc       = h->sps.color_trc;
1181                 h->avctx->colorspace      = h->sps.colorspace;
1182             }
1183         }
1184     }
1185
1186     if (h->context_initialized && needs_reinit) {
1187         h->context_initialized = 0;
1188         if (sl != h->slice_ctx) {
1189             av_log(h->avctx, AV_LOG_ERROR,
1190                    "changing width %d -> %d / height %d -> %d on "
1191                    "slice %d\n",
1192                    h->width, h->avctx->coded_width,
1193                    h->height, h->avctx->coded_height,
1194                    h->current_slice + 1);
1195             return AVERROR_INVALIDDATA;
1196         }
1197
1198         ff_h264_flush_change(h);
1199
1200         if ((ret = get_pixel_format(h)) < 0)
1201             return ret;
1202         h->avctx->pix_fmt = ret;
1203
1204         av_log(h->avctx, AV_LOG_INFO, "Reinit context to %dx%d, "
1205                "pix_fmt: %d\n", h->width, h->height, h->avctx->pix_fmt);
1206
1207         if ((ret = h264_slice_header_init(h)) < 0) {
1208             av_log(h->avctx, AV_LOG_ERROR,
1209                    "h264_slice_header_init() failed\n");
1210             return ret;
1211         }
1212     }
1213     if (!h->context_initialized) {
1214         if (sl != h->slice_ctx) {
1215             av_log(h->avctx, AV_LOG_ERROR,
1216                    "Cannot (re-)initialize context during parallel decoding.\n");
1217             return AVERROR_PATCHWELCOME;
1218         }
1219
1220         if ((ret = get_pixel_format(h)) < 0)
1221             return ret;
1222         h->avctx->pix_fmt = ret;
1223
1224         if ((ret = h264_slice_header_init(h)) < 0) {
1225             av_log(h->avctx, AV_LOG_ERROR,
1226                    "h264_slice_header_init() failed\n");
1227             return ret;
1228         }
1229     }
1230
1231     if (sl == h->slice_ctx && h->dequant_coeff_pps != pps_id) {
1232         h->dequant_coeff_pps = pps_id;
1233         h264_init_dequant_tables(h);
1234     }
1235
1236     frame_num = get_bits(&sl->gb, h->sps.log2_max_frame_num);
1237     if (!h->setup_finished)
1238         h->frame_num = frame_num;
1239
1240     sl->mb_mbaff       = 0;
1241
1242     last_pic_structure = h->picture_structure;
1243     last_pic_droppable = h->droppable;
1244
1245     droppable = h->nal_ref_idc == 0;
1246     if (h->sps.frame_mbs_only_flag) {
1247         picture_structure = PICT_FRAME;
1248     } else {
1249         field_pic_flag = get_bits1(&sl->gb);
1250         if (field_pic_flag) {
1251             bottom_field_flag = get_bits1(&sl->gb);
1252             picture_structure = PICT_TOP_FIELD + bottom_field_flag;
1253         } else {
1254             picture_structure = PICT_FRAME;
1255             mb_aff_frame      = h->sps.mb_aff;
1256         }
1257     }
1258     if (!h->setup_finished) {
1259         h->droppable         = droppable;
1260         h->picture_structure = picture_structure;
1261         h->mb_aff_frame      = mb_aff_frame;
1262     }
1263     sl->mb_field_decoding_flag = h->picture_structure != PICT_FRAME;
1264
1265     if (h->current_slice != 0) {
1266         if (last_pic_structure != picture_structure ||
1267             last_pic_droppable != droppable) {
1268             av_log(h->avctx, AV_LOG_ERROR,
1269                    "Changing field mode (%d -> %d) between slices is not allowed\n",
1270                    last_pic_structure, h->picture_structure);
1271             return AVERROR_INVALIDDATA;
1272         } else if (!h->cur_pic_ptr) {
1273             av_log(h->avctx, AV_LOG_ERROR,
1274                    "unset cur_pic_ptr on slice %d\n",
1275                    h->current_slice + 1);
1276             return AVERROR_INVALIDDATA;
1277         }
1278     } else {
1279         /* Shorten frame num gaps so we don't have to allocate reference
1280          * frames just to throw them away */
1281         if (h->frame_num != h->prev_frame_num) {
1282             int unwrap_prev_frame_num = h->prev_frame_num;
1283             int max_frame_num         = 1 << h->sps.log2_max_frame_num;
1284
1285             if (unwrap_prev_frame_num > h->frame_num)
1286                 unwrap_prev_frame_num -= max_frame_num;
1287
1288             if ((h->frame_num - unwrap_prev_frame_num) > h->sps.ref_frame_count) {
1289                 unwrap_prev_frame_num = (h->frame_num - h->sps.ref_frame_count) - 1;
1290                 if (unwrap_prev_frame_num < 0)
1291                     unwrap_prev_frame_num += max_frame_num;
1292
1293                 h->prev_frame_num = unwrap_prev_frame_num;
1294             }
1295         }
1296
1297         /* See if we have a decoded first field looking for a pair...
1298          * Here, we're using that to see if we should mark previously
1299          * decode frames as "finished".
1300          * We have to do that before the "dummy" in-between frame allocation,
1301          * since that can modify s->current_picture_ptr. */
1302         if (h->first_field) {
1303             assert(h->cur_pic_ptr);
1304             assert(h->cur_pic_ptr->f->buf[0]);
1305             assert(h->cur_pic_ptr->reference != DELAYED_PIC_REF);
1306
1307             /* figure out if we have a complementary field pair */
1308             if (!FIELD_PICTURE(h) || h->picture_structure == last_pic_structure) {
1309                 /* Previous field is unmatched. Don't display it, but let it
1310                  * remain for reference if marked as such. */
1311                 if (!last_pic_droppable && last_pic_structure != PICT_FRAME) {
1312                     ff_thread_report_progress(&h->cur_pic_ptr->tf, INT_MAX,
1313                                               last_pic_structure == PICT_TOP_FIELD);
1314                 }
1315             } else {
1316                 if (h->cur_pic_ptr->frame_num != h->frame_num) {
1317                     /* This and previous field were reference, but had
1318                      * different frame_nums. Consider this field first in
1319                      * pair. Throw away previous field except for reference
1320                      * purposes. */
1321                     if (!last_pic_droppable && last_pic_structure != PICT_FRAME) {
1322                         ff_thread_report_progress(&h->cur_pic_ptr->tf, INT_MAX,
1323                                                   last_pic_structure == PICT_TOP_FIELD);
1324                     }
1325                 } else {
1326                     /* Second field in complementary pair */
1327                     if (!((last_pic_structure   == PICT_TOP_FIELD &&
1328                            h->picture_structure == PICT_BOTTOM_FIELD) ||
1329                           (last_pic_structure   == PICT_BOTTOM_FIELD &&
1330                            h->picture_structure == PICT_TOP_FIELD))) {
1331                         av_log(h->avctx, AV_LOG_ERROR,
1332                                "Invalid field mode combination %d/%d\n",
1333                                last_pic_structure, h->picture_structure);
1334                         h->picture_structure = last_pic_structure;
1335                         h->droppable         = last_pic_droppable;
1336                         return AVERROR_INVALIDDATA;
1337                     } else if (last_pic_droppable != h->droppable) {
1338                         avpriv_request_sample(h->avctx,
1339                                               "Found reference and non-reference fields in the same frame, which");
1340                         h->picture_structure = last_pic_structure;
1341                         h->droppable         = last_pic_droppable;
1342                         return AVERROR_PATCHWELCOME;
1343                     }
1344                 }
1345             }
1346         }
1347
1348         while (h->frame_num != h->prev_frame_num &&
1349                h->frame_num != (h->prev_frame_num + 1) % (1 << h->sps.log2_max_frame_num)) {
1350             H264Picture *prev = h->short_ref_count ? h->short_ref[0] : NULL;
1351             av_log(h->avctx, AV_LOG_DEBUG, "Frame num gap %d %d\n",
1352                    h->frame_num, h->prev_frame_num);
1353             ret = initialize_cur_frame(h);
1354             if (ret < 0) {
1355                 h->first_field = 0;
1356                 return ret;
1357             }
1358
1359             h->prev_frame_num++;
1360             h->prev_frame_num        %= 1 << h->sps.log2_max_frame_num;
1361             h->cur_pic_ptr->frame_num = h->prev_frame_num;
1362             ff_thread_report_progress(&h->cur_pic_ptr->tf, INT_MAX, 0);
1363             ff_thread_report_progress(&h->cur_pic_ptr->tf, INT_MAX, 1);
1364             ret = ff_generate_sliding_window_mmcos(h, 1);
1365             if (ret < 0 && (h->avctx->err_recognition & AV_EF_EXPLODE))
1366                 return ret;
1367             ret = ff_h264_execute_ref_pic_marking(h, h->mmco, h->mmco_index);
1368             if (ret < 0 && (h->avctx->err_recognition & AV_EF_EXPLODE))
1369                 return ret;
1370             /* Error concealment: If a ref is missing, copy the previous ref
1371              * in its place.
1372              * FIXME: Avoiding a memcpy would be nice, but ref handling makes
1373              * many assumptions about there being no actual duplicates.
1374              * FIXME: This does not copy padding for out-of-frame motion
1375              * vectors.  Given we are concealing a lost frame, this probably
1376              * is not noticeable by comparison, but it should be fixed. */
1377             if (h->short_ref_count) {
1378                 if (prev &&
1379                     h->short_ref[0]->f->width == prev->f->width &&
1380                     h->short_ref[0]->f->height == prev->f->height &&
1381                     h->short_ref[0]->f->format == prev->f->format) {
1382                     av_image_copy(h->short_ref[0]->f->data,
1383                                   h->short_ref[0]->f->linesize,
1384                                   (const uint8_t **)prev->f->data,
1385                                   prev->f->linesize,
1386                                   prev->f->format,
1387                                   h->mb_width  * 16,
1388                                   h->mb_height * 16);
1389                     h->short_ref[0]->poc = prev->poc + 2;
1390                 }
1391                 h->short_ref[0]->frame_num = h->prev_frame_num;
1392             }
1393         }
1394
1395         /* See if we have a decoded first field looking for a pair...
1396          * We're using that to see whether to continue decoding in that
1397          * frame, or to allocate a new one. */
1398         if (h->first_field) {
1399             assert(h->cur_pic_ptr);
1400             assert(h->cur_pic_ptr->f->buf[0]);
1401             assert(h->cur_pic_ptr->reference != DELAYED_PIC_REF);
1402
1403             /* figure out if we have a complementary field pair */
1404             if (!FIELD_PICTURE(h) || h->picture_structure == last_pic_structure) {
1405                 /* Previous field is unmatched. Don't display it, but let it
1406                  * remain for reference if marked as such. */
1407                 h->cur_pic_ptr = NULL;
1408                 h->first_field = FIELD_PICTURE(h);
1409             } else {
1410                 if (h->cur_pic_ptr->frame_num != h->frame_num) {
1411                     /* This and the previous field had different frame_nums.
1412                      * Consider this field first in pair. Throw away previous
1413                      * one except for reference purposes. */
1414                     h->first_field = 1;
1415                     h->cur_pic_ptr = NULL;
1416                 } else {
1417                     /* Second field in complementary pair */
1418                     h->first_field = 0;
1419                 }
1420             }
1421         } else {
1422             /* Frame or first field in a potentially complementary pair */
1423             h->first_field = FIELD_PICTURE(h);
1424         }
1425
1426         if (!FIELD_PICTURE(h) || h->first_field) {
1427             if (h264_frame_start(h) < 0) {
1428                 h->first_field = 0;
1429                 return AVERROR_INVALIDDATA;
1430             }
1431         } else {
1432             release_unused_pictures(h, 0);
1433         }
1434     }
1435
1436     assert(h->mb_num == h->mb_width * h->mb_height);
1437     if (first_mb_in_slice << FIELD_OR_MBAFF_PICTURE(h) >= h->mb_num ||
1438         first_mb_in_slice >= h->mb_num) {
1439         av_log(h->avctx, AV_LOG_ERROR, "first_mb_in_slice overflow\n");
1440         return AVERROR_INVALIDDATA;
1441     }
1442     sl->resync_mb_x = sl->mb_x =  first_mb_in_slice % h->mb_width;
1443     sl->resync_mb_y = sl->mb_y = (first_mb_in_slice / h->mb_width) <<
1444                                  FIELD_OR_MBAFF_PICTURE(h);
1445     if (h->picture_structure == PICT_BOTTOM_FIELD)
1446         sl->resync_mb_y = sl->mb_y = sl->mb_y + 1;
1447     assert(sl->mb_y < h->mb_height);
1448
1449     if (h->picture_structure == PICT_FRAME) {
1450         h->curr_pic_num = h->frame_num;
1451         h->max_pic_num  = 1 << h->sps.log2_max_frame_num;
1452     } else {
1453         h->curr_pic_num = 2 * h->frame_num + 1;
1454         h->max_pic_num  = 1 << (h->sps.log2_max_frame_num + 1);
1455     }
1456
1457     if (h->nal_unit_type == NAL_IDR_SLICE)
1458         get_ue_golomb(&sl->gb); /* idr_pic_id */
1459
1460     if (h->sps.poc_type == 0) {
1461         int poc_lsb = get_bits(&sl->gb, h->sps.log2_max_poc_lsb);
1462
1463         if (!h->setup_finished)
1464             h->poc_lsb = poc_lsb;
1465
1466         if (h->pps.pic_order_present == 1 && h->picture_structure == PICT_FRAME) {
1467             int delta_poc_bottom = get_se_golomb(&sl->gb);
1468             if (!h->setup_finished)
1469                 h->delta_poc_bottom = delta_poc_bottom;
1470         }
1471     }
1472
1473     if (h->sps.poc_type == 1 && !h->sps.delta_pic_order_always_zero_flag) {
1474         int delta_poc = get_se_golomb(&sl->gb);
1475
1476         if (!h->setup_finished)
1477             h->delta_poc[0] = delta_poc;
1478
1479         if (h->pps.pic_order_present == 1 && h->picture_structure == PICT_FRAME) {
1480             delta_poc = get_se_golomb(&sl->gb);
1481
1482             if (!h->setup_finished)
1483                 h->delta_poc[1] = delta_poc;
1484         }
1485     }
1486
1487     if (!h->setup_finished)
1488         ff_init_poc(h, h->cur_pic_ptr->field_poc, &h->cur_pic_ptr->poc);
1489
1490     if (h->pps.redundant_pic_cnt_present)
1491         sl->redundant_pic_count = get_ue_golomb(&sl->gb);
1492
1493     ret = ff_set_ref_count(h, sl);
1494     if (ret < 0)
1495         return ret;
1496
1497     if (sl->slice_type_nos != AV_PICTURE_TYPE_I) {
1498        ret = ff_h264_decode_ref_pic_list_reordering(h, sl);
1499        if (ret < 0) {
1500            sl->ref_count[1] = sl->ref_count[0] = 0;
1501            return ret;
1502        }
1503     }
1504
1505     if ((h->pps.weighted_pred && sl->slice_type_nos == AV_PICTURE_TYPE_P) ||
1506         (h->pps.weighted_bipred_idc == 1 &&
1507          sl->slice_type_nos == AV_PICTURE_TYPE_B))
1508         ff_pred_weight_table(h, sl);
1509     else if (h->pps.weighted_bipred_idc == 2 &&
1510              sl->slice_type_nos == AV_PICTURE_TYPE_B) {
1511         implicit_weight_table(h, sl, -1);
1512     } else {
1513         sl->use_weight = 0;
1514         for (i = 0; i < 2; i++) {
1515             sl->luma_weight_flag[i]   = 0;
1516             sl->chroma_weight_flag[i] = 0;
1517         }
1518     }
1519
1520     // If frame-mt is enabled, only update mmco tables for the first slice
1521     // in a field. Subsequent slices can temporarily clobber h->mmco_index
1522     // or h->mmco, which will cause ref list mix-ups and decoding errors
1523     // further down the line. This may break decoding if the first slice is
1524     // corrupt, thus we only do this if frame-mt is enabled.
1525     if (h->nal_ref_idc) {
1526         ret = ff_h264_decode_ref_pic_marking(h, &sl->gb,
1527                                              !(h->avctx->active_thread_type & FF_THREAD_FRAME) ||
1528                                              h->current_slice == 0);
1529         if (ret < 0 && (h->avctx->err_recognition & AV_EF_EXPLODE))
1530             return AVERROR_INVALIDDATA;
1531     }
1532
1533     if (FRAME_MBAFF(h)) {
1534         ff_h264_fill_mbaff_ref_list(h, sl);
1535
1536         if (h->pps.weighted_bipred_idc == 2 && sl->slice_type_nos == AV_PICTURE_TYPE_B) {
1537             implicit_weight_table(h, sl, 0);
1538             implicit_weight_table(h, sl, 1);
1539         }
1540     }
1541
1542     if (sl->slice_type_nos == AV_PICTURE_TYPE_B && !sl->direct_spatial_mv_pred)
1543         ff_h264_direct_dist_scale_factor(h, sl);
1544     ff_h264_direct_ref_list_init(h, sl);
1545
1546     if (sl->slice_type_nos != AV_PICTURE_TYPE_I && h->pps.cabac) {
1547         tmp = get_ue_golomb_31(&sl->gb);
1548         if (tmp > 2) {
1549             av_log(h->avctx, AV_LOG_ERROR, "cabac_init_idc %u overflow\n", tmp);
1550             return AVERROR_INVALIDDATA;
1551         }
1552         sl->cabac_init_idc = tmp;
1553     }
1554
1555     sl->last_qscale_diff = 0;
1556     tmp = h->pps.init_qp + get_se_golomb(&sl->gb);
1557     if (tmp > 51 + 6 * (h->sps.bit_depth_luma - 8)) {
1558         av_log(h->avctx, AV_LOG_ERROR, "QP %u out of range\n", tmp);
1559         return AVERROR_INVALIDDATA;
1560     }
1561     sl->qscale       = tmp;
1562     sl->chroma_qp[0] = get_chroma_qp(h, 0, sl->qscale);
1563     sl->chroma_qp[1] = get_chroma_qp(h, 1, sl->qscale);
1564     // FIXME qscale / qp ... stuff
1565     if (sl->slice_type == AV_PICTURE_TYPE_SP)
1566         get_bits1(&sl->gb); /* sp_for_switch_flag */
1567     if (sl->slice_type == AV_PICTURE_TYPE_SP ||
1568         sl->slice_type == AV_PICTURE_TYPE_SI)
1569         get_se_golomb(&sl->gb); /* slice_qs_delta */
1570
1571     sl->deblocking_filter     = 1;
1572     sl->slice_alpha_c0_offset = 0;
1573     sl->slice_beta_offset     = 0;
1574     if (h->pps.deblocking_filter_parameters_present) {
1575         tmp = get_ue_golomb_31(&sl->gb);
1576         if (tmp > 2) {
1577             av_log(h->avctx, AV_LOG_ERROR,
1578                    "deblocking_filter_idc %u out of range\n", tmp);
1579             return AVERROR_INVALIDDATA;
1580         }
1581         sl->deblocking_filter = tmp;
1582         if (sl->deblocking_filter < 2)
1583             sl->deblocking_filter ^= 1;  // 1<->0
1584
1585         if (sl->deblocking_filter) {
1586             sl->slice_alpha_c0_offset = get_se_golomb(&sl->gb) * 2;
1587             sl->slice_beta_offset     = get_se_golomb(&sl->gb) * 2;
1588             if (sl->slice_alpha_c0_offset >  12 ||
1589                 sl->slice_alpha_c0_offset < -12 ||
1590                 sl->slice_beta_offset >  12     ||
1591                 sl->slice_beta_offset < -12) {
1592                 av_log(h->avctx, AV_LOG_ERROR,
1593                        "deblocking filter parameters %d %d out of range\n",
1594                        sl->slice_alpha_c0_offset, sl->slice_beta_offset);
1595                 return AVERROR_INVALIDDATA;
1596             }
1597         }
1598     }
1599
1600     if (h->avctx->skip_loop_filter >= AVDISCARD_ALL ||
1601         (h->avctx->skip_loop_filter >= AVDISCARD_NONKEY &&
1602          sl->slice_type_nos != AV_PICTURE_TYPE_I) ||
1603         (h->avctx->skip_loop_filter >= AVDISCARD_BIDIR  &&
1604          sl->slice_type_nos == AV_PICTURE_TYPE_B) ||
1605         (h->avctx->skip_loop_filter >= AVDISCARD_NONREF &&
1606          h->nal_ref_idc == 0))
1607         sl->deblocking_filter = 0;
1608
1609     if (sl->deblocking_filter == 1 && h->max_contexts > 1) {
1610         if (h->avctx->flags2 & AV_CODEC_FLAG2_FAST) {
1611             /* Cheat slightly for speed:
1612              * Do not bother to deblock across slices. */
1613             sl->deblocking_filter = 2;
1614         } else {
1615             h->max_contexts = 1;
1616             if (!h->single_decode_warning) {
1617                 av_log(h->avctx, AV_LOG_INFO,
1618                        "Cannot parallelize deblocking type 1, decoding such frames in sequential order\n");
1619                 h->single_decode_warning = 1;
1620             }
1621             if (sl != h->slice_ctx) {
1622                 av_log(h->avctx, AV_LOG_ERROR,
1623                        "Deblocking switched inside frame.\n");
1624                 return 1;
1625             }
1626         }
1627     }
1628     sl->qp_thresh = 15 -
1629                    FFMIN(sl->slice_alpha_c0_offset, sl->slice_beta_offset) -
1630                    FFMAX3(0,
1631                           h->pps.chroma_qp_index_offset[0],
1632                           h->pps.chroma_qp_index_offset[1]) +
1633                    6 * (h->sps.bit_depth_luma - 8);
1634
1635     sl->slice_num       = ++h->current_slice;
1636     if (sl->slice_num >= MAX_SLICES) {
1637         av_log(h->avctx, AV_LOG_ERROR,
1638                "Too many slices, increase MAX_SLICES and recompile\n");
1639     }
1640
1641     for (j = 0; j < 2; j++) {
1642         int id_list[16];
1643         int *ref2frm = sl->ref2frm[sl->slice_num & (MAX_SLICES - 1)][j];
1644         for (i = 0; i < 16; i++) {
1645             id_list[i] = 60;
1646             if (j < sl->list_count && i < sl->ref_count[j] &&
1647                 sl->ref_list[j][i].parent->f->buf[0]) {
1648                 int k;
1649                 AVBuffer *buf = sl->ref_list[j][i].parent->f->buf[0]->buffer;
1650                 for (k = 0; k < h->short_ref_count; k++)
1651                     if (h->short_ref[k]->f->buf[0]->buffer == buf) {
1652                         id_list[i] = k;
1653                         break;
1654                     }
1655                 for (k = 0; k < h->long_ref_count; k++)
1656                     if (h->long_ref[k] && h->long_ref[k]->f->buf[0]->buffer == buf) {
1657                         id_list[i] = h->short_ref_count + k;
1658                         break;
1659                     }
1660             }
1661         }
1662
1663         ref2frm[0] =
1664         ref2frm[1] = -1;
1665         for (i = 0; i < 16; i++)
1666             ref2frm[i + 2] = 4 * id_list[i] + (sl->ref_list[j][i].reference & 3);
1667         ref2frm[18 + 0] =
1668         ref2frm[18 + 1] = -1;
1669         for (i = 16; i < 48; i++)
1670             ref2frm[i + 4] = 4 * id_list[(i - 16) >> 1] +
1671                              (sl->ref_list[j][i].reference & 3);
1672     }
1673
1674     if (h->avctx->debug & FF_DEBUG_PICT_INFO) {
1675         av_log(h->avctx, AV_LOG_DEBUG,
1676                "slice:%d %s mb:%d %c%s%s pps:%u frame:%d poc:%d/%d ref:%d/%d qp:%d loop:%d:%d:%d weight:%d%s %s\n",
1677                sl->slice_num,
1678                (h->picture_structure == PICT_FRAME ? "F" : h->picture_structure == PICT_TOP_FIELD ? "T" : "B"),
1679                first_mb_in_slice,
1680                av_get_picture_type_char(sl->slice_type),
1681                sl->slice_type_fixed ? " fix" : "",
1682                h->nal_unit_type == NAL_IDR_SLICE ? " IDR" : "",
1683                pps_id, h->frame_num,
1684                h->cur_pic_ptr->field_poc[0],
1685                h->cur_pic_ptr->field_poc[1],
1686                sl->ref_count[0], sl->ref_count[1],
1687                sl->qscale,
1688                sl->deblocking_filter,
1689                sl->slice_alpha_c0_offset, sl->slice_beta_offset,
1690                sl->use_weight,
1691                sl->use_weight == 1 && sl->use_weight_chroma ? "c" : "",
1692                sl->slice_type == AV_PICTURE_TYPE_B ? (sl->direct_spatial_mv_pred ? "SPAT" : "TEMP") : "");
1693     }
1694
1695     return 0;
1696 }
1697
1698 int ff_h264_get_slice_type(const H264SliceContext *sl)
1699 {
1700     switch (sl->slice_type) {
1701     case AV_PICTURE_TYPE_P:
1702         return 0;
1703     case AV_PICTURE_TYPE_B:
1704         return 1;
1705     case AV_PICTURE_TYPE_I:
1706         return 2;
1707     case AV_PICTURE_TYPE_SP:
1708         return 3;
1709     case AV_PICTURE_TYPE_SI:
1710         return 4;
1711     default:
1712         return AVERROR_INVALIDDATA;
1713     }
1714 }
1715
1716 static av_always_inline void fill_filter_caches_inter(const H264Context *h,
1717                                                       H264SliceContext *sl,
1718                                                       int mb_type, int top_xy,
1719                                                       int left_xy[LEFT_MBS],
1720                                                       int top_type,
1721                                                       int left_type[LEFT_MBS],
1722                                                       int mb_xy, int list)
1723 {
1724     int b_stride = h->b_stride;
1725     int16_t(*mv_dst)[2] = &sl->mv_cache[list][scan8[0]];
1726     int8_t *ref_cache   = &sl->ref_cache[list][scan8[0]];
1727     if (IS_INTER(mb_type) || IS_DIRECT(mb_type)) {
1728         if (USES_LIST(top_type, list)) {
1729             const int b_xy  = h->mb2b_xy[top_xy] + 3 * b_stride;
1730             const int b8_xy = 4 * top_xy + 2;
1731             int (*ref2frm)[64] = sl->ref2frm[h->slice_table[top_xy] & (MAX_SLICES - 1)][0] + (MB_MBAFF(sl) ? 20 : 2);
1732             AV_COPY128(mv_dst - 1 * 8, h->cur_pic.motion_val[list][b_xy + 0]);
1733             ref_cache[0 - 1 * 8] =
1734             ref_cache[1 - 1 * 8] = ref2frm[list][h->cur_pic.ref_index[list][b8_xy + 0]];
1735             ref_cache[2 - 1 * 8] =
1736             ref_cache[3 - 1 * 8] = ref2frm[list][h->cur_pic.ref_index[list][b8_xy + 1]];
1737         } else {
1738             AV_ZERO128(mv_dst - 1 * 8);
1739             AV_WN32A(&ref_cache[0 - 1 * 8], ((LIST_NOT_USED) & 0xFF) * 0x01010101u);
1740         }
1741
1742         if (!IS_INTERLACED(mb_type ^ left_type[LTOP])) {
1743             if (USES_LIST(left_type[LTOP], list)) {
1744                 const int b_xy  = h->mb2b_xy[left_xy[LTOP]] + 3;
1745                 const int b8_xy = 4 * left_xy[LTOP] + 1;
1746                 int (*ref2frm)[64] = sl->ref2frm[h->slice_table[left_xy[LTOP]] & (MAX_SLICES - 1)][0] + (MB_MBAFF(sl) ? 20 : 2);
1747                 AV_COPY32(mv_dst - 1 +  0, h->cur_pic.motion_val[list][b_xy + b_stride * 0]);
1748                 AV_COPY32(mv_dst - 1 +  8, h->cur_pic.motion_val[list][b_xy + b_stride * 1]);
1749                 AV_COPY32(mv_dst - 1 + 16, h->cur_pic.motion_val[list][b_xy + b_stride * 2]);
1750                 AV_COPY32(mv_dst - 1 + 24, h->cur_pic.motion_val[list][b_xy + b_stride * 3]);
1751                 ref_cache[-1 +  0] =
1752                 ref_cache[-1 +  8] = ref2frm[list][h->cur_pic.ref_index[list][b8_xy + 2 * 0]];
1753                 ref_cache[-1 + 16] =
1754                 ref_cache[-1 + 24] = ref2frm[list][h->cur_pic.ref_index[list][b8_xy + 2 * 1]];
1755             } else {
1756                 AV_ZERO32(mv_dst - 1 +  0);
1757                 AV_ZERO32(mv_dst - 1 +  8);
1758                 AV_ZERO32(mv_dst - 1 + 16);
1759                 AV_ZERO32(mv_dst - 1 + 24);
1760                 ref_cache[-1 +  0] =
1761                 ref_cache[-1 +  8] =
1762                 ref_cache[-1 + 16] =
1763                 ref_cache[-1 + 24] = LIST_NOT_USED;
1764             }
1765         }
1766     }
1767
1768     if (!USES_LIST(mb_type, list)) {
1769         fill_rectangle(mv_dst, 4, 4, 8, pack16to32(0, 0), 4);
1770         AV_WN32A(&ref_cache[0 * 8], ((LIST_NOT_USED) & 0xFF) * 0x01010101u);
1771         AV_WN32A(&ref_cache[1 * 8], ((LIST_NOT_USED) & 0xFF) * 0x01010101u);
1772         AV_WN32A(&ref_cache[2 * 8], ((LIST_NOT_USED) & 0xFF) * 0x01010101u);
1773         AV_WN32A(&ref_cache[3 * 8], ((LIST_NOT_USED) & 0xFF) * 0x01010101u);
1774         return;
1775     }
1776
1777     {
1778         int8_t *ref = &h->cur_pic.ref_index[list][4 * mb_xy];
1779         int (*ref2frm)[64] = sl->ref2frm[sl->slice_num & (MAX_SLICES - 1)][0] + (MB_MBAFF(sl) ? 20 : 2);
1780         uint32_t ref01 = (pack16to32(ref2frm[list][ref[0]], ref2frm[list][ref[1]]) & 0x00FF00FF) * 0x0101;
1781         uint32_t ref23 = (pack16to32(ref2frm[list][ref[2]], ref2frm[list][ref[3]]) & 0x00FF00FF) * 0x0101;
1782         AV_WN32A(&ref_cache[0 * 8], ref01);
1783         AV_WN32A(&ref_cache[1 * 8], ref01);
1784         AV_WN32A(&ref_cache[2 * 8], ref23);
1785         AV_WN32A(&ref_cache[3 * 8], ref23);
1786     }
1787
1788     {
1789         int16_t(*mv_src)[2] = &h->cur_pic.motion_val[list][4 * sl->mb_x + 4 * sl->mb_y * b_stride];
1790         AV_COPY128(mv_dst + 8 * 0, mv_src + 0 * b_stride);
1791         AV_COPY128(mv_dst + 8 * 1, mv_src + 1 * b_stride);
1792         AV_COPY128(mv_dst + 8 * 2, mv_src + 2 * b_stride);
1793         AV_COPY128(mv_dst + 8 * 3, mv_src + 3 * b_stride);
1794     }
1795 }
1796
1797 /**
1798  * @return non zero if the loop filter can be skipped
1799  */
1800 static int fill_filter_caches(const H264Context *h, H264SliceContext *sl, int mb_type)
1801 {
1802     const int mb_xy = sl->mb_xy;
1803     int top_xy, left_xy[LEFT_MBS];
1804     int top_type, left_type[LEFT_MBS];
1805     uint8_t *nnz;
1806     uint8_t *nnz_cache;
1807
1808     top_xy = mb_xy - (h->mb_stride << MB_FIELD(sl));
1809
1810     /* Wow, what a mess, why didn't they simplify the interlacing & intra
1811      * stuff, I can't imagine that these complex rules are worth it. */
1812
1813     left_xy[LBOT] = left_xy[LTOP] = mb_xy - 1;
1814     if (FRAME_MBAFF(h)) {
1815         const int left_mb_field_flag = IS_INTERLACED(h->cur_pic.mb_type[mb_xy - 1]);
1816         const int curr_mb_field_flag = IS_INTERLACED(mb_type);
1817         if (sl->mb_y & 1) {
1818             if (left_mb_field_flag != curr_mb_field_flag)
1819                 left_xy[LTOP] -= h->mb_stride;
1820         } else {
1821             if (curr_mb_field_flag)
1822                 top_xy += h->mb_stride &
1823                           (((h->cur_pic.mb_type[top_xy] >> 7) & 1) - 1);
1824             if (left_mb_field_flag != curr_mb_field_flag)
1825                 left_xy[LBOT] += h->mb_stride;
1826         }
1827     }
1828
1829     sl->top_mb_xy        = top_xy;
1830     sl->left_mb_xy[LTOP] = left_xy[LTOP];
1831     sl->left_mb_xy[LBOT] = left_xy[LBOT];
1832     {
1833         /* For sufficiently low qp, filtering wouldn't do anything.
1834          * This is a conservative estimate: could also check beta_offset
1835          * and more accurate chroma_qp. */
1836         int qp_thresh = sl->qp_thresh; // FIXME strictly we should store qp_thresh for each mb of a slice
1837         int qp        = h->cur_pic.qscale_table[mb_xy];
1838         if (qp <= qp_thresh &&
1839             (left_xy[LTOP] < 0 ||
1840              ((qp + h->cur_pic.qscale_table[left_xy[LTOP]] + 1) >> 1) <= qp_thresh) &&
1841             (top_xy < 0 ||
1842              ((qp + h->cur_pic.qscale_table[top_xy] + 1) >> 1) <= qp_thresh)) {
1843             if (!FRAME_MBAFF(h))
1844                 return 1;
1845             if ((left_xy[LTOP] < 0 ||
1846                  ((qp + h->cur_pic.qscale_table[left_xy[LBOT]] + 1) >> 1) <= qp_thresh) &&
1847                 (top_xy < h->mb_stride ||
1848                  ((qp + h->cur_pic.qscale_table[top_xy - h->mb_stride] + 1) >> 1) <= qp_thresh))
1849                 return 1;
1850         }
1851     }
1852
1853     top_type        = h->cur_pic.mb_type[top_xy];
1854     left_type[LTOP] = h->cur_pic.mb_type[left_xy[LTOP]];
1855     left_type[LBOT] = h->cur_pic.mb_type[left_xy[LBOT]];
1856     if (sl->deblocking_filter == 2) {
1857         if (h->slice_table[top_xy] != sl->slice_num)
1858             top_type = 0;
1859         if (h->slice_table[left_xy[LBOT]] != sl->slice_num)
1860             left_type[LTOP] = left_type[LBOT] = 0;
1861     } else {
1862         if (h->slice_table[top_xy] == 0xFFFF)
1863             top_type = 0;
1864         if (h->slice_table[left_xy[LBOT]] == 0xFFFF)
1865             left_type[LTOP] = left_type[LBOT] = 0;
1866     }
1867     sl->top_type        = top_type;
1868     sl->left_type[LTOP] = left_type[LTOP];
1869     sl->left_type[LBOT] = left_type[LBOT];
1870
1871     if (IS_INTRA(mb_type))
1872         return 0;
1873
1874     fill_filter_caches_inter(h, sl, mb_type, top_xy, left_xy,
1875                              top_type, left_type, mb_xy, 0);
1876     if (sl->list_count == 2)
1877         fill_filter_caches_inter(h, sl, mb_type, top_xy, left_xy,
1878                                  top_type, left_type, mb_xy, 1);
1879
1880     nnz       = h->non_zero_count[mb_xy];
1881     nnz_cache = sl->non_zero_count_cache;
1882     AV_COPY32(&nnz_cache[4 + 8 * 1], &nnz[0]);
1883     AV_COPY32(&nnz_cache[4 + 8 * 2], &nnz[4]);
1884     AV_COPY32(&nnz_cache[4 + 8 * 3], &nnz[8]);
1885     AV_COPY32(&nnz_cache[4 + 8 * 4], &nnz[12]);
1886     sl->cbp = h->cbp_table[mb_xy];
1887
1888     if (top_type) {
1889         nnz = h->non_zero_count[top_xy];
1890         AV_COPY32(&nnz_cache[4 + 8 * 0], &nnz[3 * 4]);
1891     }
1892
1893     if (left_type[LTOP]) {
1894         nnz = h->non_zero_count[left_xy[LTOP]];
1895         nnz_cache[3 + 8 * 1] = nnz[3 + 0 * 4];
1896         nnz_cache[3 + 8 * 2] = nnz[3 + 1 * 4];
1897         nnz_cache[3 + 8 * 3] = nnz[3 + 2 * 4];
1898         nnz_cache[3 + 8 * 4] = nnz[3 + 3 * 4];
1899     }
1900
1901     /* CAVLC 8x8dct requires NNZ values for residual decoding that differ
1902      * from what the loop filter needs */
1903     if (!CABAC(h) && h->pps.transform_8x8_mode) {
1904         if (IS_8x8DCT(top_type)) {
1905             nnz_cache[4 + 8 * 0] =
1906             nnz_cache[5 + 8 * 0] = (h->cbp_table[top_xy] & 0x4000) >> 12;
1907             nnz_cache[6 + 8 * 0] =
1908             nnz_cache[7 + 8 * 0] = (h->cbp_table[top_xy] & 0x8000) >> 12;
1909         }
1910         if (IS_8x8DCT(left_type[LTOP])) {
1911             nnz_cache[3 + 8 * 1] =
1912             nnz_cache[3 + 8 * 2] = (h->cbp_table[left_xy[LTOP]] & 0x2000) >> 12; // FIXME check MBAFF
1913         }
1914         if (IS_8x8DCT(left_type[LBOT])) {
1915             nnz_cache[3 + 8 * 3] =
1916             nnz_cache[3 + 8 * 4] = (h->cbp_table[left_xy[LBOT]] & 0x8000) >> 12; // FIXME check MBAFF
1917         }
1918
1919         if (IS_8x8DCT(mb_type)) {
1920             nnz_cache[scan8[0]] =
1921             nnz_cache[scan8[1]] =
1922             nnz_cache[scan8[2]] =
1923             nnz_cache[scan8[3]] = (sl->cbp & 0x1000) >> 12;
1924
1925             nnz_cache[scan8[0 + 4]] =
1926             nnz_cache[scan8[1 + 4]] =
1927             nnz_cache[scan8[2 + 4]] =
1928             nnz_cache[scan8[3 + 4]] = (sl->cbp & 0x2000) >> 12;
1929
1930             nnz_cache[scan8[0 + 8]] =
1931             nnz_cache[scan8[1 + 8]] =
1932             nnz_cache[scan8[2 + 8]] =
1933             nnz_cache[scan8[3 + 8]] = (sl->cbp & 0x4000) >> 12;
1934
1935             nnz_cache[scan8[0 + 12]] =
1936             nnz_cache[scan8[1 + 12]] =
1937             nnz_cache[scan8[2 + 12]] =
1938             nnz_cache[scan8[3 + 12]] = (sl->cbp & 0x8000) >> 12;
1939         }
1940     }
1941
1942     return 0;
1943 }
1944
1945 static void loop_filter(const H264Context *h, H264SliceContext *sl, int start_x, int end_x)
1946 {
1947     uint8_t *dest_y, *dest_cb, *dest_cr;
1948     int linesize, uvlinesize, mb_x, mb_y;
1949     const int end_mb_y       = sl->mb_y + FRAME_MBAFF(h);
1950     const int old_slice_type = sl->slice_type;
1951     const int pixel_shift    = h->pixel_shift;
1952     const int block_h        = 16 >> h->chroma_y_shift;
1953
1954     if (sl->deblocking_filter) {
1955         for (mb_x = start_x; mb_x < end_x; mb_x++)
1956             for (mb_y = end_mb_y - FRAME_MBAFF(h); mb_y <= end_mb_y; mb_y++) {
1957                 int mb_xy, mb_type;
1958                 mb_xy         = sl->mb_xy = mb_x + mb_y * h->mb_stride;
1959                 sl->slice_num = h->slice_table[mb_xy];
1960                 mb_type       = h->cur_pic.mb_type[mb_xy];
1961                 sl->list_count = h->list_counts[mb_xy];
1962
1963                 if (FRAME_MBAFF(h))
1964                     sl->mb_mbaff               =
1965                     sl->mb_field_decoding_flag = !!IS_INTERLACED(mb_type);
1966
1967                 sl->mb_x = mb_x;
1968                 sl->mb_y = mb_y;
1969                 dest_y  = h->cur_pic.f->data[0] +
1970                           ((mb_x << pixel_shift) + mb_y * sl->linesize) * 16;
1971                 dest_cb = h->cur_pic.f->data[1] +
1972                           (mb_x << pixel_shift) * (8 << CHROMA444(h)) +
1973                           mb_y * sl->uvlinesize * block_h;
1974                 dest_cr = h->cur_pic.f->data[2] +
1975                           (mb_x << pixel_shift) * (8 << CHROMA444(h)) +
1976                           mb_y * sl->uvlinesize * block_h;
1977                 // FIXME simplify above
1978
1979                 if (MB_FIELD(sl)) {
1980                     linesize   = sl->mb_linesize   = sl->linesize   * 2;
1981                     uvlinesize = sl->mb_uvlinesize = sl->uvlinesize * 2;
1982                     if (mb_y & 1) { // FIXME move out of this function?
1983                         dest_y  -= sl->linesize   * 15;
1984                         dest_cb -= sl->uvlinesize * (block_h - 1);
1985                         dest_cr -= sl->uvlinesize * (block_h - 1);
1986                     }
1987                 } else {
1988                     linesize   = sl->mb_linesize   = sl->linesize;
1989                     uvlinesize = sl->mb_uvlinesize = sl->uvlinesize;
1990                 }
1991                 backup_mb_border(h, sl, dest_y, dest_cb, dest_cr, linesize,
1992                                  uvlinesize, 0);
1993                 if (fill_filter_caches(h, sl, mb_type))
1994                     continue;
1995                 sl->chroma_qp[0] = get_chroma_qp(h, 0, h->cur_pic.qscale_table[mb_xy]);
1996                 sl->chroma_qp[1] = get_chroma_qp(h, 1, h->cur_pic.qscale_table[mb_xy]);
1997
1998                 if (FRAME_MBAFF(h)) {
1999                     ff_h264_filter_mb(h, sl, mb_x, mb_y, dest_y, dest_cb, dest_cr,
2000                                       linesize, uvlinesize);
2001                 } else {
2002                     ff_h264_filter_mb_fast(h, sl, mb_x, mb_y, dest_y, dest_cb,
2003                                            dest_cr, linesize, uvlinesize);
2004                 }
2005             }
2006     }
2007     sl->slice_type  = old_slice_type;
2008     sl->mb_x         = end_x;
2009     sl->mb_y         = end_mb_y - FRAME_MBAFF(h);
2010     sl->chroma_qp[0] = get_chroma_qp(h, 0, sl->qscale);
2011     sl->chroma_qp[1] = get_chroma_qp(h, 1, sl->qscale);
2012 }
2013
2014 static void predict_field_decoding_flag(const H264Context *h, H264SliceContext *sl)
2015 {
2016     const int mb_xy = sl->mb_x + sl->mb_y * h->mb_stride;
2017     int mb_type     = (h->slice_table[mb_xy - 1] == sl->slice_num) ?
2018                       h->cur_pic.mb_type[mb_xy - 1] :
2019                       (h->slice_table[mb_xy - h->mb_stride] == sl->slice_num) ?
2020                       h->cur_pic.mb_type[mb_xy - h->mb_stride] : 0;
2021     sl->mb_mbaff    = sl->mb_field_decoding_flag = IS_INTERLACED(mb_type) ? 1 : 0;
2022 }
2023
2024 /**
2025  * Draw edges and report progress for the last MB row.
2026  */
2027 static void decode_finish_row(const H264Context *h, H264SliceContext *sl)
2028 {
2029     int top            = 16 * (sl->mb_y      >> FIELD_PICTURE(h));
2030     int pic_height     = 16 *  h->mb_height >> FIELD_PICTURE(h);
2031     int height         =  16      << FRAME_MBAFF(h);
2032     int deblock_border = (16 + 4) << FRAME_MBAFF(h);
2033
2034     if (sl->deblocking_filter) {
2035         if ((top + height) >= pic_height)
2036             height += deblock_border;
2037         top -= deblock_border;
2038     }
2039
2040     if (top >= pic_height || (top + height) < 0)
2041         return;
2042
2043     height = FFMIN(height, pic_height - top);
2044     if (top < 0) {
2045         height = top + height;
2046         top    = 0;
2047     }
2048
2049     ff_h264_draw_horiz_band(h, sl, top, height);
2050
2051     if (h->droppable)
2052         return;
2053
2054     ff_thread_report_progress(&h->cur_pic_ptr->tf, top + height - 1,
2055                               h->picture_structure == PICT_BOTTOM_FIELD);
2056 }
2057
2058 static void er_add_slice(H264SliceContext *sl,
2059                          int startx, int starty,
2060                          int endx, int endy, int status)
2061 {
2062 #if CONFIG_ERROR_RESILIENCE
2063     ERContext *er = &sl->er;
2064
2065     if (!sl->h264->enable_er)
2066         return;
2067
2068     er->ref_count = sl->ref_count[0];
2069     ff_er_add_slice(er, startx, starty, endx, endy, status);
2070 #endif
2071 }
2072
2073 static int decode_slice(struct AVCodecContext *avctx, void *arg)
2074 {
2075     H264SliceContext *sl = arg;
2076     const H264Context *h = sl->h264;
2077     int lf_x_start = sl->mb_x;
2078     int ret;
2079
2080     sl->linesize   = h->cur_pic_ptr->f->linesize[0];
2081     sl->uvlinesize = h->cur_pic_ptr->f->linesize[1];
2082
2083     ret = alloc_scratch_buffers(sl, sl->linesize);
2084     if (ret < 0)
2085         return ret;
2086
2087     sl->mb_skip_run = -1;
2088
2089     sl->is_complex = FRAME_MBAFF(h) || h->picture_structure != PICT_FRAME ||
2090                      avctx->codec_id != AV_CODEC_ID_H264 ||
2091                      (CONFIG_GRAY && (h->flags & AV_CODEC_FLAG_GRAY));
2092
2093     if (h->pps.cabac) {
2094         /* realign */
2095         align_get_bits(&sl->gb);
2096
2097         /* init cabac */
2098         ff_init_cabac_decoder(&sl->cabac,
2099                               sl->gb.buffer + get_bits_count(&sl->gb) / 8,
2100                               (get_bits_left(&sl->gb) + 7) / 8);
2101
2102         ff_h264_init_cabac_states(h, sl);
2103
2104         for (;;) {
2105             // START_TIMER
2106             int ret, eos;
2107
2108             if (sl->mb_x + sl->mb_y * h->mb_width >= sl->next_slice_idx) {
2109                 av_log(h->avctx, AV_LOG_ERROR, "Slice overlaps with next at %d\n",
2110                        sl->next_slice_idx);
2111                 return AVERROR_INVALIDDATA;
2112             }
2113
2114             ret = ff_h264_decode_mb_cabac(h, sl);
2115             // STOP_TIMER("decode_mb_cabac")
2116
2117             if (ret >= 0)
2118                 ff_h264_hl_decode_mb(h, sl);
2119
2120             // FIXME optimal? or let mb_decode decode 16x32 ?
2121             if (ret >= 0 && FRAME_MBAFF(h)) {
2122                 sl->mb_y++;
2123
2124                 ret = ff_h264_decode_mb_cabac(h, sl);
2125
2126                 if (ret >= 0)
2127                     ff_h264_hl_decode_mb(h, sl);
2128                 sl->mb_y--;
2129             }
2130             eos = get_cabac_terminate(&sl->cabac);
2131
2132             if ((h->workaround_bugs & FF_BUG_TRUNCATED) &&
2133                 sl->cabac.bytestream > sl->cabac.bytestream_end + 2) {
2134                 er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y, sl->mb_x - 1,
2135                              sl->mb_y, ER_MB_END);
2136                 if (sl->mb_x >= lf_x_start)
2137                     loop_filter(h, sl, lf_x_start, sl->mb_x + 1);
2138                 return 0;
2139             }
2140             if (ret < 0 || sl->cabac.bytestream > sl->cabac.bytestream_end + 2) {
2141                 av_log(h->avctx, AV_LOG_ERROR,
2142                        "error while decoding MB %d %d, bytestream %td\n",
2143                        sl->mb_x, sl->mb_y,
2144                        sl->cabac.bytestream_end - sl->cabac.bytestream);
2145                 er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y, sl->mb_x,
2146                              sl->mb_y, ER_MB_ERROR);
2147                 return AVERROR_INVALIDDATA;
2148             }
2149
2150             if (++sl->mb_x >= h->mb_width) {
2151                 loop_filter(h, sl, lf_x_start, sl->mb_x);
2152                 sl->mb_x = lf_x_start = 0;
2153                 decode_finish_row(h, sl);
2154                 ++sl->mb_y;
2155                 if (FIELD_OR_MBAFF_PICTURE(h)) {
2156                     ++sl->mb_y;
2157                     if (FRAME_MBAFF(h) && sl->mb_y < h->mb_height)
2158                         predict_field_decoding_flag(h, sl);
2159                 }
2160             }
2161
2162             if (eos || sl->mb_y >= h->mb_height) {
2163                 ff_tlog(h->avctx, "slice end %d %d\n",
2164                         get_bits_count(&sl->gb), sl->gb.size_in_bits);
2165                 er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y, sl->mb_x - 1,
2166                              sl->mb_y, ER_MB_END);
2167                 if (sl->mb_x > lf_x_start)
2168                     loop_filter(h, sl, lf_x_start, sl->mb_x);
2169                 return 0;
2170             }
2171         }
2172     } else {
2173         for (;;) {
2174             int ret;
2175
2176             if (sl->mb_x + sl->mb_y * h->mb_width >= sl->next_slice_idx) {
2177                 av_log(h->avctx, AV_LOG_ERROR, "Slice overlaps with next at %d\n",
2178                        sl->next_slice_idx);
2179                 return AVERROR_INVALIDDATA;
2180             }
2181
2182             ret = ff_h264_decode_mb_cavlc(h, sl);
2183
2184             if (ret >= 0)
2185                 ff_h264_hl_decode_mb(h, sl);
2186
2187             // FIXME optimal? or let mb_decode decode 16x32 ?
2188             if (ret >= 0 && FRAME_MBAFF(h)) {
2189                 sl->mb_y++;
2190                 ret = ff_h264_decode_mb_cavlc(h, sl);
2191
2192                 if (ret >= 0)
2193                     ff_h264_hl_decode_mb(h, sl);
2194                 sl->mb_y--;
2195             }
2196
2197             if (ret < 0) {
2198                 av_log(h->avctx, AV_LOG_ERROR,
2199                        "error while decoding MB %d %d\n", sl->mb_x, sl->mb_y);
2200                 er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y, sl->mb_x,
2201                              sl->mb_y, ER_MB_ERROR);
2202                 return ret;
2203             }
2204
2205             if (++sl->mb_x >= h->mb_width) {
2206                 loop_filter(h, sl, lf_x_start, sl->mb_x);
2207                 sl->mb_x = lf_x_start = 0;
2208                 decode_finish_row(h, sl);
2209                 ++sl->mb_y;
2210                 if (FIELD_OR_MBAFF_PICTURE(h)) {
2211                     ++sl->mb_y;
2212                     if (FRAME_MBAFF(h) && sl->mb_y < h->mb_height)
2213                         predict_field_decoding_flag(h, sl);
2214                 }
2215                 if (sl->mb_y >= h->mb_height) {
2216                     ff_tlog(h->avctx, "slice end %d %d\n",
2217                             get_bits_count(&sl->gb), sl->gb.size_in_bits);
2218
2219                     if (get_bits_left(&sl->gb) == 0) {
2220                         er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y,
2221                                      sl->mb_x - 1, sl->mb_y, ER_MB_END);
2222
2223                         return 0;
2224                     } else {
2225                         er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y,
2226                                      sl->mb_x - 1, sl->mb_y, ER_MB_END);
2227
2228                         return AVERROR_INVALIDDATA;
2229                     }
2230                 }
2231             }
2232
2233             if (get_bits_left(&sl->gb) <= 0 && sl->mb_skip_run <= 0) {
2234                 ff_tlog(h->avctx, "slice end %d %d\n",
2235                         get_bits_count(&sl->gb), sl->gb.size_in_bits);
2236
2237                 if (get_bits_left(&sl->gb) == 0) {
2238                     er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y,
2239                                  sl->mb_x - 1, sl->mb_y, ER_MB_END);
2240                     if (sl->mb_x > lf_x_start)
2241                         loop_filter(h, sl, lf_x_start, sl->mb_x);
2242
2243                     return 0;
2244                 } else {
2245                     er_add_slice(sl, sl->resync_mb_x, sl->resync_mb_y, sl->mb_x,
2246                                  sl->mb_y, ER_MB_ERROR);
2247
2248                     return AVERROR_INVALIDDATA;
2249                 }
2250             }
2251         }
2252     }
2253 }
2254
2255 /**
2256  * Call decode_slice() for each context.
2257  *
2258  * @param h h264 master context
2259  * @param context_count number of contexts to execute
2260  */
2261 int ff_h264_execute_decode_slices(H264Context *h, unsigned context_count)
2262 {
2263     AVCodecContext *const avctx = h->avctx;
2264     H264SliceContext *sl;
2265     int i, j;
2266
2267     if (h->avctx->hwaccel)
2268         return 0;
2269     if (context_count == 1) {
2270         int ret;
2271
2272         h->slice_ctx[0].next_slice_idx = h->mb_width * h->mb_height;
2273
2274         ret = decode_slice(avctx, &h->slice_ctx[0]);
2275         h->mb_y = h->slice_ctx[0].mb_y;
2276         return ret;
2277     } else {
2278         for (i = 0; i < context_count; i++) {
2279             int next_slice_idx = h->mb_width * h->mb_height;
2280             int slice_idx;
2281
2282             sl                 = &h->slice_ctx[i];
2283             sl->er.error_count = 0;
2284
2285             /* make sure none of those slices overlap */
2286             slice_idx = sl->mb_y * h->mb_width + sl->mb_x;
2287             for (j = 0; j < context_count; j++) {
2288                 H264SliceContext *sl2 = &h->slice_ctx[j];
2289                 int        slice_idx2 = sl2->mb_y * h->mb_width + sl2->mb_x;
2290
2291                 if (i == j || slice_idx2 < slice_idx)
2292                     continue;
2293                 next_slice_idx = FFMIN(next_slice_idx, slice_idx2);
2294             }
2295             sl->next_slice_idx = next_slice_idx;
2296         }
2297
2298         avctx->execute(avctx, decode_slice, h->slice_ctx,
2299                        NULL, context_count, sizeof(h->slice_ctx[0]));
2300
2301         /* pull back stuff from slices to master context */
2302         sl                   = &h->slice_ctx[context_count - 1];
2303         h->mb_y              = sl->mb_y;
2304         for (i = 1; i < context_count; i++)
2305             h->slice_ctx[0].er.error_count += h->slice_ctx[i].er.error_count;
2306     }
2307
2308     return 0;
2309 }