]> git.sesse.net Git - ffmpeg/blobdiff - libavcodec/proresenc.c
parser: Move Doxygen documentation to the header files
[ffmpeg] / libavcodec / proresenc.c
index 9f26def1dfda5066c5e8e8890385469856c1aec2..c4716d6c91c147e8c1ac5bec31432c5f457f8b4c 100644 (file)
@@ -33,7 +33,7 @@
 
 #define MAX_MBS_PER_SLICE 8
 
-#define MAX_PLANES 3 // should be increased to 4 when there's PIX_FMT_YUV444AP10
+#define MAX_PLANES 3 // should be increased to 4 when there's AV_PIX_FMT_YUV444AP10
 
 enum {
     PRORES_PROFILE_PROXY = 0,
@@ -166,6 +166,13 @@ struct TrellisNode {
 
 #define MAX_STORED_Q 16
 
+typedef struct ProresThreadData {
+    DECLARE_ALIGNED(16, DCTELEM, blocks)[MAX_PLANES][64 * 4 * MAX_MBS_PER_SLICE];
+    DECLARE_ALIGNED(16, uint16_t, emu_buf)[16 * 16];
+    int16_t custom_q[64];
+    struct TrellisNode *nodes;
+} ProresThreadData;
+
 typedef struct ProresContext {
     AVClass *class;
     DECLARE_ALIGNED(16, DCTELEM, blocks)[MAX_PLANES][64 * 4 * MAX_MBS_PER_SLICE];
@@ -181,25 +188,29 @@ typedef struct ProresContext {
     int mbs_per_slice;
     int num_chroma_blocks, chroma_factor;
     int slices_width;
-    int num_slices;
+    int slices_per_picture;
+    int pictures_per_frame; // 1 for progressive, 2 for interlaced
+    int cur_picture_idx;
     int num_planes;
     int bits_per_mb;
+    int force_quant;
 
     char *vendor;
     int quant_sel;
 
-    int frame_size;
+    int frame_size_upper_bound;
 
     int profile;
     const struct prores_profile *profile_info;
 
-    struct TrellisNode *nodes;
     int *slice_q;
+
+    ProresThreadData *tdata;
 } ProresContext;
 
 static void get_slice_data(ProresContext *ctx, const uint16_t *src,
                            int linesize, int x, int y, int w, int h,
-                           DCTELEM *blocks,
+                           DCTELEM *blocks, uint16_t *emu_buf,
                            int mbs_per_slice, int blocks_per_mb, int is_chroma)
 {
     const uint16_t *esrc;
@@ -219,47 +230,47 @@ static void get_slice_data(ProresContext *ctx, const uint16_t *src,
         } else {
             int bw, bh, pix;
 
-            esrc      = ctx->emu_buf;
-            elinesize = 16 * sizeof(*ctx->emu_buf);
+            esrc      = emu_buf;
+            elinesize = 16 * sizeof(*emu_buf);
 
             bw = FFMIN(w - x, mb_width);
             bh = FFMIN(h - y, 16);
 
             for (j = 0; j < bh; j++) {
-                memcpy(ctx->emu_buf + j * 16,
+                memcpy(emu_buf + j * 16,
                        (const uint8_t*)src + j * linesize,
                        bw * sizeof(*src));
-                pix = ctx->emu_buf[j * 16 + bw - 1];
+                pix = emu_buf[j * 16 + bw - 1];
                 for (k = bw; k < mb_width; k++)
-                    ctx->emu_buf[j * 16 + k] = pix;
+                    emu_buf[j * 16 + k] = pix;
             }
             for (; j < 16; j++)
-                memcpy(ctx->emu_buf + j * 16,
-                       ctx->emu_buf + (bh - 1) * 16,
-                       mb_width * sizeof(*ctx->emu_buf));
+                memcpy(emu_buf + j * 16,
+                       emu_buf + (bh - 1) * 16,
+                       mb_width * sizeof(*emu_buf));
         }
         if (!is_chroma) {
             ctx->dsp.fdct(esrc, elinesize, blocks);
             blocks += 64;
             if (blocks_per_mb > 2) {
-                ctx->dsp.fdct(src + 8, linesize, blocks);
+                ctx->dsp.fdct(esrc + 8, elinesize, blocks);
                 blocks += 64;
             }
-            ctx->dsp.fdct(src + linesize * 4, linesize, blocks);
+            ctx->dsp.fdct(esrc + elinesize * 4, elinesize, blocks);
             blocks += 64;
             if (blocks_per_mb > 2) {
-                ctx->dsp.fdct(src + linesize * 4 + 8, linesize, blocks);
+                ctx->dsp.fdct(esrc + elinesize * 4 + 8, elinesize, blocks);
                 blocks += 64;
             }
         } else {
             ctx->dsp.fdct(esrc, elinesize, blocks);
             blocks += 64;
-            ctx->dsp.fdct(src + linesize * 4, linesize, blocks);
+            ctx->dsp.fdct(esrc + elinesize * 4, elinesize, blocks);
             blocks += 64;
             if (blocks_per_mb > 2) {
-                ctx->dsp.fdct(src + 8, linesize, blocks);
+                ctx->dsp.fdct(esrc + 8, elinesize, blocks);
                 blocks += 64;
-                ctx->dsp.fdct(src + linesize * 4 + 8, linesize, blocks);
+                ctx->dsp.fdct(esrc + elinesize * 4 + 8, elinesize, blocks);
                 blocks += 64;
             }
         }
@@ -288,8 +299,7 @@ static inline void encode_vlc_codeword(PutBitContext *pb, unsigned codebook, int
         exponent = av_log2(val);
 
         put_bits(pb, exponent - exp_order + switch_bits, 0);
-        put_bits(pb, 1, 1);
-        put_bits(pb, exponent, val);
+        put_bits(pb, exponent + 1, val);
     } else {
         exponent = val >> rice_order;
 
@@ -393,11 +403,18 @@ static int encode_slice(AVCodecContext *avctx, const AVFrame *pic,
     int total_size = 0;
     const uint16_t *src;
     int slice_width_factor = av_log2(mbs_per_slice);
-    int num_cblocks, pwidth;
+    int num_cblocks, pwidth, linesize, line_add;
     int plane_factor, is_chroma;
     uint16_t *qmat;
 
-    if (quant < MAX_STORED_Q) {
+    if (ctx->pictures_per_frame == 1)
+        line_add = 0;
+    else
+        line_add = ctx->cur_picture_idx ^ !pic->top_field_first;
+
+    if (ctx->force_quant) {
+        qmat = ctx->quants[0];
+    } else if (quant < MAX_STORED_Q) {
         qmat = ctx->quants[quant];
     } else {
         qmat = ctx->custom_q;
@@ -421,12 +438,16 @@ static int encode_slice(AVCodecContext *avctx, const AVFrame *pic,
             num_cblocks = 2;
             pwidth      = avctx->width >> 1;
         }
-        src = (const uint16_t*)(pic->data[i] + yp * pic->linesize[i]) + xp;
 
-        get_slice_data(ctx, src, pic->linesize[i], xp, yp,
-                       pwidth, avctx->height, ctx->blocks[0],
+        linesize = pic->linesize[i] * ctx->pictures_per_frame;
+        src = (const uint16_t*)(pic->data[i] + yp * linesize +
+                                line_add * pic->linesize[i]) + xp;
+
+        get_slice_data(ctx, src, linesize, xp, yp,
+                       pwidth, avctx->height / ctx->pictures_per_frame,
+                       ctx->blocks[0], ctx->emu_buf,
                        mbs_per_slice, num_cblocks, is_chroma);
-        sizes[i] = encode_slice_plane(ctx, pb, src, pic->linesize[i],
+        sizes[i] = encode_slice_plane(ctx, pb, src, linesize,
                                       mbs_per_slice, ctx->blocks[0],
                                       num_cblocks, plane_factor,
                                       qmat);
@@ -528,22 +549,23 @@ static int estimate_slice_plane(ProresContext *ctx, int *error, int plane,
                                 const uint16_t *src, int linesize,
                                 int mbs_per_slice,
                                 int blocks_per_mb, int plane_size_factor,
-                                const int16_t *qmat)
+                                const int16_t *qmat, ProresThreadData *td)
 {
     int blocks_per_slice;
     int bits;
 
     blocks_per_slice = mbs_per_slice * blocks_per_mb;
 
-    bits  = estimate_dcs(error, ctx->blocks[plane], blocks_per_slice, qmat[0]);
-    bits += estimate_acs(error, ctx->blocks[plane], blocks_per_slice,
+    bits  = estimate_dcs(error, td->blocks[plane], blocks_per_slice, qmat[0]);
+    bits += estimate_acs(error, td->blocks[plane], blocks_per_slice,
                          plane_size_factor, ctx->scantable.permutated, qmat);
 
     return FFALIGN(bits, 8);
 }
 
 static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
-                            int trellis_node, int x, int y, int mbs_per_slice)
+                            int trellis_node, int x, int y, int mbs_per_slice,
+                            ProresThreadData *td)
 {
     ProresContext *ctx = avctx->priv_data;
     int i, q, pq, xp, yp;
@@ -558,7 +580,12 @@ static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
     int slice_bits[TRELLIS_WIDTH], slice_score[TRELLIS_WIDTH];
     int overquant;
     uint16_t *qmat;
+    int linesize[4], line_add;
 
+    if (ctx->pictures_per_frame == 1)
+        line_add = 0;
+    else
+        line_add = ctx->cur_picture_idx ^ !pic->top_field_first;
     mbs = x + mbs_per_slice;
 
     for (i = 0; i < ctx->num_planes; i++) {
@@ -577,16 +604,20 @@ static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
             num_cblocks[i] = 2;
             pwidth         = avctx->width >> 1;
         }
-        src = (const uint16_t*)(pic->data[i] + yp * pic->linesize[i]) + xp;
 
-        get_slice_data(ctx, src, pic->linesize[i], xp, yp,
-                       pwidth, avctx->height, ctx->blocks[i],
+        linesize[i] = pic->linesize[i] * ctx->pictures_per_frame;
+        src = (const uint16_t*)(pic->data[i] + yp * linesize[i] +
+                                line_add * pic->linesize[i]) + xp;
+
+        get_slice_data(ctx, src, linesize[i], xp, yp,
+                       pwidth, avctx->height / ctx->pictures_per_frame,
+                       td->blocks[i], td->emu_buf,
                        mbs_per_slice, num_cblocks[i], is_chroma[i]);
     }
 
     for (q = min_quant; q < max_quant + 2; q++) {
-        ctx->nodes[trellis_node + q].prev_node = -1;
-        ctx->nodes[trellis_node + q].quant     = q;
+        td->nodes[trellis_node + q].prev_node = -1;
+        td->nodes[trellis_node + q].quant     = q;
     }
 
     // todo: maybe perform coarser quantising to fit into frame size when needed
@@ -595,10 +626,10 @@ static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
         error = 0;
         for (i = 0; i < ctx->num_planes; i++) {
             bits += estimate_slice_plane(ctx, &error, i,
-                                         src, pic->linesize[i],
+                                         src, linesize[i],
                                          mbs_per_slice,
                                          num_cblocks[i], plane_factor[i],
-                                         ctx->quants[q]);
+                                         ctx->quants[q], td);
         }
         if (bits > 65000 * 8) {
             error = SCORE_LIMIT;
@@ -618,16 +649,16 @@ static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
             if (q < MAX_STORED_Q) {
                 qmat = ctx->quants[q];
             } else {
-                qmat = ctx->custom_q;
+                qmat = td->custom_q;
                 for (i = 0; i < 64; i++)
                     qmat[i] = ctx->quant_mat[i] * q;
             }
             for (i = 0; i < ctx->num_planes; i++) {
                 bits += estimate_slice_plane(ctx, &error, i,
-                                             src, pic->linesize[i],
+                                             src, linesize[i],
                                              mbs_per_slice,
                                              num_cblocks[i], plane_factor[i],
-                                             qmat);
+                                             qmat, td);
             }
             if (bits <= ctx->bits_per_mb * mbs_per_slice)
                 break;
@@ -637,7 +668,7 @@ static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
         slice_score[max_quant + 1] = error;
         overquant = q;
     }
-    ctx->nodes[trellis_node + max_quant + 1].quant = overquant;
+    td->nodes[trellis_node + max_quant + 1].quant = overquant;
 
     bits_limit = mbs * ctx->bits_per_mb;
     for (pq = min_quant; pq < max_quant + 2; pq++) {
@@ -646,30 +677,30 @@ static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
         for (q = min_quant; q < max_quant + 2; q++) {
             cur = trellis_node + q;
 
-            bits  = ctx->nodes[prev].bits + slice_bits[q];
+            bits  = td->nodes[prev].bits + slice_bits[q];
             error = slice_score[q];
             if (bits > bits_limit)
                 error = SCORE_LIMIT;
 
-            if (ctx->nodes[prev].score < SCORE_LIMIT && error < SCORE_LIMIT)
-                new_score = ctx->nodes[prev].score + error;
+            if (td->nodes[prev].score < SCORE_LIMIT && error < SCORE_LIMIT)
+                new_score = td->nodes[prev].score + error;
             else
                 new_score = SCORE_LIMIT;
-            if (ctx->nodes[cur].prev_node == -1 ||
-                ctx->nodes[cur].score >= new_score) {
+            if (td->nodes[cur].prev_node == -1 ||
+                td->nodes[cur].score >= new_score) {
 
-                ctx->nodes[cur].bits      = bits;
-                ctx->nodes[cur].score     = new_score;
-                ctx->nodes[cur].prev_node = prev;
+                td->nodes[cur].bits      = bits;
+                td->nodes[cur].score     = new_score;
+                td->nodes[cur].prev_node = prev;
             }
         }
     }
 
-    error = ctx->nodes[trellis_node + min_quant].score;
+    error = td->nodes[trellis_node + min_quant].score;
     pq    = trellis_node + min_quant;
     for (q = min_quant + 1; q < max_quant + 2; q++) {
-        if (ctx->nodes[trellis_node + q].score <= error) {
-            error = ctx->nodes[trellis_node + q].score;
+        if (td->nodes[trellis_node + q].score <= error) {
+            error = td->nodes[trellis_node + q].score;
             pq    = trellis_node + q;
         }
     }
@@ -677,6 +708,30 @@ static int find_slice_quant(AVCodecContext *avctx, const AVFrame *pic,
     return pq;
 }
 
+static int find_quant_thread(AVCodecContext *avctx, void *arg,
+                             int jobnr, int threadnr)
+{
+    ProresContext *ctx = avctx->priv_data;
+    ProresThreadData *td = ctx->tdata + threadnr;
+    int mbs_per_slice = ctx->mbs_per_slice;
+    int x, y = jobnr, mb, q = 0;
+
+    for (x = mb = 0; x < ctx->mb_width; x += mbs_per_slice, mb++) {
+        while (ctx->mb_width - x < mbs_per_slice)
+            mbs_per_slice >>= 1;
+        q = find_slice_quant(avctx, avctx->coded_frame,
+                             (mb + 1) * TRELLIS_WIDTH, x, y,
+                             mbs_per_slice, td);
+    }
+
+    for (x = ctx->slices_width - 1; x >= 0; x--) {
+        ctx->slice_q[x + y * ctx->slices_width] = td->nodes[q].quant;
+        q = td->nodes[q].prev_node;
+    }
+
+    return 0;
+}
+
 static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
                         const AVFrame *pic, int *got_packet)
 {
@@ -688,14 +743,14 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
     int sizes[4] = { 0 };
     int slice_hdr_size = 2 + 2 * (ctx->num_planes - 1);
     int frame_size, picture_size, slice_size;
-    int mbs_per_slice = ctx->mbs_per_slice;
     int pkt_size, ret;
+    uint8_t frame_flags;
 
     *avctx->coded_frame           = *pic;
     avctx->coded_frame->pict_type = AV_PICTURE_TYPE_I;
     avctx->coded_frame->key_frame = 1;
 
-    pkt_size = ctx->frame_size + FF_MIN_BUFFER_SIZE;
+    pkt_size = ctx->frame_size_upper_bound + FF_MIN_BUFFER_SIZE;
 
     if ((ret = ff_alloc_packet(pkt, pkt_size)) < 0) {
         av_log(avctx, AV_LOG_ERROR, "Error getting output packet.\n");
@@ -716,7 +771,12 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
     bytestream_put_buffer(&buf, ctx->vendor, 4);
     bytestream_put_be16  (&buf, avctx->width);
     bytestream_put_be16  (&buf, avctx->height);
-    bytestream_put_byte  (&buf, ctx->chroma_factor << 6); // frame flags
+
+    frame_flags = ctx->chroma_factor << 6;
+    if (avctx->flags & CODEC_FLAG_INTERLACED_DCT)
+        frame_flags |= pic->top_field_first ? 0x04 : 0x08;
+    bytestream_put_byte  (&buf, frame_flags);
+
     bytestream_put_byte  (&buf, 0);             // reserved
     bytestream_put_byte  (&buf, avctx->color_primaries);
     bytestream_put_byte  (&buf, avctx->color_trc);
@@ -736,61 +796,64 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
     }
     bytestream_put_be16  (&tmp, buf - orig_buf); // write back frame header size
 
-    // picture header
-    picture_size_pos = buf + 1;
-    bytestream_put_byte  (&buf, 0x40);          // picture header size (in bits)
-    buf += 4;                                   // picture data size will be stored here
-    bytestream_put_be16  (&buf, ctx->num_slices); // total number of slices
-    bytestream_put_byte  (&buf, av_log2(ctx->mbs_per_slice) << 4); // slice width and height in MBs
-
-    // seek table - will be filled during slice encoding
-    slice_sizes = buf;
-    buf += ctx->num_slices * 2;
-
-    // slices
-    for (y = 0; y < ctx->mb_height; y++) {
-        mbs_per_slice = ctx->mbs_per_slice;
-        for (x = mb = 0; x < ctx->mb_width; x += mbs_per_slice, mb++) {
-            while (ctx->mb_width - x < mbs_per_slice)
-                mbs_per_slice >>= 1;
-            q = find_slice_quant(avctx, pic, (mb + 1) * TRELLIS_WIDTH, x, y,
-                                 mbs_per_slice);
-        }
-
-        for (x = ctx->slices_width - 1; x >= 0; x--) {
-            ctx->slice_q[x] = ctx->nodes[q].quant;
-            q = ctx->nodes[q].prev_node;
+    for (ctx->cur_picture_idx = 0;
+         ctx->cur_picture_idx < ctx->pictures_per_frame;
+         ctx->cur_picture_idx++) {
+        // picture header
+        picture_size_pos = buf + 1;
+        bytestream_put_byte  (&buf, 0x40);          // picture header size (in bits)
+        buf += 4;                                   // picture data size will be stored here
+        bytestream_put_be16  (&buf, ctx->slices_per_picture);
+        bytestream_put_byte  (&buf, av_log2(ctx->mbs_per_slice) << 4); // slice width and height in MBs
+
+        // seek table - will be filled during slice encoding
+        slice_sizes = buf;
+        buf += ctx->slices_per_picture * 2;
+
+        // slices
+        if (!ctx->force_quant) {
+            ret = avctx->execute2(avctx, find_quant_thread, NULL, NULL,
+                                  ctx->mb_height);
+            if (ret)
+                return ret;
         }
 
-        mbs_per_slice = ctx->mbs_per_slice;
-        for (x = mb = 0; x < ctx->mb_width; x += mbs_per_slice, mb++) {
-            q = ctx->slice_q[mb];
-
-            while (ctx->mb_width - x < mbs_per_slice)
-                mbs_per_slice >>= 1;
-
-            bytestream_put_byte(&buf, slice_hdr_size << 3);
-            slice_hdr = buf;
-            buf += slice_hdr_size - 1;
-            init_put_bits(&pb, buf, (pkt_size - (buf - orig_buf)) * 8);
-            encode_slice(avctx, pic, &pb, sizes, x, y, q, mbs_per_slice);
-
-            bytestream_put_byte(&slice_hdr, q);
-            slice_size = slice_hdr_size + sizes[ctx->num_planes - 1];
-            for (i = 0; i < ctx->num_planes - 1; i++) {
-                bytestream_put_be16(&slice_hdr, sizes[i]);
-                slice_size += sizes[i];
+        for (y = 0; y < ctx->mb_height; y++) {
+            int mbs_per_slice = ctx->mbs_per_slice;
+            for (x = mb = 0; x < ctx->mb_width; x += mbs_per_slice, mb++) {
+                q = ctx->force_quant ? ctx->force_quant
+                                     : ctx->slice_q[mb + y * ctx->slices_width];
+
+                while (ctx->mb_width - x < mbs_per_slice)
+                    mbs_per_slice >>= 1;
+
+                bytestream_put_byte(&buf, slice_hdr_size << 3);
+                slice_hdr = buf;
+                buf += slice_hdr_size - 1;
+                init_put_bits(&pb, buf, (pkt_size - (buf - orig_buf)) * 8);
+                encode_slice(avctx, pic, &pb, sizes, x, y, q, mbs_per_slice);
+
+                bytestream_put_byte(&slice_hdr, q);
+                slice_size = slice_hdr_size + sizes[ctx->num_planes - 1];
+                for (i = 0; i < ctx->num_planes - 1; i++) {
+                    bytestream_put_be16(&slice_hdr, sizes[i]);
+                    slice_size += sizes[i];
+                }
+                bytestream_put_be16(&slice_sizes, slice_size);
+                buf += slice_size - slice_hdr_size;
             }
-            bytestream_put_be16(&slice_sizes, slice_size);
-            buf += slice_size - slice_hdr_size;
         }
+
+        if (ctx->pictures_per_frame == 1)
+            picture_size = buf - picture_size_pos - 6;
+        else
+            picture_size = buf - picture_size_pos + 1;
+        bytestream_put_be32(&picture_size_pos, picture_size);
     }
 
     orig_buf -= 8;
     frame_size = buf - orig_buf;
-    picture_size = buf - picture_size_pos - 6;
     bytestream_put_be32(&orig_buf, frame_size);
-    bytestream_put_be32(&picture_size_pos, picture_size);
 
     pkt->size   = frame_size;
     pkt->flags |= AV_PKT_FLAG_KEY;
@@ -802,13 +865,15 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
 static av_cold int encode_close(AVCodecContext *avctx)
 {
     ProresContext *ctx = avctx->priv_data;
-
-    if (avctx->coded_frame->data[0])
-        avctx->release_buffer(avctx, avctx->coded_frame);
+    int i;
 
     av_freep(&avctx->coded_frame);
 
-    av_freep(&ctx->nodes);
+    if (ctx->tdata) {
+        for (i = 0; i < avctx->thread_count; i++)
+            av_free(ctx->tdata[i].nodes);
+    }
+    av_freep(&ctx->tdata);
     av_freep(&ctx->slice_q);
 
     return 0;
@@ -820,6 +885,7 @@ static av_cold int encode_init(AVCodecContext *avctx)
     int mps;
     int i, j;
     int min_quant, max_quant;
+    int interlaced = !!(avctx->flags & CODEC_FLAG_INTERLACED_DCT);
 
     avctx->bits_per_raw_sample = 10;
     avctx->coded_frame = avcodec_alloc_frame();
@@ -828,7 +894,8 @@ static av_cold int encode_init(AVCodecContext *avctx)
 
     ff_proresdsp_init(&ctx->dsp);
     ff_init_scantable(ctx->dsp.dct_permutation, &ctx->scantable,
-                      ff_prores_progressive_scan);
+                      interlaced ? ff_prores_interlaced_scan
+                                 : ff_prores_progressive_scan);
 
     mps = ctx->mbs_per_slice;
     if (mps & (mps - 1)) {
@@ -837,17 +904,23 @@ static av_cold int encode_init(AVCodecContext *avctx)
         return AVERROR(EINVAL);
     }
 
-    ctx->chroma_factor = avctx->pix_fmt == PIX_FMT_YUV422P10
+    ctx->chroma_factor = avctx->pix_fmt == AV_PIX_FMT_YUV422P10
                          ? CFACTOR_Y422
                          : CFACTOR_Y444;
     ctx->profile_info  = prores_profile_info + ctx->profile;
     ctx->num_planes    = 3;
 
     ctx->mb_width      = FFALIGN(avctx->width,  16) >> 4;
-    ctx->mb_height     = FFALIGN(avctx->height, 16) >> 4;
+
+    if (interlaced)
+        ctx->mb_height = FFALIGN(avctx->height, 32) >> 5;
+    else
+        ctx->mb_height = FFALIGN(avctx->height, 16) >> 4;
+
     ctx->slices_width  = ctx->mb_width / mps;
     ctx->slices_width += av_popcount(ctx->mb_width - ctx->slices_width * mps);
-    ctx->num_slices    = ctx->mb_height * ctx->slices_width;
+    ctx->slices_per_picture = ctx->mb_height * ctx->slices_width;
+    ctx->pictures_per_frame = 1 + interlaced;
 
     if (ctx->quant_sel == -1)
         ctx->quant_mat = prores_quant_matrices[ctx->profile_info->quant];
@@ -859,52 +932,87 @@ static av_cold int encode_init(AVCodecContext *avctx)
         return AVERROR_INVALIDDATA;
     }
 
-    if (!ctx->bits_per_mb) {
-        for (i = 0; i < NUM_MB_LIMITS - 1; i++)
-            if (prores_mb_limits[i] >= ctx->mb_width * ctx->mb_height)
-                break;
-        ctx->bits_per_mb   = ctx->profile_info->br_tab[i];
-    } else if (ctx->bits_per_mb < 128) {
-        av_log(avctx, AV_LOG_ERROR, "too few bits per MB, please set at least 128\n");
-        return AVERROR_INVALIDDATA;
-    }
+    ctx->force_quant = avctx->global_quality / FF_QP2LAMBDA;
+    if (!ctx->force_quant) {
+        if (!ctx->bits_per_mb) {
+            for (i = 0; i < NUM_MB_LIMITS - 1; i++)
+                if (prores_mb_limits[i] >= ctx->mb_width * ctx->mb_height *
+                                           ctx->pictures_per_frame)
+                    break;
+            ctx->bits_per_mb   = ctx->profile_info->br_tab[i];
+        } else if (ctx->bits_per_mb < 128) {
+            av_log(avctx, AV_LOG_ERROR, "too few bits per MB, please set at least 128\n");
+            return AVERROR_INVALIDDATA;
+        }
 
-    ctx->frame_size = ctx->num_slices * (2 + 2 * ctx->num_planes
-                                         + (2 * mps * ctx->bits_per_mb) / 8)
-                      + 200;
+        min_quant = ctx->profile_info->min_quant;
+        max_quant = ctx->profile_info->max_quant;
+        for (i = min_quant; i < MAX_STORED_Q; i++) {
+            for (j = 0; j < 64; j++)
+                ctx->quants[i][j] = ctx->quant_mat[j] * i;
+        }
 
-    min_quant = ctx->profile_info->min_quant;
-    max_quant = ctx->profile_info->max_quant;
-    for (i = min_quant; i < MAX_STORED_Q; i++) {
-        for (j = 0; j < 64; j++)
-            ctx->quants[i][j] = ctx->quant_mat[j] * i;
-    }
+        ctx->slice_q = av_malloc(ctx->slices_per_picture * sizeof(*ctx->slice_q));
+        if (!ctx->slice_q) {
+            encode_close(avctx);
+            return AVERROR(ENOMEM);
+        }
 
-    avctx->codec_tag   = ctx->profile_info->tag;
+        ctx->tdata = av_mallocz(avctx->thread_count * sizeof(*ctx->tdata));
+        if (!ctx->tdata) {
+            encode_close(avctx);
+            return AVERROR(ENOMEM);
+        }
 
-    av_log(avctx, AV_LOG_DEBUG, "profile %d, %d slices, %d bits per MB\n",
-           ctx->profile, ctx->num_slices, ctx->bits_per_mb);
-    av_log(avctx, AV_LOG_DEBUG, "estimated frame size %d\n",
-           ctx->frame_size);
+        for (j = 0; j < avctx->thread_count; j++) {
+            ctx->tdata[j].nodes = av_malloc((ctx->slices_width + 1)
+                                            * TRELLIS_WIDTH
+                                            * sizeof(*ctx->tdata->nodes));
+            if (!ctx->tdata[j].nodes) {
+                encode_close(avctx);
+                return AVERROR(ENOMEM);
+            }
+            for (i = min_quant; i < max_quant + 2; i++) {
+                ctx->tdata[j].nodes[i].prev_node = -1;
+                ctx->tdata[j].nodes[i].bits      = 0;
+                ctx->tdata[j].nodes[i].score     = 0;
+            }
+        }
+    } else {
+        int ls = 0;
 
-    ctx->nodes = av_malloc((ctx->slices_width + 1) * TRELLIS_WIDTH
-                           * sizeof(*ctx->nodes));
-    if (!ctx->nodes) {
-        encode_close(avctx);
-        return AVERROR(ENOMEM);
-    }
-    for (i = min_quant; i < max_quant + 2; i++) {
-        ctx->nodes[i].prev_node = -1;
-        ctx->nodes[i].bits      = 0;
-        ctx->nodes[i].score     = 0;
-    }
+        if (ctx->force_quant > 64) {
+            av_log(avctx, AV_LOG_ERROR, "too large quantiser, maximum is 64\n");
+            return AVERROR_INVALIDDATA;
+        }
 
-    ctx->slice_q = av_malloc(ctx->slices_width * sizeof(*ctx->slice_q));
-    if (!ctx->slice_q) {
-        encode_close(avctx);
-        return AVERROR(ENOMEM);
+        for (j = 0; j < 64; j++) {
+            ctx->quants[0][j] = ctx->quant_mat[j] * ctx->force_quant;
+            ls += av_log2((1 << 11)  / ctx->quants[0][j]) * 2 + 1;
+        }
+
+        ctx->bits_per_mb = ls * 8;
+        if (ctx->chroma_factor == CFACTOR_Y444)
+            ctx->bits_per_mb += ls * 4;
+        if (ctx->num_planes == 4)
+            ctx->bits_per_mb += ls * 4;
     }
 
+    ctx->frame_size_upper_bound = ctx->pictures_per_frame *
+                                  ctx->slices_per_picture *
+                                  (2 + 2 * ctx->num_planes +
+                                   (mps * ctx->bits_per_mb) / 8)
+                                  + 200;
+
+    avctx->codec_tag   = ctx->profile_info->tag;
+
+    av_log(avctx, AV_LOG_DEBUG,
+           "profile %d, %d slices, interlacing: %s, %d bits per MB\n",
+           ctx->profile, ctx->slices_per_picture * ctx->pictures_per_frame,
+           interlaced ? "yes" : "no", ctx->bits_per_mb);
+    av_log(avctx, AV_LOG_DEBUG, "frame size upper bound: %d\n",
+           ctx->frame_size_upper_bound);
+
     return 0;
 }
 
@@ -913,35 +1021,35 @@ static av_cold int encode_init(AVCodecContext *avctx)
 
 static const AVOption options[] = {
     { "mbs_per_slice", "macroblocks per slice", OFFSET(mbs_per_slice),
-        AV_OPT_TYPE_INT, { 8 }, 1, MAX_MBS_PER_SLICE, VE },
+        AV_OPT_TYPE_INT, { .i64 = 8 }, 1, MAX_MBS_PER_SLICE, VE },
     { "profile",       NULL, OFFSET(profile), AV_OPT_TYPE_INT,
-        { PRORES_PROFILE_STANDARD },
+        { .i64 = PRORES_PROFILE_STANDARD },
         PRORES_PROFILE_PROXY, PRORES_PROFILE_HQ, VE, "profile" },
-    { "proxy",         NULL, 0, AV_OPT_TYPE_CONST, { PRORES_PROFILE_PROXY },
+    { "proxy",         NULL, 0, AV_OPT_TYPE_CONST, { .i64 = PRORES_PROFILE_PROXY },
         0, 0, VE, "profile" },
-    { "lt",            NULL, 0, AV_OPT_TYPE_CONST, { PRORES_PROFILE_LT },
+    { "lt",            NULL, 0, AV_OPT_TYPE_CONST, { .i64 = PRORES_PROFILE_LT },
         0, 0, VE, "profile" },
-    { "standard",      NULL, 0, AV_OPT_TYPE_CONST, { PRORES_PROFILE_STANDARD },
+    { "standard",      NULL, 0, AV_OPT_TYPE_CONST, { .i64 = PRORES_PROFILE_STANDARD },
         0, 0, VE, "profile" },
-    { "hq",            NULL, 0, AV_OPT_TYPE_CONST, { PRORES_PROFILE_HQ },
+    { "hq",            NULL, 0, AV_OPT_TYPE_CONST, { .i64 = PRORES_PROFILE_HQ },
         0, 0, VE, "profile" },
     { "vendor", "vendor ID", OFFSET(vendor),
         AV_OPT_TYPE_STRING, { .str = "Lavc" }, CHAR_MIN, CHAR_MAX, VE },
     { "bits_per_mb", "desired bits per macroblock", OFFSET(bits_per_mb),
-        AV_OPT_TYPE_INT, { 0 }, 0, 8192, VE },
+        AV_OPT_TYPE_INT, { .i64 = 0 }, 0, 8192, VE },
     { "quant_mat", "quantiser matrix", OFFSET(quant_sel), AV_OPT_TYPE_INT,
-        { -1 }, -1, QUANT_MAT_DEFAULT, VE, "quant_mat" },
-    { "auto",          NULL, 0, AV_OPT_TYPE_CONST, { -1 },
+        { .i64 = -1 }, -1, QUANT_MAT_DEFAULT, VE, "quant_mat" },
+    { "auto",          NULL, 0, AV_OPT_TYPE_CONST, { .i64 = -1 },
         0, 0, VE, "quant_mat" },
-    { "proxy",         NULL, 0, AV_OPT_TYPE_CONST, { QUANT_MAT_PROXY },
+    { "proxy",         NULL, 0, AV_OPT_TYPE_CONST, { .i64 = QUANT_MAT_PROXY },
         0, 0, VE, "quant_mat" },
-    { "lt",            NULL, 0, AV_OPT_TYPE_CONST, { QUANT_MAT_LT },
+    { "lt",            NULL, 0, AV_OPT_TYPE_CONST, { .i64 = QUANT_MAT_LT },
         0, 0, VE, "quant_mat" },
-    { "standard",      NULL, 0, AV_OPT_TYPE_CONST, { QUANT_MAT_STANDARD },
+    { "standard",      NULL, 0, AV_OPT_TYPE_CONST, { .i64 = QUANT_MAT_STANDARD },
         0, 0, VE, "quant_mat" },
-    { "hq",            NULL, 0, AV_OPT_TYPE_CONST, { QUANT_MAT_HQ },
+    { "hq",            NULL, 0, AV_OPT_TYPE_CONST, { .i64 = QUANT_MAT_HQ },
         0, 0, VE, "quant_mat" },
-    { "default",       NULL, 0, AV_OPT_TYPE_CONST, { QUANT_MAT_DEFAULT },
+    { "default",       NULL, 0, AV_OPT_TYPE_CONST, { .i64 = QUANT_MAT_DEFAULT },
         0, 0, VE, "quant_mat" },
     { NULL }
 };
@@ -956,14 +1064,15 @@ static const AVClass proresenc_class = {
 AVCodec ff_prores_encoder = {
     .name           = "prores",
     .type           = AVMEDIA_TYPE_VIDEO,
-    .id             = CODEC_ID_PRORES,
+    .id             = AV_CODEC_ID_PRORES,
     .priv_data_size = sizeof(ProresContext),
     .init           = encode_init,
     .close          = encode_close,
     .encode2        = encode_frame,
+    .capabilities   = CODEC_CAP_SLICE_THREADS,
     .long_name      = NULL_IF_CONFIG_SMALL("Apple ProRes (iCodec Pro)"),
-    .pix_fmts       = (const enum PixelFormat[]) {
-                          PIX_FMT_YUV422P10, PIX_FMT_YUV444P10, PIX_FMT_NONE
+    .pix_fmts       = (const enum AVPixelFormat[]) {
+                          AV_PIX_FMT_YUV422P10, AV_PIX_FMT_YUV444P10, AV_PIX_FMT_NONE
                       },
     .priv_class     = &proresenc_class,
 };