]> git.sesse.net Git - ffmpeg/blobdiff - libavcodec/v210enc.c
lavc: use buf[0] instead of data[0] as the indicator of an allocated frame
[ffmpeg] / libavcodec / v210enc.c
index 714b6fb55142bbbae2ea1a8c31133226e6a4db43..ef0d6ab2a47adb1fe21fb77942bc29ab74c584b3 100644 (file)
@@ -23,6 +23,7 @@
 
 #include "avcodec.h"
 #include "bytestream.h"
+#include "internal.h"
 
 static av_cold int encode_init(AVCodecContext *avctx)
 {
@@ -31,16 +32,11 @@ static av_cold int encode_init(AVCodecContext *avctx)
         return AVERROR(EINVAL);
     }
 
-    if (avctx->pix_fmt != PIX_FMT_YUV422P10) {
-        av_log(avctx, AV_LOG_ERROR, "v210 needs YUV422P10\n");
-        return -1;
-    }
-
     if (avctx->bits_per_raw_sample != 10)
         av_log(avctx, AV_LOG_WARNING, "bits per raw sample: %d != 10-bit\n",
                avctx->bits_per_raw_sample);
 
-    avctx->coded_frame = avcodec_alloc_frame();
+    avctx->coded_frame = av_frame_alloc();
     if (!avctx->coded_frame)
         return AVERROR(ENOMEM);
 
@@ -49,25 +45,24 @@ static av_cold int encode_init(AVCodecContext *avctx)
     return 0;
 }
 
-static int encode_frame(AVCodecContext *avctx, unsigned char *buf,
-                        int buf_size, void *data)
+static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
+                        const AVFrame *pic, int *got_packet)
 {
-    const AVFrame *pic = data;
     int aligned_width = ((avctx->width + 47) / 48) * 48;
     int stride = aligned_width * 8 / 3;
     int line_padding = stride - ((avctx->width * 8 + 11) / 12) * 4;
-    int h, w;
+    int h, w, ret;
     const uint16_t *y = (const uint16_t*)pic->data[0];
     const uint16_t *u = (const uint16_t*)pic->data[1];
     const uint16_t *v = (const uint16_t*)pic->data[2];
     PutByteContext p;
 
-    if (buf_size < avctx->height * stride) {
-        av_log(avctx, AV_LOG_ERROR, "output buffer too small\n");
-        return AVERROR(ENOMEM);
+    if ((ret = ff_alloc_packet(pkt, avctx->height * stride)) < 0) {
+        av_log(avctx, AV_LOG_ERROR, "Error getting output packet.\n");
+        return ret;
     }
 
-    bytestream2_init_writer(&p, buf, buf_size);
+    bytestream2_init_writer(&p, pkt->data, pkt->size);
 
 #define CLIP(v) av_clip(v, 4, 1019)
 
@@ -109,7 +104,9 @@ static int encode_frame(AVCodecContext *avctx, unsigned char *buf,
         v += pic->linesize[2] / 2 - avctx->width / 2;
     }
 
-    return bytestream2_tell_p(&p);
+    pkt->flags |= AV_PKT_FLAG_KEY;
+    *got_packet = 1;
+    return 0;
 }
 
 static av_cold int encode_close(AVCodecContext *avctx)
@@ -121,11 +118,11 @@ static av_cold int encode_close(AVCodecContext *avctx)
 
 AVCodec ff_v210_encoder = {
     .name           = "v210",
+    .long_name      = NULL_IF_CONFIG_SMALL("Uncompressed 4:2:2 10-bit"),
     .type           = AVMEDIA_TYPE_VIDEO,
-    .id             = CODEC_ID_V210,
+    .id             = AV_CODEC_ID_V210,
     .init           = encode_init,
-    .encode         = encode_frame,
+    .encode2        = encode_frame,
     .close          = encode_close,
-    .pix_fmts       = (const enum PixelFormat[]){PIX_FMT_YUV422P10, PIX_FMT_NONE},
-    .long_name = NULL_IF_CONFIG_SMALL("Uncompressed 4:2:2 10-bit"),
+    .pix_fmts       = (const enum AVPixelFormat[]){ AV_PIX_FMT_YUV422P10, AV_PIX_FMT_NONE },
 };