]> git.sesse.net Git - nageru/blobdiff - video_encoder.h
Support switching Y'CbCr coefficients midway, which will allow doing the Right Thing...
[nageru] / video_encoder.h
index 92f83572006ee8119fb102fb4b92b4d2638164f5..8578462be9a4304fce3d9800f8ebef9aaf90f7ea 100644 (file)
@@ -5,46 +5,64 @@
 #ifndef _VIDEO_ENCODER_H
 #define _VIDEO_ENCODER_H
 
+#include <epoxy/gl.h>
+#include <movit/image_format.h>
+#include <stdbool.h>
 #include <stdint.h>
+#include <atomic>
 #include <memory>
-#include <set>
+#include <mutex>
 #include <string>
 #include <vector>
 
-#include "audio_encoder.h"
-#include "mux.h"
-#include "ref_counted_frame.h"
+extern "C" {
+#include <libavformat/avformat.h>
+#include <libavformat/avio.h>
+}
+
 #include "ref_counted_gl_sync.h"
 
+class AudioEncoder;
+class DiskSpaceEstimator;
 class HTTPD;
+class Mux;
 class QSurface;
 class QuickSyncEncoder;
+class RefCountedFrame;
 class X264Encoder;
 
 namespace movit {
 class ResourcePool;
 }  // namespace movit
 
-class VideoEncoder : public KeyFrameSignalReceiver {
+class VideoEncoder {
 public:
-       VideoEncoder(movit::ResourcePool *resource_pool, QSurface *surface, const std::string &va_display, int width, int height, HTTPD *httpd);
+       VideoEncoder(movit::ResourcePool *resource_pool, QSurface *surface, const std::string &va_display, int width, int height, HTTPD *httpd, DiskSpaceEstimator *disk_space_estimator);
        ~VideoEncoder();
 
        void add_audio(int64_t pts, std::vector<float> audio);
-       bool begin_frame(GLuint *y_tex, GLuint *cbcr_tex);
-       RefCountedGLsync end_frame(int64_t pts, int64_t duration, const std::vector<RefCountedFrame> &input_frames);
+
+       // Allocate a frame to render into. The returned two textures
+       // are yours to render into (build them into an FBO).
+       // Call end_frame() when you're done.
+       bool begin_frame(int64_t pts, int64_t duration, movit::YCbCrLumaCoefficients ycbcr_coefficients, const std::vector<RefCountedFrame> &input_frames, GLuint *y_tex, GLuint *cbcr_tex);
+
+       // Call after you are done rendering into the frame; at this point,
+       // y_tex and cbcr_tex will be assumed done, and handed over to the
+       // encoder. The returned fence is purely a convenience; you do not
+       // need to use it for anything, but it's useful if you wanted to set
+       // one anyway.
+       RefCountedGLsync end_frame();
 
        // Does a cut of the disk stream immediately ("frame" is used for the filename only).
        void do_cut(int frame);
 
-       virtual void signal_keyframe() override {
-               stream_mux_writing_keyframes = true;
-       }
+       void change_x264_bitrate(unsigned rate_kbit);
 
 private:
        void open_output_stream();
-       static int write_packet_thunk(void *opaque, uint8_t *buf, int buf_size);
-       int write_packet(uint8_t *buf, int buf_size);
+       static int write_packet2_thunk(void *opaque, uint8_t *buf, int buf_size, AVIODataMarkerType type, int64_t time);
+       int write_packet2(uint8_t *buf, int buf_size, AVIODataMarkerType type, int64_t time);
 
        AVOutputFormat *oformat;
        std::mutex qs_mu;
@@ -54,18 +72,16 @@ private:
        std::string va_display;
        int width, height;
        HTTPD *httpd;
+       DiskSpaceEstimator *disk_space_estimator;
+
+       bool seen_sync_markers = false;
 
        std::unique_ptr<Mux> stream_mux;  // To HTTP.
        std::unique_ptr<AudioEncoder> stream_audio_encoder;
        std::unique_ptr<X264Encoder> x264_encoder;  // nullptr if not using x264.
 
-       // While Mux object is constructing, <stream_mux_writing_header> is true,
-       // and the header is being collected into stream_mux_header.
-       bool stream_mux_writing_header;
        std::string stream_mux_header;
 
-       bool stream_mux_writing_keyframes = false;
-
        std::atomic<int> quicksync_encoders_in_shutdown{0};
 
        // Encoders that are shutdown, but need to call release_gl_resources()