]> git.sesse.net Git - cubemap/blobdiff - serverpool.cpp
Create $(libdir) on make install.
[cubemap] / serverpool.cpp
index 8e233dafe8d9fb319bb29e09e6b4974b4ddedaad..7b790c29b4e87de793a58de34d9a077861da54cb 100644 (file)
@@ -1,4 +1,5 @@
 #include <assert.h>
+#include <fcntl.h>
 #include <stdlib.h>
 #include <sys/types.h>
 
@@ -43,6 +44,9 @@ CubemapStateProto ServerPool::serialize()
                for (const ClientProto &client : local_state.clients()) {
                        state.add_clients()->MergeFrom(client);
                }
+               for (const HLSZombieProto &hls_zombie : local_state.hls_zombies()) {
+                       state.add_hls_zombies()->MergeFrom(hls_zombie);
+               }
         }
 
        for (size_t i = 0; i < short_response_pool.size(); ++i) {
@@ -65,20 +69,34 @@ void ServerPool::add_client_from_serialized(const ClientProto &client, const std
        servers[clients_added++ % num_servers].add_client_from_serialized(client, short_responses);
 }
 
+// It's fine to abuse clients_added here, since it's only ever used for round-robin purposes.
+void ServerPool::add_hls_zombie_from_serialized(const HLSZombieProto &hls_zombie)
+{
+       servers[clients_added++ % num_servers].add_hls_zombie_from_serialized(hls_zombie);
+}
+
 int ServerPool::lookup_stream_by_url(const string &url) const
 {
        assert(servers != nullptr);
        return servers[0].lookup_stream_by_url(url);
 }
 
-int ServerPool::add_stream(const string &url, size_t backlog_size, size_t prebuffering_bytes, Stream::Encoding encoding, Stream::Encoding src_encoding)
+int ServerPool::add_stream(const string &url,
+                           const string &hls_url,
+                           size_t backlog_size,
+                           size_t prebuffering_bytes,
+                           Stream::Encoding encoding,
+                           Stream::Encoding src_encoding,
+                           unsigned hls_frag_duration,
+                           size_t hls_backlog_margin,
+                           const string &allow_origin)
 {
        // Adding more HTTP streams after UDP streams would cause the UDP stream
        // indices to move around, which is obviously not good.
        assert(udp_streams.empty());
 
        for (int i = 0; i < num_servers; ++i) {
-               int stream_index = servers[i].add_stream(url, backlog_size, prebuffering_bytes, encoding, src_encoding);
+               int stream_index = servers[i].add_stream(url, hls_url, backlog_size, prebuffering_bytes, encoding, src_encoding, hls_frag_duration, hls_backlog_margin, allow_origin);
                assert(stream_index == num_http_streams);
        }
        return num_http_streams++;
@@ -145,7 +163,7 @@ void ServerPool::set_header(int stream_index, const string &http_header, const s
        }
 }
 
-void ServerPool::add_data(int stream_index, const char *data, size_t bytes, uint16_t metacube_flags)
+void ServerPool::add_data(int stream_index, const char *data, size_t bytes, uint16_t metacube_flags, const RationalPTS &pts)
 {
        assert(stream_index >= 0 && stream_index < ssize_t(num_http_streams + udp_streams.size()));
 
@@ -157,7 +175,17 @@ void ServerPool::add_data(int stream_index, const char *data, size_t bytes, uint
 
        // HTTP stream.
        for (int i = 0; i < num_servers; ++i) {
-               servers[i].add_data_deferred(stream_index, data, bytes, metacube_flags);
+               servers[i].add_data_deferred(stream_index, data, bytes, metacube_flags, pts);
+       }
+}
+
+void ServerPool::set_unavailable(int stream_index)
+{
+       assert(stream_index >= 0 && stream_index < ssize_t(num_http_streams + udp_streams.size()));
+       if (stream_index < ssize_t(num_http_streams)) {
+               for (int i = 0; i < num_servers; ++i) {
+                       servers[i].set_unavailable(stream_index);
+               }
        }
 }
 
@@ -198,7 +226,17 @@ vector<ClientStats> ServerPool::get_client_stats() const
        }
        return ret;
 }
-       
+
+vector<HLSZombie> ServerPool::get_hls_zombies() const
+{
+       vector<HLSZombie> ret;
+       for (int i = 0; i < num_servers; ++i) {
+               vector<HLSZombie> stats = servers[i].get_hls_zombies();
+               ret.insert(ret.end(), stats.begin(), stats.end());
+       }
+       return ret;
+}
+
 void ServerPool::set_pacing_rate(int stream_index, uint32_t pacing_rate)
 {
        for (int i = 0; i < num_servers; ++i) {
@@ -233,3 +271,31 @@ void ServerPool::set_src_encoding(int stream_index, Stream::Encoding encoding)
                servers[i].set_src_encoding(stream_index, encoding);
        }
 }
+
+void ServerPool::set_hls_frag_duration(int stream_index, unsigned hls_frag_duration)
+{
+       for (int i = 0; i < num_servers; ++i) {
+               servers[i].set_hls_frag_duration(stream_index, hls_frag_duration);
+       }
+}
+
+void ServerPool::set_hls_backlog_margin(int stream_index, size_t hls_backlog_margin)
+{
+       for (int i = 0; i < num_servers; ++i) {
+               servers[i].set_hls_backlog_margin(stream_index, hls_backlog_margin);
+       }
+}
+
+void ServerPool::set_allow_origin(int stream_index, const std::string &allow_origin)
+{
+       for (int i = 0; i < num_servers; ++i) {
+               servers[i].set_allow_origin(stream_index, allow_origin);
+       }
+}
+
+void ServerPool::register_hls_url(int stream_index, const string &hls_url)
+{
+       for (int i = 0; i < num_servers; ++i) {
+               servers[i].register_hls_url(stream_index, hls_url);
+       }
+}