NodeJS 有哪些不同的方法可以用于流式传输具有24小时延迟的网络摄像头视频?

jgovgodb  于 2023-04-05  发布在  Node.js
关注(0)|答案(1)|浏览(83)

我想创建一个网站,流与24小时的延迟捕获的视频。所以一个页面将捕获视频,另一个将在24小时后显示它。
看起来网上所有的资源都是直播的,他们从来没有讨论过这种延迟。我看到很多人在谈论webRTC,hls.js和sockets。我不确定这对我的具体情况有什么影响。
我只是想知道有什么不同的方式和方法,我可以在网站上使用,理想情况下应该没有帧丢失。
我用nodeJS。
该网站是一个艺术家,因为它将被视为一件艺术品。

kmbjn2e3

kmbjn2e31#

WebRTC允许您进行实时通信(它的名称是:WebRTC -网络真实的通信)。简而言之,它是捆绑在一起的协议的集合,以便您可以对媒体进行编码/解码,打包,建立连接并将您的连接信息发送给收件人。这是内置在您的典型浏览器中的,因此您不必担心细节。
你需要的是:获得某种本地服务,将摄像头馈送作为视频文件存储24小时,并将文件流式传输到webrtc连接(通过OBS?)。此外,不清楚您有多少接收器。如果只有一个接收器,那么您可以编写一个小的js应用程序在浏览器中运行,以直接从您的服务器在浏览器中观看广播。
如果你想有多个接收器,那么值得考虑某种SFU服务,在那里你会发送你的延迟视频(通过webrtc)到这个服务器,然后服务器会发送这个中继视频到多个接收器。因此,你会节省在你的服务器上的上行带宽。Liveswitch就是这样一个SFU供应商。

相关问题