标签: live-video

将rtsp视频流转换为http流

我有一个实时视频流的rtsp URL,我想作为HTTP流访问.有人可以告诉我,是否有任何组件可以放在我的服务器上执行此操作?

我不知道如何实现这一点.会欣赏一个抬头.

谢谢.

video rtsp live-video video-streaming

13
推荐指数
1
解决办法
6万
查看次数

如何发布多比特率(MBR)直播视频?

我搜索了很多线程:

http://www.developsigner.com/blog/2009/05/28/multi-bitrate-live-streaming-with-fmle-adobe-flash-media-live-encoder

http://forums.adobe.com/thread/27371

dynamicStream.addStream("livestream1",200);
dynamicStream.addStream("livestream2",400);
dynamicStream.addStream("livestream2",600);


vid.play2(dynamicStream);
Run Code Online (Sandbox Code Playgroud)

但他们所有人都在谈论播放多比特率的直播视频,

我的问题是如何才能首先发布多个比特率的直播视频?

video flash-media-server live-video

9
推荐指数
1
解决办法
1957
查看次数

实现IP摄像头

我们有一台配有模拟摄像头的设备.我们有一张卡片可以对其进行采样并将其数字化.这一切都在directx中完成.此时,替换硬件不是一种选择,但我们需要编码,以便我们可以实时看到此视频源,无论将来是否发生任何硬件或底层操作系统更改.

沿着这条线,我们选择了Qt来实现一个GUI来查看这个摄像头输入.但是,如果我们将来迁移到Linux或其他嵌入式平台并更换其他硬件(包括摄像机/视频采样器所在的物理设备),我们也需要更换摄像机显示软件,这将是痛苦是因为我们需要将它集成到我们的GUI中.

我提出的是迁移到更抽象的模型,其中数据通过套接字发送到GUI,并且视频在从套接字流解析后实时显示.

首先,这是一个好主意还是一个坏主意?

其次,你会如何实现这样的事情?视频采样器通常如何提供可用的输出?如何将此输出推到套接字上?一旦我在接收端解析输出,我怎么知道如何处理输出(如何如何获得输出渲染)?我唯一能想到的是将每个样本写入文件,然后在每次新样本到达时显示文件的内容.这对我来说似乎是一个低效的解决方案,如果它可以工作的话.

你怎么建议我处理这个?有没有可用于这种事情的跨平台库?

谢谢.

编辑:我愿意接受不同的建议,而不是上面列出的内容.

sockets qt live-video ip-camera

7
推荐指数
1
解决办法
2477
查看次数

HTML5直播视频"黑客"

在过去的两个月里,我一直试图"愚弄"safari,以为它正在查看服务器上的文件,实际上是来自摄像机的实时视频流,根据请求使用Gstreamer编码和复用为支持的格式通过浏览器.由于HTML5支持逐行视频下载,因此理论上至少应该是这样.

我的结论是,考虑到浏览器在HTML5中下载视频文件时发出部分内容请求,这主要是为了寻求,这变得非常复杂.如果服务器不支持此功能,则在完全下载文件之前不会播放视频.

有没有其他人尝试过这种方法更成功?或者我应该放弃并等待RTSP等真正的实时视频支持集成到浏览器中.

干杯.

safari html5 live-video gstreamer html5-video

6
推荐指数
1
解决办法
1655
查看次数

在Android中实时视频广播和流媒体

我想开发一个Android应用程序,它具有视频广播和来自任何移动设备的流媒体功能.我已经搜索了许多可能为Android应用程序开发提供支持的api,但是大多数都有sdk支持Android 4.3+.

我已经找过了:

1)StreamBox

2)ustream

3)Wowza

4)KickFlip

5)Aftek

他们中的大多数只是支持网络方面或支持4.3+以上的版本.我想要任何形式的教程或文档的帮助,可以帮助我实现视频流,并为我的Android应用程序开发周期提供一些api支持.非常感谢提前

android live-video video-streaming

5
推荐指数
1
解决办法
8194
查看次数

如何在实时WebM流中打包框架?

我正在通过libvpx使用VP9对实时流进行编码,并希望将其流式传输到HTML5播放器.我已经阅读了Matroska规范W3C WebM字节流格式,并检查了libvpx中vpxenc工具生成的几个WebM文件.一切似乎都很好,但是我找不到关于如何在W3C规范中描述的媒体段内打包编码视频帧的任何严格规则或指南.

据我所知,我必须发出包含内部有块元素的簇的媒体段.根据我的理解,我可以为编码器获得的每个帧使用一个简单的块元素,因为它有一个时间戳.但是如何组织集群?对我来说,使用单个简单的块条目为每个帧发出单个集群以减少缓冲和延迟是有意义的.这种方法是否被认为是正常的,或者这样做有什么缺点,我应该缓冲一段时间间隔,然后发出一个包含多个简单块元素的集群,覆盖缓冲时间段?

UPDATE

所以我实现了所描述的方法(用单个简单的块条目发射集群),视频似乎滞后很多,所以可能这不是可行的方法.

live-video webm vp9

5
推荐指数
1
解决办法
1108
查看次数

如何在 Flutter 上播放 M3U8 格式的 Android 和 iOS

我在 iOS 上找不到 M3U8 Url 播放器的任何解决方案

我试过这些插件;

  • video_player(无法播放)
  • flutter_simple_video_player (仅支持安卓)

live-video flutter

5
推荐指数
1
解决办法
4168
查看次数

如何使用labview 2011从我的网络摄像头捕获实时视频?

我想知道是否可以使用Labview 2011(National Instruments)从我的集成网络摄像头捕获实时视频.我现在需要做的就是将相机放在前面板上.这不是USB网络摄像头.这是一个chicony USB 2.0相机(我的电脑上没有显示为usb).谁能帮我?

webcam labview image-processing live-video video-streaming

3
推荐指数
1
解决办法
2万
查看次数

如何从 HTML 和 JavaScript 发布实时视频流?

我有一段代码,它接受相机的输入并将其显示在网络浏览器窗口中(仅当从网络服务器提供服务时才有效,而不是直接通过打开文件):

<html>
<body>

<video id="video" width="640" height="480" autoplay="true"></video>

<script>
    var video = document.getElementById('video');
    if (navigator.mediaDevices && navigator.mediaDevices.getUserMedia) {
        navigator.mediaDevices.getUserMedia({video: true}).then(function (stream) {
            video.src = window.URL.createObjectURL(stream);
            video.play();
        });
    }
</script>

</body>
</html>
Run Code Online (Sandbox Code Playgroud)

我想将视频直播到一个 URL(例如:“/publish/?password=”,如https://github.com/vbence/stream-m

我该如何编码?

谢谢!

html javascript video live-video

3
推荐指数
1
解决办法
1万
查看次数