这更像是一个概念性问题而不是直接"如何做到这一点".
通常是否可以实现类似flash的解决方案来流式传输音频(独立于我们从HTMLR和nodeJS/binaryJS中获取流数据的位置,例如webRTC或其他).如果是这样,你会怎么做?
从2010年开始,这里只发现了一个关于stackoverflow的问题.从那时起,NodeJS和HTML5已经发展壮大.
人们通常做什么: 当使用多媒体流(即视频或音频)到服务器时,在当前时间点肯定没有任何东西可以击败闪存,直到getUserMedia()完全到达- 这可能需要一段时间直到99浏览器用户的百分比将完全使用它.
将数据流式传输到服务器的一般做法是使用客户端Flash或Flex应用程序,然后连接到RT5协议驱动的介质服务器,如RED5,FMS或Wowza.例如,通过RTMP发送麦克风输入的客户端应用程序可能看起来像(简化版)
import flash.net.NetStream;
private var myMic:Microphone;
private var nc:NetConnection;
private var ns:NetStream
nc = new NetConnection();
ns = new NetStream(nc);
nc.connect(rtmp://localhost/serverApp);
myMic = Microphone.getMicrophone();
ns.attachAudio(myMic);
Run Code Online (Sandbox Code Playgroud)
与服务器应用程序一起,可以轻松地将数据流式传输到服务器.
我想做什么: 在nodeJS上运行一个app服务器(可能实现socketIO和binaryJS),捕获传入的RTMP流.就像是
//require
var rtmp = require('node-rtmp'),
var fs = require('fs');
//rtmp server address
var rtmpServer = 'rtmp://localhost';
//create a binary server listening that receives stream data
var …
Run Code Online (Sandbox Code Playgroud) 我一直在stackoverflow和网络上寻找一段时间来解决我的视频流问题.我需要以一种方式将从相机捕获的实时视频(无需高质量)从iOS设备流式传输到远程PC,即iOS设备将视频流发送到服务器/ PC但不是相反的.
在一些谷歌搜索和文档浏览后出现的是,可以使用主要的主要标准/协议:
同样,我的要求是iPhone/iPad将流式传输视频.从Apple网站上的内容可以看出,HLS将从服务器端的编码角度和iOS侧的解码角度使用.从RTMP开始,大多数允许iOS流媒体的图书馆都有商业许可证和封闭代码,或者要求您通过他们的P2P基础设施(例如angl.tv或tokbox.com/opentok/quick-start).从HLS开始,iOS方面似乎没有编码库.
所以我的问题是:
我非常感谢你们,亲爱的朋友们.
迈赫迪
我想将视频录制从我的Android手机流式传输到网络媒体服务器.
第一个问题是,当将MediaRecorder
输出设置为套接字时,流会丢失一些mdat
大小的标头.这可以通过在本地预处理该流并将丢失的数据添加到流中以便生成有效的输出流来解决.
问题是如何从那里开始.
如何将该流作为RTMP流输出?
我想使用HTML5视频播放器并流式传输视频.S3/CloudFront可以实现吗?我了解亚马逊使用RTMP流媒体协议,而HTML5的video
标签不支持RTMP.有没有办法用HTML5播放器流式传输视频?
我只是想知道rtsp和rtmp协议之间的区别是什么,如果我的服务器上有mp3,我正在使用http在我的android中播放它,这些在工作中有何不同.
在android中如果我想实现rtmp或rtsp,哪个最好?android中rtmp&rtsp的限制是什么?
上面有人可以给我简单的答案吗?
ffmpeg
处理RTMP流作为输入或输出,它运行良好.
我想将一些视频(由python脚本管理的动态播放列表)流式传输到RTMP服务器,我现在正在做一些非常简单的事情:使用FFMPEG将我的视频逐个流式传输到RTMP服务器,但这会导致连接中断每次视频结束时,当下一个视频开始时,流就准备好了.
我想在没有任何连接中断的情况下流式传输这些视频,然后可以正确查看流.
我使用此命令将我的视频逐个流式传输到服务器
ffmpeg -re -y -i myvideo.mp4 -vcodec libx264 -b:v 600k -r 25 -s 640x360 \
-filter:v yadif -ab 64k -ac 1 -ar 44100 -f flv \
"rtmp://mystreamingserver/app/streamName"
Run Code Online (Sandbox Code Playgroud)
我在互联网上寻找了一些解决方法很多天,我发现有些人在谈论使用命名管道作为输入ffmpeg
,我已经尝试过它并没有很好地工作,因为ffmpeg
它不仅关闭了RTMP流视频来了,但也关闭了自己.
有没有办法做到这一点?(将视频的动态播放列表流式传输ffmpeg
到RTMP服务器,不会出现连接中断
我到处都找到了一个允许我下载rtmp流的linux实用程序.不是flv视频而是MP3流.我想下载的流的位置采用这种格式.
rtmp://live.site.com/loc/45/std_fc74a6b7f79c70a5f60.mp3
Run Code Online (Sandbox Code Playgroud)
有谁知道这样的命令行工具?甚至是什么接近我要求的东西?
我不想要完整的软件应用程序,如果它通过Shell或其他东西在Linux上运行会很棒.
谢谢大家
我有一台通过RTSP和RTP流媒体的IP摄像头.理想情况下,我想将RTSP转换为RTMP,以将其流式传输到LiveStream或类似的流媒体服务.任何人都可以让我知道如何将RTSP转换为RTMP,然后将其流式传输到流媒体服务?
我正在基于NetStream构建一个基于Flash的视频播放器,我需要测试的是一个正常运行的RTMP网址,但我无法通过谷歌在整个互联网上找到一个.
是否有人知道我可以用来测试这个东西的任何有效的样本rtmp流及其URL?
由于Chrome很快就会禁用Flash,我需要开始研究flash/rtmp html5替换解决方案.
目前使用Flash + RTMP,我有一个实时视频流,延迟时间<1-2秒.
我已经尝试过MPEG-DASH,这似乎是流媒体的新行业标准,但是我认为5秒延迟是我能从中榨取的最好的延迟.
对于上下文,我试图允许用户控制他们可以在流上看到的物理对象,因此任何超过几秒钟的延迟都会导致令人沮丧的体验.
有没有其他技术,或者是否真的没有低延迟的html5解决方案用于直播?
rtmp ×10
streaming ×3
android ×2
html5 ×2
rtsp ×2
amazon-s3 ×1
avfoundation ×1
command-line ×1
ffmpeg ×1
html5-video ×1
ios ×1
java ×1
linux ×1
mpeg-dash ×1
named-pipes ×1
node.js ×1
objective-c ×1
pipe ×1
red5 ×1
rtp ×1
sample ×1
shell ×1
utilities ×1
video ×1
webrtc ×1