我正在使用捕获音频数据getUserMedia(),我想将它发送到我的服务器,所以我可以将它保存为MySQL字段中的Blob.
这就是我想要做的.我已经多次尝试使用WebRTC进行此操作,但我现在甚至不知道这是否正确甚至是最好的方法.
有人能帮助我吗?
这是我用来从麦克风捕获音频的代码:
navigator.getUserMedia({
video:false,
audio:true,
},function(mediaStream){
// output mediaStream to speakers:
var mediaStreamSource=audioContext.createMediaStreamSource(mediaStream);
mediaStreamSource.connect(audioContext.destintion);
// send mediaStream to server:
// WebRTC code? not sure about this...
var RTCconfig={};
var conn=new RTCPeerConnection(RTCconfig);
// ???
},function(error){
console.log('getUserMedia() fail.');
console.log(error);
});
Run Code Online (Sandbox Code Playgroud)
如何将其发送mediaStream到服务器?
谷歌搜索后我一直在调查WebRTC,但这似乎只是为了点对点通信 - 实际上,现在我正在研究这个,我认为这是要走的路.它似乎是从客户端的浏览器到主机网络服务器的通信方式,但我尝试的任何东西都接近工作.
我一直在阅读W3C文档(我发现它太抽象了),而且我一直在通过这篇关于HTML5 Rocks的文章(提出的问题多于答案).显然我需要一种信令方法,任何人都可以建议哪种信令方法最适合发送mediaStreams,XHR,XMPP,SIP,Socket.io或其他什么?
我需要在服务器上支持WebRTC的接收?我的Web服务器正在运行一个基本的LAMP堆栈.
另外,最好mediaStream是在我将其发送到服务器之前等到完成录制,还是最好发送mediaStream正在录制的内容?我想知道我是否正在以正确的方式做这件事.我已经用javascript和HTML5编写了文件上传器,但是上传其中一个mediaStreams看起来更加复杂,我不确定我是否正确接近它.
任何有关这方面的帮助将不胜感激.
我们正试图找出.NET堆栈中可用的任何技术/库(甚至是第三方dll上的包装器),它们将帮助我们构建一个可以
优选地,步骤2和4之间的时间延迟/等待时间应该是最小的
第一个要求(捕获)似乎很简单.挑战在于确定一种合适的方式来进行上传,进行处理并将其流回.任何有效的建议或想法?
最近来了acrsoss FFmpeg库,它有一个C#包装器.FFmpeg可用于处理方面吗?
我正在研究可以实时工作的项目:我必须编写一个视频流客户端服务器应用程序,该服务器将AVI / MPEG等发送到Web应用程序。我有一些问题:
建议使用什么协议来执行此操作,http?rtp?或其他?
在Web应用程序中,如何显示给用户?使用Flash Player,Java Applet(我不确定是否可以使用它)或HTML5,目前最好的方法是什么?
我希望这对您来说很干净。非常感谢您的帮助。提前致谢。:)
.net ×2
c# ×2
audio ×1
getusermedia ×1
javascript ×1
jquery ×1
rtp ×1
streaming ×1
video ×1
webrtc ×1