我正在创建一个视频聊天应用程序,但在传输麦克风音频时遇到问题。我已经可以使用视频流,但我希望找到捕获笔记本电脑内置麦克风并进行流传输的最佳方法。目前我正在使用 aNetworkStream来发送视频。我对 NAudio ( http://naudio.codeplex.com/ ) 的经验有限,但麦克风捕获的每个示例似乎都不包含New Audio Frame事件(这是我发送视频帧的方法)。
我一直在查看http://voicerecorder.codeplex.com/,但它似乎超出了我的需要,并且不包括流媒体。
如果可能的话,如何捕获麦克风音频并进行流式传输,而不需要将音频保存到文件中?我希望有一个简单的例子。
音频文件必须托管在可通过 Internet 访问的 HTTPS 端点上。需要 HTTPS,并且托管文件的域必须提供有效、可信的 SSL 证书。
我想建立一种从 http(不是 https)端点流式传输源的技能。我该怎么做呢?
还有其他技能(例如 TuneIn 广播)似乎可以传输 http 源。除非他们代理他们,否则这将是一笔巨大的开销。
我有一些.ts文件作为 hls 音频流的一部分。我可以使用该cat命令附加它们并获取 .mp3 文件吗?我很好奇如何从或文件ffmpeg创建 mp3 ,以便我可以在节点服务器中实现它.ts.m3u8
我从似乎是 mp3 源的 URL 成功录制音频,发送此命令。
$ ffmpeg -y -t "00:01:00" -i $url1 -c copy url1.mp3
ffmpeg version N-93762-ge384f6f2f9 Copyright (c) 2000-2019 the FFmpeg developers
built with gcc 7.4.0 (GCC)
configuration:
libavutil 56. 26.100 / 56. 26.100
libavcodec 58. 52.100 / 58. 52.100
libavformat 58. 27.103 / 58. 27.103
libavdevice 58. 7.100 / 58. 7.100
libavfilter 7. 50.100 / 7. 50.100
libswscale 5. 4.100 / 5. 4.100
libswresample 3. 4.100 / 3. 4.100
Input #0, mp3, from 'http://someurl1:1234':
Run Code Online (Sandbox Code Playgroud)
现在,当我尝试从另一个似乎是 AAC 音频源的 …
我正面临着一个带有音频流的项目,作为客户端和服务器.Java是服务器应用程序的不错选择吗?
我读过其他问题,因为性能C++是这类应用程序的最佳选择.
我正在寻找iOS的示例代码(我猜,使用AVMediaPlayer或AVPlayer)来播放来自URL的流媒体音频(我们当前的服务器URL是http://server.local:8008/ourradio.aac.m3u).
在后台模式下应用时,也应该播放音频流.
我发现了关于FFMPEG的多个问题和教程,但我似乎并不了解大多数问题.我读过的所有指南都错过了很大的空白而且不倾向于解释事情.
我有一个现有的Android应用程序,它使用名为AAC Decoder的第三方库来传输音频.由于各种原因,我需要切换到使用FFMPEG,但无法弄清楚如何.我已经设法遵循指南来构建FFMPEG,但后来我不明白我应该对输出做什么.
我的应用只需要从远程URL流式传输音频.流可以是各种格式.
如果有人可以将我链接到一些全面,详细的指南,或者向我提供说明,那就太棒了.
谢谢.
我需要一个IOS应用程序,用户将启动应用程序,录制音频语音(通过设备麦克风),该语音将被广播给同一网络上的其他用户,所有这些都必须通过无线连接(WIFI)实现.
我做了一些可能的解决方案的研究,并尝试通过HTTP URL进行音频流,但这不可行,也涉及互联网.
我正在寻找你的意见,如果它是可行的那么什么是正确的方法,(我应该寻找哪些库和API)
我是iOS开发的新手,如果你能详细解释我真的很感激.
提前致谢.
我需要播放不同格式的网络电台.我尝试播放无线电使用MPMoviePlayerController,但它在3-4秒后停止.
var urlAddress = "http://streaming.radionomy.com/Elium-ClubDance";
var url = NSURL( string:urlAddress);
var player = MPMoviePlayerController(contentURL: url)
player.movieSourceType = MPMovieSourceType.Streaming;
player.prepareToPlay();
player.play();
Run Code Online (Sandbox Code Playgroud)
有人知道如何解决它吗?
我将创建语音聊天。我的后端服务器在Node.js上运行,并且客户端与服务器之间的几乎每个连接都使用socket.io。
websocket是否适合我的用例?与P2P相比,我更喜欢通信客户端->服务器->客户端,因为我希望甚至有1000个客户端连接到一个房间。
如果websocket没问题,那么哪种方法最好将AudioBuffer发送到服务器并在其他客户端上回放?我这样做:
navigator.getUserMedia({audio: true}, initializeRecorder, errorCallback);
function initializeRecorder(MediaStream) {
var audioCtx = new window.AudioContext();
var sourceNode = audioCtx.createMediaStreamSource(MediaStream);
var recorder = audioCtx.createScriptProcessor(4096, 1, 1);
recorder.onaudioprocess = recorderProcess;
sourceNode.connect(recorder);
recorder.connect(audioCtx.destination);
}
function recorderProcess(e) {
var left = e.inputBuffer.getChannelData(0);
io.socket.post('url', left);
}
Run Code Online (Sandbox Code Playgroud)
但是在接收到其他客户端的数据后,我不知道如何从缓冲区阵列播放此音频流。
编辑
1)为什么如果我不将ScriptProcessor(记录器变量)连接到目标,则不会触发onaudioprocess方法?
文档信息-“尽管您只想可视化一些音频数据,但不必提供目的地” -Web音频概念和用法
2)为什么将记录器变量连接到目标之后,为什么我的扬声器没有听到任何声音,如果我将sourceNode变量直接连接到目标,我可以听到。即使onaudioprocess方法不执行任何操作。
有人可以帮忙吗?