我正在尝试使用WebRtc Native apis创建一个用于视频聊天和消息传递的Android应用程序.我已经通过几个链接,发现android的大部分文档都很模糊,特别是如果你不知道从哪里开始.我按照以下链接,
https://webrtc.org/native-code/android/#
https://www.chromium.org/developers/how-tos/android-build-instructions
但上面提到的链接没有任何意义,因为我想开发一个Android应用程序,这些链接建议下载铬然后构建它.我知道最终的结果将是一个apk,但如果我想编码自己怎么办.我也查看了pubnub和OpenTokRtc,但我也不想使用某些elses信令服务(以及pub和sub键).我尝试了以下链接,
https://github.com/pristineio/webrtc-build-scripts
但对于WebRTC的新手而言,这似乎有点不完整,因为它建议通过以下命令获取WebRtc,
# Pull WebRTC
get_webrtc
最后我尝试了以下链接,
http://simonguest.com/2013/08/06/building-a-webrtc-client-for-android/
但是本教程的问题在于它根本没有更新.Libjingle现在已经转移到github,我不知道如何使用gclient从github获取libjingle.
我的这场斗争是一场灾难.任何人都可以帮我一些更新的文档或教程,我可以用它来了解我需要使用webRTC native apis开发应用程序到底需要什么?请不要给我任何OpenTokRtc或PubNub的链接.
谢谢
I am using RTCMultiConnection v3.4.4
I want to run WebRTC on localhost. I have chosen XHR-Signaling because I want the project to be completely offline. I do not want it to depend on the internet, since everything is on localhost (to be later deployed on LAN)
I have included XHRConnection.js and set connection.setCustomSocketHandler(XHRConnection). I also did the override connection.openSignalingChannel...
However, when I open/start the room, my video shows but the buttons that was disabled by disableInputButtons() still remains disabled. …
我正在开发一个WebRTC项目.我选择OpenWebRTC在我的项目中实现.
我已经使它适用于Web和iOS.我在asp.net MVC中开发了一个信令服务器,并将coTurn服务器用作转弯服务器.
除了一个问题,一切都很好.
iOS应用程序随机崩溃,但异常
EXC_BAD_ACCESS异常:(gstglcontext(14):EXC_BAD_ACCESS(code = 1,address = 0x30))
从SDK中的某个位置抛出异常.我现在已经尝试了几天寻找解决方案,但到目前为止还没有成功.
还有其他人遇到过类似的问题吗?
以下是崩溃设备日志中的堆栈跟踪
Incident Identifier: FA4FC9DB-B4CA-497E-9A25-639A4F743BC8
CrashReporter Key:   ff7120b6353817347fd122932620c25469ace55e
Hardware Model:      iPad4,5
Process:             NativeDemo [983]
Path:                /private/var/containers/Bundle/Application/13129A20-974B-405C-AB44-B5F8526AF362/NativeDemo.app/NativeDemo
Identifier:          com.ericsson.research.owr.NativeDemo
Version:             1 (1.0)
Code Type:           ARM-64 (Native)
Role:                Foreground
Parent Process:      launchd [1]
Coalition:           com.ericsson.research.owr.NativeDemo [1284]
Date/Time:           2017-03-22 04:52:45.7874 -0700
Launch Time:         2017-03-22 04:26:17.7434 -0700
OS Version:          iPhone OS 10.2.1 (14D27)
Report Version:      104
Exception Type:  EXC_BAD_ACCESS (SIGSEGV)
Exception Subtype: KERN_INVALID_ADDRESS at 0x0000000000000030
Termination Signal: Segmentation fault: 11
Termination Reason: Namespace …我已经能够使用 RTCPeerConnection.getStats() API 获取 WebRTC 音频呼叫的各种统计信息(抖动、RTT、数据包丢失等)。
我需要将整体通话质量评定为优秀、良好、一般或较差。
是否有使用 WebRTC 统计数据给出总体评分的公式?如果不是,我应该给予更多权重的 WebRTC 统计数据中的哪一个?
我如何停止并退出纯js,在WEBRTC api js中流式摄像头,我在我的代码中有以下脚本:
<script type="text/javascript">
$(document).ready(function() {
    $("#abrirModal").click(function() {
        navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia;
        var constraints = {
            audio: false,
            video: true
        };
        var live = document.getElementById("live");
        function successCallback(stream) {
            window.stream = stream; // stream available to console
            if (window.URL) {
                live.src = window.URL.createObjectURL(stream);
            } else {
                live.src = stream;
            }
            $("#myModal").modal("show");
            window.setTimeout(function() {
                $("#myModal").modal("hide");
            }, 9000);
        }
        function errorCallback(error) {
            console.log("navigator.getUserMedia error: ", error);
        }
     navigator.getUserMedia(constraints, successCallback, errorCallback);
    });
});
 </script>
如何关闭并退出其他file.js中的网络摄像头,例如:
  function exitWebCam () {  
     document.getElementById("live")."close …我正在尝试将一些音频流从我的浏览器发送到某个服务器(udp,也尝试使用 websockets)。我正在使用 webrtc 录制音频流,但是在将数据从 nodeJS 客户端传输到我的服务器时遇到问题。任何的想法?是否可以使用 webrtc(openwebrtc) 将音频流发送到服务器?
audio-recording audio-streaming live-streaming webrtc openwebrtc
我目前正在寻找一种存储传入 webrtc 视频流的最佳方法。我正在使用 webrtc (通过 chrome)加入视频通话,我想记录从每个参与者到浏览器的每个传入视频流。我正在研究的解决方案是:
例如使用 Whireshark 拦截传入浏览器的网络数据包,然后进行解码。关注本文: https: //webrtchacks.com/video_replay/
修改浏览器以将录音存储为文件,例如通过修改 Chromium 本身
由于资源限制,任何屏幕录像机或使用 xvfb 和 ffmpeg 等解决方案都不是一个选择。有没有其他方法可以让我捕获数据包或编码视频作为文件?该解决方案必须在 Linux 上运行。
我正在编写WebRTC应用程序,并且存在以下问题:
我想使用adapter.js库。
我有以下index.html:
<html>
  <header>
     <script src='../out/adapter.js'></script>
     <script src='../out/main.js'></script>
  </header>
  <body> 
    <video id="localVideo" width='500' autoplay></video> 
  </body>
</html>
和我的main.js看起来像:
var adapter=require('webrtc-adapter');
var localVideo=document.querySelector('video#localVideo');
navigator.getUserMedia(media_constraints, handleUserMedia, handleUserMediaError); 
function handleUserMedia(stream) {        
   localStream = stream;        
   adapter.attachMediaStream(localVideo, stream);        
   console.log('Adding local stream.');  
}
但是我的浏览器记录了错误: Uncaught ReferenceError: require is not defined
我正在开发用于 Flutter 中视频通话的 WebRTC。一切都像魅力一样工作,但是当我运行应用程序时,它不会显示本地相机和远程相机(给出相机权限),但如果我热重新加载应用程序,相机就会显示。
这是我的代码。
这是我的用户界面。
Expanded(
    child: Padding(
      padding: const EdgeInsets.all(8.0),
      child: Row(
        mainAxisAlignment: MainAxisAlignment.center,
        children: [
          Expanded(child: RTCVideoView(_localRenderer, mirror: true)),
          Expanded(child: RTCVideoView(_remoteRenderer)),
        ],
      ),
    ),
),`
openwebrtc ×10
webrtc ×10
javascript ×2
simplewebrtc ×2
android ×1
chromium ×1
flutter ×1
ios ×1
iphone ×1
libjingle ×1
node.js ×1
objective-c ×1
rtc ×1
signaling ×1