如何在Webrtc android中设置统一的语义计划。我需要将其添加到 SDP 中。我已经尝试过下面的代码,但它不起作用
rtcConfig.sdpSemantics = PeerConnection.SdpSemantics.UNIFIED_PLAN
Run Code Online (Sandbox Code Playgroud) 我正在编写 WebRTC 解决方案,并在使用后置摄像头时在本地视图中遇到问题(错误旋转/错误视图)
<com.src.webrtc.android.VideoView
android:id="@+id/main_view"
android:layout_width="wrap_content"
android:layout_height="wrap_content" />
Run Code Online (Sandbox Code Playgroud)
本地视图(错误视图)
远程视图(正确视图:以远程用户身份查看时)
我该如何使用@CalledByNative("...")?我需要来自 webrtc 库的回调。
如果您知道其上的 PeerConnection 类:
这是 PeerConnection 的旧版本,但现在几乎相同
我调用该函数addStream,但无法从中获取回调。
calledbynative工作!PeerConnection.java/*
* Copyright 2013 The WebRTC project authors. All Rights Reserved.
*
* Use of this source code is governed by a BSD-style license
* that can be found in the LICENSE file in the root of the source
* tree. An additional intellectual property rights grant can be found
* in the file PATENTS. All contributing project authors may
* …Run Code Online (Sandbox Code Playgroud) 我正在尝试基于 WebRTC 为 Android/iOS 应用程序实现 DTMF。Android 上有 DTMF API 吗?我尝试过拨打以下电话:
m_peerConnectionFactory.createdtmfsender(localAudioTrack);
m_peerConnectionFactory.insertDtmf(tone, duration,gap);
Run Code Online (Sandbox Code Playgroud)
我尝试过使用上面的 javascript api,它在浏览器上运行良好,但无法在 Android 上运行。我还没有在 iOS 上尝试过,因为我需要先让它在 Android 上运行。
请告诉我 Android/iOS 是否支持此功能?如果是的话,有人可以帮我提供正确的 api 吗
使用的 libjingle 版本:chrome 74.0.3729.169
webrtc peer-connection rtcpeerconnection webrtc-android webrtc-ios
我构建了一个 android webrtc 应用程序,但是当将 webrtc 添加到 android studio 项目(实现“org.webrtc:google-webrtc:1.0.+”)时,出现此错误:无法解析:org.webrtc:google-webrtc
如何将 webrtc 添加到 Android 应用程序?
gradle webrtc android-studio android-gradle-plugin webrtc-android
我使用以下示例在我的应用程序上实现了视频会议选项:https : //github.com/androidthings/sample-videoRTC
基本上是工作得很好,但我有一个主要问题。即使我在设备上设置了最大音量,播放的音频音量也非常低。
我试图检查是否有任何参数可以定义音频音量,但在 AudioBitRate(=32) 和 AudioCodec=("OPUS") 旁边找不到这样的参数。
这些是用于创建 peerConnection 的参数:
peerConnectionParameters =
new PeerConnectionClient.PeerConnectionParameters(true,
false,
false,
videoWidth,
videoHeight,
0,
Integer.parseInt(getString(R.string.pref_maxvideobitratevalue_default)),
getString(R.string.pref_videocodec_default),
true,
false,
Integer.parseInt(getString(R.string.pref_startaudiobitratevalue_default)),
getString(R.string.pref_audiocodec_default),
false,
false,
false,
false,
false,
false,
false,
false,
null);
Run Code Online (Sandbox Code Playgroud)
有谁知道如何提高音量?
我试图替换默认的音频编解码器,但结果是同样的低音量。
我想通过 WebRTC 数据通道发送单向流数据,并且正在寻找最佳配置选项(高带宽、低延迟/抖动)和其他人在此类应用程序中使用预期比特率的经验。
我的测试程序发送 2k 块,bufferedAmountLowThreshold 事件回调为 2k,并再次调用 send,直到 bufferedAmount 超过 16k。在 Chrome 中使用它,我在 LAN 上实现了 ~135Mbit/s,从/到远程连接实现了 ~20Mbit/s,两端都有 100Mbit/s WAN 连接。
这里的限制因素是什么?
如何查看数据是否真正直接点对点传输,或者是否使用了 TURN 服务器?
我的最终应用程序将使用 Android 上的 google-webrtc 库 - 我只使用 JS 进行原型设计。我可以在库中设置选项以加快比特率,而在官方 JS API 中无法做到吗?
我正在开发用于 Flutter 中视频通话的 WebRTC。一切都像魅力一样工作,但是当我运行应用程序时,它不会显示本地相机和远程相机(给出相机权限),但如果我热重新加载应用程序,相机就会显示。
这是我的代码。
这是我的用户界面。
Expanded(
child: Padding(
padding: const EdgeInsets.all(8.0),
child: Row(
mainAxisAlignment: MainAxisAlignment.center,
children: [
Expanded(child: RTCVideoView(_localRenderer, mirror: true)),
Expanded(child: RTCVideoView(_remoteRenderer)),
],
),
),
),`
Run Code Online (Sandbox Code Playgroud)