我需要播放视频文件(使用已安装的编解码器)并获取一些文件信息(例如帧速率和长度).
在Silverlight 4的新功能列表中,您将找到以下内容:
网络摄像头和麦克风,允许共享视频和音频,例如聊天或客户服务应用程序.
Silverlight将音频流捕获为原始pcm.那么如何在客户端没有任何编码的情况下实现音频/视频聊天或客户端/服务器音频录制应用程序,而Silverlight中没有API?
在Silverlight中你不能使用非托管dll.您可以使用com自动化(Silverlight 4的一项新功能,我认为仅适用于Windows),但前提是它已经安装在客户端(您知道随Windows安装的任何编码COM服务器)吗?否则,您将如何在Silverlight应用程序中部署自定义COM服务器?
我找到的唯一方法是部署命令行编码并将其与COM AutomationFactory.CreateObject("WScript.Shell")一起使用,或实现编码以在您自己的AudioSink中使用它.
我将在Android上制作一个PTT项目.您能否告诉我Android有多深入支持语音和多媒体API(如RTP,RTSP,VoIP)?
在Windows XP中,使用Delphi,如何获取主卷?
我知道我可以使用keybd_event(VK_VOLUME_UP, 1, 0, 0);和设置和向下发送击键keybd_event(VK_VOLUME_DOWN, 1, 0, 0);,但我不知道如何获得音量的实际值.
看看我是否通过gst-launch commnad创建了一个类似下面的应用程序
gst-launch -v filesrc location=ed_hd.mkv ! matroskademux ! vorbisdec ! audioconvert ! audioresample ! autoaudiosink
Run Code Online (Sandbox Code Playgroud)
什么时候我在我的控制台应用程序上键入它开始工作,但我想看到此命令创建此管道的源代码.
1>那么有没有办法让我获得创建的管道/应用程序代码?
看我们什么时候创建任何应用程序,我们有一个可执行文件,所以通过运行我们可以运行程序.
2>那么如何从gst-launch或gstreamer管道编辑器创建的应用程序中获取该可执行文件?
虚拟音频电缆是一种 Windows WDM 多媒体驱动程序,允许用户将音频流从一个应用程序传输到另一个应用程序。我想以编程方式实现此功能。我更喜欢用 c# 来做。任何开发人员都可以指导我如何做
在Qt4我曾经使用过
QT += multimedia phonon
//...
#include <Phonon>
//...
Phonon::MediaObject *mediaObject = Phonon::createPlayer(Phonon::NoCategory, Phonon::MediaSource(QUrl("./assets/audio/window_appear.wav")));
// "\"" + Qdir().absolutePath() + "/audio/click.wav" + "\""
mediaObject->play();
Run Code Online (Sandbox Code Playgroud)
这一切都很好.但是现在Qt 5不支持Phonon.所以我想知道 - 如何在Qt5中播放声音等媒体文件?
使用WebKit?(完全有可能,但从很多角度看都很糟糕)
我必须在Android上实现一个GStreamer管道,它将从linux机器上的mpegts服务器获得一个实时mpegts流(也通过GStreamer实现).
现在,我有一个Samdung Galaxy Tab2,5113,它有Android-4.1.2-JellyBean和API级别= 16
我的接收器管道如下:data-> pipeline = gst_parse_launch("udpsrc caps = \"video/mpegts,systemstream = true,packet-size = 188 \"!tsdemux!queue!h264parse!amcviddec-omxgoogleh264decoder!eglglessink",&error );
这是根据GStreamerSDK的Android-Tutorial-3.
当我按下播放按钮时,我收到此错误:06-26 00:04:56.927:D/GStreamer + tutorial-3(7201):0:00:05.920807000 0x5a65c320 jni/tutorial-3.c:88:set_ui_message设置消息:从元素amcvideodec-omxgoogleh264decoder0收到错误:GStreamer遇到一般支持库错误.
Eclipse IDE的logcat上显示的应用程序的更详细日志:http://pastebin.com/EX8sgcEp
因此,似乎amcviddec-omxgoogleh264decoder元素无法使输入数据出列,以及GStreamer遇到库错误.
我将不胜感激任何帮助或建议.
我正在使用 C# 中的古老 Windows 多媒体 API(WinMM.dll 中的 midiXyz 函数)。
在非流模式 ( )下打开 Midi Out 设备/端口后midiOutOpen,使用 ( ) 发送 SysExmidiOutLongMsg可以正常工作。
在流模式 ( )下打开 Midi Out 设备/端口后midiStreamOpen,使用 发送 SysExmidiOutLongMsg不起作用。
相反,midiOutLongMsg失败并出现错误MMSYSERR_NOTSUPPORTED(= 8)。错误文本为:“不支持此功能。使用功能函数来确定驱动程序支持哪些功能和消息。 ”
然而,根据 MSDN,( midiOutLongMsg) 也应该与流句柄一起使用。
Jeff Glatt 的优秀 MIDI 信息页面还声称 SysEx 和流媒体可以一起使用(参见页尾))。
通过使用 ( midiStreamOut) midiStreamOut 排队来发送缓冲的 SysEx 消息效果很好。但是,我也需要/想要直接使用 发送 SysEx midiOutLongMsg。
我已经检查了各种开源 Midi 库(托管和非托管)、几个 Midi 驱动程序源甚至 WINE 的 WinMM.dll …