我想使用gstreamer将任意剪辑从一个音频文件保存到新文件.例如,原始的1分钟到2分钟的片段.我该怎么做?
我是多媒体工作的新手.我想通过样本捕获音频并通过networkh转移到其他ios设备.开始我的工作??? .i刚刚通过苹果多媒体指南和说明的例子,它充满了c ++代码,他们正在写入文件然后启动服务,但我需要缓冲...请帮助我以正确的方式开始我的工作.
提前致谢
我试图从streamtheworld下载和捕获音频流,到目前为止我发现的只是它使用HTTP协议,并且内部可以看到一些FLV标题.但是,它不可玩.
我会很感激有关它的任何信息.运输(http),容器,编码,欢迎任何信息.
这种音频流的一个例子:
http://player.streamtheworld.com/_players/arn/index.php?callsign=VIRGINRADIO_DUBAI
我有一个远程mp3(小文件,只需几秒钟),我有URL.我需要在使用iOS 4的应用程序上播放它.
URL不完全是.mp3文件,但它是一个动态的.php url,它请求.mp3文件.如果我在浏览器中放入php路由,它会下载mp3文件.
我正在尝试使用这个项目(https://github.com/mattgallagher/AudioStreamer),但它无法正常工作.音频开始但它只播放它的一部分.
我该怎么做?
我想在Android 2.2及更高版本上通过HTTP(m3u8)播放流媒体音频.使用Android 3.0及更高版本,支持HTTP流,仅低于3.0,但不支持.
解决方案是在项目中使用Vitamio.但是,Vitamio要求用户从Play商店安装插件.
所以,我的问题: - 有没有办法将Vitamio插件嵌入到项目中? - 是否有其他解决方案用于设备<Android 3.0的HTTP流媒体?
我正在为Android设备开发一个Radio应用程序,它应该从Shoutcast服务器获得流媒体.
声音工作正常,但我也要检索MetaData,这样我就可以显示当前播放的歌曲的标题,艺术家以及专辑图片.
我使用了MediaMetaDataRetriever但它似乎根本不起作用!
这是我使用的代码:
public class MainActivity extends FragmentActivity {
private ImageView bannerView;
private int[] pub = {R.drawable.banner, R.drawable.pubnautic, R.drawable.pubquad};
private int i = 0;
private ImageView play;
private ImageView pause;
private TextView title;
private MediaPlayer mediaPlayer;
private MediaMetadataRetriever retriever;
private String out;
private String url = "http://streamplus8.leonex.de:14910";
//adele-someonelikeyou
//Accordossie
//http://support.k-designed.net/test-z/music/adele-someonelikeyou.mp3
private ImageView albumpic;
private byte[] image;
private boolean paused = false;
private ImageView exit;
private ImageView wish;
private ImageView reservation;
private ImageView contact;
private ImageView facebook;
private ImageView twitter; …Run Code Online (Sandbox Code Playgroud) 我正在尝试做一个非常简单的应用程序,目的是监听音频流(AAC 64 kbps).为此,我使用AVPlayer了Apple AVFoundation以下内容:
ViewController.m
#import "ViewController.h"
@interface ViewController ()
@end
@implementation ViewController
@synthesize playerItem, player;
- (void)viewDidLoad
{
[super viewDidLoad];
}
- (void) viewWillAppear:(BOOL)animated{
[super viewWillAppear:animated];
playerItem = [AVPlayerItem playerItemWithURL:[NSURL URLWithString:@"http://stream.myjungly.fr/MYJUNGLY2"]];
[playerItem addObserver:self forKeyPath:@"timedMetadata" options:NSKeyValueObservingOptionNew context:nil];
player = [AVPlayer playerWithPlayerItem:playerItem];
[player play];
NSLog(@"player item error : %@", playerItem.error.description);
NSLog(@"player error : %@", player.error.description);
}
- (void) observeValueForKeyPath:(NSString*)keyPath ofObject:(id)object
change:(NSDictionary*)change context:(void*)context {
if ([keyPath isEqualToString:@"timedMetadata"])
{
AVPlayerItem* _playerItem = object;
for (AVMetadataItem* metadata in …Run Code Online (Sandbox Code Playgroud) 当我学习Cocoa Audio Queue文档时,我在音频编解码器中遇到了几个术语.在名为AudioStreamBasicDescription的结构中定义.
以下是术语:
1.采样率
2.数据包
3.帧
4.通道
我知道sample rate和channel.我是如何被其他两个混淆的.其他两个术语是什么意思?
您也可以通过示例回答这个问题.例如,我有一个双通道PCM-16信号源,采样率为44.1kHz,这意味着每秒有2*44100 = 88200字节的PCM数据.但如何packet和frame?
提前谢谢你!
我从getUserMeda获取音频流,然后将其转换为blob或缓冲区并将其发送到服务器,因为音频正在进行我使用socket.io将其发送到服务器如何将音频媒体流转换为缓冲区?
以下是我编写的代码
navigator.getUserMedia({audio: true, video: false}, function(stream) {
webcamstream = stream;
var media = stream.getAudioTracks();
socket.emit("sendaudio", media);
},
function(e){
console.log(e);
}
});
Run Code Online (Sandbox Code Playgroud)
如何将流转换为缓冲区并将其发送到node.js服务器,因为流来自getusermedia函数?
我开发了一个简单的Android应用程序,它包装WebView以连接到apprtc.appspot.com.WebRTC会话成功建立,视频流显示在应用程序和对等设备(Mac上的Chrome浏览器)中,可以在应用程序上听到音频,但Mac不会收到任何音频.Chrome:// Mac上的Chrome浏览器上的webrtc-internals显示没有错误.从Android设备中的Chrome到Mac中的Chrome的WebRTC可以很好地处理音频.我还在应用程序中编写了一个测试活动,以使用成功捕获和播放音频的MediaRecorder和MediaPlayer.
我的权限设置看起来像
<uses-permission android:name="android.permission.RECORD_AUDIO" />
<uses-permission android:name="android.permission.INTERNET" />
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
<uses-permission android:name="android.permission.CAMERA" />
<uses-feature android:name="android.hardware.audio.low_latency" />
<uses-feature android:name="android.hardware.audio.pro" />
<uses-feature android:name="android.hardware.microphone" android:required="true"/>
<uses-feature android:name="android.hardware.camera.autofocus" />
<uses-feature android:name="android.hardware.camera" android:required="true" />
<uses-feature android:name="android.hardware.camera.front" android:required="true" />
Run Code Online (Sandbox Code Playgroud)
应用代码看起来像
int permission;
permission = ContextCompat.checkSelfPermission(this, Manifest.permission.RECORD_AUDIO);
if (permission != PackageManager.PERMISSION_GRANTED) {
// Should we show an explanation?
if (ActivityCompat.shouldShowRequestPermissionRationale(this,
Manifest.permission.RECORD_AUDIO)) {
// Show an expanation to the user *asynchronously* -- don't block
} else {
ActivityCompat.requestPermissions(this,
new String[]{Manifest.permission.RECORD_AUDIO},
MY_PERMISSIONS_REQUEST_AUDIO);
}
}
// ... similar …Run Code Online (Sandbox Code Playgroud) audio-streaming ×10
android ×3
audio ×3
avfoundation ×1
avplayer ×1
blob ×1
buffer ×1
codec ×1
gstreamer ×1
ios ×1
ios4 ×1
iphone ×1
javascript ×1
media-player ×1
metadata ×1
objective-c ×1
pcm ×1
python ×1
segment ×1
shoutcast ×1
vitamio ×1
webrtc ×1
webview ×1
xcode4 ×1