好的,我们现在可以在App Store上提交我们的应用程序的视频预览.根据Apple的说法,我们应该使用iOS8设备OSX 10.10.
.问题是你必须拥有所有不同的设备(4",4.7",5.5"和iPad).
有替代方案吗?
我正在考虑捕捉模拟器的视频.问题是FullHD
当以100%分辨率显示时,设备屏幕比我的显示器大.任何能够以全分辨率直接从模拟器捕获视频的解决方案?
编辑:由于很多人都在回答问题,我不是要问我说: - 记录一个设备大小并缩放它不是我要问的; - 如何记录任何应用预览不是我要求的; - 你如何做预览不是我要求的;
什么我问的是你可以记录从100%分辨率模拟器的视频,如果它不适合在屏幕上?
忘记截图,是否可以在Android中捕获正在运行的应用程序的视频?根或不根,我不在乎,我想要至少15fps.
更新:我不需要任何外部硬件.目的是使其完全可移植,并在Android OS中捕获每一帧.如果它跨越app sdk的边界,我愿意去操作系统级修改,但我需要一个起点.
我正在开发一个应用程序,它将能够通过使用从应用程序的背景录制视频Service
.
问题描述 :
在我的应用程序录音将被安排.如果用户想要从下午1点到下午3点录制视频,他将安排任务并退出应用程序.申请将在下午1点至3点自动开始录制.
我做了什么:
我搜索了我的查询,但没有得到解决方案.许多文章说这是不可能的.但在Google Play中,有一些应用程序(例如MyCar Recorder)可以从应用程序的背景录制视频.
实现此功能的方法是什么?
如何从本地视频文件中快速创建缩略图?
例如,如果视频文件路径位于此处:
file:///Users/Dev/Library/Developer/CoreSimulator/Devices/F33222DF-D8F0-448B-A127-C5B03C64D0DC/data/Containers/Data/Application/4BC62DBF-0108-453C-9324-5BC0E356FE24/tmp/trim.059D11E6-F0EF-43DB-9E97-CA4F1F95D6B6.MOV
谢谢.
我想用我的代码同时录制视频和抓取帧.
我AVCaptureVideoDataOutput
用于抓取框架和AVCaptureMovieFileOutput
视频录制.但无法工作,并在同时工作但个人工作时得到错误代码-12780.
我搜索了这个问题,但没有得到答案.有没有人有同样的经历或解释?一段时间我真的很烦.
谢谢.
我正在为我的办公室建立一个摄像头安全系统,但我们不想在现场保留DVR.
我们看了NVR(网络视频录像机),它们太贵了.我想到了另一种选择.我不知道它有多可行,但肯定会喜欢这里的一些输入.
这是我的想法:
现在我对这个解决方案的实用性以及构建这样一个系统所涉及的技术问题有一些疑问:
有些网站已经这样做了(比如http://www.mangocam.com/)
谢谢,我希望这个问题符合SO指南,因为这可能是编程和非编程相关的灰色区域.如果没有,我会将它移动到其他堆栈交换站点(请提出建议)
我正在通过录制屏幕和我的声音来做一系列教程.正如PNG最适合截图一样,而JPEG更适合照片(虽然有损),哪种视频编码和容器格式更适合屏幕录制?
请提供以下建议:
需要考虑的要点:
我正在使用MediaRecorder录制视频.我的代码在2.3.3上工作正常但在4.0.3上失败.
问题如下:代码mediaRecorder.stop()抛出RuntimeExeption
java.lang.RuntimeException: stop failed.
at android.media.MediaRecorder.stop(Native Method)
Run Code Online (Sandbox Code Playgroud)
使用LogCat消息
04-05 15:10:51.815: E/MediaRecorder(15709): stop failed: -1007
Run Code Online (Sandbox Code Playgroud)
UPDATE
我发现,MediaPlayer几乎在启动后立即报告错误(通过MediaPlayer.OnErrorListener).错误代码为100(媒体服务器死机),额外-1007.
更新2准备MediaRecorder的代码
c = Camera.open();
...
// Step 1: Unlock and set camera to MediaRecorder
camera.unlock();
mediaRecorder.setCamera(camera);
// Step 2: Set sources
mediaRecorder.setAudioSource(MediaRecorder.AudioSource.CAMCORDER);
mediaRecorder.setVideoSource(MediaRecorder.VideoSource.CAMERA);
// Step 3: Set a CamcorderProfile (requires API Level 8 or higher)
CamcorderProfile profile = CamcorderProfile
.get(CamcorderProfile.QUALITY_HIGH);
// manual set up!
mediaRecorder.setOutputFormat(MediaRecorder.OutputFormat.MPEG_4);
mediaRecorder.setVideoEncodingBitRate(profile.videoBitRate);
mediaRecorder.setVideoFrameRate(profile.videoFrameRate);
mediaRecorder.setVideoSize(profile.videoFrameWidth,
profile.videoFrameHeight);
mediaRecorder.setAudioChannels(profile.audioChannels);
mediaRecorder.setAudioEncodingBitRate(profile.audioBitRate);
mediaRecorder.setAudioSamplingRate(profile.audioSampleRate);
mediaRecorder.setAudioEncoder(profile.audioCodec);
//mediaRecorder.setVideoEncoder(MediaRecorder.VideoEncoder.MPEG_4_SP);
mediaRecorder.setVideoEncoder(profile.videoCodec);
// mediaRecorder.setProfile(profile);
// Step 4: Set output file …
Run Code Online (Sandbox Code Playgroud) 使用AVFoundation框架工作捕获视频.借助Apple文档http://developer.apple.com/library/ios/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/03_MediaCapture.html%23//apple_ref/doc/ UID/TP40010188-CH5-SW2
现在我做了以下事情
1.Created videoCaptureDevice
2.Created AVCaptureDeviceInput
并设置videoCaptureDevice
3.Created AVCaptureVideoDataOutput
和实现代表
4.Created AVCaptureSession
-设定输入作为AVCaptureDeviceInput并设置输出作为AVCaptureVideoDataOutput
5.在AVCaptureVideoDataOutput委托方法中
-(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
Run Code Online (Sandbox Code Playgroud)
我有CMSamplebuffer并转换成UIImage并测试使用打印UIImageview
[self.imageView performSelectorOnMainThread:@selector(setImage:) withObject:image waitUntilDone:YES];
Run Code Online (Sandbox Code Playgroud)
每件事情都很顺利........
我的问题是,我需要通过UDP套接字发送视频帧.尽管下面的一个是我试过的坏主意,UIImage到NSData和通过UDP Pocket发送.BUt得到了如此延迟的视频处理.由于UIImage NSDate导致了很多问题
所以请给我解决方案我的问题
1)任何方法将CMSampleBUffer或CVImageBuffer转换为NSData ??
2)像音频队列服务和视频队列存储UIImage和UIImage到NSDate和发送???
如果我骑在错误的算法背后请在写方向路径我
提前致谢
我正在研究用于某些场景的半实时检测的图像处理问题.我的目标是让实时视频以某种方式在我的Java代码中作为Motion JPEG帧到达.
我熟悉Java Media Framework,遗憾的是,我认为我们可以认为这是一个有效的死API.我也熟悉Axis盒子,虽然我非常喜欢他们的解决方案,但我会很感激我对我特定兴趣点的任何批评性反馈.
这就是我为此讨论定义"最佳"的方式:
注意:我知道其他图像/视频捕获编解码器,这不是这个问题的焦点.由于帧精度的降低,我对流API(例如MPEG4)特别不感兴趣.但是,如果我的问题有一个解决方案可以提供另一个帧准确的数据流,请加入.
这个问题的后续行动:此时,我非常倾向于购买Axis视频编码器等设备,而不是试图直接在软件或PC上捕获视频.但是,如果有人有其他选择,我很乐意听到他们的意见.
video-capture ×10
android ×3
ios ×3
avfoundation ×2
iphone ×2
video ×2
codec ×1
compression ×1
core-video ×1
ios8 ×1
ip-camera ×1
java ×1
media ×1
service ×1
surveillance ×1
swift ×1