vul*_*aji 8 streaming video-streaming live-streaming ios4 ios
显然有一种方法可以做到这一点,因为很多应用程序已经在这样做了 - NetCamViewer和iCamviewer仅举一例.
我进行了搜索和搜索,但是我找不到任何有价值的东西,这些都暗示了如何做到这一点.我正在伸出手,希望有人能给我一些线索.
我正在尝试连接到支持RTSP协议的视频安全摄像头(Y-CAM),并从我的iPhone/iPad应用程序中显示视频.相机有一个IP地址,我可以从网络浏览器和Mac上运行的Quicktime查看视频.问题是iOS上不支持RSTP,因此即使尝试在iPad上使用Safari进行连接也不起作用.
我读过有些人正在尝试使用Live5555,但我还没有看到一篇文章描述它是否成功完成以及如何成功.
另一种方法是在服务器上捕获RTSP流,将其转换为HTTP Live流,然后从iOS连接到HTTP Live流.不幸的是,事实证明这并不容易.
我喜欢像我见过的其他应用程序一样直接进入相机.如果必须的话,RTSP to Live是一个后退.
非常感谢任何提示.谢谢!
小智 11
这是错误的:)或者没有必要(另一种方法是在服务器上捕获RTSP流,将其转换为HTTP Live流,然后从iOS连接到HTTP Live流.不幸的是,这并不像它那样容易声音.)
你应该使用ffmpeg库,因为这个库可以连接任何流媒体服务器(支持rtsp,mms,tcp,udp,rtmp ...)然后将图片绘制到屏幕上..(对于绘图你可以使用opengles或uiimage也可以)
首先,使用avformat_open_input连接到您的IP地址,然后使用avcodec_find_decoder和avcodec_open2查找编解码器并打开它们(您应该为音频和视频调用它们)
然后,在while循环中使用av_read_frame方法从服务器读取数据包当你得到帧时,如果它是音频然后发送到AudioUnit或AudioQueue,如果它是视频,然后使用sws_scale方法将其从yuv转换为rgb格式并绘制图片到屏幕.
就这样.
看看这个包装器也是(http://www.videostreamsdk.com),它写在ffmpeg库上并支持iOS
归档时间: |
|
查看次数: |
19769 次 |
最近记录: |