AR Drone 2和ffserver + ffmpeg流媒体

Bja*_*ard 3 flash streaming ffmpeg codec ar.drone

我希望能够将AR Drone 2的视频源从Debian Server重新映射到Flash.

我知道AR Drone使用编解码器p264.在视频编解码器方面,我完全是绿色的,所以我不知道什么适合我想实现的目标?

与使用ffplay直接连接到AR Drone相比,我能够从AR Drone流式传输视频,但延迟非常高且质量极低.

我目前在标准的ffserver.conf中使用.swf示例:

<Stream test.swf>
Feed feed1.ffm
Format swf
VideoFrameRate 30
VideoIntraOnly
NoAudio
</Stream>
Run Code Online (Sandbox Code Playgroud)

并且.ffm Feed的设置如下:

<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 17K
ACL allow 127.0.0.1
NoAudio
</Feed>
Run Code Online (Sandbox Code Playgroud)

我用来为ffserver feed提供输入的命令:

ffmpeg -i http://192.168.1.1:5555 http://localhost:8090/feed1.ffm
Run Code Online (Sandbox Code Playgroud)

我如何才能实现更低的延迟和更高的质量,因为流目前无法获取?

小智 5

不幸的是,ffserver根本无法完成你想要完成的工作.你和互联网上的其他人都在同一堵墙上.我能得到的最好的是大约3秒的延迟,当流运行几个小时时,它会逐渐增加到大约5-10秒.

我也没有用ffmpeg解码流.我不知道为什么.它适用于ffplay,这让我更加困惑!

我正在研究Py-Media,看看我是否可以为类似的项目编写自己的代码.我想流式传输ardrone视频并对流中的图像进行微缩处理.

ps看看gstreamer,我看到其他人讨论它会产生不同的结果.