我有一堆flash视频,我需要用与用户相关的信息进行水印,以便更难以非法重新分发这些文件.
我想知道如何在服务器端完成这项工作.如果在客户端完成,则用户在加水印之前拦截视频将非常容易.
由于水印应该包含用户特定信息,因此在编码之前我无法真正为视频添加水印(除非我每个用户都有一个编码视频- 不可行).
不过,我期待这会对流媒体表演产生很大的影响.
知道如何做到这一点(可能以有效的方式)?
我需要在服务器/客户端之间进行通信.我看到CORBA用于不同的语言就像RMI一样工作,是吗?在我的应用程序中,我将不得不在客户端/服务器之间传输对象,传输二进制文件(我看到我可以使用RMI),还可以从一个客户端播放实时流式传输到另一个客户端.我正在考虑CORBA,因为如果我需要它也可以与C++一起使用,不是吗?那么我可以用CORBA播放流媒体吗?
我编写了一个PHP脚本,它向搜索引擎发出请求,访问服务结果,从结果中提取一些细节,然后以更有用的形式打印它们.
这一切都运行良好,但我偶然发现的一点是,在等待数据流入时调用echo或print会导致输出也被流式传输.具体来说,有多页结果,所以我访问第一页,读入并重新打印内容,然后转到下一页,在等待下一页加载时,上一页的内容变为可见浏览器.
我不明白为什么这种情况发生得如此不一致.有时在移动到下一页之前将打印一页,有时更少,有时更多.然后,当我之后基本上做同样的事情(在每个结果指向的页面中读取)时,输出几乎不流动,每分钟左右重绘一次.
我正在使用file_get_contents($url)检索内容,并使用其中的函数echo来打印到目前为止已加载的内容.这种流式打印行为是否是浏览器的一项功能,与我在PHP中编写的内容无关?如果没有,怎样才能更好地控制?
此时有一个非常基本的Flash项目,它连接到rtmp服务器并从网络摄像头流式传输视频和音频.它从具有特定名称的用户创建流.
同样在同一个项目中,还有一个输入用于其他实体可以流式传输的流名称.因此,您可以使用Flash与Skype进行视频聊天.
在Flash中,我可以控制何时开始发布自己的流以及何时想要播放别人的流.
我试图找出如何通过Javascript控制Flash函数(StartPublish,StartStream等).
我正在查看http://osflash.org/projects/flashjs,想知道我是否走在正确的道路上.
我正在尝试流这个网址:http://stream331.overseebrasil.com.br/live_previd_155/ definst /live_previd_155/playlist.m3u8
<audio id="streaming" class="video-js vjs-default-skin" controls>
<source src="http://stream331.overseebrasil.com.br/live_previd_155/_definst_/live_previd_155/playlist.m3u8" type='audio/mp4; codecs=mp4a.40.2' />
</audio>
Run Code Online (Sandbox Code Playgroud)
Safari/Mac和Safari/iOS工作正常,但代码不能在Chrome和Firefox中运行.
我尝试从类型属性中删除编解码器的信息,但没有任何反应.Firefox说:
Specified "type" attribute of "audio/mp4; codecs=mp4a.40.2" is not supported. Load of media resource http://stream331.overseebrasil.com.br/live_previd_155/_definst_/live_previd_155/playlist.m3u8 failed.
All candidate resources failed to load. Media load paused.
Run Code Online (Sandbox Code Playgroud)
我也试过改变基于mime页面的类型属性(http://www.videojs.com/projects/mimes.html)有关这个问题的任何想法吗?
我正在ffmpeg我的笔记本电脑上构建一个简单的命令行来从其相机流式传输.命令行读取(详细信息):
host1> ffmpeg -v verbose \
-f dshow \
-i video="Camera":audio="Microphone" \
-r 30 -g 0 -vcodec h264 -acodec libmp3lame \
-tune zerolatency \
-preset ultrafast \
-f mpegts udp://12.34.56.78:12345
Run Code Online (Sandbox Code Playgroud)
首先,它在本地工作.即,我可以通过ffplay在同一主机上使用来查看输出:
host1> ffplay -hide_banner -v udp://12.34.56.78:12345
Run Code Online (Sandbox Code Playgroud)
现在,当我从同一网络中的另一台机器执行此操作时,无法正常工作.它显示了一个nan进步:
host2> ffplay -hide_banner -v udp://12.34.56.78:12345
nan : 0.000 fd= 0 aq= 0KB vq= 0KB sq= 0B f=0/0
Run Code Online (Sandbox Code Playgroud)
我ncat以前转储原始内容.但是没有输出:
host2>\ncat\ncat -v -u 12.34.56.78 12345
Ncat: Version 5.59BETA1 ( http://nmap.org/ncat )
Ncat: Connected to 12.34.56.78:12345.
(...and nothing …Run Code Online (Sandbox Code Playgroud) 我需要播放不同格式的网络电台.我尝试播放无线电使用MPMoviePlayerController,但它在3-4秒后停止.
var urlAddress = "http://streaming.radionomy.com/Elium-ClubDance";
var url = NSURL( string:urlAddress);
var player = MPMoviePlayerController(contentURL: url)
player.movieSourceType = MPMovieSourceType.Streaming;
player.prepareToPlay();
player.play();
Run Code Online (Sandbox Code Playgroud)
有人知道如何解决它吗?
我对Spark Streaming非常陌生,我正在尝试使用pyspark从Kafka读取和解析JSON流。读取流是可以的,而且我可以pprint()RDD。
{"Address":"22.79.52.79","AlarmProfile":"-1","Amps":"11.98","AmpsLimit":"90","AssetTag":"-1","AssetTag_1":"-1","Blank":"0","CAN":"0","Chain":"2","Config":"\u003cUnknown\u003e",...,"WattsLimit":"-1"}
Run Code Online (Sandbox Code Playgroud)
我想解析json,以便可以使用例如my_parsed_json [“ Amps”]
但是我不知道如何在它们上使用json.loads()。
我以这种方式运行脚本:
/data/spark/bin/spark-submit --master spark://des01:7077 --total-executor-cores 2 --jars /data/dev/2.10/spark-streaming-kafka-assembly_2.10-1.5.2.jar test.py pkb01:9092 topicname
Run Code Online (Sandbox Code Playgroud)
其中“ pkb01:9092”是Kafka代理,“ topicname”是Kafka主题。
我的python代码是:
from __future__ import print_function
import sys
import json
from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.streaming.kafka import KafkaUtils
# sc es el Spark Context
sc = SparkContext(appName="mitest")
ssc = StreamingContext(sc, 2)
brokers, topico = sys.argv[1:]
kvs = KafkaUtils.createDirectStream(ssc, [topico], {"metadata.broker.list": brokers})
dstream = kvs.map(lambda x: x[1])
dstream.pprint()
Run Code Online (Sandbox Code Playgroud)
我想包含以下内容:
my_parsed_json = dstream.map(lambda x: json.loads(x))
Run Code Online (Sandbox Code Playgroud)
但我从Spark收到错误。有什么帮助吗?
添加的错误:
Traceback …Run Code Online (Sandbox Code Playgroud) 我正在开发一个在一分钟内处理很少记录的应用程序.请求率约为每分钟2次.这些请求是为一组数据创建和更新的.要求是交付保证,可靠的交付,订购保证和防止任何消息丢失.
我们的团队决定使用Kafka,我认为它不适合用例,因为Kafka最适合流数据.相反,我们可以更好地使用传统的消息模型.虽然卡夫卡确实提供每个分区排序,同样可以是传统的邮件系统上,如果消息的数目是低的和数据的来源也低实现.这是一个公平的陈述吗?
我们使用Kafka流来处理数据,处理要求我们对外部系统进行查找.如果外部系统不可用,那么当外部查找系统可用时,我们将停止处理并自动将消息传递到目标系统.目前,我们通过在处理过程中不断循环并检查系统是否可用来停止处理.a)这是在处理过程中中途停止流的最佳方法,以便它不再接收任何消息吗?b)数据流框架是否设计为在中途停止或暂停,以便它们在一段时间内完全停止使用流?
我需要从SQL Server数据库中提取2个表到Apache Parquet中的文件(我不使用Hadoop,只使用镶木地板文件).我知道的选项是:
将数据加载到Pandas中的数据框并保存到镶木地板文件.但是,此方法不会将数据从SQL Server流式传输到Parquet,而且我只有6 GB的RAM内存.
使用TurboODBC查询SQL Server,即时将数据转换为Apache Arrow,然后转换为Parquet.与上述相同的问题,TurboODBC目前不会流式传输.
是否存在可以轻松"快速"从SQL Server中的表中将1 TB数据提取到镶木地板文件的工具或库?
streaming ×10
flash ×2
apache-kafka ×1
apache-spark ×1
audio ×1
buffered ×1
c++ ×1
confluent ×1
corba ×1
echo ×1
encoding ×1
ffmpeg ×1
html5 ×1
integration ×1
ios ×1
java ×1
javascript ×1
json ×1
messaging ×1
pandas ×1
parquet ×1
performance ×1
php ×1
printing ×1
python ×1
security ×1
sql-server ×1
swift ×1
video ×1
video.js ×1
watermark ×1