我打算使用 ffprobe 函数来提取视频信息,这是我的代码:
var FFmpeg = require('fluent-ffmpeg');
//...
var convert_using_ffmpeg = function (source, target) {
var tempfile = path.join(config.tmproot, path.basename(target));
new FFmpeg({ source: source })
.withVideoCodec('libx264')
.withVideoBitrate('512')
.withAudioQuality(5)
.withAudioCodec('libmp3lame')
.withSize('360x288')
//.ffprobe(function(err,data) {
// console.dir(data);
//})
.toFormat('flv')
.on('error', function (err) {
console.log('An error occurred: ' + err.message);
})
.saveToFile(tempfile, function () {
fs.rename(tempfile, target);
});
};
Run Code Online (Sandbox Code Playgroud)
编译器只是说Object #<FfmpegCommand> has no method 'ffprobe当我执行程序时。Fluent-ffmpeg API 说我应该在执行之前添加 FFMPEG_PATH 和 FFPROBE_PATH 环境变量,但事实是即使 PATH 环境变量中不存在 ffmpeg,我也可以直接在命令行中执行 ffmpeg,并且 node.js 程序成功运行而无需调用ffprobe 函数。另外API还说ffprobe与大多数ffmpeg发行版一起提供,如果是这样,我如何单独将ffprobe添加到环境变量中?
我目前使用的是 Fluent-ffmpeg 1.7.0。
我现在无法在Windows计算机上启动spark-shell.我使用的Spark版本是为Hadoop 2.4或更高版本预先构建的1.5.2.我认为spark-shell.cmd可以在没有任何配置的情况下直接运行,因为它是预构建的,我无法弄清楚阻止我正确启动Spark的问题是什么.
除了打印出来的错误消息,我仍然可以在命令行上执行一些基本的scala命令,但显然这里出了问题.
这是cmd的错误日志:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.li
b.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more in
fo.
Using Spark's repl log4j profile: org/apache/spark/log4j-defaults-repl.propertie
s
To adjust logging level use sc.setLogLevel("INFO")
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 1.5.2
/_/
Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_25)
Type in expressions to have …Run Code Online (Sandbox Code Playgroud)