有人成功使用Apache Flink 0.9来处理存储在AWS S3上的数据吗?我发现他们正在使用自己的S3FileSystem而不是Hadoop中的一个...而且看起来它不起作用.我把以下路径s3://bucket.s3.amazonaws.com/文件夹失败,但出现以下异常:
java.io.IOException:无法建立与Amazon S3的连接:com.amazonaws.services.s3.model.AmazonS3Exception:我们计算的请求签名与您提供的签名不匹配.检查您的密钥和签名方法.(服务:Amazon S3;状态代码:403;
如何从Intellij Idea与VisualVM配置JUnit测试运行?VisualVM没有看到任何进程?有可能吗?
我用下一个web.xml创建了非常简单的REST应用程序:
<context-param>
<param-name>resteasy.scan</param-name>
<param-value>true</param-value>
</context-param>
<listener>
<listener-class>org.jboss.resteasy.plugins.server.servlet.ResteasyBootstrap</listener-class>
</listener>
<servlet>
<servlet-name>Resteasy</servlet-name>
<servlet-class>org.jboss.resteasy.plugins.server.servlet.HttpServletDispatcher</servlet-class>
</servlet>
<servlet-mapping>
<servlet-name>Resteasy</servlet-name>
<url-pattern>/rest/*</url-pattern>
</servlet-mapping>
Run Code Online (Sandbox Code Playgroud)
我正在使用servlet 3.0规范和Tomcat 7.0.23.不幸的是它总是失败:
Caused by: java.lang.IllegalArgumentException: Filter mapping must specify either a <url-pattern> or a <servlet-name>
at org.apache.catalina.core.StandardContext.validateFilterMap(StandardContext.java:2995)
at org.apache.catalina.core.StandardContext.addFilterMap(StandardContext.java:2954)
Run Code Online (Sandbox Code Playgroud)
我不知道问题出在哪里......我的代码中没有使用过滤器,我该如何解决?
我正在尝试将RDD保存为压缩的Sequence文件.我可以保存非压缩文件来调用:
counts.saveAsSequenceFile(output)
Run Code Online (Sandbox Code Playgroud)
其中count是我的RDD(IntWritable,Text).但是,我没有设法压缩输出.我尝试了几种配置并且总是遇到异常:
counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.SnappyCodec])
<console>:21: error: type mismatch;
found : Class[org.apache.hadoop.io.compress.SnappyCodec](classOf[org.apache.hadoop.io.compress.SnappyCodec])
required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.SnappyCodec])
counts.saveAsSequenceFile(output, classOf[org.apache.spark.io.SnappyCompressionCodec])
<console>:21: error: type mismatch;
found : Class[org.apache.spark.io.SnappyCompressionCodec](classOf[org.apache.spark.io.SnappyCompressionCodec])
required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
counts.saveAsSequenceFile(output, classOf[org.apache.spark.io.SnappyCompressionCodec])
Run Code Online (Sandbox Code Playgroud)
它甚至对Gzip也不起作用:
counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.GzipCodec])
<console>:21: error: type mismatch;
found : Class[org.apache.hadoop.io.compress.GzipCodec](classOf[org.apache.hadoop.io.compress.GzipCodec])
required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.GzipCodec])
Run Code Online (Sandbox Code Playgroud)
你能建议解决方案吗?另外,我没有发现如何指定压缩参数(即Snappy的压缩类型)
amazon-s3 ×1
apache-flink ×1
apache-spark ×1
hadoop ×1
junit ×1
profiling ×1
resteasy ×1
servlets ×1
tomcat ×1
visualvm ×1