小编Kon*_*sev的帖子

使用Amazon S3运行Apache Flink

有人成功使用Apache Flink 0.9来处理存储在AWS S3上的数据吗?我发现他们正在使用自己的S3FileSystem而不是Hadoop中的一个...而且看起来它不起作用.我把以下路径s3://bucket.s3.amazonaws.com/文件夹失败,但出现以下异常:

java.io.IOException:无法建立与Amazon S3的连接:com.amazonaws.services.s3.model.AmazonS3Exception:我们计算的请求签名与您提供的签名不匹配.检查您的密钥和签名方法.(服务:Amazon S3;状态代码:403;

hadoop amazon-s3 apache-flink

11
推荐指数
1
解决办法
2577
查看次数

如何从Intellij Idea与VisualVM配置JUnit测试运行

如何从Intellij Idea与VisualVM配置JUnit测试运行?VisualVM没有看到任何进程?有可能吗?

junit profiling visualvm intellij-idea

9
推荐指数
1
解决办法
9718
查看次数

java.lang.IllegalArgumentException:过滤器映射必须指定<url-pattern>或<servlet-name>

我用下一个web.xml创建了非常简单的REST应用程序:

<context-param>
    <param-name>resteasy.scan</param-name>
<param-value>true</param-value>
</context-param>

<listener>
    <listener-class>org.jboss.resteasy.plugins.server.servlet.ResteasyBootstrap</listener-class>
</listener>

<servlet>
    <servlet-name>Resteasy</servlet-name>
    <servlet-class>org.jboss.resteasy.plugins.server.servlet.HttpServletDispatcher</servlet-class>
</servlet>

<servlet-mapping>
    <servlet-name>Resteasy</servlet-name>
    <url-pattern>/rest/*</url-pattern>
</servlet-mapping>
Run Code Online (Sandbox Code Playgroud)

我正在使用servlet 3.0规范和Tomcat 7.0.23.不幸的是它总是失败:

Caused by: java.lang.IllegalArgumentException: Filter mapping must specify either a <url-pattern> or a <servlet-name>
    at org.apache.catalina.core.StandardContext.validateFilterMap(StandardContext.java:2995)
    at org.apache.catalina.core.StandardContext.addFilterMap(StandardContext.java:2954)
Run Code Online (Sandbox Code Playgroud)

我不知道问题出在哪里......我的代码中没有使用过滤器,我该如何解决?

tomcat servlets resteasy servlet-filters

7
推荐指数
1
解决办法
4224
查看次数

压缩Spark中的序列文件?

我正在尝试将RDD保存为压缩的Sequence文件.我可以保存非压缩文件来调用:

counts.saveAsSequenceFile(output)
Run Code Online (Sandbox Code Playgroud)

其中count是我的RDD(IntWritable,Text).但是,我没有设法压缩输出.我尝试了几种配置并且总是遇到异常:

counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.SnappyCodec])
<console>:21: error: type mismatch;
 found   : Class[org.apache.hadoop.io.compress.SnappyCodec](classOf[org.apache.hadoop.io.compress.SnappyCodec])
 required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
              counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.SnappyCodec])

 counts.saveAsSequenceFile(output, classOf[org.apache.spark.io.SnappyCompressionCodec])
<console>:21: error: type mismatch;
 found   : Class[org.apache.spark.io.SnappyCompressionCodec](classOf[org.apache.spark.io.SnappyCompressionCodec])
 required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
              counts.saveAsSequenceFile(output, classOf[org.apache.spark.io.SnappyCompressionCodec])
Run Code Online (Sandbox Code Playgroud)

它甚至对Gzip也不起作用:

 counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.GzipCodec])
<console>:21: error: type mismatch;
 found   : Class[org.apache.hadoop.io.compress.GzipCodec](classOf[org.apache.hadoop.io.compress.GzipCodec])
 required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
              counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.GzipCodec])
Run Code Online (Sandbox Code Playgroud)

你能建议解决方案吗?另外,我没有发现如何指定压缩参数(即Snappy的压缩类型)

apache-spark

2
推荐指数
1
解决办法
3678
查看次数