小编Pri*_*til的帖子

DockerFile运行java程序

嗨,我是Docker的新手,并尝试从头开始编写新图像.我正在编写这个dockerFile来编译和运行同一目录中可用的简单java程序.

这是dockerfile.

FROM scratch
CMD javac HelloWorld.java
CMD java HelloWorld
Run Code Online (Sandbox Code Playgroud)

Docker构建成功,如下所示

[root@hadoop01 myjavadir]# docker build -t runhelloworld .
Sending build context to Docker daemon 3.072 kB
Sending build context to Docker daemon
Step 0 : FROM scratch
 --->
Step 1 : CMD javac HelloWorld.java
 ---> Running in 7298ad7e902f
 ---> f5278ae25f0c
Removing intermediate container 7298ad7e902f
Step 2 : CMD java HelloWorld
 ---> Running in 0fa2151dc7b0
 ---> 25453e89b3f0
Removing intermediate container 0fa2151dc7b0
Successfully built 25453e89b3f0
Run Code Online (Sandbox Code Playgroud)

但是当我尝试运行时,它会抛出以下错误:

[root@hadoop01 myjavadir]# docker run runhelloworld
exec: …
Run Code Online (Sandbox Code Playgroud)

java docker

11
推荐指数
1
解决办法
2万
查看次数

DockerFile:ADD和COPY之间的区别

根据以下参考https://docs.docker.com/engine/reference/builder/#copy 我发现ADD和COPY之间没有区别.请帮我一个解释差异的简单例子.

docker

8
推荐指数
1
解决办法
1万
查看次数

无法通过spark-sql从启用了hive事务的表中获取结果

背景:-

  • 我正在使用HDP与spark1.6.0和hive 1.2.1

遵循的步骤: -

创建一个蜂巢表: -

hive>
CREATE TABLE orctest(PROD_ID bigint, CUST_ID bigint, TIME_ID timestamp, CHANNEL_ID bigint, PROMO_ID bigint, QUANTITY_SOLD decimal(10,0), AMOUNT_SOLD decimal(10,0) ) CLUSTERED BY (PROD_ID) INTO 32 BUCKETS STORED AS ORC TBLPROPERTIES ( "orc.compress"="SNAPPY", "transactional"="true" );
Run Code Online (Sandbox Code Playgroud)

将记录插入orctest

hive>
insert into orctest values(1, 1, '2016-08-02 21:36:54.000000000', 1, 1, 10, 10000);
Run Code Online (Sandbox Code Playgroud)

尝试从spark-shell访问orctest表

scala>
val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)

val s = hiveContext.table("orctest")*
Run Code Online (Sandbox Code Playgroud)

异常抛出: -

16/08/02 22:06:54 INFO OrcRelation: Listing hdfs://hadoop03:8020/apps/hive/warehouse/orctest on driver
16/08/02 22:06:54 
INFO OrcRelation: Listing hdfs://hadoop03:8020/apps/hive/warehouse/orctest/delta_0000005_0000005 on …
Run Code Online (Sandbox Code Playgroud)

hadoop hive apache-spark apache-spark-sql

6
推荐指数
1
解决办法
1927
查看次数

解码根据GWT的序列化策略生成的*.gwt.rpc文件

我正在尝试对GWT RPC序列化策略进行一些背景阅读,并发现GWT将编译后的*.gwt.rpc文件中的可序列化类型列入白名单.

以下是我的应用程序中生成的一个这样的.gwt.rpc文件的摘录:

com.subex.rocforms.sample.client.gwt.demo.PriorityModel, true, true, true, true, com.subex.rocforms.sample.client.gwt.demo.PriorityModel/3885356691, 3885356691
com.subex.rocforms.sample.client.gwt.demo.TeamModel, true, true, true, true, com.subex.rocforms.sample.client.gwt.demo.TeamModel/3447853257, 3447853257
com.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupDateModel, true, true, true, true, com.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupDateModel/2876933254, 2876933254
[Lcom.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupDateModel;, true, true, true, true, [Lcom.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupDateModel;/2086898801, 2086898801
com.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupMemberModel, true, true, true, true, com.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupMemberModel/471099479, 471099479
[Lcom.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupMemberModel;, true, true, true, true, [Lcom.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupMemberModel;/2005061951, 2005061951
com.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupModel, true, true, true, true, com.subex.rocforms.sample.client.gwt.demo.dayGroup.DayGroupModel/2207687264, 2207687264
com.subex.rocforms.sample.client.gwt.demo.dayGroup.TimeStringModel, true, true, true, true, com.subex.rocforms.sample.client.gwt.demo.dayGroup.TimeStringModel/335976723, 335976723
com.subex.rocforms.sample.client.gwt.demo.scheduleGrid.ComponentModel, true, true, true, true, com.subex.rocforms.sample.client.gwt.demo.scheduleGrid.ComponentModel/2493196280, 2493196280
[Lcom.subex.rocforms.sample.client.gwt.demo.scheduleGrid.ComponentModel;, true, true, true, true, [Lcom.subex.rocforms.sample.client.gwt.demo.scheduleGrid.ComponentModel;/3060182407, 3060182407
Run Code Online (Sandbox Code Playgroud)

任何人都可以解释每行中的类型后引用的四个标志是什么?

gwt gwt-rpc

4
推荐指数
1
解决办法
1982
查看次数

如何在docker build中提供和使用命令行参数?

我有一个Dockerfile,如下所示:

FROM centos:centos6
MAINTAINER tapash

######  Helpful utils
RUN yum -y install sudo
RUN yum -y install curl
RUN yum -y install unzip

#########Copy hibernate.cfg.xml to Client

ADD ${hibernate_path}/hibernate.cfg.xml /usr/share/tomcat7/webapps/roc_client/WEB-INF/classes/
Run Code Online (Sandbox Code Playgroud)

我需要在docker build期间传递一个命令行参数来为$ hibernate_path指定.

我该怎么做呢?

docker dockerfile

3
推荐指数
1
解决办法
5551
查看次数

仅将接口的实现注册到 Spring 应用程序上下文?

我有一组课程如下。

public class ServiceA implements CommonInterface
{
   public void startA()
   {
       ....
   }
}

public class ServiceB implements CommonInterface
{
   public void startB()
   {
       ....
   }
}
Run Code Online (Sandbox Code Playgroud)

Spring框架中是否有任何方法可以仅自动注册实现 CommonInterface 到应用程序上下文的类并访问它们?

spring

1
推荐指数
1
解决办法
1527
查看次数

使用Spark Streaming后无输出

HashMap<String, String> kafkaParams = new HashMap<>();
kafkaParams.put("metadata.broker.list", "localhost:9092");

String topics = "test4";
HashSet<String> topicsSet = new HashSet<String>(Arrays.asList(topics.split(" ")));


JavaDStream<String> stream1 = KafkaUtils.createDirectStream(jssc, String.class, String.class, StringDecoder.class,
    StringDecoder.class, kafkaParams, topicsSet)
    .transformToPair(new Function<JavaPairRDD<String, String>, JavaPairRDD<String, String>>() {
      @Override
      public JavaPairRDD<String, String> call(JavaPairRDD<String, String> rdd) {
        rdd.saveAsTextFile("output");
        return rdd;
      }
    }).map(new Function<Tuple2<String, String>, String>() {
      @Override
      public String call(Tuple2<String, String> kv) {
        return kv._2();
      }
    });
stream1.print();
jssc.start();
jssc.awaitTermination();
Run Code Online (Sandbox Code Playgroud)

交叉检查主题“test4”中是否有有效数据。

在此输入图像描述

我期望从 kafka 集群流式传输的字符串在控制台中打印。控制台中没有异常,但也没有输出。我这里缺少什么吗?

apache-kafka apache-spark spark-streaming

1
推荐指数
1
解决办法
1243
查看次数

更改kafka主题的retention.ms属性会删除旧数据

我正在尝试更改现有主题的retention.ms属性,但根据我的分析,它会删除主题内的所有现有数据。

场景:- 最初我的主题名称的"topic1"保留时间为 5 分钟,并且包含一些数据。

用例 1 - 将保留时间更改为更长的时间然后我使用以下命令将retention.ms值更改为8分钟:-

 bin/kafka-topics.sh --alter --zookeeper localhost:2181 
   --topic topic1 --config retention.ms=8
Run Code Online (Sandbox Code Playgroud)

但它会删除我该主题中的所有旧数据。之后我将更多数据推入该主题。

用例 2 - 将保留时间更改为较短的时间然后我使用以下命令将retention.ms值更改为3分钟:-

 bin/kafka-topics.sh --alter --zookeeper localhost:2181 
   --topic topic1 --config retention.ms=3
Run Code Online (Sandbox Code Playgroud)

它还会删除该主题之前的数据。

有人可以告诉我同样的确切行为吗?

任何提示表示赞赏!

apache-kafka

0
推荐指数
1
解决办法
5711
查看次数

在C中读取一个字符串

我想读一个名字并打印出来.但是控件不会等我输入名称并直接打印出一些无意义的字符输出.

#include <stdio.h>
using namespace std;

int main() {
    char name[20];
    printf("Enter name: ");
    scanf("%s", name);
    printf("Your name is %s", name);
    return 0;
}
Run Code Online (Sandbox Code Playgroud)

这里有什么错误吗?

c

-6
推荐指数
1
解决办法
99
查看次数