小编vat*_*ada的帖子

如何使用IntelliJ IDEA执行mvn命令?

我正在尝试在我的本地Maven仓库中添加Oracle JDBC驱动程序.我找到了这样做的链接.

我想在Inside IntelliJ IDEA中做同样的事情.有没有办法从IntelliJ IDEA执行mvn命令?

java maven-2 intellij-idea maven-3 maven

34
推荐指数
4
解决办法
5万
查看次数

为什么@ManyToOne关系默认为JPA FetchType EAGER?

我在Hibernate源代码中注意到,ManyToOne映射的默认FetchType是EAGER.而OnetoMany映射的默认加载类型是Lazy.这背后的具体原因是什么?

java orm hibernate jpa hibernate-mapping

12
推荐指数
2
解决办法
2万
查看次数

使用Java8流对列表的第一个元素执行特定操作

我想对列表的第一个元素执行某些操作,对所有剩余元素执行不同的操作.

这是我的代码片段:

List<String> tokens = getDummyList();
if (!tokens.isEmpty()) {
    System.out.println("this is first token:" + tokens.get(0));
}
tokens.stream().skip(1).forEach(token -> {
    System.out.println(token);
});
Run Code Online (Sandbox Code Playgroud)

是否有更简洁的方法来实现这一点,最好使用java 8流API.

java java-stream

8
推荐指数
2
解决办法
3473
查看次数

尝试从 zookeeper 节点获取数据时出现异常:(KeeperErrorCode: ConnectionLoss )

我正在使用以下代码从 Zookeeper 中提取 Kafka 经纪人列表:

private static String getBrokerList() {
        try {
            ZooKeeper zookeeper = new ZooKeeper(zookeeperConnect, 15000, null);
            List<String> ids = zookeeper.getChildren(ZkUtils.BrokerIdsPath(), false);
            List<String> brokerList = new ArrayList<>();
            for (String id : ids) {
                String brokerInfo = new String(zookeeper.getData(ZkUtils.BrokerIdsPath() + '/' + id, false, null), Charset.forName("UTF-8"));
                JsonObject jsonElement = new JsonParser().parse(brokerInfo).getAsJsonObject();
                String host = jsonElement.get("host").getAsString();
                brokerList.add(host + ':' + jsonElement.get("port").toString());
            }
            return Joiner.on(",").join(brokerList);
        } catch (KeeperException | InterruptedException e) {
            Throwables.propagate(e);
        }
        return "";
    }
Run Code Online (Sandbox Code Playgroud)

当一个线程一次执行代码时,上面的代码工作正常。但是,当多个线程执行上述代码时,它偶尔会失败并出现以下异常:

Caused by: org.apache.zookeeper.KeeperException$ConnectionLossException: …
Run Code Online (Sandbox Code Playgroud)

java apache-zookeeper

7
推荐指数
1
解决办法
1万
查看次数

重现UnknownTopicOrPartitionException:此服务器不承载此主题分区

我们在生产环境中遇到了一些例外:

UnknownTopicOrPartitionException: This server does not host this topic-partition
Run Code Online (Sandbox Code Playgroud)

根据我的分析,这个问题的一个可能的解决方法是增加no,retries因为这是一个可重复的例外.

我正面临一些在本地复制这个问题的困难.我试图在生产过程中打倒经纪人但却失败了TimeoutException.

我正在寻找重现此问题的建议.

apache-kafka kafka-producer-api

7
推荐指数
1
解决办法
6709
查看次数

如何在Java中的预期时区中检索oracle Timestamp列?

我在oracle表中有一个timestamp列.存储时间我在此列中以UTC格式存储.为了检索这个时间戳,我使用Spring的JdbcTemplate,同时返回TimeStamp类型的对象.

我想在当前时区以"dd-MM-YYYY HH:mm:ss"格式获取日期时间字符串.为了实现这一点,我正在尝试以下代码:

new LocalDateTime(<retrieved TimeStamp>, <current user DateTimeZone>).toString("yyyy-MM-dd HH:mm:ss")
Run Code Online (Sandbox Code Playgroud)

来自Joda库的LocalDateTime和DateTimeZone.

然而,这并不像预期的那样有效.代替当前用户在代码上方的时区仅为UTC提供日期时间字符串.

我错过了什么?

java oracle datetime

6
推荐指数
1
解决办法
901
查看次数

在类型安全的配置 getter 上提供默认值

所以我的代码中多次出现类似的片段:

val optionValue = try {
      Some(config.getString(key))
    } catch {
      case _: Missing => None
    }
Run Code Online (Sandbox Code Playgroud)

我想以某种方式从我的代码中消除这些重复项。我知道 typesafe 提供了一种提供后备配置文件以提供默认配置值的方法。但是,就我而言,某些属性没有任何默认值。它们是可选属性。

重构此代码的最佳方法是什么。

refactoring scala typesafe

6
推荐指数
2
解决办法
8558
查看次数

在Openshift上启动nodejs应用程序时GLIBC库版本不匹配错误

我是MEAN堆栈和Linux的新手因此请原谅我,如果我的问题太明显和愚蠢.

我在Openshift上托管了一个Nodejs应用程序.在尝试启动应用程序时,由于GLIBC库版本不匹配,我面临以下错误:

[Error: /lib64/libc.so.6: version `GLIBC_2.14' not found (required by /var/lib/openshift/550be20dfcf93378d600015e/app-root/runtime/repo/node_modules/mongodb/node_modules/mongodb-core/node_modules/bson/build/Release/bson.node)]
js-bson: Failed to load c++ bson extension, using pure JS version
/var/lib/openshift/550be20dfcf93378d600015e/app-root/runtime/repo/node_modules/mongoose/lib/drivers/node-mongodb-native/objectid.js:8
var ObjectId = require('mongodb').BSONPure.ObjectID;
                                          ^
TypeError: Cannot read property 'ObjectID' of undefined
    at Object.<anonymous> (/var/lib/openshift/550be20dfcf93378d600015e/app-root/runtime/repo/node_modules/mongoose/lib/drivers/node-mongodb-native/objectid.js:8:43)
    at Module._compile (module.js:456:26)
    at Object.Module._extensions..js (module.js:474:10)
    at Module.load (module.js:356:32)
    at Function.Module._load (module.js:312:12)
    at Module.require (module.js:364:17)
    at require (module.js:380:17)
    at Object.<anonymous> (/var/lib/openshift/550be20dfcf93378d600015e/app-root/runtime/repo/node_modules/mongoose/lib/types/objectid.js:18:16)
    at Module._compile (module.js:456:26)
    at Object.Module._extensions..js (module.js:474:10)
Run Code Online (Sandbox Code Playgroud)

Opneshift上GLIBC的当前版本是2.12.

我知道一个明显的解决方案是在Openshift上升级GLIBC.然而这是不可行的,因为我没有对openshift的sudo权利.

有没有可能的解决方法来解决同样的问题?

linux mongodb node.js openshift

5
推荐指数
0
解决办法
567
查看次数

增加 KafkaConsumer 单次轮询中读取的记录数

我的卡夫卡版本是:0.10.0.1

当我使用org.apache.kafka.clients.consumer.KafkaConsumer#poll方法轮询记录时,它获取的记录比我的max.poll.records值少得多。

我正在寻找一些配置设置,使用它我可以增加在单个轮询中轮询的记录数。

我曾尝试增加max.poll.interval.mskafka 消费者的属性,但无济于事。

消费者配置:

    metric.reporters = []
    metadata.max.age.ms = 300000
    partition.assignment.strategy = [org.apache.kafka.clients.consumer.RangeAssignor]
    reconnect.backoff.ms = 50
    sasl.kerberos.ticket.renew.window.factor = 0.8
    max.partition.fetch.bytes = 1048576
    bootstrap.servers = [broker1:9092, broker2:9092]
    ssl.keystore.type = JKS
    enable.auto.commit = true
    sasl.mechanism = GSSAPI
    interceptor.classes = null
    exclude.internal.topics = true
    ssl.truststore.password = null
    client.id = 
    ssl.endpoint.identification.algorithm = null
    max.poll.records = 5000
    check.crcs = true
    request.timeout.ms = 600500
    heartbeat.interval.ms = 3000
    auto.commit.interval.ms = 5000
    receive.buffer.bytes = 65536
    ssl.truststore.type = JKS
    ssl.truststore.location = …
Run Code Online (Sandbox Code Playgroud)

apache-kafka kafka-consumer-api

5
推荐指数
1
解决办法
3659
查看次数

kafka生产者的request.timeout.ms和timeout.ms属性之间的区别

为参照的卡夫卡文档,卡夫卡消息prducer配置有request.timeout.mstimeout.ms属性.阅读这两个属性的描述,我无法清楚地区分它们.

任何人都可以使用小例子解释差异.

apache-kafka kafka-producer-api

4
推荐指数
2
解决办法
9140
查看次数