我在同一节点上完成了代理和客户端配置.
当ssl.client.auth=none它工作正常,但每当我将该属性更改为"必需",ssl.client.auth=required并启用security.inter.broker.protocol=SSL它然后它给了我生产者方面的问题.
[2017-12-13 11:06:56,106] WARN Failed to send SSL Close message (org.apache.kafka.common.network.SslTransportLayer)
java.io.IOException: Connection reset by peer
at sun.nio.ch.FileDispatcherImpl.write0(Native Method)
at sun.nio.ch.SocketDispatcher.write(SocketDispatcher.java:47)
at sun.nio.ch.IOUtil.writeFromNativeBuffer(IOUtil.java:93)
at sun.nio.ch.IOUtil.write(IOUtil.java:65)
at sun.nio.ch.SocketChannelImpl.write(SocketChannelImpl.java:471)
at org.apache.kafka.common.network.SslTransportLayer.flush(SslTransportLayer.java:194)
at org.apache.kafka.common.network.SslTransportLayer.close(SslTransportLayer.java:161)
at org.apache.kafka.common.network.KafkaChannel.close(KafkaChannel.java:45)
at org.apache.kafka.common.network.Selector.close(Selector.java:442)
at org.apache.kafka.common.network.Selector.poll(Selector.java:310)
at org.apache.kafka.clients.NetworkClient.poll(NetworkClient.java:256)
at org.apache.kafka.clients.producer.internals.Sender.run(Sender.java:216)
at org.apache.kafka.clients.producer.internals.Sender.run(Sender.java:128)
at java.lang.Thread.run(Thread.java:745)
Run Code Online (Sandbox Code Playgroud)
对此有何解决方案?
我正在使用sonarqube(版本5.6.7)和声纳扫描仪(版本3.0.3.778)来分析一些文档.在这些文档中,还有.xml和.xsd文件,其中包含了UTF-16.
当我sonar-scanner从命令行启动命令时,使用此配置
#----- Default SonarQube server
sonar.host.url=http://localhost:9000
#----- Default source code encoding
sonar.sourceEncoding=UTF-16
# must be unique in a given SonarQube instance
sonar.projectKey=my:project
# this is the name and version displayed in the SonarQube UI. Was mandatory prior to SonarQube 6.1.
sonar.projectName=My project 1
sonar.projectVersion=1.0
# Path is relative to the sonar-project.properties file. Replace "\" by "/" on Windows.
# This property is optional …Run Code Online (Sandbox Code Playgroud) 我正在使用OpenNLP从给定文本中提取命名实体.在大数据上运行代码时,它给出了以下错误.当我在小数据上运行它时它工作正常.
java.lang.NullPointerException
at opennlp.tools.util.Cache.put(Cache.java:134)
at opennlp.tools.util.featuregen.CachedFeatureGenerator.createFeatures(CachedFeatureGenerator.java:71)
at opennlp.tools.namefind.DefaultNameContextGenerator.getContext(DefaultNameContextGenerator.java:116)
at opennlp.tools.namefind.DefaultNameContextGenerator.getContext(DefaultNameContextGenerator.java:39)
at opennlp.tools.util.BeamSearch.bestSequences(BeamSearch.java:125)
at opennlp.tools.util.BeamSearch.bestSequence(BeamSearch.java:198)
at opennlp.tools.namefind.NameFinderME.find(NameFinderME.java:214)
at opennlp.tools.namefind.NameFinderME.find(NameFinderME.java:198)
Run Code Online (Sandbox Code Playgroud)
这个你能帮我吗.
最近我们用CDH 5升级到了YARN.
(版本:2.3.0 cdh5.1.3,r8e266e052e423af592871e2dfe09d54c03f6a0e8)
我试图通过单击ApplicationMaster上的日志从资源管理器访问失败作业的日志,但我收到以下错误:
container_1412602970010_0037_01_000002重定向失败尝试构建重定向URL到日志服务器时失败.可能未配置Log Server url容器不存在.
同样在pig/mapreduce工作中我们看到以下警告:
信息:2014-10-07 15:42:19,134 [main] WARN org.apache.hadoop.security.UserGroupInformation - PriviledgedActionException as:jobs(auth:SIMPLE)cause:java.io.IOException:org.apache.hadoop.ipc .RemoteException(org.apache.hadoop.yarn.exceptions.YarnRuntimeException):无法加载历史文件hdfs:// prod-hadoop:8020/user/history/done_intermediate/jobs/job_1412706451566_0032-1412710613932-jobs-PigLatin%3Aclk_imp_join_2014%2D10 %2D04T13-1412710831122-14-2连续调-root.jobs-1412710694546.jhist
我在配置中遗漏了什么?
我正在BeanCreationException使用@AutoWired(Spring Annotation)和@PrepareForTest(PowerMock)并运行我的Spring启用的TestNG测试.
我有一个Spring控制器,通过组件扫描拾取.
我正在测试TestNG,Mockito和PowerMock.
我试图通过:@AutoWired注释监视自动连接到测试中的自动有线控制器.
这是测试类的开头:
@PowerMockIgnore("*")
@WebAppConfiguration
@ContextConfiguration(locations = { "classpath:applicationContext-test.xml" })
@PrepareForTest(IWantAHamburgerController.class)
public class IWantAHamburgerControllerTest extends AbstractTestNGSpringContextTests {
@Autowired
private WebApplicationContext wac;
@Autowired
private MockHttpSession session;
@Autowired
private MockHttpServletRequest request;
@Autowired
private IWantAHamburgerController iWantAHamburgerController;
private MockMvc mockMvc;
@ObjectFactory
public IObjectFactory getObjectFactory() {
return new org.powermock.modules.testng.PowerMockObjectFactory();
}
@BeforeClass
public void setup() {
this.mockMvc = MockMvcBuilders.webAppContextSetup(this.wac).build();
// see the note at the bottom of this post about this line
//iWantAHamburgerController = (IWantAHamburgerController) …Run Code Online (Sandbox Code Playgroud) 在我们的集群上,我们设置了动态资源池.
设置规则,以便第一个纱线将查看指定的队列,然后查看用户名,然后查看主要组...
但是使用distcp我似乎无法指定队列,它只是将其设置为主要组.
这就是我现在运行的方式(不起作用):
hadoop distcp -Dmapred.job.queue.name:root.default .......
Run Code Online (Sandbox Code Playgroud) 我有以下代码:
val launcher = new SparkLauncher()
.setSparkHome(SparkConfig.sparkHome)
.setAppResource(SparkConfig.sparkJobJar)
.setMainClass(SparkConfig.sparkJobMainClass)
.setMaster(SparkConfig.sparkMaster)
.setConf("spark.driver.extraJavaOptions", SparkConfig.sparkJobSystemProperties)
.setConf("spark.executor.extraJavaOptions", SparkConfig.sparkJobSystemProperties)
.setConf("spark.executor.memory", SparkConfig.sparkExecutorMemory)
.setConf("spark.driver.memory", SparkConfig.sparkDriverMemory)
.setConf("spark.executor.cores", SparkConfig.sparkExecutorCores)
.setConf("spark.network.timeout", SparkConfig.sparkNetworkTimeout)
.setConf("spark.app.name", s"my-app")
.setVerbose(true)
.addAppArgs(processId)
val handle = launcher.startApplication(JobListenerStatus)
//waiting for the lock releases.
isFinishedLock.acquire()
handle.getState match {
case State.FAILED | State.KILLED => {
logger.error(String.format("Process %s: Error while processing a job spark task, job finished with %s state. Please refer to job-manager logs to more information...", processId, handle.getState().name()))
throw new SparkJobExecutionException(handle.getState)
}
case _ => {
logger.info(String.format("Process %s: Finished …Run Code Online (Sandbox Code Playgroud) 我有个问题。请求您的帮助。我们有一个 Spring Boot 应用程序,我编写了没有 Mocks 的集成测试,而是使用TestRestTemplate和@SpringbootTest.
因此,在本地计算机上,当我执行测试时,它们执行得很好,正如我MyApplication.class在里面给出的@SpringbootTest
那样,它将启动 spring 应用程序上下文并执行测试。
到这里一切都很好。
但我们将此应用程序部署在不同的测试环境(例如 qa、e2e、staging)上,然后部署在生产环境上。因此,我们必须针对上述环境执行 Jenkins 作业进行集成测试作为验收测试。
我在这里的问题是:
请帮助..我是 Spring Boot 的新手,被困在这里。
预先非常感谢
我遇到需要多名工人的情况(假设2)。工人必须执行消耗上游事件的任务。
当前的任务消耗事件列表,并且具有与列表的大小无关的恒定时间。
因此,我希望上游仅在被请求时才发送包含所有缓冲事件的列表,一次只包含一个列表。
可悲的是,大多数方法都实现了预取。发生的事情是,即使使用limitRate(1, 0)上游,也会
收到太多onRequest(1),只是为了补充下游缓冲区。
因此,我很难在工人可用时才生成缓冲列表:通常,它们是预先生成的,这错过了我最大化缓冲列表大小的目标。
如何实现这样的设置?
有没有一种方法可以完全禁用预取?
我试图使用java进入sql进入1900年的日期,但我得到例外:
com.mysql.jdbc.MysqlDataTruncation: Data truncation: Incorrect datetime value: '1900-01-01 00:00:00'
Run Code Online (Sandbox Code Playgroud) hadoop-yarn ×3
hadoop ×2
java ×2
apache-kafka ×1
apache-spark ×1
cloudera-cdh ×1
datetime ×1
distcp ×1
exception ×1
hadoop2 ×1
mysql ×1
nlp ×1
opennlp ×1
powermock ×1
scala ×1
sonarqube ×1
spring ×1
spring-mvc ×1
spring-test ×1
ssl ×1
testng ×1
utf-16 ×1
xml ×1
xsd ×1