我在Kafka 0.8.1.1中的server.properties文件中进行了更改,即在创建主题时添加log.cleaner.enable=true并启用cleanup.policy=compact了.现在,当我测试它时,我将以下消息推送到主题,其中包含以下内容(Key,Message).
现在我用与早期输入相同的键推送第4条消息,但更改了消息.这里的日志压缩应该会出现.使用Kafka工具,我可以看到主题中的所有4个偏移.我怎么知道日志压缩是否有效?是否应删除先前的消息,或者在推送新消息时日志压缩工作正常.是否有做的任何事情log.retention.hours或topic.log.retention.hours或log.retention.size配置?这些配置在日志压缩中的作用是什么.PS - 我已经彻底浏览了Apache文档,但仍然不清楚.
我有一个SpringBoot应用程序,用于连接到Postgres DB的简单Web服务.但是,当我运行应用程序时,它不会启动并抛出异常:
2016-09-08 11:26:15 INFO c.t.i.c.Main:659 - No active profile set, falling back to default profiles: default
2016-09-08 11:26:20 ERROR o.a.c.c.ContainerBase:181 - A child container failed during start
java.util.concurrent.ExecutionException: org.apache.catalina.LifecycleException: Failed to start component [StandardEngine[Tomcat].StandardHost[localhost].StandardContext[]]
at java.util.concurrent.FutureTask.report(FutureTask.java:122)
at java.util.concurrent.FutureTask.get(FutureTask.java:192)
at org.apache.catalina.core.ContainerBase.startInternal(ContainerBase.java:911)
at org.apache.catalina.core.StandardHost.startInternal(StandardHost.java:890)
at org.apache.catalina.util.LifecycleBase.start(LifecycleBase.java:152)
at org.apache.catalina.core.ContainerBase$StartChild.call(ContainerBase.java:1403)
at org.apache.catalina.core.ContainerBase$StartChild.call(ContainerBase.java:1393)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
Caused by: org.apache.catalina.LifecycleException: Failed to start component [StandardEngine[Tomcat].StandardHost[localhost].StandardContext[]]
at org.apache.catalina.util.LifecycleBase.start(LifecycleBase.java:158)
... 6 common frames omitted
Caused by: org.apache.catalina.LifecycleException: Failed to start component [Pipeline[StandardEngine[Tomcat].StandardHost[localhost].StandardContext[]]] …Run Code Online (Sandbox Code Playgroud) 我正在开发一个开发 Azure DevOps 发布任务扩展的项目。最近,当发布任务运行时,我在日志中多次打印此警告消息 - “警告:将 Cipheriv 用于 aes-256-ctr 的计数器模式”。
我没有更早得到它。当我开始收到此错误时,我只更改了一些 console.log(..),甚至没有更改任何可能触发此错误的代码。(可能是一些 npm 依赖更新!)
关于为什么我会收到此错误以及如何修复它的任何想法!如果没有,如何禁用它?
PS - 我知道有人问过这个问题,可能会被归类为重复。但是我问的是在 Azure DevOps 发布任务的上下文中,其他是独立的 node.js 项目。而且,这些修复对我不起作用。
node.js azure-devops azure-pipelines-build-task azure-pipelines azure-pipelines-release-pipeline
我有一个shell脚本代码,可以在6个服务器中的任何一个上运行,一个文件得到更新.但是我需要维护一个公共文件来获取文件中最新的更改并在最新文件上应用某些逻辑.那么,我想知道当前服务器名称在特定时刻运行的位置?
这是我的代码,我已经修复了一个abc.com服务器我的公共服务器,我保存文件,下次我从中检索文件.但我还需要当前的服务器名称,因为某些操作需要基于当前服务器完成.所以,我只想添加一行代码,它让我回到运行它的当前服务器.
#!/bin/bash
# This code copies the file with latest changes to a common location.
server_name=abc.com
# backlog.txt is my file name
echo - removing the old files , if any
rm $server_name:/home/backlog.txt
echo "$server_name to copy the file"
scp /location/backlog.txt $server_name:/home/
echo "Copy complete."
exit 0
Run Code Online (Sandbox Code Playgroud)
还有这个:
#!/bin/bash
# This code copies back the common file from common server location "abc" and then make the changes into it. As I always need to work on the latest file. …Run Code Online (Sandbox Code Playgroud) apache-kafka ×1
api ×1
azure-devops ×1
azure-pipelines-release-pipeline ×1
bash ×1
hostname ×1
java ×1
node.js ×1
retention ×1
shell ×1
spring ×1
spring-boot ×1
spring-mvc ×1
unix ×1