我们计划将Kafka用作数据仓库的核心组件,因为生产者能够处理事务(简而言之:回滚和提交).
当谷歌搜索卡夫卡+交易我找了很多关于卡夫卡如何可能性理论的思想可以处理事务,但目前我没有看到支持的提交和回滚Java API中的任何功能制片人.
有没有人在交易和卡夫卡方面有过一些经验,可以给我一些提示吗?
我将mapreduce作业从在windows上运行的java应用程序提交到在ubuntu上运行的hadoop 2.2集群.在hadoop 1.x中,这按预期工作但在hadoop 2.2上我得到一个奇怪的错误:
java.lang.UnsatisfiedLinkError:org.apache.hadoop.io.nativeio.NativeIO $ Windows.access0(Ljava/lang/String; I)Z
我编译了必要的Windows库(hadoop.dll和winutils.exe),可以通过代码访问hdfs并使用hadoop API读取集群信息.只有作业提交不起作用.
任何帮助都是有帮助的.
解决方案:我自己发现了,可以找到windows hadoop二进制文件的路径必须添加到windows的PATH变量中.
我在 stackoverflow 上发现了大量关于如何禁用 Spring Boot 中的安全性的博客文章和问题 - 但似乎都不适用于 Spring Boot 2.2.4。
我这么问是因为我想配置禁用我的开发和测试配置文件的安全性,以便我们可以在不生成 jwt 令牌的情况下进行部署。
从我的角度来看,最有希望的方法是通过属性文件排除该类SecurityAutoConfiguration,但正如所说的排除没有效果。
spring.autoconfigure.exclude=org.springframework.boot.autoconfigure.security.SecurityAutoConfiguration
Run Code Online (Sandbox Code Playgroud)
其他属性,例如management.security.enabled似乎已被弃用。
在scala中,我可以将数据框中的多个列连接到新列,例如
var dataWithNewColumns = rawData.withColumn("day_and_time", concat(rawData("day"),lit("_"),rawData("time")))
Run Code Online (Sandbox Code Playgroud)
我想在java中做同样的事情,但我找不到与concat函数相同的任何东西.你能帮我吗?任何其他选项都可以实现两个列的组合.
提前致谢!
java ×4
hadoop ×2
apache-kafka ×1
apache-spark ×1
hadoop-yarn ×1
logging ×1
scala ×1
security ×1
spring ×1
spring-boot ×1
transactions ×1
ubuntu ×1
windows ×1