我正在使用卡夫卡。
我有一个包含 10k jsons 的列表。
目前我发送 Jsons 如下:
for(int i=0 ;i< jsonList.size(); i++){
ProducerRecord<K,V> record = new ProducerRecord(topic, jsonList[i]);
producer.send(record);
}
Run Code Online (Sandbox Code Playgroud)
发送每条消息。
我想将列表发送到 kafka 并使 kafka 在 json 之后将其发送 json(不是包含所有 json 字符串的一条消息),例如:
ProducerRecord<K,V> record = new ProducerRecord(topic, jsonList);
producer.send(record);
Run Code Online (Sandbox Code Playgroud)
我该怎么做?
谢谢
我正在使用 Java-Spark (Spark 2.2.0)。
我正在尝试按如下方式删除 Hive 分区:
spark.sql(""ALTER TABLE backup DROP PARTITION (date < '20180910')"
Run Code Online (Sandbox Code Playgroud)
并得到以下异常:
org.apache.spark.sql.catalyst.parser.ParseException: 不匹配的输入 '<' 期望 {')', ','}(line 1, pos 42)
我知道这是一个悬而未决的问题ALTER TABLE DROP PARTITION 应该支持应该在我的版本中修复的比较器,但我仍然遇到异常。
从 Spark 中删除分区的替代方法是什么?还有另一种实现吗?
谢谢。
我正在使用 Kafka 连接 HDFS。当我尝试运行连接器时,出现以下异常:
错误无法创建 WAL 编写器:无法为客户端 [IP] 的 [DFSClient_NONMAPREDUCE_208312334_41] 创建文件 [/path/log],因为该文件已由 [DFSClient_NONMAPREDUCE_165323242_41] 创建
请问有什么建议吗?
我有以下课程:
class MyClass{
string field1, field2;
}
Run Code Online (Sandbox Code Playgroud)
我的List<MyClass>多数民众赞成在其中包含以下内容:
list.Add(new MyClass("1","1"));
list.Add(new MyClass("1","2"));
list.Add(new MyClass("1","3"));
list.Add(new MyClass("2","2"));
list.Add(new MyClass("3","2"));
Run Code Online (Sandbox Code Playgroud)
我想找到的最频繁的值field1,这种情况下我也值为三次“1”,一周时间值“2”和一个时间值“3”,我怎么能得到的最大计数值field1(这种情况下,是“ 1”)?