小编Ser*_*eyB的帖子

如何使用Node.js比较两个图像

我正在寻找一种方法来比较两个图像,看看它们有多相似.谷歌搜索产生大量的图像处理结果(裁剪,重新调整大小等),但没有任何东西可以做图像的近似比较.有一个Node.js库,但它是版本0.0.1并且依赖于各种第三方系统包,因此不稳定或不可移植.

这些方面的东西:

var imgComparator = require('some-awesome-image-comparator-module');
// result would be between 1.0 and 0.0, where 1.0 would mean exact match
var result = imgComparator.compare('/path/to/image/1.png', '/path/to/image/2.png');
Run Code Online (Sandbox Code Playgroud)

automated-tests image-comparison image-processing node.js

19
推荐指数
3
解决办法
2万
查看次数

如何在Spring Boot Actuator的Trace中包含JSON响应体?

Spring Boot Actuator Trace可以很好地捕获输入/输出HTTP参数,标题,用户等.我想扩展它以捕获HTTP响应的主体,这样我就可以全面了解即将发生的事情进出网络层.看着,TraceProperties看起来并不像有一种方法来配置响应体捕获.是否有一种"安全"的方式来捕获响应主体而不会弄乱它发回的任何字符流?

spring trace json spring-boot spring-boot-actuator

15
推荐指数
1
解决办法
4650
查看次数

如何在Kafka Direct Stream中使用Spark Structured Streaming?

我遇到了使用Spark的Structured Streaming,它有一个连续消耗S3存储桶并将处理结果写入MySQL数据库的示例.

// Read data continuously from an S3 location
val inputDF = spark.readStream.json("s3://logs")

// Do operations using the standard DataFrame API and write to MySQL
inputDF.groupBy($"action", window($"time", "1 hour")).count()
       .writeStream.format("jdbc")
       .start("jdbc:mysql//...")
Run Code Online (Sandbox Code Playgroud)

如何在Spark Kafka Streaming中使用它

val stream = KafkaUtils.createDirectStream[String, String](
  ssc,
  PreferConsistent,
  Subscribe[String, String](topics, kafkaParams)
)
Run Code Online (Sandbox Code Playgroud)

有没有办法结合这两个例子而不使用stream.foreachRDD(rdd => {})

scala apache-kafka apache-spark spark-structured-streaming

11
推荐指数
1
解决办法
3954
查看次数

使用Spark Streaming读取Kafka记录时不可序列化的异常

使用Spark 2.0从Kafka流式传输时,我收到以下错误:

org.apache.spark.SparkException: 
Job aborted due to stage failure: 
Task 0.0 in stage 1.0 (TID 1) had a not serializable result: 
org.apache.kafka.clients.consumer.ConsumerRecord
Serialization stack:
    - object not serializable (class: 
org.apache.kafka.clients.consumer.ConsumerRecord, value: ConsumerRecord(
topic = mytopic, partition = 0, offset = 422337, 
CreateTime = 1472871209063, checksum = 2826679694, 
serialized key size = -1, serialized value size = 95874, 
key = null, value = <JSON GOES HERE...>
Run Code Online (Sandbox Code Playgroud)

以下是代码的相关部分:

val ssc = new StreamingContext(sc, Seconds(2))

val topics = Array("ecfs")
val stream = KafkaUtils.createDirectStream[String, …
Run Code Online (Sandbox Code Playgroud)

apache-kafka apache-spark spark-streaming

5
推荐指数
1
解决办法
2382
查看次数

通过AWS上的ELB在Kubernetes上公开单独的Kafka经纪人

我运行在AWS上一KOPS Kubernetes集群,努力使kubernetes -卡夫卡例如工作与弹性负载均衡.以下是两个经纪人的外部服务部分:

kind: Service
apiVersion: v1
metadata:
  name: outside-0
  namespace: kafka
spec:
  selector:
    app: kafka
    kafka-broker-id: "0"
  ports:
  - protocol: TCP
    targetPort: 9094
    port: 32400
    nodePort: 32400
  type: NodePort
---
kind: Service
apiVersion: v1
metadata:
  name: outside-1
  namespace: kafka
spec:
  selector:
    app: kafka
    kafka-broker-id: "1"
  ports:
  - protocol: TCP
    targetPort: 9094
    port: 32401
    nodePort: 32401
  type: NodePort
Run Code Online (Sandbox Code Playgroud)

这是我尝试通过ELB公开这些代理(实际的FQDN替换为my.copmany.com).

apiVersion: v1
kind: Service
metadata:
  name: kafka-0
  annotations:
    dns.alpha.kubernetes.io/external: kafka-0.kafka.my.company.com
spec:
  type: LoadBalancer
  ports:
  - port: 32400 …
Run Code Online (Sandbox Code Playgroud)

amazon-web-services amazon-elb apache-kafka kubernetes

5
推荐指数
2
解决办法
1266
查看次数