小编Rat*_*tha的帖子

如何配置apache服务器与HTTPS后端服务器通信?

我将apache服务器配置为反向代理,如果我将后端服务器指向HTTP,它可以正常工作.那是:

我配置了虚拟主机443,如:

ProxyPass /primary/store http://localhost:9763/store/
ProxyPassReverse /primary/store http://localhost:9763/store/
Run Code Online (Sandbox Code Playgroud)

用户将在这里访问服务器 https://localhost/primary/store

这工作正常......但我想配置HTTP服务器;

ProxyPass /primary/store https://localhost:9443/store/
ProxyPassReverse /primary/store https://localhost:9443/store/
Run Code Online (Sandbox Code Playgroud)

当我配置像apache服务器给出500内部服务器错误.我在这做错了什么?

我得到的错误是:

The server encountered an internal error or misconfiguration and was unable to complete your request.

Please contact the server administrator, you@example.com and inform them of the time the error occurred, and anything you might have done that may have caused the error.

More information about this error may be available in the server error log.
Run Code Online (Sandbox Code Playgroud)

在apache错误日志中指出;

nt: SSLProxyEngine]
[Mon Aug 04 …
Run Code Online (Sandbox Code Playgroud)

apache httpd.conf

65
推荐指数
1
解决办法
9万
查看次数

如何在apache kafka中创建主题?

在卡夫卡创建主题的最佳途径是什么?

  • 创建主题时要定义多少副本/分区?

在新的生产者API中,当我尝试将消息发布到不存在的主题时,它首次失败然后成功发布.

  • 我想知道,副本,分区和集群节点数之间的关系.
  • 我们是否需要在发布消息之前创建主题?

apache-kafka kafka-consumer-api kafka-producer-api

20
推荐指数
3
解决办法
4万
查看次数

Kafka抛出java.nio.channels.ClosedChannelException

当我尝试使用kafka控制台工具(V 0.9.0.1,我认为这使用旧的消费者API)来消费来自ec2中托管的kafka服务器的消息时,我得到以下异常.我怎么能克服这个?

#./ kafka-console-consumer.sh --zookeeper zookeeper1.xx.com:2181 - 主题MY_TOPIC - 从头开始

[2016-04-06 14:34:58,219] WARN Fetching topic metadata with correlation id 0 for topics [Set(MY_TOPIC)] from broker [BrokerEndPoint(1014,kafka3.xx.com,9092)] failed (kafka.client.ClientUtils$)
java.nio.channels.ClosedChannelException
    at kafka.network.BlockingChannel.send(BlockingChannel.scala:110)
    at kafka.producer.SyncProducer.liftedTree1$1(SyncProducer.scala:75)
    at kafka.producer.SyncProducer.kafka$producer$SyncProducer$$doSend(SyncProducer.scala:74)
    at kafka.producer.SyncProducer.send(SyncProducer.scala:119)
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:59)
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:94)
    at kafka.consumer.ConsumerFetcherManager$LeaderFinderThread.doWork(ConsumerFetcherManager.scala:66)
    at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:63)
[2016-04-06 14:34:58,222] WARN Fetching topic metadata with correlation id 0 for topics [Set(MY_TOPIC)] from broker [BrokerEndPoint(1013,kafka22.xx.com,9092)] failed (kafka.client.ClientUtils$)
java.nio.channels.ClosedChannelException
    at kafka.network.BlockingChannel.send(BlockingChannel.scala:110)
    at kafka.producer.SyncProducer.liftedTree1$1(SyncProducer.scala:75)
    at kafka.producer.SyncProducer.kafka$producer$SyncProducer$$doSend(SyncProducer.scala:74)
    at kafka.producer.SyncProducer.send(SyncProducer.scala:119)
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:59)
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:94)
    at kafka.consumer.ConsumerFetcherManager$LeaderFinderThread.doWork(ConsumerFetcherManager.scala:66)
    at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:63) …
Run Code Online (Sandbox Code Playgroud)

apache-kafka kafka-consumer-api kafka-producer-api

10
推荐指数
1
解决办法
1万
查看次数

Avro解码提供了java.io.EOFException

我使用Apache avro架构与Kafka 0.0.8V.我在生产者/消费者端使用相同的模式.目前暂无任何变化的模式.但是当我尝试使用消息时,我在消费者处得到了一些例外.为什么我会收到此错误?

制片人

public void sendFile(String topic, GenericRecord payload, Schema schema) throws CoreException, IOException {
    BinaryEncoder encoder = null;
    ByteArrayOutputStream out = null;
    try {
        DatumWriter<GenericRecord> writer = new SpecificDatumWriter<GenericRecord>(schema);
        out = new ByteArrayOutputStream();
        encoder = EncoderFactory.get().binaryEncoder(out, null);
        writer.write(payload, encoder);
        encoder.flush();

        byte[] serializedBytes = out.toByteArray();

        KeyedMessage<String, byte[]> message = new KeyedMessage<String, byte[]>(topic, serializedBytes);

            producer.send(message);
        }
Run Code Online (Sandbox Code Playgroud)

消费者

public void run() {
        try {
            ConsumerIterator<byte[], byte[]> itr = stream.iterator();
            while (itr.hasNext()) {

                byte[] data = itr.next().message();

                Schema schema = …
Run Code Online (Sandbox Code Playgroud)

java avro apache-kafka kafka-consumer-api

10
推荐指数
1
解决办法
2121
查看次数

java.lang.ClassCastException:xx无法强制转换为org.apache.avro.generic.IndexedRecord

我能够将我的java bean类作为avro记录发布到kafka.但是当我尝试消耗时,我得到了类强制转换异常.为什么会这样?

制片人

Schema schema = new Schema.Parser().parse(new File("/schemas/avro_schemas/test_schema.avsc"));

GenericRecord payload = new GenericData.Record(schema);
payload.put("name", fileName);
payload.put("timestamp", dateTime.toString());
payload.put("source", source);
payload.put("content", buf);
payload.put("customerCode", customercode); 
producer.publish(topic, payload, schema);
Run Code Online (Sandbox Code Playgroud)

消费者

ConsumerIterator<byte[], byte[]> it = stream.iterator();
while (it.hasNext()) {
try {
byte[] received_message = it.next().message();
Schema  schema = new Schema.Parser().parse(new File("/schemas/avro_schemas/test_schema.avsc"));
DatumReader<GenericRecord> reader = new SpecificDatumReader<GenericRecord>(schema);
Decoder decoder = DecoderFactory.get().binaryDecoder(received_message, null);
GenericRecord   payload = reader.read(null, decoder);
Run Code Online (Sandbox Code Playgroud)

例外

ava.lang.ClassCastException: com.xxx.File cannot be cast to org.apache.avro.generic.IndexedRecord

at org.apache.avro.generic.GenericData.setField(GenericData.java:573)

at org.apache.avro.generic.GenericData.setField(GenericData.java:590)

at org.apache.avro.generic.GenericDatumReader.readField(GenericDatumReader.java:193)

at org.apache.avro.generic.GenericDatumReader.readRecord(GenericDatumReader.java:183)

at …
Run Code Online (Sandbox Code Playgroud)

java avro apache-kafka kafka-consumer-api

7
推荐指数
1
解决办法
6581
查看次数

如何在MAC OS中将python 2.7与最新的openssl版本链接?

当我跑步时:

$ openssl version -a
Run Code Online (Sandbox Code Playgroud)

我得到1.0.2k作为版本:

OpenSSL 1.0.2k  26 Jan 2017
built on: reproducible build, date unspecified
platform: darwin64-x86_64-cc
options:  bn(64,64) rc4(ptr,int) des(idx,cisc,16,int) idea(int) blowfish(idx) 
compiler: cc -I. -I.. -I../include  -DOPENSSL_THREADS -D_REENTRANT -DDSO_DLFCN -DHAVE_DLFCN_H -arch x86_64 -O3 -DL_ENDIAN -Wall -DOPENSSL_IA32_SSE2 -DOPENSSL_BN_ASM_MONT -DOPENSSL_BN_ASM_MONT5 -DOPENSSL_BN_ASM_GF2m -DSHA1_ASM -DSHA256_ASM -DSHA512_ASM -DMD5_ASM -DAES_ASM -DVPAES_ASM -DBSAES_ASM -DWHIRLPOOL_ASM -DGHASH_ASM -DECP_NISTZ256_ASM
OPENSSLDIR: "/usr/local/php5/ssl"
Run Code Online (Sandbox Code Playgroud)

但是当我用python检查版本时:

OpenSSL 1.0.2k  26 Jan 2017
built on: reproducible build, date unspecified
platform: darwin64-x86_64-cc
options:  bn(64,64) rc4(ptr,int) des(idx,cisc,16,int) idea(int) blowfish(idx) 
compiler: cc -I. -I.. -I../include …
Run Code Online (Sandbox Code Playgroud)

python macos openssl python-2.7

7
推荐指数
1
解决办法
337
查看次数

如何在Python中从cursor.execute()读取所有数据?

我使用 PyMysql 连接到我的 MySQL 数据库。

cursor.execute(query)
data = cursor.fetchall()
for (id,clientid,timestamp) in cursor:
    print id,clientid,timestamp
Run Code Online (Sandbox Code Playgroud)

我想根据时间戳对数据进行排序;喜欢;

 sortedList = sorted(data, key=lambda x: x.timestamp, reverse=False)
Run Code Online (Sandbox Code Playgroud)

但游标返回行。如何返回整个数据,以便我可以根据任何参数对它们进行排序?

ps:这里的数据包含多行,例如; 1, '1170', 'AS0001', 1, '1', datetime.datetime(2018, 3, 15, 10, 56), Decimal('15185.7562'), Decimal('0.0000'), Decimal('19814.3181')

python pymysql mysql-connector-python

7
推荐指数
1
解决办法
2万
查看次数

如何在 avro 模式中定义 byte[] 和 LocalDateTime?

我是 Avro 架构的新手。我尝试使用 kafka 发布/使用我的 java 对象。我有 java bean 类,其中包含带有 LocalDateTime 和 byte[] 的字段。我如何在 avro 模式原始类型中定义两者?我可以用于 LocalDateTime 的最佳原始类型是什么?

private LocalDateTime timestamp; 
private byte[] content; 
Run Code Online (Sandbox Code Playgroud)

我定义了这样的东西;但得到

 {
            "name": "content", "type": "bytes"
         },
Run Code Online (Sandbox Code Playgroud)

类转换异常[1]

[1] 引起:java.lang.ClassCastException:[B 无法在 org.apache.avro.generic.GenericDatumWriter.writeBytes(GenericDatumWriter.java:219) at org.apache.avro.generic 处强制转换为 java.nio.ByteBuffer .GenericDatumWriter.write(GenericDatumWriter.java:77) at org.apache.avro.generic.GenericDatumWriter.writeField(GenericDatumWriter.java:114) at org.apache.avro.generic.GenericDatumWriter.writeRecord(GenericDatumWriter.java:104) at org.apache.avro.generic.GenericDatumWriter.write(GenericDatumWriter.java:66) 在 org.apache.avro.generic.GenericDatumWriter.write(GenericDatumWriter.java:58)

java avro apache-kafka

6
推荐指数
1
解决办法
5088
查看次数

阻塞队列等待元素出队多长时间?

我正在我的程序中使用阻塞队列实现.我想知道线程将等待一个元素出队多长时间.我的客户通过民意调查回复,我的服务器线程提供了消息.我的代码如下;

private BlockingQueue<Message> applicationResponses=  new LinkedBlockingQueue<Message>();
Run Code Online (Sandbox Code Playgroud)

客户:

    Message response = applicationResponses.take();
Run Code Online (Sandbox Code Playgroud)

服务器:

    applicationResponses.offer(message);
Run Code Online (Sandbox Code Playgroud)

我的客户线程会永远等待吗?我想配置那个时间..(例如:1000ms)..这可能吗?

java blockingqueue

5
推荐指数
1
解决办法
6825
查看次数

无法处理该列,因为为其指定了超过 1 个代码页(65001 和 1252)错误

我正在尝试将数据从 CSV 文件导入到现有表中。当我这样做时,我收到以下错误;

SQL Server 无法处理该列,因为为其指定了超过 1 个代码页(65001 和 1252)

我的表有索引设置。我不想对此做任何改变。我怎样才能避免它?(这是从 CSV 文件中一次性导入数据)

sql-server

5
推荐指数
1
解决办法
5221
查看次数