小编Har*_*rry的帖子

没有名为 cairo 的模块 - python 和 pip

我正在尝试构建openuds并且出现错误no module name cairo,我浏览了一下,发现安装pycairo可以解决它。1) 如何修复此安装错误?

python manage.py createcachetable
Traceback (most recent call last):
  File "manage.py", line 9, in <module>
    execute_from_command_line(sys.argv)
  File "/home/hari/openuds/testuds-master/Python-2.7.14/env/lib/python2.7/site-packages/django/core/management/__init__.py", line 353, in execute_from_command_line
    utility.execute()
  File "/home/hari/openuds/testuds-master/Python-2.7.14/env/lib/python2.7/site-packages/django/core/management/__init__.py", line 327, in execute
    django.setup()
  File "/home/hari/openuds/testuds-master/Python-2.7.14/env/lib/python2.7/site-packages/django/__init__.py", line 18, in setup
    apps.populate(settings.INSTALLED_APPS)
  File "/home/hari/openuds/testuds-master/Python-2.7.14/env/lib/python2.7/site-packages/django/apps/registry.py", line 115, in populate
    app_config.ready()
  File "/home/hari/openuds/testuds-master/server/src/uds/__init__.py", line 78, in ready
    from . import REST  # To make sure REST initializes all what it needs
  File "/home/hari/openuds/testuds-master/server/src/uds/REST/__init__.py", line 210, in <module> …
Run Code Online (Sandbox Code Playgroud)

python pip python-2.x pycairo

9
推荐指数
1
解决办法
2万
查看次数

什么是 AWS 中的 vCPU

在 AWS 服务中,我在 ECS Fargate for vCPU 中看到了一个部分,可以从 0.25 到 N 值进行选择,
我看到了很多关于如何配置这些 vCPU 值的文档,
但我没有看到任何关于vCPU 值之间差异的文档

示例

0.25、0.5 和 1 vCPU 值之间有什么区别?它在性能和线程数方面有何不同?

amazon-ec2 amazon-web-services vcpu aws-fargate

8
推荐指数
2
解决办法
4859
查看次数

com.hazelcast.nio.serialization.HazelcastSerializationException

我正在运行一个 OSGI 插件项目(没有 N 个包),我已经在其中集成了榛子,我。当我尝试将数据添加为字符串和测试 bean 的映射时,它被添加到淡褐色铸造映射中,但是!ii. 当我尝试获取地图时,它显示如下错误,

com.hazelcast.nio.serialization.HazelcastSerializationException:java.lang。ClassNotFoundExceptioncom.eclipsesource.jaxrs.jersey-all_2.10.1.SR1无法找到 com.test.Data

全栈跟踪

com.hazelcast.nio.serialization.HazelcastSerializationException:java.lang.ClassNotFoundException:com.eclipsesource.jaxrs.jersey-all_2.10.1.SR1 无法在 com.hazelcast.nio.serialization.DefaultSerializers$ObjectSerializer 处找到 com.test.Data .read(DefaultSerializers.java:201) at com.hazelcast.nio.serialization.StreamSerializerAdapter.read(StreamSerializerAdapter.java:63) at com.hazelcast.nio.serialization.SerializationServiceImpl.readObject(SerializationServiceImpl.java:285) at com。 hazelcast.nio.serialization.SerializationServiceImpl.toObject(SerializationServiceImpl.java:262) at com.hazelcast.client.spi.ClientProxy.toObject(ClientProxy.java:156) at com.hazelcast.client.proxy.ClientMapProxy.values(ClientMapProxy. java:629) 在 com.test.commons.db.hazelcast.HazelCastDao。fetchingMapInstance(HazelCastDao.java:126) at com.test.services.agent.dao.DataDao.getData(DataDao.java:79) at com.test.services.agent.eapi.ExecuteEAPI.executePOSTRequest(ExecuteEAPI.java:105)在 com.test.services.ztp.BootStrapLoaderService.getZTPConfigDetails(BootStrapLoaderService.java:55) 在 sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 在 sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 在 sunref .DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:601) at org.glassfish.jersey.server.model.internal.ResourceMethodInvocationHandlerFactory$1.invoke(ResourceMethodInvocationHandlerFactory.java: 81) 在 org.glassfish.jersey.server.model.internal.AbstractJavaResourceMethodDispatcher$1。在 org.glassfish.jersey.server.model.internal.AbstractJavaResourceMethodDispatcher.invoke(AbstractJavaResourceMethodDispatcher.java:171) 处运行(AbstractJavaResourceMethodDispatcher.java:151) 在 org.glassfish.jersey.server.model.internal.JavaResourceMethodDispatcherProvider$ResponseOutatchInvoker( JavaResourceMethodDispatcherProvider.java:152) 在 org.glassfish.jersey.server.model.internal.AbstractJavaResourceMethodDispatcher.dispatch(AbstractJavaResourceMethodDispatcher.java:104) 在 org.glassfish.jersey.server.model.ResourceMethodInvoker.invoke(ResourceMethodInvoker.java:38)在 org.glassfish.jersey.server.model.ResourceMethodInvoker.apply(ResourceMethodInvoker.java:331) 在 org.glassfish.jersey.server.model.ResourceMethodInvoker.apply(ResourceMethodInvoker.java:103) 在 org.glassfish.jersey.server .ServerRuntime$1.run(ServerRuntime.java:271) 在 org.glassfish.jersey.internal.Errors$1.call(Errors.java:271) 在 org.glassfish.jersey.internal.Errors$1.call(Errors.java:267) ) 在 org.glassfish.jersey.internal.Errors.process(Errors.java:315) 在 org.glassfish.jersey.internal.Errors.process(Errors.java:297) …

java serialization hazelcast

6
推荐指数
1
解决办法
1万
查看次数

在 docker compose 中设置副本的 Mongodb

我可以使用 docker compose.yml 文件设置用户名、密码和创建数据库

version: '3'

services:
  mongodb:
    image: mongo
    volumes:
      - /home/temp/finalewd/temp:/var/lib/mongodb
    restart: on-failure
    ports:
      - "27017:27017"
    environment:
      MONGO_INITDB_ROOT_USERNAME: XXXX
      MONGO_INITDB_ROOT_PASSWORD: XXXX
      MONGO_INITDB_DATABASE: XXXX
Run Code Online (Sandbox Code Playgroud)

它启动了新的 mongo 容器,数据库为 XXXX ,配置了用户名和密码。

但是当我尝试使用如下副本集设置 mongo docker 容器时,

# Use root/example as user/password credentials
version: '3.1'

services:

  mongo:
    image: mongo
    restart: on-failure
    volumes:
      - /home/temp/mongo/compose/data:/data/db
    entrypoint: [ "/usr/bin/mongod", "--bind_ip_all","--replSet", "rs0" ]
    environment:
      MONGO_INITDB_ROOT_USERNAME: XXXX
      MONGO_INITDB_ROOT_PASSWORD: XXXX
      MONGO_INITDB_DATABASE: XXXX
Run Code Online (Sandbox Code Playgroud)

使用上面的 docker-compose.yml,它会带上副本集,但不会创建数据库/用户名/密码。

为什么在上述情况下不使用环境变量?

任何帮助表示赞赏。

为托马斯的回答添加的内容:

使用 Thomas 的答案中的内容尝试了 docker-compose.yml,一旦 mongo 启动,我尝试了“rs.initiate 但它抛出了已经初始化的状态,所以在这种情况下如何使 mongo 具有主状态?

rs0:OTHER> rs.status(); …
Run Code Online (Sandbox Code Playgroud)

mongodb mongodb-query docker docker-compose

6
推荐指数
1
解决办法
7340
查看次数

Hazelcast在mutlinode工作

在mutinode中可以说N1,N2和N3.我一直在直接点击节点N1,但是由于某种原因,发生的事情是hazelcast与N2和N3进行通信.它不是心跳检查,因为它配置了1分钟,但我观察到使用wireshark,它清楚地表明呼叫转到另一个节点(即)从N1到N2.

它清楚地表明,当我向N1查询时,该查询被传输到N2.我在wireshark中看到了查询和数据.

我很困惑为什么会发生这种情况,所有数据都必须存在于节点1中,但是为什么它会转到另一个节点来获取数据呢?

谢谢,哈利

java hazelcast

5
推荐指数
1
解决办法
218
查看次数

Hadoop中的主题

我很困惑在hdfs-site.xml中使用少量参数,

dfs.namenode.handler.count - namenode的服务器线程数. dfs.datanode.handler.count - datanode的服务器线程数. dfs.datanode.max.transfer.threads - 指定用于将数据传入和传出DN的最大线程数.

我将default datanode handler'count 设置为'10',其中' dfs.datanode.max.transfer.threads'设置为'4096'.

 lscpu

Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                2
On-line CPU(s) list:   0,1
Thread(s) per core:    1
Core(s) per socket:    2
Socket(s):             1
NUMA node(s):          1
Vendor ID:             GenuineIntel
CPU family:            6
Model:                 62
Model name:            Intel(R) Xeon(R) CPU E5-2640 v2 @ 2.00GHz
Stepping:              4
CPU MHz:               2000.000
BogoMIPS:              4000.00
Hypervisor vendor:     VMware
Virtualization type:   full …
Run Code Online (Sandbox Code Playgroud)

java cpu multithreading hadoop

5
推荐指数
1
解决办法
2959
查看次数

如何刷新HBase中的表

使用HBase(客户端为0.98,服务器为HBase 1.1.2),底层数据存储为HDFS.

我尝试使用以下代码刷新表,并且能够看到在Hadoop中刷新到HFile位置的数据.

            htable.put(puts);
            htable.close();
            admin.flush(tableName);
Run Code Online (Sandbox Code Playgroud)

Hadoop中的数据位置

./hadoop fs -du /hbase/data/default/tableName/ 
Run Code Online (Sandbox Code Playgroud)

当我关闭电源并重新启动节点时,重启Hadoop和HBase能够看到HDFS中的数据被破坏.

如果数据被正确刷新到HFile,为什么在电源关闭期间它会被损坏.

我是否需要对代码进行任何更改才能刷新表格?

谢谢,哈

java hadoop hbase bigdata hdfs

5
推荐指数
1
解决办法
1367
查看次数

Cassandra 批准备语句大小警告

我在 cassandra 的 debug.log 中不断看到此错误,

WARN  [SharedPool-Worker-2] 2018-05-16 08:33:48,585 BatchStatement.java:287 - Batch of prepared statements for [test, test1] is of size 6419, exceeding specified threshold of 5120 by 1299.
Run Code Online (Sandbox Code Playgroud)

在这个

   where,
                    6419 - Input payload size (Batch)
                    5120 - Threshold size
                    1299 - Byte size above threshold value
Run Code Online (Sandbox Code Playgroud)

因此,根据 Cassandra 中的这张票,https://github.com/krasserm/akka-persistence-cassandra/issues/33我发现这是由于输入有效负载大小的增加,所以我将commitlog_segment_size_in_mbcassandra.yml 中的内容增加到60mb和我们不再面临这个警告。

此警告有害吗?增加 commitlog_segment_size_in_mb 会影响性能吗?

cassandra cassandra-3.0

5
推荐指数
1
解决办法
3743
查看次数

卡桑德拉墓碑

我有一个TTL为60秒的Cassandra表,对此我没有什么疑问,

1)我收到以下警告

Read 76 live rows and 1324 tombstone cells for query SELECT * FROM xx.yy WHERE token(y) >= token(fc872571-1253-45a1-ada3-d6f5a96668e8) LIMIT 100 (see tombstone_warn_threshold)
Run Code Online (Sandbox Code Playgroud)

这是什么意思?

2)根据我的研究,墓碑是TTL的标志(在gc_grace_seconds之后将被删除)i)因此,直到10天,这表示它不会被删除吗?ii)等待10天会有什么后果?iii)为什么要很长时间10天?

https://docs.datastax.com/zh-CN/cql/3.1/cql/cql_reference/tabProp.html

gc_grace_seconds 864000 [10天]在数据被标记为墓碑(删除标记)之后,可以进行垃圾收集的秒数。Cassandra不会在其gc_grace_period内的逻辑删除记录上执行提示或批量更改。默认值允许Cassandra在删除之前有大量时间来最大化一致性。有关降低此值的详细信息,请参见下面的垃圾回收。

3)我读到使用nodetool执行压缩和修复将删除该逻辑删除,我们需要多久在后台运行一次逻辑删除,这将带来什么后果?

cassandra cassandra-3.0

4
推荐指数
1
解决办法
1814
查看次数

AWS EKS 和 ECS Fargate 之间的区别

我使用了 ECS Fargate,它提供了容器化、基于请求计数、CPU 和内存的自动扩展。它按预期工作。

我开始探索 AWS EKS 功能,但我没有看到使用它的任何优势,因为所有这些功能都由 ECS Fargate 提供。

有人可以帮助我了解在何处使用 ECS Fargate 以及在何处使用 AWS EKS?

任何帮助表示赞赏。

谢谢,
哈利

amazon-web-services amazon-ecs aws-fargate amazon-eks

4
推荐指数
1
解决办法
585
查看次数