小编eth*_*nny的帖子

清除事务死锁?

使用'show engine innodb status'我看到wordpress有两个死锁.我想清除这些,但我没有看到这些cmds中的任何一个的活动进程(IE某些东西要'杀'并希望强制回滚).

我可以看到线程ID,查询ID等,但我无法用来阻止任何一项工作.

关于如何解决这个问题的建议?

编辑:这是状态的(相关?)部分:

------------------------
LATEST DETECTED DEADLOCK
------------------------
110327 10:54:14
*** (1) TRANSACTION:
TRANSACTION 9FBA099E, ACTIVE 0 sec, process no 14207, OS thread id 1228433728 starting index read
mysql tables in use 1, locked 1
LOCK WAIT 2 lock struct(s), heap size 376, 1 row lock(s)
MySQL thread id 12505112, query id 909492800 juno....edu 129....54 wordpress_user updating
DELETE FROM wp_options WHERE option_name = ''_site_transient_timeout_theme_roots''
*** (1) WAITING FOR THIS LOCK TO BE GRANTED:
RECORD LOCKS space …
Run Code Online (Sandbox Code Playgroud)

mysql deadlock

16
推荐指数
3
解决办法
5万
查看次数

Linux c ++:apis vs/proc文件?

我正在开发一个应用程序来收集和发送各种系统信息(分区空间/免费,笔记本电脑电池信息等).我没有太多成功以直接c ++ api的形式获取此信息..虽然它可以通过/ proc(或类似)中的文件获得.

所以 - 我想知道在我的c ++应用程序中读取/解析这些文件是否是获取此信息的适当方式,还是应该继续尝试发现API?(注意:我正在使用statvfs).

到目前为止,看起来在Win32中收集此类信息更容易.似乎很奇怪.

c++ linux battery procfs disk-partitioning

10
推荐指数
1
解决办法
2380
查看次数

Mysql vs Oracle XE vs Postgresql.可扩展性和性能,选择哪个?

我知道这是非常广泛的,所以让我给你一个设置,并具体说明我的重点.

设置:

我正在使用MYSQL使用现有的PHP应用程序.几乎所有表都使用MYISAM引擎,并且大部分都包含数百万行.其中一个最大的表使用EAV设计,这是必要但对性能的影响.该应用程序是为了最好地利用MYSQL缓存而编写的.它每页加载请求相当数量的请求(部分原因是这样),并且复杂到足以在每次页面加载时通过整个数据库的大多数表.

优点:

  • 免费
  • MYISAM表支持对应用程序很重要的全文索引

缺点:

  • 通过设置方式,MYSQL仅限于一个CPU用于整个应用程序.如果运行一个非常苛刻的查询(或服务器负载很大),它将排队所有其他人使站点无响应
  • MYSQL缓存和缺少"WITH"或"INTERSECT"意味着我们必须打破查询以更好地使用缓存.因此乘以查询的数量.例如,在具有数百万行的多个表上使用子查询(即使具有良好的索引)对于当前/上调负载而言是一个大问题,并且约束在上面指出(CPU使用率)

感觉需要在上升年度扩大规模,但不一定准备立即支付许可费用,我一直在考虑重写应用程序和切换数据库.

正在考虑的三个选项是继续使用mysql但使用INNODB引擎,这样我们可以利用更多的CPU功率.当我们需要向上扩展4Gb数据库,1Gb RAM或1 CPU限制(我们还没有达到目标)时,适应Oracle XE并获得许可证.或者适应PostgreSQL

所以问题是:

  • 在这三种情况下,丢失全文索引会如何影响性能(oracle或postgreSQL是否具有等效性?)
  • oracle和postgreSQL如何在子查询,WITH和UNION/INTERSECT语句上利用缓存
  • Oracle和PostgreSQL如何利用多核/ CPU功能(如果/当我们获得oracle许可证时)

我认为这已经很多了,所以我会在这里停下来.如果有赞美的链接,我不介意简单/不完整的答案.

如果您需要更多信息,请告诉我

在此先感谢各位,感谢您的帮助.

mysql oracle postgresql database-performance

10
推荐指数
1
解决办法
5435
查看次数

flink - 使用匕首注射 - 不可序列化?

我使用Flink(最新通过git)从kafka流到cassandra.为了简化单元测试我通过Dagger添加依赖注入.

ObjectGraph似乎正在正确设置自己,但是'内部对象'被Flink标记为"不可序列化".如果我直接包含这些对象,它们可以工作 - 那么有什么区别?

有问题的类实现了MapFunction@Inject一个用于cassandra的模块和一个用于读取配置文件的模块.

有没有办法建立这个,所以我可以使用后期绑定或Flink使这不可能?


编辑:

fwiw - 依赖注入(通过匕首)和RichMapFunction不能共存.Dagger不允许您包含任何在其定义中扩展的对象.

进一步:

通过Dagger Lazy <t>实例化的对象也不会序列化.

线程"main"中的异常org.apache.flink.api.common.InvalidProgramException:对象com.someapp.SaveMap@2e029d61不可序列化
...
引起:java.io.NotSerializableException:dagger.internal.LazyBinding $ 1

java serialization dagger apache-flink

10
推荐指数
1
解决办法
5254
查看次数

从风暴螺栓中记录 - 它在哪里?

我有几个部署到集群拓扑的螺栓.每个都配置为通过slf4j登录.在测试机器上,我得到stdout文件追加器工作正常.

当我将其部署到集群时,日志记录似乎已经消失.据我所知,我在风暴日志(在主管机器上),/ var/log/*或其他任何地方都没有得到任何信息.

我是否应该能够在风暴工作者中使用记录系统?如果是这样,获取消息有诀窍吗?

机器都运行CentOS 6.6 x64

slf4j apache-storm

8
推荐指数
1
解决办法
6378
查看次数

Kafka KStreams - 处理超时

我试图<KStream>.process()用a TimeWindows.of("name", 30000)来批量处理一些KTable值并发送它们.似乎30秒超过了消费者超时间隔,之后Kafka认为该消费者已经解散并释放分区.

我已经尝试提高轮询频率和提交间隔以避免这种情况:

config.put(StreamsConfig.COMMIT_INTERVAL_MS_CONFIG, "5000");
config.put(StreamsConfig.POLL_MS_CONFIG, "5000");
Run Code Online (Sandbox Code Playgroud)

不幸的是,这些错误仍在发生:

(很多这些)

ERROR  o.a.k.s.p.internals.RecordCollector - Error sending record to topic kafka_test1-write_aggregate2-changelog 
org.apache.kafka.common.errors.TimeoutException: Batch containing 1 record(s) expired due to timeout while requesting metadata from brokers for kafka_test1-write_aggregate2-changelog-0
Run Code Online (Sandbox Code Playgroud)

其次是:

INFO   o.a.k.c.c.i.AbstractCoordinator - Marking the coordinator 12.34.56.7:9092 (id: 2147483547 rack: null) dead for group kafka_test1
WARN   o.a.k.s.p.internals.StreamThread - Failed to commit StreamTask #0_0 in thread [StreamThread-1]: 
  org.apache.kafka.clients.consumer.CommitFailedException: Commit cannot be completed since the group has …
Run Code Online (Sandbox Code Playgroud)

java apache-kafka apache-kafka-streams

8
推荐指数
1
解决办法
6490
查看次数

DynamoDB通过CloudFormation - 即时恢复

是否可以为通过CloudFormation创建的DynamoDB表指定时间点恢复?我一直在浏览文档和用户指南,但还没有找到任何有用的东西.

database-backups amazon-web-services amazon-dynamodb pitr

8
推荐指数
1
解决办法
2429
查看次数

使用mysql命令行客户端选择时如何查看数据中的空格

当使用带有sql-command-line-client的select时,如何在String中看到空格?

我的意思是以下内容.你有三条线.1,2和3个空格.你没有机会看到空格的数量.

create table foo(bar varchar(8));
insert into foo values(" "),("  "), ("   ");

select * from foo\g
+------+
| bar  |
+------+
|      |
|      |
|      |
+------+

mysql> select * from foo\G
*************************** 1. row ***************************
bar:  
*************************** 2. row ***************************
bar:   
*************************** 3. row ***************************
bar:    
3 rows in set (0.01 sec)
Run Code Online (Sandbox Code Playgroud)

我想出的唯一选择是:

mysql> select bar, hex(bar) from foo;
+------+----------+
| bar  | hex(bar) |
+------+----------+
|      | 20       |
|      | 2020     |
|      | …
Run Code Online (Sandbox Code Playgroud)

mysql sql

7
推荐指数
1
解决办法
3157
查看次数

停止Kafka Streams应用

是否可以使用Kafka Streams应用程序运行主题中的所有数据然后退出?

示例我根据日期生成主题数据.消费者被cron开除,运行所有可用数据,然后......做什么?我不希望它等待更多数据.只是假设它就在那里,然后优雅地退出.

可能?

java apache-kafka apache-kafka-streams

7
推荐指数
2
解决办法
2072
查看次数

Kafka - TimestampExtractor的问题

我用 org.apache.kafka:kafka-streams:0.10.0.1

我正在尝试使用基于时间序列的流,似乎没有触发KStream.Process()触发("标点符号").(见此处参考)

KafkaStreams配置中,我传递了这个参数(以及其他):

config.put(
  StreamsConfig.TIMESTAMP_EXTRACTOR_CLASS_CONFIG,
  EventTimeExtractor.class.getName());
Run Code Online (Sandbox Code Playgroud)

EventTimeExtractor是一个自定义时间戳提取器(实现org.apache.kafka.streams.processor.TimestampExtractor),用于从JSON数据中提取时间戳信息.

我希望这可以TimestampExtractor在每个新记录被拉入时调用我的对象(派生自).所讨论的流是2*10 ^ 6条记录/分钟.我已经punctuate()设定为60秒,它永远不会发射.我知道数据非常频繁地传递了这个范围,因为它将旧的值拉回来.

实际上它永远不会被调用.

  • 这是在KStream记录上设置时间戳的错误方法吗?
  • 这是否是声明此配置的错误方法?

java apache-kafka apache-kafka-streams

7
推荐指数
2
解决办法
2547
查看次数