我不太确定在哪里问,我希望它就在这里.
我搜索的是在数据库繁忙时重试SQLite查询的最简单的解决方案.我在服务器上使用quassel作为我的IRC客户端,并且我想将旧日志移动到单独的DB以保持它使用的小日志.我写的脚本是:
CREATE TEMP TABLE delfrom (id integer,val integer);
ATTACH '/home/irc/oldlog.db' as log;
BEGIN IMMEDIATE;
REPLACE INTO delfrom (id,val) select 1337,messageid from backlog where time < strftime('%s', 'now','-14 days') ORDER BY messageid DESC LIMIT 1;
INSERT INTO log.log (messageid,time,bufferid,type,flags,senderid,message) SELECT messageid,time,bufferid,type,flags,senderid,message FROM backlog WHERE messageid < (SELECT val FROM delfrom where id=1337);
DELETE FROM backlog WHERE messageid < (SELECT val FROM delfrom where id=1337);
PRAGMA incremental_vacuum;
COMMIT;
我使用sqlite3 quassel-storage.sqlite <movelog.sql运行它
问题是,由于quassel在执行时正在运行,因此有时会BEGIN IMMEDIATE;因为DB被锁定而失败.
有人可以建议我一个简单的方法来更改该设置,以便查询只是每隔几秒重试一次,直到它工作?我读到python SQLite包装器内置了吗?有没有一种特殊的方法我必须激活它,更重要的是,我可以使用python附加第二个数据库吗?有一个超时参数,sqlite3.connect但我不太确定它是如何工作的.Python会锁定整个数据库以便在每个连接上写入吗?
我绝不关心使用Python.我更喜欢的解决方案是,当发生此错误时sqlite3返回0,然后将其包装在shell中的循环中,但这似乎不起作用.