我需要python中的高性能字符串散列函数,它产生至少34位输出的整数(64位有意义,但32位太少).在Stack Overflow上还有其他一些问题,比如这个问题,但是我发现的每一个被接受/赞成的答案都属于几个类别中的一个,这些类别不适用(由于给定的原因).
hash()
功能.这个函数,至少在我正在开发的机器上(使用python 2.7和64位cpu)产生一个适合32位的整数 - 对我来说不够大.string.__hash__()
函数作为原型来编写自己的函数.我怀疑这将是正确的方法,除了这个特定函数的效率在于它使用了c_mul函数,它包裹了大约32位 - 再次,太小了我的使用!非常令人沮丧,它非常接近完美!理想的解决方案具有以下属性,具有相对宽松的重要性.
'Perturbed'哈希示例,其中哈希值以小整数值n急剧变化
def perturb_hash(key,n):
return hash((key,n))
Run Code Online (Sandbox Code Playgroud)
最后,如果你很好奇我正在做什么,我需要这样一个特定的哈希函数,我正在完全重写pybloom模块以大大提高它的性能.我成功了(它现在运行速度提高了大约4倍,占用了大约50%的空间)但是我注意到有时如果滤波器变得足够大,它会突然出现假阳性率.我意识到这是因为哈希函数没有解决足够的位数.32位只能解决40亿位(请注意,滤波器地址位而不是字节)和一些我用于基因组数据的滤波器加倍或更多(因此最少34位).
谢谢!
我们都为单处理器编写代码。我想知道我们什么时候都能够在多处理器上编写代码?
我们需要什么(软件工具、逻辑、算法)来进行这种切换?
编辑:在我看来,由于我们并行执行许多任务,因此我们需要以同样的方式将那些现实生活中的解决方案(算法)转换为计算机语言。就像 OOP 编码对过程编码所做的那样。OOP 是一种更真实的编码风格,而不是过程式的。所以我希望有这种解决方案。
math parallel-processing multithreading high-speed-computing
我的公司提交了一个20多GB的.sql文件,以响应来自gov't的数据请求.我没有很多选项来获取不同格式的数据,因此我需要选择如何在合理的时间内导入数据.我使用Navicat的批量执行工具在高端服务器(Win 2008 64bit,MySQL 5.1)上运行它.它已经运行了14个小时,并没有显示接近完成的迹象.
有没有人知道这种交易的更高速度选项?或者这是我应该期望的大文件大小?
谢谢
mysql high-speed-computing database-restore navicat large-files