我收到一个Chrome(43.0.2357.124)"喔,快!" 呈现"检查目标已断开连接的错误.一旦重新加载,我们将自动附加到它." 在开发者控制台中.
在没有过于具体到我的项目并且试图使问题更普遍适用的情况下,似乎发生在具有约5秒延迟的Promise期间.
这个函数(可以在repo https://github.com/mitTransportAnalyst/CoAXs/blob/master/public/scripts/main/services/analystService.js#L35-L44上下文中看到)在Firefox 38.0.5上运行良好.它正在接收一个大的GeoJSON数组 - 也许这可能与这个问题有关,虽然我不确定.
此时,有关如何调试此问题的后续步骤的任何建议都会受到赞赏,即使是Google搜索此特定问题也没有得出任何结果(截至6月17日星期六6:00的5个无关结果:https:// www .google.com /搜索?sclient = PSY-AB&BIW = 1280&波黑= 678&q =%22inspected%20靶%20disconnected%22%20chrome&OQ =%22inspected%20靶%20disconnected%22%20chrome&gs_l = serp.3 ... 805885.806603.1.806844.2.2 .0.0.0.0.72.122.2.2.0 .... 0 ... 1c.1.64.serp..2.0.0.O7y1WqVbj0c&PBX = 1&PSJ = 1&离子= 1&CAD = CBV&SEI = LvKBVfarHcyw-AHVioHYBg&RCT = J#q =%22Inspected +目标+已断开连接%22 + chrome).
添加此作为评论,但有兴趣看看是否有人知道为什么会发生这种情况:
问题最终与延迟收到> 3 MB文件(组装零碎)有关.此处发生此错误的一些(有限的)文档code.google.com/p/v8/issues/detail?id=3968(遗憾的是,结果不确定).结束了与数据提供商的合作并大幅减少了文件大小,从而解决了这个问题.奇怪的是 - 如果有人能够说明为什么会发生这种情况 - 连接console.log在哪里data似乎可以避免这个问题.如果没有发生这种情况,标签会突然超过~1.3GB并崩溃.
你可以看到我在console.log这里指向的链接:https://github.com/mitTransportAnalyst/CoAXs/blob/master/public/scripts/analyst.js#L10343
Leaflet 是否支持允许创建的 CircleMarker 为半径 5 的方法,但允许对点击事件(显示绑定弹出窗口)敏感的标记的 lat/lng 半径为 15?
我目前创建了第二个更大的不透明度为 0 的圆圈来实现这一点,但如果它存在的话,我想要一个“更干净”的解决方案。
Pickling Rtree 看起来并不简单,因为它是一个 ctypes 包装器。这个评论秒了这个假设。
但是,在(更)旧的@sgillies帖子(这个库的作者)的评论部分,他建议这确实是可行的。
然而,当我在本地重新创建这些步骤时,结果表明并非如此:
>>> idx = rtree.index.Index()
>>> idx.insert(10, (1,2,3,4))
>>> list(idx.intersection((0,0,5,5)))
# [10]
>>> f = open('foo.p', 'wb')
>>> pickle.dump(idx, f)
>>> a = pickle.load( open( "foo.p", "rb" ) )
>>> a.get_bounds()
# [1.7976931348623157e+308, 1.7976931348623157e+308, -1.7976931348623157e+308, -1.7976931348623157e+308]]
>>> list(a.intersection((0,0,5,5)))
# []
Run Code Online (Sandbox Code Playgroud)
问题:是否存在我未能正确执行以启用空间索引酸洗的操作?如果空间索引是可能的,那么正确的方法是什么?
有趣的是,我能够通过酸洗过程(由 Dask.distributed 执行的酸洗)成功传递 GeoPandas.GeoDataFrame.sindex。我知道它使用 cloudpickle 或 pickle(视情况而定),但从 GeoPandas 方面来看,sindex的SpatialIndex类似乎只是rtree.index.Index. 我还没有更深入地了解为什么会这样,但想先在这里检查一下,看看其他人是否有洞察力。
在knex迁移中创建表时,我已经指出了一个col:
table.string("content");
它默认为varchar 255.我希望它能够容纳更多文本.我如何向knex表明我希望这种情况发生?
在下面的代码片段中,我希望日志打印数字0 - 4.我知道数字可能不是那个顺序,因为任务将被分解为许多并行操作.
代码段:
from dask import dataframe as dd
import numpy as np
import pandas as pd
df = pd.DataFrame({'A': np.arange(5),
'B': np.arange(5),
'C': np.arange(5)})
ddf = dd.from_pandas(df, npartitions=1)
def aggregate(x):
print('B val received: ' + str(x.B))
return x
ddf.apply(aggregate, axis=1).compute()
Run Code Online (Sandbox Code Playgroud)
但是当运行上面的代码时,我会看到:
B val received: 1
B val received: 1
B val received: 1
B val received: 0
B val received: 0
B val received: 1
B val received: 2
B val received: 3
B val received: 4
Run Code Online (Sandbox Code Playgroud)
而不是0 …
按照 Pre-Commit网站上的“非管理安装”说明,我运行了以下命令:
curl http://pre-commit.com/install-local.py | python
Run Code Online (Sandbox Code Playgroud)
这些说明提供了以下注释:“ (升级:再次运行,卸载:将卸载传递给 python)。 ”
现在,我想卸载预提交。我试图了解如何将卸载传递给 Python。我不确定传递uninstall意味着什么。
我试过了:
curl http://pre-commit.com/install-local.py | python --uninstall
curl http://pre-commit.com/install-local.py | --uninstall python
curl http://pre-commit.com/install-local.py | uninstall | python
Run Code Online (Sandbox Code Playgroud)
..和其他几个可能更无意义的变化。所有这些都会导致:
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
0 0 0 0 0 0 0 0 --:--:-- --:--:-- --:--:-- 0Unknown option: -n
usage: /usr/local/Cellar/python3/3.6.0/Frameworks/Python.framework/Versions/3.6/Resources/Python.app/Contents/MacOS/Python [option] ... [-c cmd | -m mod | file | -] [arg] …Run Code Online (Sandbox Code Playgroud) 期望:我期望,当我对给定的数据帧进行分区时,行将大致均匀地分布到每个分区中。然后我希望,当我将数据帧写入 csv 时,生成的 n 个 csvs(在本例中为 10),同样具有大致相等的长度。
现实:当我运行下面的代码时,我发现所有行都在里面export_results-0.csv,而剩下的 9 个 csv 是空的,而不是行的分布有点均匀。
问题:是否需要设置其他配置以确保行分布在所有分区中?
from dask.distributed import Client
import dask.dataframe as dd
import pandas as pd
client = Client('tcp://10.0.0.60:8786')
df = pd.DataFrame({'geom': np.random.random(1000)}, index=np.arange(1000))
sd = dd.from_pandas(df, npartitions=100)
tall = dd.merge(sd.assign(key=0), sd.assign(key=0), on='key').drop('key', axis=1)
tall.to_csv('export_results-*.csv').compute()
Run Code Online (Sandbox Code Playgroud)
关于上面的代码:在下面的代码中,我创建了一个 1000 行的数据帧并将其与自身合并以创建一个 1000000 行长的数据帧(目标是最终生成一个薄而高的表,其中包含从任何一个到100k+ 列表中的任何其他几何图形)。