小编rpi*_*ste的帖子

Pylance 不允许我导航到源代码,而是将我带到 .pyi 存根

我正在将 pylance 用于 vs 代码,它工作得非常好,除了因为我使用它,当我尝试从已安装的库中检查代码时,我只能访问存根,我认为是由 pylance 生成的。

例如,显示的有关函数的信息: 在此处输入图片说明

或者,crtl + 单击该函数会将我带到 .pyi 存根,该存根位于
~/.vscode-server/extensions/ms-python.vscode-pylance-2020.11.0/dist/bundled/stubs/pandas/io/parsers.pyi

我找不到导航到实际代码(在这种情况下是熊猫)的方法。

如果我通过"python.languageServer": "Microsoft",在 setting.json 中设置停用 Pylance 并使用 Microsoft 作为语言服务器,则库的导航工作正常。

是否可以在 pylance 活动的情况下导航到实际代码?

操作系统:Ubuntu 18.04
Visual Studio 代码:版本:1.50.1
Pylance:v2020.11.0

visual-studio-code

7
推荐指数
1
解决办法
828
查看次数

了解对象检测API中的数据扩充

我正在使用对象检测API来训练不同的数据集,我想知道是否可以在训练期间获得到达网络的样本图像.

我问这个是因为我试图找到一个很好的数据扩充选项组合(这里是选项),但添加它们的结果更糟.在培训中看到什么到达网络将非常有帮助.

另一个问题是,如果传递的数据集使它们不平衡,是否有可能获得API来帮助平衡类.

谢谢!

object-detection tensorflow object-detection-api

6
推荐指数
1
解决办法
1056
查看次数

在Object Detection API中使用数据扩充选项时出错

我正在尝试使用.config文件中的data_augmentation_options来训练网络,特别是ssd_mobilenet_v1,但是当我激活选项random_adjust_brightness时,我会很快得到下面粘贴的错误消息(我在步骤110000之后激活该选项).

我尝试减少默认值:

optional float max_delta=1 [default=0.2];
Run Code Online (Sandbox Code Playgroud)

但结果是一样的.

知道为什么吗?图像是来自png文件的RGB(来自博世小交通灯数据集).

INFO:tensorflow:global step 110011: loss = 22.7990 (0.357 sec/step)
INFO:tensorflow:global step 110012: loss = 47.8811 (0.401 sec/step)
2017-11-16 11:02:29.114785: W tensorflow/core/framework/op_kernel.cc:1192] Invalid argument: LossTensor is inf or nan. : Tensor had NaN values
     [[Node: CheckNumerics = CheckNumerics[T=DT_FLOAT, message="LossTensor is inf or nan.", _device="/job:localhost/replica:0/task:0/device:CPU:0"](total_loss)]]
2017-11-16 11:02:29.114895: W tensorflow/core/framework/op_kernel.cc:1192] Invalid argument: LossTensor is inf or nan. : Tensor had NaN values
     [[Node: CheckNumerics = CheckNumerics[T=DT_FLOAT, message="LossTensor is inf or nan.", _device="/job:localhost/replica:0/task:0/device:CPU:0"](total_loss)]]
2017-11-16 11:02:29.114969: …
Run Code Online (Sandbox Code Playgroud)

object-detection tensorflow object-detection-api

5
推荐指数
1
解决办法
684
查看次数

对象检测API中的数据扩充:random_image_scale

我正在尝试使用对象检测API的数据扩充功能,特别是random_image_scale.

挖了一下我找到了实现它的功能(粘贴在下面).我遗失了一些东西,或者盒子的基本事实没有在这里处理?我环顾四周,没找到任何东西.如果根据对图像进行缩放而没有相应地修改基础事实,那么它将会被训练的模型搞砸,不是吗?

如果我遗漏了某些内容,请告诉我,否则我应该避免使用此功能来训练我的网络.

该文件是/object_detection/core/preprocessor.py

def random_image_scale(image,
                       masks=None,
                       min_scale_ratio=0.5,
                       max_scale_ratio=2.0,
                       seed=None):
  """Scales the image size.

  Args:
    image: rank 3 float32 tensor contains 1 image -> [height, width, channels].
    masks: (optional) rank 3 float32 tensor containing masks with
      size [height, width, num_masks]. The value is set to None if there are no
      masks.
    min_scale_ratio: minimum scaling ratio.
    max_scale_ratio: maximum scaling ratio.
    seed: random seed.

  Returns:
    image: image which is the same rank as input image.
    masks: If masks is not none, resized …
Run Code Online (Sandbox Code Playgroud)

object-detection tensorflow object-detection-api

5
推荐指数
1
解决办法
973
查看次数

大数据集的特征缩放

我正在尝试使用深度学习模型进行时间序列预测,在将数据传递给模型之前,我想缩放不同的变量,因为它们的范围大不相同。

我通常“即时”完成此操作:加载数据集的训练子集,从整个子集中获取缩放器,存储它,然后在我想使用它进行测试时加载它。

现在数据非常大,我不会一次加载所有训练数据进行训练。

我怎样才能获得定标器?先验我想到做一次加载所有数据的操作,只是为了计算缩放器(通常我使用 sklearn 缩放器,如 StandardScaler),然后在我进行训练过程时加载它。

这是一种常见的做法吗?如果是,如果将数据添加到训练数据集中你会怎么做?可以组合缩放器以避免一次性操作而只是“更新”缩放器吗?

python machine-learning scikit-learn data-science

1
推荐指数
1
解决办法
1440
查看次数