小编cas*_*sen的帖子

Matlab相当于调用静态类

授予以下代码:

classdef highLowGame
    methods(Static)
        function [wonAmount, noGuesses] = run(gambledAmount)
            noGuesses = 'something';
            wonAmount = highLowGame.getPayout(gambledAmount, noGuesses); % <---
        end
        function wonAmount = getPayout(gambledAmount, noGuesses)
            wonAmount = 'something';
        end
    end
end
Run Code Online (Sandbox Code Playgroud)

有没有办法在不必编写类名的情况下调用同一个类(静态内部)方法的静态方法?像"self.getPayout(...)"之类的东西 - 如果该类最终得到500行并且我想重命名它.

oop matlab static class

5
推荐指数
2
解决办法
2731
查看次数

在 Jenkins 声明式管道中使用 Docker for Windows

我正在使用 Jenkins 声明性管道和 Docker-for-Windows 代理通过Dockerfile.

注意:不幸的是,目前不是使用基于 Linux 的 docker 守护程序的解决方案,因为我需要运行 Windows 二进制文件。

设置: Jenkins master 通过 Docker 在 Linux 16.04 上运行。詹金斯构建代理是

  • Windows 10 企业版 1709 (16299.551)
  • Docker-for-Windows 17.12.0-ce

Docker 18.x 在尝试使用 Windows Containers 时让我头疼,所以我回滚到 17.x。当我尝试与 Jenkins 一起运行并且 nohup 不在路径上时,我仍然遇到了一些问题,但是通过将 Git 二进制文件添加到 Windows 搜索路径另一个参考)解决了这个问题。我怀疑我当前的问题可能与此有关。

代码:我正在尝试初始化 aJenkinsfile并在其中运行一个简单的 hello-world-printout。

/詹金斯档案

pipeline {
  agent none
  stages {
    stage('Docker Test') {
      agent {
        dockerfile {
          filename 'Dockerfile'
          label 'windocker'
        }
      }
      steps {
        println 'Hello, World!' …
Run Code Online (Sandbox Code Playgroud)

jenkins docker dockerfile jenkins-declarative-pipeline

3
推荐指数
1
解决办法
2993
查看次数

检索 Azure ML v2 的当前作业

使用 v2 Azure ML Python SDK (azure-ai-ml) 如何获取当前正在运行的作业的实例?

在 v1 (azureml-core) 中我会这样做:

from azureml.core import Run

run = Run.get_context()
if isinstance(run, Run):
    print("Running on compute...")
Run Code Online (Sandbox Code Playgroud)

v2 SDK 上的等效项是什么?

azure azure-machine-learning-service azureml-python-sdk

3
推荐指数
1
解决办法
2483
查看次数

QInputDialog包含多个字段

是否有可能轻松制作QInputDialog多个元素QComboBox?或者,提示弹出窗口/对话框可能有不同字段(等等2 x QComboBox+ 1 x QLineEdit)的最可行方法是什么?

c++ qt

2
推荐指数
1
解决办法
3191
查看次数

在 Spark 数据框中生成可重复的唯一 ID

我们有一个包含大量文件的数据湖,我可以在其中读取这些文件的内容及其路径:

sdf = spark.read.load(source)\
  .withColumn("_path", F.input_file_name())
Run Code Online (Sandbox Code Playgroud)

我想为每一行生成一个唯一的 ID,以便更轻松地在表之间进行下游连接,并且我希望该 ID 在运行之间可重现。


最简单的方法是简单地使用_path列作为标识符。

sdf = spark.read.load(source)\
  .withColumn("_path", F.input_file_name())
Run Code Online (Sandbox Code Playgroud)

然而,拥有某种整数表示形式会“更漂亮”且更紧凑。对于其他表,唯一标识符可能是几列的组合,这会让情况变得更加丑陋。

另一种方法是使用单调递增的 ID

sdf.withColumn("id", F.monotonically_increasing_id())
Run Code Online (Sandbox Code Playgroud)

但是,在此解决方案中,不能保证运行分析时 id=2 也在一周后(新数据到达时)运行分析时 id=2。

第三种方法是使用哈希函数:

sdf.withColumn("id", F.col("_path"))
Run Code Online (Sandbox Code Playgroud)

这可能非常好,因为很容易对列的组合进行散列,但这并不稳定,因为多个输入可以给出相同的输出:

对我们的实际数据进行此类分析,得出来自单个来源的 396,702 个哈希 ID _path,以及来自两个路径的 24 个哈希 ID。因此碰撞率为 0.006%。

我们可以简单地忽略这极小部分的数据,但一定有一种更优雅的方式来实现我想要实现的目标?

python apache-spark apache-spark-sql pyspark

2
推荐指数
1
解决办法
2156
查看次数

多个扩展上的Magento配置404

我在Magento(/ admin>系统>配置)上的多个扩展中遇到404错误,我通过Magento Connect 2.0安装.我认为这不是扩展的问题,但更多的是我的安装问题.

你有这样的经历吗?

提前致谢

configuration magento http-status-code-404

0
推荐指数
1
解决办法
557
查看次数