小编tri*_*ta2的帖子

运行scala时获取"cat:/ release:没有这样的文件或目录"

我尝试Scala 2.12.1通过Homebrew在我的Mac(El Capitan)上安装,也可以从https://www.scala-lang.org/download/下载二进制文件.

在这两种情况下,每当我运行scala(或者scalac,scaladoc等),我得到这个打印屏幕:

cat: /release: No such file or directory
Run Code Online (Sandbox Code Playgroud)

但行动是成功的.例如,scala myscript.scala工作得很好,但错误信息被首先打印.

有没有人知道为什么会这样?

macos scala osx-elcapitan

36
推荐指数
2
解决办法
9410
查看次数

Qt/QML:将QImage从C++发送到QML并在GUI上显示QImage

我创建了一个Publisher定期发出QImage对象的类.

但是,我很难将其绘制QImage到QML元素中.似乎ImageCanvasQML组件需要一个QUrl而不是一个QImage,但我不知道如何将我转换QImage成一个QUrl.编辑4:当我说QUrl时,我并不是说我正在尝试将图像转换为URL.那是胡说八道.我的意思是我要生成对此图像的引用,该引用不在磁盘上,并且QML组件要求的数据类型是URL.

我做了一些研究,发现它QQuickImageProvider提供了一个解决方案,但我没有找到任何文档解释如何将我的QImage信号转换为QUrl我可用于绘图的信号.任何示例代码或参考文档将不胜感激.

谢谢你的帮助!

EDIT1:

我在这里看了一下:http://qt-project.org/doc/qt-5.0/qtquick/qquickimageprovider.html我没看到我如何将QImage传递给快速图像提供程序并从中创建一个QUrl .

EDIT2.这是标题.实施不应该很重要.

class Publisher
{
    Q_OBJECT

public:
    Publisher(QObject* parent = 0);

    virtual ~Publisher(void);

Q_SIGNALS:

    void newImage(const QImage& newImage);
};
Run Code Online (Sandbox Code Playgroud)

编辑3.这是我的QML代码,但我不知道如何绘制我的QImage,所以这段代码是没有意义的.

我的main.cpp文件:

int main(int argc, char *argv[])
{
    QGuiApplication app(argc, argv);

    qmlRegisterType<Publisher>("Components", 1, 0, "Publisher");

    QtQuick2ApplicationViewer viewer;
    viewer.setMainQmlFile(QStringLiteral("qml/QQuickViewExample/main.qml"));
    viewer.showExpanded();

    return app.exec();
}
Run Code Online (Sandbox Code Playgroud)

我的main.qml文件:

import QtQuick …
Run Code Online (Sandbox Code Playgroud)

c++ qt qml

28
推荐指数
2
解决办法
2万
查看次数

在Spark执行器节点上安装Python依赖项的最简单方法?

我知道您可以使用Python Spark程序将各个文件作为依赖项发送.但是完全成熟的图书馆(例如numpy)呢?

Spark是否有办法使用提供的包管理器(例如pip)来安装库依赖项?或者这是否必须在执行Spark程序之前手动完成?

如果答案是手动的,那么在大量分布式节点上同步库(安装路径,版本等)的"最佳实践"方法是什么?

dependencies hadoop distributed-computing shared-libraries apache-spark

20
推荐指数
1
解决办法
1万
查看次数

keras BatchNormalization轴澄清

所述keras BatchNormalization使用axis=-1作为缺省值和指出该特征轴通常是标准化的.为什么会这样?

我认为这是令人惊讶的,因为我更熟悉使用类似的东西StandardScaler,这相当于使用axis=0.这将单独规范化功能.

有没有理由为什么样本默认(即axis=-1)在keras 中单独归一化而不是特征?

编辑:具体的例子

转换数据是很常见的,因此每个要素的均值和单位方差均为零.让我们只考虑这个模拟数据集的"零均值"部分,其中每一行都是一个样本:

>>> data = np.array([[   1,   10,  100, 1000],
                     [   2,   20,  200, 2000],
                     [   3,   30,  300, 3000]])

>>> data.mean(axis=0)
array([    2.,    20.,   200.,  2000.])

>>> data.mean(axis=1)
array([ 277.75,  555.5 ,  833.25])
Run Code Online (Sandbox Code Playgroud)

axis=0平均值相比,减去平均值是不是更有意义axis=1?使用时axis=1,单位和比例可以完全不同.

编辑2:

部3在第一个方程本文似乎暗示axis=0应该被用于计算特征单独为每个期望和方差,假设你有第(m,n)的形状数据集,其中m是样本的数目,n是数特征.

编辑3:另一个例子

我想看看平均值和方差的维度BatchNormalization是在玩具数据集上计算的:

import pandas as pd
import numpy as np
from sklearn.datasets import load_iris

from keras.optimizers …
Run Code Online (Sandbox Code Playgroud)

python machine-learning deep-learning keras

11
推荐指数
3
解决办法
6003
查看次数

libsvm(C++)始终输出相同的预测

我已经为libsvm实现了一个OpenCV/C++包装器.在对SVM参数(RBF内核)进行网格搜索时,预测始终返回相同的标签.我创建了人工数据集,这些数据集具有非常容易分离的数据(并尝试预测我刚训练过的数据),但仍然会返回相同的标签.

我使用了libsvm的MATLAB实现,并在同一数据集上实现了高精度.我一定是在设置问题时做错了,但我已多次阅读README并且我找不到问题.

以下是我设置libsvm问题的方法,其中数据是OpenCV Mat:

    const int rowSize = data.rows;
    const int colSize = data.cols;

    this->_svmProblem = new svm_problem;
    std::memset(this->_svmProblem,0,sizeof(svm_problem));

    //dynamically allocate the X matrix...
    this->_svmProblem->x = new svm_node*[rowSize];
    for(int row = 0; row < rowSize; ++row)
        this->_svmProblem->x[row] = new svm_node[colSize + 1];

    //...and the y vector
    this->_svmProblem->y = new double[rowSize];
    this->_svmProblem->l = rowSize;

    for(int row = 0; row < rowSize; ++row)
    {
        for(int col = 0; col < colSize; ++col)
        {
            //set the index and the value. indexing …
Run Code Online (Sandbox Code Playgroud)

c++ svm libsvm

9
推荐指数
1
解决办法
5056
查看次数

CMake - 针对不同目标的不同包含目录?

我正在使用CMake在Linux中开发一个C++项目.

我正在创建两个库,LibALibB.我不希望LibALibB拥有相同的包含目录.有什么方法我可以设置只LibA包括DirectoryA和设置只LibB包括DirectoryB

编辑:

双方LibALibB会在可执行文件中使用,MyExe.当我#include LibA.hLibB.hMyExe的源代码中,我不能拥有包含的头文件DirectoryADirectoryB共存MyExe,因为这会产生命名空间冲突.

这可能吗?

编辑2:这是我的CMakeLists.txt include_directories(包括)

add_library(LibA src/LibA.cpp include/LibA.h)
set_property(TARGET LibA PROPERTY INCLUDE_DIRECTORIES /opt/SomeLibrary2.0/include/)
target_link_libraries(LibA /opt/SomeLibrary2.0/lib/a.so /opt/SomeLibrary2.0/lib/b.so /opt/SomeLibrary2.0/lib/c.so)

add_library(LibB src/LibB.cpp include/LibB.h)
set_property(TARGET LibB PROPERTY INCLUDE_DIRECTORIES ${LIB_B_INCLUDE_DIRS})
target_link_libraries(LibB ${LIB_B_LIBRARIES})

add_executable(MyExe src/myexe.cpp)
target_link_libraries(MyExe LibA LibB)
Run Code Online (Sandbox Code Playgroud)

但我仍然遇到错误.LibA.h说SomeLibrary的头文件无法找到?

c++ linux cmake

6
推荐指数
1
解决办法
3602
查看次数

我在这里滥用继承吗?什么是最佳实践替代/模式?

大编辑

因此,在收集了所有人的反馈意见,并按照Zack的建议冥想XY问题后,我决定添加另一个代码示例,该示例说明了我正在努力完成的事情(即"X"),而不是询问我的" Y".


所以,现在我们正在与汽车工作,我已经添加了5抽象类:ICar,ICarFeatures,ICarParts,ICarMaker,ICarFixer.所有这些接口都将包装或使用第三方库提供的特定于技术的复杂对象,具体取决于接口背后的派生类.这些接口将智能地管理复杂库对象的生命周期.

我的用例是FordCar类.在这个例子中,我用了福特库访问班FordFeatureImpl,FordPartsImplFordCarImpl.这是代码:

class ICar {
public:
    ICar(void) {}
    virtual ~ICar(void) {}
};

class FordCar : public ICar {
public:
    ICar(void) {}
    ~FordCar(void) {}
    FordCarImpl* _carImpl;
};

class ICarFeatures {
public:
    ICarFeatures(void) {}
    virtual ~ICarFeatures(void) {}
    virtual void addFeature(UserInput feature) = 0;
};

class FordCarFeatures : public ICarFeatures{
public:
    FordCarFeatures(void) {}
    virtual ~FordCarFeatures(void) {}
    virtual void addFeature(UserInput feature){

        //extract useful …
Run Code Online (Sandbox Code Playgroud)

c++ polymorphism inheritance

6
推荐指数
1
解决办法
809
查看次数

如何将Spark ML Lib模型保存/导出到PMML?

我想使用Spark ML Lib训练模型,然后能够以平台无关的格式导出模型.基本上我想要分离模型的创建和消费方式.

我想要这种解耦的原因是我可以在其他项目中部署模型.例如:

  • 使用该模型在单独的独立程序中执行预测,该程序不依赖于Spark进行评估.
  • 将模型与OpenScoring等现有项目一起使用,并提供可以使用该模型的API.
  • 将现有模型加载回Spark以进行高吞吐量预测.

有没有人用Spark ML Lib做过这样的事情?

deployment modeling hadoop machine-learning apache-spark

6
推荐指数
1
解决办法
2315
查看次数

如何从Python脚本管理多个IPython/Jupyter内核并与之通信?

我想模仿笔记本服务器的功能,而是从逻辑中心(即我自己的Python脚本)协调不同IPython/Jupyter内核的创建/管理.

例如,我想:

  • 定义一个抽象命令,例如"add(x,y)"
  • 将抽象命令传递给多个内核,例如IPython内核和Scala内核
  • 让每个内核按照自己的意愿执行命令
  • 将结果从每个内核返回到逻辑的中心体

任何人都可以指出我如何以编程方式启动/停止/与多个IPython/Jupyter内核通信?

python ipython ipython-notebook jupyter

6
推荐指数
1
解决办法
1694
查看次数

如何解析numpydoc文档字符串和访问组件?

我想解析一个numpydoc docstring并以编程方式访问每个组件.

例如:

def foobar(a, b):
   '''Something something

   Parameters
   ----------
   a : int, default: 5
        Does something cool
   b : str
        Wow
'''
Run Code Online (Sandbox Code Playgroud)

我想做的是:

parsed = magic_parser(foobar)
parsed.text  # Something something
parsed.a.text  # Does something cool
parsed.a.type  # int
parsed.a.default  # 5
Run Code Online (Sandbox Code Playgroud)

我一直在寻找像numpydoc拿破仑这样的东西但我没有找到任何好的线索如何在我自己的程序中使用它们.我很感激任何帮助.

python parsing docstring python-sphinx

6
推荐指数
1
解决办法
854
查看次数