我尝试Scala 2.12.1通过Homebrew在我的Mac(El Capitan)上安装,也可以从https://www.scala-lang.org/download/下载二进制文件.
在这两种情况下,每当我运行scala(或者scalac,scaladoc等),我得到这个打印屏幕:
cat: /release: No such file or directory
Run Code Online (Sandbox Code Playgroud)
但行动是成功的.例如,scala myscript.scala工作得很好,但错误信息被首先打印.
有没有人知道为什么会这样?
我创建了一个Publisher定期发出QImage对象的类.
但是,我很难将其绘制QImage到QML元素中.似乎Image和CanvasQML组件需要一个QUrl而不是一个QImage,但我不知道如何将我转换QImage成一个QUrl.编辑4:当我说QUrl时,我并不是说我正在尝试将图像转换为URL.那是胡说八道.我的意思是我要生成对此图像的引用,该引用不在磁盘上,并且QML组件要求的数据类型是URL.
我做了一些研究,发现它QQuickImageProvider提供了一个解决方案,但我没有找到任何文档解释如何将我的QImage信号转换为QUrl我可用于绘图的信号.任何示例代码或参考文档将不胜感激.
谢谢你的帮助!
EDIT1:
我在这里看了一下:http://qt-project.org/doc/qt-5.0/qtquick/qquickimageprovider.html我没看到我如何将QImage传递给快速图像提供程序并从中创建一个QUrl .
EDIT2.这是标题.实施不应该很重要.
class Publisher
{
Q_OBJECT
public:
Publisher(QObject* parent = 0);
virtual ~Publisher(void);
Q_SIGNALS:
void newImage(const QImage& newImage);
};
Run Code Online (Sandbox Code Playgroud)
编辑3.这是我的QML代码,但我不知道如何绘制我的QImage,所以这段代码是没有意义的.
我的main.cpp文件:
int main(int argc, char *argv[])
{
QGuiApplication app(argc, argv);
qmlRegisterType<Publisher>("Components", 1, 0, "Publisher");
QtQuick2ApplicationViewer viewer;
viewer.setMainQmlFile(QStringLiteral("qml/QQuickViewExample/main.qml"));
viewer.showExpanded();
return app.exec();
}
Run Code Online (Sandbox Code Playgroud)
我的main.qml文件:
import QtQuick …Run Code Online (Sandbox Code Playgroud) 我知道您可以使用Python Spark程序将各个文件作为依赖项发送.但是完全成熟的图书馆(例如numpy)呢?
Spark是否有办法使用提供的包管理器(例如pip)来安装库依赖项?或者这是否必须在执行Spark程序之前手动完成?
如果答案是手动的,那么在大量分布式节点上同步库(安装路径,版本等)的"最佳实践"方法是什么?
dependencies hadoop distributed-computing shared-libraries apache-spark
所述keras BatchNormalization层使用axis=-1作为缺省值和指出该特征轴通常是标准化的.为什么会这样?
我认为这是令人惊讶的,因为我更熟悉使用类似的东西StandardScaler,这相当于使用axis=0.这将单独规范化功能.
有没有理由为什么样本默认(即axis=-1)在keras 中单独归一化而不是特征?
编辑:具体的例子
转换数据是很常见的,因此每个要素的均值和单位方差均为零.让我们只考虑这个模拟数据集的"零均值"部分,其中每一行都是一个样本:
>>> data = np.array([[ 1, 10, 100, 1000],
[ 2, 20, 200, 2000],
[ 3, 30, 300, 3000]])
>>> data.mean(axis=0)
array([ 2., 20., 200., 2000.])
>>> data.mean(axis=1)
array([ 277.75, 555.5 , 833.25])
Run Code Online (Sandbox Code Playgroud)
与axis=0平均值相比,减去平均值是不是更有意义axis=1?使用时axis=1,单位和比例可以完全不同.
编辑2:
部3在第一个方程本文似乎暗示axis=0应该被用于计算特征单独为每个期望和方差,假设你有第(m,n)的形状数据集,其中m是样本的数目,n是数特征.
编辑3:另一个例子
我想看看平均值和方差的维度BatchNormalization是在玩具数据集上计算的:
import pandas as pd
import numpy as np
from sklearn.datasets import load_iris
from keras.optimizers …Run Code Online (Sandbox Code Playgroud) 我已经为libsvm实现了一个OpenCV/C++包装器.在对SVM参数(RBF内核)进行网格搜索时,预测始终返回相同的标签.我创建了人工数据集,这些数据集具有非常容易分离的数据(并尝试预测我刚训练过的数据),但仍然会返回相同的标签.
我使用了libsvm的MATLAB实现,并在同一数据集上实现了高精度.我一定是在设置问题时做错了,但我已多次阅读README并且我找不到问题.
以下是我设置libsvm问题的方法,其中数据是OpenCV Mat:
const int rowSize = data.rows;
const int colSize = data.cols;
this->_svmProblem = new svm_problem;
std::memset(this->_svmProblem,0,sizeof(svm_problem));
//dynamically allocate the X matrix...
this->_svmProblem->x = new svm_node*[rowSize];
for(int row = 0; row < rowSize; ++row)
this->_svmProblem->x[row] = new svm_node[colSize + 1];
//...and the y vector
this->_svmProblem->y = new double[rowSize];
this->_svmProblem->l = rowSize;
for(int row = 0; row < rowSize; ++row)
{
for(int col = 0; col < colSize; ++col)
{
//set the index and the value. indexing …Run Code Online (Sandbox Code Playgroud) 我正在使用CMake在Linux中开发一个C++项目.
我正在创建两个库,LibA和LibB.我不希望LibA和LibB拥有相同的包含目录.有什么方法我可以设置只LibA包括DirectoryA和设置只LibB包括DirectoryB?
编辑:
双方LibA并LibB会在可执行文件中使用,MyExe.当我#include LibA.h和LibB.hMyExe的源代码中,我不能拥有包含的头文件DirectoryA并DirectoryB共存MyExe,因为这会产生命名空间冲突.
这可能吗?
编辑2:这是我的CMakeLists.txt include_directories(包括)
add_library(LibA src/LibA.cpp include/LibA.h)
set_property(TARGET LibA PROPERTY INCLUDE_DIRECTORIES /opt/SomeLibrary2.0/include/)
target_link_libraries(LibA /opt/SomeLibrary2.0/lib/a.so /opt/SomeLibrary2.0/lib/b.so /opt/SomeLibrary2.0/lib/c.so)
add_library(LibB src/LibB.cpp include/LibB.h)
set_property(TARGET LibB PROPERTY INCLUDE_DIRECTORIES ${LIB_B_INCLUDE_DIRS})
target_link_libraries(LibB ${LIB_B_LIBRARIES})
add_executable(MyExe src/myexe.cpp)
target_link_libraries(MyExe LibA LibB)
Run Code Online (Sandbox Code Playgroud)
但我仍然遇到错误.LibA.h说SomeLibrary的头文件无法找到?
大编辑
因此,在收集了所有人的反馈意见,并按照Zack的建议冥想XY问题后,我决定添加另一个代码示例,该示例说明了我正在努力完成的事情(即"X"),而不是询问我的" Y".
所以,现在我们正在与汽车工作,我已经添加了5抽象类:ICar,ICarFeatures,ICarParts,ICarMaker,ICarFixer.所有这些接口都将包装或使用第三方库提供的特定于技术的复杂对象,具体取决于接口背后的派生类.这些接口将智能地管理复杂库对象的生命周期.
我的用例是FordCar类.在这个例子中,我用了福特库访问班FordFeatureImpl,FordPartsImpl和FordCarImpl.这是代码:
class ICar {
public:
ICar(void) {}
virtual ~ICar(void) {}
};
class FordCar : public ICar {
public:
ICar(void) {}
~FordCar(void) {}
FordCarImpl* _carImpl;
};
class ICarFeatures {
public:
ICarFeatures(void) {}
virtual ~ICarFeatures(void) {}
virtual void addFeature(UserInput feature) = 0;
};
class FordCarFeatures : public ICarFeatures{
public:
FordCarFeatures(void) {}
virtual ~FordCarFeatures(void) {}
virtual void addFeature(UserInput feature){
//extract useful …Run Code Online (Sandbox Code Playgroud) 我想使用Spark ML Lib训练模型,然后能够以平台无关的格式导出模型.基本上我想要分离模型的创建和消费方式.
我想要这种解耦的原因是我可以在其他项目中部署模型.例如:
有没有人用Spark ML Lib做过这样的事情?
我想模仿笔记本服务器的功能,而是从逻辑中心(即我自己的Python脚本)协调不同IPython/Jupyter内核的创建/管理.
例如,我想:
任何人都可以指出我如何以编程方式启动/停止/与多个IPython/Jupyter内核通信?
我想解析一个numpydoc docstring并以编程方式访问每个组件.
例如:
def foobar(a, b):
'''Something something
Parameters
----------
a : int, default: 5
Does something cool
b : str
Wow
'''
Run Code Online (Sandbox Code Playgroud)
我想做的是:
parsed = magic_parser(foobar)
parsed.text # Something something
parsed.a.text # Does something cool
parsed.a.type # int
parsed.a.default # 5
Run Code Online (Sandbox Code Playgroud)
我一直在寻找像numpydoc和拿破仑这样的东西但我没有找到任何好的线索如何在我自己的程序中使用它们.我很感激任何帮助.
c++ ×4
python ×3
apache-spark ×2
hadoop ×2
cmake ×1
dependencies ×1
deployment ×1
docstring ×1
inheritance ×1
ipython ×1
jupyter ×1
keras ×1
libsvm ×1
linux ×1
macos ×1
modeling ×1
parsing ×1
polymorphism ×1
qml ×1
qt ×1
scala ×1
svm ×1