小编Chr*_*now的帖子

Scala组成函数

我有一个函数compose,我知道是正确的

def compose[A,B,C](f: B => C, g: A => B): A => C = {
    a: A => f(g(a))
}
Run Code Online (Sandbox Code Playgroud)

但是当我尝试使用它时,我收到一个错误

def main(args: Array[String]): Unit = {
    println("Function composition:")
    compose(x: Int => x+1, y: Int => y-1)(10)
}

error: identifier expected but integer literal found.
Run Code Online (Sandbox Code Playgroud)

有人可以指出我做错了什么吗?

scala

1
推荐指数
2
解决办法
1162
查看次数

是否可以用Application.groovy替换Application.java?

我正在尝试使用spring boot和groovy构建一个可执行jar.

是否可以将Application.java替换为Application.groovy?我只能找到用java编写的主类的例子.

groovy spring-boot

1
推荐指数
1
解决办法
54
查看次数

如何从Bluemix中运行的Flask应用程序连接到Cloudant?

我见过Bluemix的烧瓶示例项目:https://github.com/IBM-Bluemix/bluemix-python-flask-sample

如何从此烧瓶应用程序连接到Cloudant?

注意:

  • 我知道如何使用烧瓶.
  • 我已经看到了使用请求库连接到Cloudant的说明,这是我想要使用的方法.
  • 我已经看过Cloudant API文档,我对不同的API方法很满意.

python flask cloudant ibm-cloud

1
推荐指数
1
解决办法
1479
查看次数

使用ambari删除服务时出错

我正在尝试删除无法正确安装的服务,以便我可以尝试重新安装它.

我在ambari UI中找不到任何删除选项,因此我尝试使用API​​删除.但是,我点击了一条错误消息:

curl -u admin:admin -H 'X-Requested-By:ambari' -X DELETE \
     'http://localhost:8080/api/v1/clusters/BI4_QSE/services/SPARK'
{
  "status" : 500,
  "message" : "org.apache.ambari.server.controller.spi.SystemException: 
               An internal system exception occurred: Cannot remove SPARK.             
               Desired state STARTED is not removable.  
               Service must be stopped or disabled."
}
Run Code Online (Sandbox Code Playgroud)

我使用的是Docker化版本的IBM Open Platform v4,即IOP_v4000_20150.zip

ambari版本是:

[root@rvm /]# ambari-server --version
1.7.0_IBM
Run Code Online (Sandbox Code Playgroud)

以下是GET命令的输出:

curl -u admin:admin -H 'X-Requested-By:ambari' -X GET \
     'http://localhost:8080/api/v1/clusters/BI4_QSE/services/SPARK'
{
  "href" : "http://localhost:8080/api/v1/clusters/BI4_QSE/services/SPARK",
  "ServiceInfo" : {
    "cluster_name" : "BI4_QSE",
    "maintenance_state" : "OFF",
    "service_name" : "SPARK",
    "state" : "INSTALLED"
  }, …
Run Code Online (Sandbox Code Playgroud)

hadoop ambari

1
推荐指数
1
解决办法
2316
查看次数

!pip install nltk - >权限被拒绝

我正在尝试使用以下notebook命令安装nltk:

!pip install nltk
Run Code Online (Sandbox Code Playgroud)

但是,这会引发以下错误:

error: could not create '/usr/local/src/bluemix_ipythonspark_141/notebook/lib/python2.7/site-packages/nltk': 
Permission denied
Run Code Online (Sandbox Code Playgroud)

如何从Jupyter笔记本安装nltk?请注意,bluemix上的spark环境只能通过笔记本访问.她无法进入环境.

nltk apache-spark jupyter data-science-experience ibm-cloud

1
推荐指数
1
解决办法
1105
查看次数

plt.bar - > TypeError:无法连接'str'和'float'对象

我有一个x_axis表示numpy数组的变量:

array(['administrator', 'retired', 'lawyer', 'none', 'student',
       'technician', 'programmer', 'salesman', 'homemaker', 'executive',
       'doctor', 'entertainment', 'marketing', 'writer', 'scientist',
       'educator', 'healthcare', 'librarian', 'artist', 'other', 'engineer'], 
      dtype='|S13')
Run Code Online (Sandbox Code Playgroud)

......我的y_axis样子如下:

array([ 79,  14,  12,   9, 196,  27,  66,  12,   7,  32,   7,  18,  26,
        45,  31,  95,  16,  51,  28, 105,  67])
Run Code Online (Sandbox Code Playgroud)

当我试图绘制它们时:

import matplotlib.pyplot as plt
plt.bar(x_axis,y_axis)
Run Code Online (Sandbox Code Playgroud)

我收到错误:

TypeError: cannot concatenate 'str' and 'float' objects
Run Code Online (Sandbox Code Playgroud)

注意:

我看过'类似'的问题,但没有特别询问matplotlib.bar中的这个错误.

numpy matplotlib

1
推荐指数
1
解决办法
1186
查看次数

Spark Hive 报告 pyspark.sql.utils.AnalysisException: u'Table not found: XXX' 在纱线集群上运行时

我正在尝试在访问 Hive 表的 Cloud 4.2 Enterprise 上的 BigInsights 上运行 pyspark 脚本。

首先我创建 hive 表:

[biadmin@bi4c-xxxxx-mastermanager ~]$ hive
hive> CREATE TABLE pokes (foo INT, bar STRING);
OK
Time taken: 2.147 seconds
hive> LOAD DATA LOCAL INPATH '/usr/iop/4.2.0.0/hive/doc/examples/files/kv1.txt' OVERWRITE INTO TABLE pokes;
Loading data to table default.pokes
Table default.pokes stats: [numFiles=1, numRows=0, totalSize=5812, rawDataSize=0]
OK
Time taken: 0.49 seconds
hive> 
Run Code Online (Sandbox Code Playgroud)

然后我创建了一个简单的 pyspark 脚本:

[biadmin@bi4c-xxxxxx-mastermanager ~]$ cat test_pokes.py
from pyspark import SparkContext

sc = SparkContext()

from pyspark.sql import HiveContext
hc = HiveContext(sc)

pokesRdd …
Run Code Online (Sandbox Code Playgroud)

hive hadoop-yarn biginsights apache-spark ibm-cloud

1
推荐指数
1
解决办法
2万
查看次数

如何通过完成平方来分解方程式?

我想通过完成平方来分解方程式:

>>>> import sympy
>>>> x, c = symbols('x c')
>>>> factor(x**2 - 4*x  - 1)
x**2 - 4*x - 1
Run Code Online (Sandbox Code Playgroud)

但是,我期望看到:

(x - 2)**2 - 5
Run Code Online (Sandbox Code Playgroud)

如何在sympy中完成?

sympy

1
推荐指数
1
解决办法
426
查看次数

Kubernetes 服务外部 IP 地址在 IBM Cloud(之前称为 Bluemix)中仍处于待处理状态

我正在按照Kubernetes in Action 中的一个示例在kubernetes 中运行一个简单的 docker 镜像:

$ bx login --apikey @apiKey.json -a  https://api.eu-de.bluemix.net
$ bx cs cluster-config my_kubernetes
$ export KUBECONFIG=..my_kubernetes.yml
Run Code Online (Sandbox Code Playgroud)

接下来,运行容器:

$ kubectl run kubia --image=luksa/kubia --port=8080 --generator=run/v1
$ kubectl expose rc kubia --type=LoadBalancer --name kubia-http
$ kubectl get service
$ kubectl get svc

NAME         CLUSTER-IP    EXTERNAL-IP   PORT(S)          AGE
kubernetes   10.10.10.1    <none>        443/TCP          20h
kubia-http   10.10.10.12   <pending>     8080:32373/TCP   0m
Run Code Online (Sandbox Code Playgroud)

十五分钟后……

NAME         CLUSTER-IP    EXTERNAL-IP   PORT(S)          AGE
kubernetes   10.10.10.1    <none>        443/TCP          20h
kubia-http   10.10.10.12   <pending>     8080:32373/TCP …
Run Code Online (Sandbox Code Playgroud)

containers kubernetes ibm-cloud ibm-cloud-kubernetes

1
推荐指数
1
解决办法
5818
查看次数

从 IDE 运行 flink 时如何设置 presto.s3.xxx 属性?

我能够成功运行我的 flink 作业,该作业使用./bin/flink run ....

为此,我必须将 flink-s3-fs-presto jar 复制到我的$FLINK_HOME/lib文件夹中,并且我还必须在我的以下文件中配置我的 S3 连接详细信息flink-conf.yaml

你需要在 Flink 的 flink-conf.yaml 中同时配置 s3.access-key 和 s3.secret-key :

s3.access-key: your-access-key
s3.secret-key: your-secret-key
Run Code Online (Sandbox Code Playgroud)

来源:flink aws 文档

我还必须设置一个属性,s3.endpoint因为我使用的是来自 IBM Cloud 的 S3。

当我使用./bin/flink run.

但是,当我尝试从 IDE (IntelliJ) 运行我的作业时,出现以下错误:

org.apache.flink.runtime.client.JobExecutionException:无法初始化任务“DataSink(TextOutputFormat(s3://xxxx/folder)-UTF-8)”:无法从服务端点加载凭据

我在 IDE 运行作业中设置了一个环境变量,FLINK_CONF_DIR指向我的 flink-conf.yaml,我可以看到我的配置属性被选中:

11:04:39,487 INFO  org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: s3.access-key, ****
11:04:39,487 INFO  org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: s3.secret-key, ****
11:04:39,487 INFO  org.apache.flink.configuration.GlobalConfiguration - Loading configuration …
Run Code Online (Sandbox Code Playgroud)

apache-flink

1
推荐指数
1
解决办法
1346
查看次数