我有一个函数compose,我知道是正确的
def compose[A,B,C](f: B => C, g: A => B): A => C = {
a: A => f(g(a))
}
Run Code Online (Sandbox Code Playgroud)
但是当我尝试使用它时,我收到一个错误
def main(args: Array[String]): Unit = {
println("Function composition:")
compose(x: Int => x+1, y: Int => y-1)(10)
}
error: identifier expected but integer literal found.
Run Code Online (Sandbox Code Playgroud)
有人可以指出我做错了什么吗?
我正在尝试使用spring boot和groovy构建一个可执行jar.
是否可以将Application.java替换为Application.groovy?我只能找到用java编写的主类的例子.
我见过Bluemix的烧瓶示例项目:https://github.com/IBM-Bluemix/bluemix-python-flask-sample
如何从此烧瓶应用程序连接到Cloudant?
注意:
我正在尝试删除无法正确安装的服务,以便我可以尝试重新安装它.
我在ambari UI中找不到任何删除选项,因此我尝试使用API删除.但是,我点击了一条错误消息:
curl -u admin:admin -H 'X-Requested-By:ambari' -X DELETE \
'http://localhost:8080/api/v1/clusters/BI4_QSE/services/SPARK'
{
"status" : 500,
"message" : "org.apache.ambari.server.controller.spi.SystemException:
An internal system exception occurred: Cannot remove SPARK.
Desired state STARTED is not removable.
Service must be stopped or disabled."
}
Run Code Online (Sandbox Code Playgroud)
我使用的是Docker化版本的IBM Open Platform v4,即IOP_v4000_20150.zip
ambari版本是:
[root@rvm /]# ambari-server --version
1.7.0_IBM
Run Code Online (Sandbox Code Playgroud)
以下是GET命令的输出:
curl -u admin:admin -H 'X-Requested-By:ambari' -X GET \
'http://localhost:8080/api/v1/clusters/BI4_QSE/services/SPARK'
{
"href" : "http://localhost:8080/api/v1/clusters/BI4_QSE/services/SPARK",
"ServiceInfo" : {
"cluster_name" : "BI4_QSE",
"maintenance_state" : "OFF",
"service_name" : "SPARK",
"state" : "INSTALLED"
}, …Run Code Online (Sandbox Code Playgroud) 我正在尝试使用以下notebook命令安装nltk:
!pip install nltk
Run Code Online (Sandbox Code Playgroud)
但是,这会引发以下错误:
error: could not create '/usr/local/src/bluemix_ipythonspark_141/notebook/lib/python2.7/site-packages/nltk':
Permission denied
Run Code Online (Sandbox Code Playgroud)
如何从Jupyter笔记本安装nltk?请注意,bluemix上的spark环境只能通过笔记本访问.她无法进入环境.
我有一个x_axis表示numpy数组的变量:
array(['administrator', 'retired', 'lawyer', 'none', 'student',
'technician', 'programmer', 'salesman', 'homemaker', 'executive',
'doctor', 'entertainment', 'marketing', 'writer', 'scientist',
'educator', 'healthcare', 'librarian', 'artist', 'other', 'engineer'],
dtype='|S13')
Run Code Online (Sandbox Code Playgroud)
......我的y_axis样子如下:
array([ 79, 14, 12, 9, 196, 27, 66, 12, 7, 32, 7, 18, 26,
45, 31, 95, 16, 51, 28, 105, 67])
Run Code Online (Sandbox Code Playgroud)
当我试图绘制它们时:
import matplotlib.pyplot as plt
plt.bar(x_axis,y_axis)
Run Code Online (Sandbox Code Playgroud)
我收到错误:
TypeError: cannot concatenate 'str' and 'float' objects
Run Code Online (Sandbox Code Playgroud)
注意:
我看过'类似'的问题,但没有特别询问matplotlib.bar中的这个错误.
我正在尝试在访问 Hive 表的 Cloud 4.2 Enterprise 上的 BigInsights 上运行 pyspark 脚本。
首先我创建 hive 表:
[biadmin@bi4c-xxxxx-mastermanager ~]$ hive
hive> CREATE TABLE pokes (foo INT, bar STRING);
OK
Time taken: 2.147 seconds
hive> LOAD DATA LOCAL INPATH '/usr/iop/4.2.0.0/hive/doc/examples/files/kv1.txt' OVERWRITE INTO TABLE pokes;
Loading data to table default.pokes
Table default.pokes stats: [numFiles=1, numRows=0, totalSize=5812, rawDataSize=0]
OK
Time taken: 0.49 seconds
hive>
Run Code Online (Sandbox Code Playgroud)
然后我创建了一个简单的 pyspark 脚本:
[biadmin@bi4c-xxxxxx-mastermanager ~]$ cat test_pokes.py
from pyspark import SparkContext
sc = SparkContext()
from pyspark.sql import HiveContext
hc = HiveContext(sc)
pokesRdd …Run Code Online (Sandbox Code Playgroud) 我想通过完成平方来分解方程式:
>>>> import sympy
>>>> x, c = symbols('x c')
>>>> factor(x**2 - 4*x - 1)
x**2 - 4*x - 1
Run Code Online (Sandbox Code Playgroud)
但是,我期望看到:
(x - 2)**2 - 5
Run Code Online (Sandbox Code Playgroud)
如何在sympy中完成?
我正在按照Kubernetes in Action 中的一个示例在kubernetes 中运行一个简单的 docker 镜像:
$ bx login --apikey @apiKey.json -a https://api.eu-de.bluemix.net
$ bx cs cluster-config my_kubernetes
$ export KUBECONFIG=..my_kubernetes.yml
Run Code Online (Sandbox Code Playgroud)
接下来,运行容器:
$ kubectl run kubia --image=luksa/kubia --port=8080 --generator=run/v1
$ kubectl expose rc kubia --type=LoadBalancer --name kubia-http
$ kubectl get service
$ kubectl get svc
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes 10.10.10.1 <none> 443/TCP 20h
kubia-http 10.10.10.12 <pending> 8080:32373/TCP 0m
Run Code Online (Sandbox Code Playgroud)
十五分钟后……
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes 10.10.10.1 <none> 443/TCP 20h
kubia-http 10.10.10.12 <pending> 8080:32373/TCP …Run Code Online (Sandbox Code Playgroud) 我能够成功运行我的 flink 作业,该作业使用./bin/flink run ....
为此,我必须将 flink-s3-fs-presto jar 复制到我的$FLINK_HOME/lib文件夹中,并且我还必须在我的以下文件中配置我的 S3 连接详细信息flink-conf.yaml:
你需要在 Flink 的 flink-conf.yaml 中同时配置 s3.access-key 和 s3.secret-key :
Run Code Online (Sandbox Code Playgroud)s3.access-key: your-access-key s3.secret-key: your-secret-key来源:flink aws 文档
我还必须设置一个属性,s3.endpoint因为我使用的是来自 IBM Cloud 的 S3。
当我使用./bin/flink run.
但是,当我尝试从 IDE (IntelliJ) 运行我的作业时,出现以下错误:
org.apache.flink.runtime.client.JobExecutionException:无法初始化任务“DataSink(TextOutputFormat(s3://xxxx/folder)-UTF-8)”:无法从服务端点加载凭据
我在 IDE 运行作业中设置了一个环境变量,FLINK_CONF_DIR指向我的 flink-conf.yaml,我可以看到我的配置属性被选中:
11:04:39,487 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: s3.access-key, ****
11:04:39,487 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: s3.secret-key, ****
11:04:39,487 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration …Run Code Online (Sandbox Code Playgroud) ibm-cloud ×4
apache-spark ×2
ambari ×1
apache-flink ×1
biginsights ×1
cloudant ×1
containers ×1
flask ×1
groovy ×1
hadoop ×1
hadoop-yarn ×1
hive ×1
jupyter ×1
kubernetes ×1
matplotlib ×1
nltk ×1
numpy ×1
python ×1
scala ×1
spring-boot ×1
sympy ×1