我有一个詹金斯管道脚本。我正在使用Bitbucket插件构建请求请求。
在其中,我要进行两次结帐。一个正在工作,而另一个则没有。
这个正在工作:
checkout([$class: 'GitSCM',
branches: [[name: "origin/${branchName}"]], doGenerateSubmoduleConfigurations: false,
extensions: [], gitTool: 'jgit', submoduleCfg: [],
userRemoteConfigs: [[credentialsId: credentials,
name: 'origin',
url: repository]]])
Run Code Online (Sandbox Code Playgroud)
其中repository,credentials和branchName是变量。
但是,这不起作用:
checkout([$class: 'GitSCM',
branches: [[name: "origin/pr/${pullRequestId}/merge"]], doGenerateSubmoduleConfigurations: false,
extensions: [], gitTool: 'jgit', submoduleCfg: [],
userRemoteConfigs: [[credentialsId: credentials,
name: 'origin', refspec: '+refs/pull-requests/*:refs/remotes/origin/pr/*',
url: repository]]])
Run Code Online (Sandbox Code Playgroud)
其中repository,credentials和pullRequestId是变量。
错误消息是Couldn't find any revision to build. Verify the repository and branch configuration for this job。
在Scala中,我有一个Array[Int]名为的对象elem.
我想删除索引处的元素k.
我试过这个:
elem.filter(! _.equals(elem(k)))
Run Code Online (Sandbox Code Playgroud)
但是,这会删除所有等于的元素elem(k).
我怎么能只删除索引处的元素k?
我没有任何 R 经验,我尝试在 Databricks 笔记本中与 Spark 一起使用它来分析一些数据。
我已经按照这里的教程http://people.apache.org/~pwendell/spark-releases/latest/sparkr.html
到目前为止我有这个代码:
sparkR.stop()
sc <- sparkR.init()
sqlContext <- sparkRSQL.init(sc)
df <- createDataFrame(sqlContext, '/FileStore/tables/boanf7gu1466936449434/german.data')
Run Code Online (Sandbox Code Playgroud)
在最后一行我收到错误:
RserveException: eval failed, request status: error code: 127
org.rosuda.REngine.Rserve.RserveException: eval failed, request status: error code: 127
at org.rosuda.REngine.Rserve.RConnection.eval(RConnection.java:234)
at com.databricks.backend.daemon.driver.RShell.setJobGroup(RShell.scala:202)
at com.databricks.backend.daemon.driver.RDriverLocal.setJobGroup(RDriverLocal.scala:150)
at com.databricks.backend.daemon.driver.DriverLocal.execute(DriverLocal.scala:125)
at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
at scala.util.Try$.apply(Try.scala:161)
at com.databricks.backend.daemon.driver.DriverWrapper.executeCommand(DriverWrapper.scala:480)
at com.databricks.backend.daemon.driver.DriverWrapper.runInner(DriverWrapper.scala:381)
at com.databricks.backend.daemon.driver.DriverWrapper.run(DriverWrapper.scala:212)
at java.lang.Thread.run(Thread.java:745)
Run Code Online (Sandbox Code Playgroud)
是什么触发了这个?
我有以下使用Spark的Python代码:
from pyspark.sql import Row
def simulate(a, b, c):
dict = Row(a=a, b=b, c=c)
df = sqlContext.createDataFrame(dict)
return df
df = simulate("a","b",10)
df.collect()
Run Code Online (Sandbox Code Playgroud)
我正在创建一个Row对象,我想将其保存为DataFrame.
但是,我收到此错误:
TypeError: Can not infer schema for type: <type 'str'>
Run Code Online (Sandbox Code Playgroud)
它出现在这一行:
df = sqlContext.createDataFrame(dict)
Run Code Online (Sandbox Code Playgroud)
我究竟做错了什么?
我有以下build.sbt文件:
name := "myProject"
version := "1.0"
scalaVersion := "2.11.8"
javaOptions ++= Seq("-Xms512M", "-Xmx2048M", "-XX:MaxPermSize=2048M", "-XX:+CMSClassUnloadingEnabled")
dependencyOverrides ++= Set(
"com.fasterxml.jackson.core" % "jackson-core" % "2.8.1"
)
// additional libraries
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "2.0.0" % "provided",
"org.apache.spark" %% "spark-sql" % "2.0.0" % "provided",
"org.apache.spark" %% "spark-hive" % "2.0.0" % "provided",
"com.databricks" %% "spark-csv" % "1.4.0",
"org.scalactic" %% "scalactic" % "2.2.1",
"org.scalatest" %% "scalatest" % "2.2.1" % "test",
"org.scalacheck" %% "scalacheck" % "1.12.4",
"com.holdenkarau" %% "spark-testing-base" % …Run Code Online (Sandbox Code Playgroud) 在我的Jenkins管道脚本中,我想做这样的事情:
sh("git tag ${BUILD_NUMBER}")
Run Code Online (Sandbox Code Playgroud)
但是,如果在外壳上找不到git,则此方法将无效。
是否有任何Jenkins插件可以通过Jenkins管道脚本执行此操作?
我想删除我的项目的所有 Git 标签,我将其git tag -d用于本地标签,然后将其推送到origin,因此origin也删除了其中的标签。
事实上,如果我运行git tag -l或git ls-remote --tags origin然后不显示标签。
但是,我的构建设置为每当我推送时,都会在 Jenkins 中触发构建。当在运行 Jenkins 的机器上触发构建时,git tag -l会显示几个标签。
如何删除这些标签?
我有以下代码:
_X = np.arange(1, 7).reshape((2, 3))
_Y = np.arange(1, 7).reshape((3, 2))
X = tf.convert_to_tensor(_X)
Y = tf.convert_to_tensor(_Y)
# Matrix multiplication
out1 = tf.matmul(X, Y)
Run Code Online (Sandbox Code Playgroud)
为此,我收到此错误:
TypeError: Value passed to parameter 'a' has DataType int64 not in list of allowed values: float16, float32, float64, int32, complex64, complex128
Run Code Online (Sandbox Code Playgroud)
我正在使用最新版本的Tensorflow。可能是什么问题?
我正在使用 Scikit learn 进行 K 最近邻分类:
from sklearn.neighbors import KNeighborsClassifier
model=KNeighborsClassifier()
model.fit(train_input,train_labels)
Run Code Online (Sandbox Code Playgroud)
如果我打印我的数据:
print("train_input:")
print(train_input.iloc[0])
print("\n")
print("train_labels:")
print(train_labels.iloc[0])
Run Code Online (Sandbox Code Playgroud)
我明白了:
train_input:
PassengerId 1
Pclass 3
Name Braund, Mr. Owen Harris
Sex male
Age 22
SibSp 1
Parch 0
Ticket A/5 21171
Fare 7.25
Cabin NaN
Embarked S
Name: 0, dtype: object
train_labels:
0
Run Code Online (Sandbox Code Playgroud)
代码失败并出现以下错误:
ValueError Traceback (most recent call last)
<ipython-input-21-1f18eec1e602> in <module>()
63
64 model=KNeighborsClassifier()
---> 65 model.fit(train_input,train_labels)
ValueError: could not convert string to float: 'Q'
Run Code Online (Sandbox Code Playgroud)
那么,KNN 算法不适用于String值吗? …
我有以下代码:
from xgboost import XGBClassifier
print(df_train.shape)
print(df_train_labels.shape)
clf = clf.fit(df_train, df_train_labels, verbose=True)
print("after fit")
Run Code Online (Sandbox Code Playgroud)
这里df_train和df_train_labels是我从CSV读大熊猫。
上面的代码打印:
(1460, 7)
(1460,)
Run Code Online (Sandbox Code Playgroud)
但是,在 10 分钟内没有打印任何其他内容,这意味着代码卡住了,clf.fit所以我假设算法不应该在此上花费很长时间。
如您所见,只有1460示例,所以我假设算法不应该在此上花费很长时间。
此外,由于我通过了verbose=True,我本来希望模型打印一些输出,但这并没有发生。
知道为什么没有打印输出以及为什么XGBClassifier需要这么长时间吗?
python ×4
apache-spark ×3
git ×3
jenkins ×3
scala ×2
bitbucket ×1
dataframe ×1
git-tag ×1
knn ×1
pyspark ×1
r ×1
sbt ×1
scikit-learn ×1
tensorflow ×1
xgboost ×1