小编oct*_*ian的帖子

找不到要构建的任何修订。验证此作业的存储库和分支配置

我有一个詹金斯管道脚本。我正在使用Bitbucket插件构建请求请求。

在其中,我要进行两次结帐。一个正在工作,而另一个则没有。

这个正在工作:

checkout([$class: 'GitSCM', 
          branches: [[name: "origin/${branchName}"]], doGenerateSubmoduleConfigurations: false,
          extensions: [], gitTool: 'jgit', submoduleCfg: [],
          userRemoteConfigs: [[credentialsId: credentials,
                               name: 'origin',
                               url: repository]]])
Run Code Online (Sandbox Code Playgroud)

其中repositorycredentialsbranchName是变量。

但是,这不起作用:

checkout([$class: 'GitSCM', 
          branches: [[name: "origin/pr/${pullRequestId}/merge"]], doGenerateSubmoduleConfigurations: false,
          extensions: [], gitTool: 'jgit', submoduleCfg: [],
          userRemoteConfigs: [[credentialsId: credentials,
                               name: 'origin', refspec: '+refs/pull-requests/*:refs/remotes/origin/pr/*',
                               url: repository]]])
Run Code Online (Sandbox Code Playgroud)

其中repositorycredentialspullRequestId是变量。

错误消息是Couldn't find any revision to build. Verify the repository and branch configuration for this job

git bitbucket jenkins jenkins-pipeline

6
推荐指数
0
解决办法
4826
查看次数

删除给定索引处的元素

在Scala中,我有一个Array[Int]名为的对象elem.

我想删除索引处的元素k.

我试过这个:

elem.filter(! _.equals(elem(k)))
Run Code Online (Sandbox Code Playgroud)

但是,这会删除所有等于的元素elem(k).

我怎么能只删除索引处的元素k

scala scala-collections

5
推荐指数
2
解决办法
2830
查看次数

RserveException:在 Databricks 上运行 R 时 eval 失败

我没有任何 R 经验,我尝试在 Databricks 笔记本中与 Spark 一起使用它来分析一些数据。

我已经按照这里的教程http://people.apache.org/~pwendell/spark-releases/latest/sparkr.html

到目前为止我有这个代码:

sparkR.stop()
sc <- sparkR.init()
sqlContext <- sparkRSQL.init(sc)

df <- createDataFrame(sqlContext, '/FileStore/tables/boanf7gu1466936449434/german.data')
Run Code Online (Sandbox Code Playgroud)

在最后一行我收到错误:

RserveException: eval failed, request status: error code: 127
org.rosuda.REngine.Rserve.RserveException: eval failed, request status: error code: 127
    at org.rosuda.REngine.Rserve.RConnection.eval(RConnection.java:234)
    at com.databricks.backend.daemon.driver.RShell.setJobGroup(RShell.scala:202)
    at com.databricks.backend.daemon.driver.RDriverLocal.setJobGroup(RDriverLocal.scala:150)
    at com.databricks.backend.daemon.driver.DriverLocal.execute(DriverLocal.scala:125)
    at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
    at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
    at scala.util.Try$.apply(Try.scala:161)
    at com.databricks.backend.daemon.driver.DriverWrapper.executeCommand(DriverWrapper.scala:480)
    at com.databricks.backend.daemon.driver.DriverWrapper.runInner(DriverWrapper.scala:381)
    at com.databricks.backend.daemon.driver.DriverWrapper.run(DriverWrapper.scala:212)
    at java.lang.Thread.run(Thread.java:745)
Run Code Online (Sandbox Code Playgroud)

是什么触发了这个?

r apache-spark

5
推荐指数
1
解决办法
3891
查看次数

无法推断类型的架构:<type'str'>

我有以下使用Spark的Python代码:

from pyspark.sql import Row

def simulate(a, b, c):
  dict = Row(a=a, b=b, c=c)
  df = sqlContext.createDataFrame(dict)
  return df

df = simulate("a","b",10)
df.collect()
Run Code Online (Sandbox Code Playgroud)

我正在创建一个Row对象,我想将其保存为DataFrame.

但是,我收到此错误:

TypeError: Can not infer schema for type: <type 'str'>
Run Code Online (Sandbox Code Playgroud)

它出现在这一行:

df = sqlContext.createDataFrame(dict)
Run Code Online (Sandbox Code Playgroud)

我究竟做错了什么?

python apache-spark pyspark

5
推荐指数
1
解决办法
1万
查看次数

Jackson 版本太旧了

我有以下build.sbt文件:

name := "myProject"

version := "1.0"

scalaVersion := "2.11.8"

javaOptions ++= Seq("-Xms512M", "-Xmx2048M", "-XX:MaxPermSize=2048M", "-XX:+CMSClassUnloadingEnabled")


dependencyOverrides ++= Set(
  "com.fasterxml.jackson.core" % "jackson-core" % "2.8.1"
)

// additional libraries
libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.0.0" % "provided",
  "org.apache.spark" %% "spark-sql" % "2.0.0" % "provided",
  "org.apache.spark" %% "spark-hive" % "2.0.0" % "provided",
  "com.databricks" %% "spark-csv" % "1.4.0",
  "org.scalactic" %% "scalactic" % "2.2.1",
  "org.scalatest" %% "scalatest" % "2.2.1" % "test",
  "org.scalacheck" %% "scalacheck" % "1.12.4",
  "com.holdenkarau" %% "spark-testing-base" % …
Run Code Online (Sandbox Code Playgroud)

scala sbt apache-spark

5
推荐指数
1
解决办法
8480
查看次数

从Jenkins管道脚本中创建git标签

在我的Jenkins管道脚本中,我想做这样的事情:

sh("git tag ${BUILD_NUMBER}")
Run Code Online (Sandbox Code Playgroud)

但是,如果在外壳上找不到git,则此方法将无效。

是否有任何Jenkins插件可以通过Jenkins管道脚本执行此操作?

git jenkins jenkins-pipeline

5
推荐指数
2
解决办法
2万
查看次数

Git 标签保留在 Jenkins 中

我想删除我的项目的所有 Git 标签,我将其git tag -d用于本地标签,然后将其推送到origin,因此origin也删除了其中的标签。

事实上,如果我运行git tag -lgit ls-remote --tags origin然后不显示标签。

但是,我的构建设置为每当我推送时,都会在 Jenkins 中触发构建。当在运行 Jenkins 的机器上触发构建时,git tag -l会显示几个标签。

如何删除这些标签?

git git-tag jenkins

5
推荐指数
2
解决办法
3358
查看次数

TypeError:传递给参数“ a”的值的DataType不在允许值列表中

我有以下代码:

_X = np.arange(1, 7).reshape((2, 3))
_Y = np.arange(1, 7).reshape((3, 2))

X = tf.convert_to_tensor(_X)
Y = tf.convert_to_tensor(_Y)

# Matrix multiplication
out1 = tf.matmul(X, Y)
Run Code Online (Sandbox Code Playgroud)

为此,我收到此错误:

TypeError: Value passed to parameter 'a' has DataType int64 not in list of allowed values: float16, float32, float64, int32, complex64, complex128
Run Code Online (Sandbox Code Playgroud)

我正在使用最新版本的Tensorflow。可能是什么问题?

python tensorflow

5
推荐指数
1
解决办法
6856
查看次数

Scikit-learn 不适用于 KNN 上的字符串值

我正在使用 Scikit learn 进行 K 最近邻分类:

from sklearn.neighbors import KNeighborsClassifier

model=KNeighborsClassifier() 
model.fit(train_input,train_labels)
Run Code Online (Sandbox Code Playgroud)

如果我打印我的数据:

print("train_input:")
print(train_input.iloc[0])
print("\n")
print("train_labels:")
print(train_labels.iloc[0]) 
Run Code Online (Sandbox Code Playgroud)

我明白了:

train_input:
PassengerId                          1
Pclass                               3
Name           Braund, Mr. Owen Harris
Sex                               male
Age                                 22
SibSp                                1
Parch                                0
Ticket                       A/5 21171
Fare                              7.25
Cabin                              NaN
Embarked                             S
Name: 0, dtype: object


train_labels:
0
Run Code Online (Sandbox Code Playgroud)

代码失败并出现以下错误:

ValueError                                Traceback (most recent call last)
<ipython-input-21-1f18eec1e602> in <module>()
     63 
     64 model=KNeighborsClassifier()
---> 65 model.fit(train_input,train_labels)
ValueError: could not convert string to float: 'Q'
Run Code Online (Sandbox Code Playgroud)

那么,KNN 算法不适用于String值吗? …

python knn scikit-learn

5
推荐指数
1
解决办法
7651
查看次数

XGBClassifier 很慢,尽管传递了详细参数,但不打印任何输出

我有以下代码:

from xgboost import XGBClassifier

print(df_train.shape)
print(df_train_labels.shape)

clf = clf.fit(df_train, df_train_labels, verbose=True)
print("after fit")
Run Code Online (Sandbox Code Playgroud)

这里df_traindf_train_labels是我从CSV读大熊猫。

上面的代码打印:

(1460, 7)
(1460,)
Run Code Online (Sandbox Code Playgroud)

但是,在 10 分钟内没有打印任何其他内容,这意味着代码卡住了,clf.fit所以我假设算法不应该在此上花费很长时间。

如您所见,只有1460示例,所以我假设算法不应该在此上花费很长时间。

此外,由于我通过了verbose=True,我本来希望模型打印一些输出,但这并没有发生。

知道为什么没有打印输出以及为什么XGBClassifier需要这么长时间吗?

python dataframe xgboost

5
推荐指数
1
解决办法
1681
查看次数