小编Ben*_*min的帖子

scalatest:对象scalatest不是包org的成员

编辑:如果文件在src/test/scala/tests /但不在src/main/scala/mypackage /为什么?

我尝试过主题的解决方案,人们有几乎相同的问题但没有效果.

详细说明,我在build.sbt中有这个:

libraryDependencies ++= Seq(
   ...
  "org.scalatest" % "scalatest_2.10" % "2.2.1" % "test",
   ...
Run Code Online (Sandbox Code Playgroud)

在intellij中有一个类:

import org.scalatest.{BeforeAndAfterAll, Suite}
Run Code Online (Sandbox Code Playgroud)

{BeforeAndAfterAll,Suite}为红色,所以我觉得scalatest找到了

sbt包也不起作用:

object scalatest不是包org [error] import org.scalatest的成员.{BeforeAndAfterAll,Suite}

我已经尝试过了:

  • sbt清理更新
  • 重启+使intellij的缓存无效
  • 删除.idea /并重新导入
  • libraryDependencies + ="org.scalatest"%"scalatest_2.10"%"2.0"%"test"而不是ogf实际
  • 我的键盘上有神奇的仪式

什么都行不通

任何的想法 ?

scala intellij-idea sbt scalatest

12
推荐指数
1
解决办法
1万
查看次数

Spark作为另一个用户提交给yarn

是否可以向纱线群集提交火花作业,并使用命令行或罐子内部选择哪个用户"拥有"该作业?

spark-submit将从包含用户的脚本启动.

PS:如果集群有kerberos配置(并且脚本是密钥表),它仍然可能吗?

hadoop kerberos hadoop-yarn apache-spark

9
推荐指数
3
解决办法
9612
查看次数

关于spark的DBSCAN:哪个实现

我想在Spark上做一些DBSCAN.我目前发现了2个实现:

我已经使用其github中给出的sbt配置测试了第一个但是:

  • jar中的函数与doc或github上的源代码中的函数不同.例如,我在jar中找不到列车功能

  • 我设法使用fit函数(在jar中找到)运行测试,但是epsilon的错误配置(从小到大)将代码置于无限循环中.

代码:

val model = DBSCAN.fit(eps, minPoints, values, parallelism)
Run Code Online (Sandbox Code Playgroud)

有人设法与第一个图书馆合作吗?

有人测试过第二个吗?

scala cluster-analysis dbscan apache-spark apache-spark-mllib

8
推荐指数
2
解决办法
8083
查看次数

Gitlab与redmine服务:连接信息

我有一个Redmine和一个GitLab.我尝试在Gitlab中配置Redmine服务,但它只要求3个Redmine URL(projectURL,issueURL newIssueURL),没有登录/密码,也没有API Key.

显然,"测试设置"按钮会引发错误:

我们尝试向提供的网址发送请求,但发生错误"

是否可以使用gitlab的"私人"redmine?

redmine gitlab

7
推荐指数
1
解决办法
557
查看次数

更改焦点时保留背景颜色以供选择

在此示例中: https: //jsfiddle.net/pfc1qauz/10/当我选择 2 并将焦点更改为 C(右侧的任何内容)时,2 的背景颜色变为灰色。不对焦时如何保持红色?

HTML:

<select class="multiselect-left" size=4>
  <option>1</option>
  <option>2</option>
  <option>3</option>
</select>
<select class="multiselect-right" size=4>
  <option>A</option>
  <option>B</option>
  <option>C</option>
</select>
Run Code Online (Sandbox Code Playgroud)

CSS:

option{
  background: #F00;
}
Run Code Online (Sandbox Code Playgroud)

谢谢,

html css

5
推荐指数
1
解决办法
4340
查看次数

Java或Scala使用java.time解析具有多种不同格式的日期的快速方法

我想要一个通用的快速解析器来处理随机格式的日期:

  • 2018年
  • 2018-12-31
  • 2018/12/31
  • 2018年12月31日
  • 20181231151617
  • 2018-12-31T15:16:17
  • 2018-12-31T15:16:17.123456
  • 2018-12-31T15:16:17.123456Z
  • 2018-12-31T15:16:17.123456 UTC
  • 2018-12-31T15:16:17.123456 + 01:00
  • ...如此多的可能性

有一种不错的方法吗?

目前,我正计划使用以下方式:

val formatter = new DateTimeFormatterBuilder()
  .appendPattern("[yyyy-MM-dd'T'HH:mm:ss]")
  .appendPattern("[yyyy-MM-dd]")
  .appendPattern("[yyyy]")
  // add so many things here
  .parseDefaulting(ChronoField.MONTH_OF_YEAR, 1)
  .parseDefaulting(ChronoField.DAY_OF_MONTH, 1)
  .parseDefaulting(ChronoField.HOUR_OF_DAY, 0)
  .parseDefaulting(ChronoField.MINUTE_OF_HOUR, 0)
  .parseDefaulting(ChronoField.SECOND_OF_MINUTE, 0)
  .parseDefaulting(ChronoField.MICRO_OF_SECOND, 0)
  .toFormatter()


val temporalAccessor = formatter.parse("2018")
val localDateTime = LocalDateTime.from(temporalAccessor)
localDateTime.getHour
val zonedDateTime = ZonedDateTime.of(localDateTime, ZoneId.systemDefault)
val result = Instant.from(zonedDateTime)
Run Code Online (Sandbox Code Playgroud)

但是,有比指定数百种格式更聪明的方法吗?

我发现的大多数答案都是过时的(在Java8之前),或者不关注性能和许多不同的格式。

java parsing scala date

5
推荐指数
1
解决办法
112
查看次数

REST API获取纱线日志

在Hadoop2中,是否可以使用rest API获得与以下结果相同的结果:

yarn logs -applicationId <application ID>
Run Code Online (Sandbox Code Playgroud)

rest hadoop hadoop-yarn

4
推荐指数
1
解决办法
1536
查看次数

org.apache.hadoop.fs.ParentNotDirectoryException:/tmp(不是目录)

我是 Hadoop 新手,正在运行 wordCount2 示例。但是我遇到了以下错误

Exception in thread "main" org.apache.hadoop.fs.ParentNotDirectoryException: /tmp (is not a directory)
        at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkIsDirectory(FSPermissionChecker.java:570)
        at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkSimpleTraverse(FSPermissionChecker.java:562)
        at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:537)
        at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkTraverse(FSDirectory.java:1702)
        at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkTraverse(FSDirectory.java:1720)
        at org.apache.hadoop.hdfs.server.namenode.FSDirectory.resolvePath(FSDirectory.java:641)
        at org.apache.hadoop.hdfs.server.namenode.FSDirMkdirOp.mkdirs(FSDirMkdirOp.java:51)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:2990)
        at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:1096)
        at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:652)
        at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:503)
        at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:989)
        at org.apache.hadoop.ipc.Server$RpcCall.run(Server.java:871)
        at org.apache.hadoop.ipc.Server$RpcCall.run(Server.java:817)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:422)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1893)
        at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2606)

        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
        at org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:121)
        at org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:88)
        at org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:2474)
        at org.apache.hadoop.hdfs.DFSClient.mkdirs(DFSClient.java:2447)
        at org.apache.hadoop.hdfs.DistributedFileSystem$27.doCall(DistributedFileSystem.java:1248)
        at org.apache.hadoop.hdfs.DistributedFileSystem$27.doCall(DistributedFileSystem.java:1245)
        at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
        at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirsInternal(DistributedFileSystem.java:1245)
        at …
Run Code Online (Sandbox Code Playgroud)

hadoop hadoop2

4
推荐指数
1
解决办法
2345
查看次数

Django 管理命令不显示我的库的日志

这个问题是这个 4 年前问题的简单版本,没有答案Django 管理命令不显示 python 库的日志输出

我有一个命令:

class Command(BaseCommand):
  def handle(self, *args, **options):
  ...
  MyParser(data)
Run Code Online (Sandbox Code Playgroud)

在 MyParser 中:

logger = logging.getLogger(__name__)

Class MyParser:
   def __init__(self, data):
       logger.info('hello')
Run Code Online (Sandbox Code Playgroud)

为什么当我运行命令时记录器不显示到标准输出?打印没问题,但我需要一个记录器

附:

我尝试过,但它没有改变任何东西

from parser import logger
root_logger = logger
root_logger.setLevel(logging.INFO)
MyParser(data)
Run Code Online (Sandbox Code Playgroud)

python django django-commands

4
推荐指数
1
解决办法
3389
查看次数

大文件上传到 Django Rest Framework

我尝试在 DRF 视图集上上传一个带有 PUT 的大文件 (4GB)。

在上传过程中我的记忆是稳定的。在 100% 时,python runserver 进程占用越来越多的 RAM 并被内核杀死。我在此put方法中有一个日志记录行,APIView但在此方法调用之前该进程已被终止。

我使用此设置来强制使用文件 FILE_UPLOAD_HANDLERS = ["django.core.files.uploadhandler.TemporaryFileUploadHandler"]

这个内存峰值来自哪里?我想它尝试将文件内容加载到内存中,但为什么(以及在哪里)?

更多信息:

  • 我试过 DEBUG 真假
  • runserver 位于 traefik 后面的 docker 中,但 traefik AFAIK 没有限制并且上传达到 100%
  • 我不知道我是否会得到相同的行为daphne而不是 runserver
  • 编辑:前面使用一个 Content-Type multipart/form-data
  • 编辑:我曾尝试FileUploadParser(FormParser, MultiPartParser)在parser_classes我APIView

django django-rest-framework

4
推荐指数
1
解决办法
776
查看次数