嗨,我按照android文档创建了一个库.但我的问题是每当我运行项目意味着它正在创建.aar文件.我谷歌它,发现如何将AAR转换为JAR .我正在使用iZip Unarchiver.但它没有提取.aar文件.但他们接受了这个答案.任何人都可以知道如何从.aar中提取.jar.谢谢.
我有jar文件,我想与特定的属性文件一起运行.我正在运行以下命令来执行该jar
java –jar –DApp.config.file=local.properties App.jar
Run Code Online (Sandbox Code Playgroud)
使用此命令,我收到以下错误
Could not load properties from class path resource [local.properties]: class path resource [local.properties] cannot be opened because it does not exist
Run Code Online (Sandbox Code Playgroud)
基于我到目前为止所读到的内容,如果你传递-jar,那么你不必担心$ CLASSPATH.我在这里错过了什么吗?
PS - local.properties和jar文件在同一目录中.
我需要使用一个nxParser库NTriple在eclipse中解析我的文件.
显然,完美工作的唯一来源是这个github代码,但这只是源代码,我需要一个内置的jar库.
任何人都可以帮助我如何使用源代码作为内置jar文件?
我已经创建了一个jar文件,但每当我点击它时都没有任何反应,它不会打开.所以我做的是去项目结构 - >工件 - > jar - >从模块到依赖 - >然后选择桌面模块和DesktopLauncher作为主类然后保存,然后构建工件.jar文件甚至没有打开,有没有办法以不同的方式创建一个jar文件?
我是Scala和Spark的新手.我在Scala中遇到了一些版本问题错误,所以我尝试更改Scala版本pom.xml以便在群集上运行我的jar文件.最后,我发现制作jar的成功Scala版本是2.11.
但是,我对Scala版本有点好奇,因为当我命令scala -versionbash shell 时,我的集群上安装的Scala版本是2.10.4(事实并非如此2.11).更奇怪的是,当我将scala版本2.11改为2.10in pom.xml以制作相同的scala版本时,jar文件不起作用.并且,它将错误抛出如下.
Exception in thread "main" java.lang.NoSuchMethodError: scala.reflect.api.JavaUniverse.runtimeMirror(Ljava/lang/ClassLoader;)Lscala/reflect/api/JavaMirrors$JavaMirror;
at com.bistel.scala.App$.main(App.scala:17)
at com.bistel.scala.App.main(App.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:736)
at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:185)
at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:210)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:124)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
Run Code Online (Sandbox Code Playgroud)
当我更改scala版本时2.11,它再次运行良好,并没有抛出任何错误.我想了解与Spark和Scala的兼容性,但上述不匹配的问题让我感到困惑.
任何帮助将不胜感激.
我附上了两个版本pom.xml(第一个是scala版本,2.11另一个是2.10).
下面是一个运作良好的.如图所示,它的scala版本是2.11.
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.bistel.scala</groupId>
<artifactId>scala-001</artifactId>
<version>1.0-SNAPSHOT</version>
<name>${project.artifactId}</name>
<description>My wonderfull scala app</description>
<inceptionYear>2015</inceptionYear>
<licenses>
<license>
<name>My License</name>
<url>http://....</url> …Run Code Online (Sandbox Code Playgroud) 当我尝试jar在Windows的命令行中运行' '命令时,出现以下错误:'jar' is not recognized as an internal or external command。
有一个普遍的猜测似乎是正确的,即我可能PATH错误地使用了环境变量。但是我已经做到了,我在PATH变量中添加了以下值:' C:\Program Files(x86)\Java\jdk1.8.0_25\bin'。
我正在运行64位Windows 8系统。我还从以下链接引用了此问题: java'jar'不被识别为内部或外部命令
我也尝试了上面链接中建议的一些解决方案,由于声誉不高,我无法在此处添加评论。
我从上述链接尝试过的建议:
(通过上面的链接,java -version和java -jar也可以使用。那么jar文件怎么了?)
通过Ansible将独立的.jar作为服务运行的最佳方法是什么?
我需要在Ubuntu EC2主机上通过ansible运行metabase.jar。
我应该守护它吗?有没有推荐的方法或库?
理想情况下,如果可能的话,我想通过Ansible处理程序来管理状态。
谢谢
我正在编译我的项目mvn clean package,但失败了package does not exist.
详细命令:
target/xxxx.jar通过mvn clean package在源项目中运行来获取jar文件.mvn install:install-file -Dfile=lib/xxxx.jar -DgroupId=com.company -DartifactId=source-package-name -Dversion=1.0.0 -Dpackaging=jar mvn clean package,它刚刚失败了package does not exist这是源项目 pom.xml
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.company</groupId>
<artifactId>source-package-name</artifactId>
<version>1.0.0</version>
<packaging>jar</packaging>
<name>source-package-name</name>
<description>xxxx</description>
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>1.5.3.RELEASE</version>
<relativePath/> <!-- lookup parent from repository -->
</parent>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
<java.version>1.8</java.version>
</properties>
<dependencies>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<executions>
<execution>
<goals>
<goal>repackage</goal> …Run Code Online (Sandbox Code Playgroud) 我有一个包含4个节点的Spark集群,并且尝试启动应用程序:
spark-submit --deploy-mode cluster --class "Init" --master spark://host /home/cassandra/spark2Cassandra-assembly-0.1.jar-即使添加此功能,这也无法正常工作:--jars /home/cassandra/jsr166e-1.1.0.jar
此外,我尝试将所有依赖项都组装到我的应用程序中 com/twitter/jsr166e/LongAdder
libraryDependencies += "com.twitter" % "jsr166e" % "1.1.0"
Run Code Online (Sandbox Code Playgroud)
另外,我试图将此jar添加到所有节点的spark \ jars目录中-这对我不起作用
如何将这个jar分发到群集中?
完全错误(多次出现同一条消息):
java.lang.NoClassDefFoundError:org.apache.spark.metrics.OutputMetricsUpdater $ TaskMetricsSupport $ class。$ init $(OutputMetricsUpdater.scala:107)上的com / twitter / jsr166e / LongAdder在org.apache.spark.metrics.OutputMetricsUpdater $ TaskMetricsUpdater 。(OutputMetricsUpdater.scala:153)位于org.apache.spark.metrics.OutputMetricsUpdater $ .apply(OutputMetricsUpdater.scala:75)位于com.datastax.spark.connector.writer.TableWriter.writeInternal(TableWriter.scala:174) com.datastax.spark.connector.writer.TableWriter.write(TableWriter.scala:149)处的com.datastax.spark.connector.writer.TableWriter.insert(TableWriter.scala:162) RDDFunctions $$ anonfun $ saveToCassandra $ 1.apply(RDDFunctions.scala:36)位于com.datastax.spark.connector.RDDFunctions $$ anonfun $ saveToCassandra $ 1.apply(RDDFunctions.scala:36)位于org.apache.spark.executor.Executor的org.apache.spark.scheduler.Task.run(Task.scala:108)的org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:87) Java上的java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)的$ TaskRunner.run(Executor.scala:335)在Java的java.util.concurrent.ThreadPoolExecutor $ Worker.run(ThreadPoolExecutor.java:617) lang.Thread.run(Thread.java:748)java:748)java:748)
更新
如果我使用本地模式并通过以下方式启动它:
spark-shell --jars /data/tmp/spark-cassandra-connector-2.0.5-s_2.11.jar,/data/tmp/jsr166e-1.1.0.jar
Run Code Online (Sandbox Code Playgroud)
它可以工作,但是对于集群模式却不起作用
该分离出的最初的问题,我有,假设这是通用就够了。在使用工件之前,如何检查它是否是多版本的jar。
Multi-Release: true
Run Code Online (Sandbox Code Playgroud)
我知道它可以手动寻找到MANIFEST.MF内META-INF的罐子上面的属性,但有一个命令行选项可用于此?
也许我错过了一些已经存在的其他名称,或者对非常明显的东西视而不见。但是我试图寻找这样的选项jar和
java工具,但也没有成功。