标签: jar

Android studio创建.jar文件而不是.aar文件

嗨,我按照android文档创建了一个库.但我的问题是每当我运行项目意味着它正在创建.aar文件.我谷歌它,发现如何将AAR转换为JAR .我正在使用iZip Unarchiver.但它没有提取.aar文件.但他们接受了这个答案.任何人都可以知道如何从.aar中提取.jar.谢谢.

android jar aar

2
推荐指数
1
解决办法
2503
查看次数

使用外部属性运行Jar文件

我有jar文件,我想与特定的属性文件一起运行.我正在运行以下命令来执行该jar

java –jar –DApp.config.file=local.properties App.jar
Run Code Online (Sandbox Code Playgroud)

使用此命令,我收到以下错误

Could not load properties from class path resource [local.properties]: class path resource [local.properties] cannot be opened because it does not exist
Run Code Online (Sandbox Code Playgroud)

基于我到目前为止所读到的内容,如果你传递-jar,那么你不必担心$ CLASSPATH.我在这里错过了什么吗?

PS - local.properties和jar文件在同一目录中.

java jvm jar java-8

2
推荐指数
1
解决办法
6858
查看次数

如何从github源代码下载jar文件?

我需要使用一个nxParserNTriple在eclipse中解析我的文件.

显然,完美工作的唯一来源是这个github代码,但这只是源代码,我需要一个内置的jar库.

任何人都可以帮助我如何使用源代码作为内置jar文件?

java eclipse jar github

2
推荐指数
1
解决办法
5726
查看次数

如何使用Intellij创建Libgdx jar文件?

我已经创建了一个jar文件,但每当我点击它时都没有任何反应,它不会打开.所以我做的是去项目结构 - >工件 - > jar - >从模块到依赖 - >然后选择桌面模块和DesktopLauncher作为主类然后保存,然后构建工件.jar文件甚至没有打开,有没有办法以不同的方式创建一个jar文件?

java jar intellij-idea libgdx

2
推荐指数
1
解决办法
2721
查看次数

Scala和Spark对已编译jar的兼容性问题

我是Scala和Spark的新手.我在Scala中遇到了一些版本问题错误,所以我尝试更改Scala版本pom.xml以便在群集上运行我的jar文件.最后,我发现制作jar的成功Scala版本是2.11.

但是,我对Scala版本有点好奇,因为当我命令scala -versionbash shell 时,我的集群上安装的Scala版本是2.10.4(事实并非如此2.11).更奇怪的是,当我将scala版本2.11改为2.10in pom.xml以制作相同的scala版本时,jar文件不起作用.并且,它将错误抛出如下.

Exception in thread "main" java.lang.NoSuchMethodError: scala.reflect.api.JavaUniverse.runtimeMirror(Ljava/lang/ClassLoader;)Lscala/reflect/api/JavaMirrors$JavaMirror;
        at com.bistel.scala.App$.main(App.scala:17)
        at com.bistel.scala.App.main(App.scala)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:736)
        at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:185)
        at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:210)
        at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:124)
        at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
Run Code Online (Sandbox Code Playgroud)

当我更改scala版本时2.11,它再次运行良好,并没有抛出任何错误.我想了解与Spark和Scala的兼容性,但上述不匹配的问题让我感到困惑.

任何帮助将不胜感激.

我附上了两个版本pom.xml(第一个是scala版本,2.11另一个是2.10).

下面是一个运作良好的.如图所示,它的scala版本是2.11.

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
  <modelVersion>4.0.0</modelVersion>
  <groupId>com.bistel.scala</groupId>
  <artifactId>scala-001</artifactId>
  <version>1.0-SNAPSHOT</version>
  <name>${project.artifactId}</name>
  <description>My wonderfull scala app</description>
  <inceptionYear>2015</inceptionYear>
  <licenses>
    <license>
      <name>My License</name>
      <url>http://....</url> …
Run Code Online (Sandbox Code Playgroud)

compatibility scala jar apache-spark

2
推荐指数
1
解决办法
2712
查看次数

如何解决错误:“ jar”无法识别为内部或外部命令,可操作程序或批处理文件?

当我尝试jar在Windows的命令行中运行' '命令时,出现以下错误:'jar' is not recognized as an internal or external command

有一个普遍的猜测似乎是正确的,即我可能PATH错误地使用了环境变量。但是我已经做到了,我在PATH变量中添加了以下值:' C:\Program Files(x86)\Java\jdk1.8.0_25\bin'。

我正在运行64位Windows 8系统。我还从以下链接引用了此问题: java'jar'不被识别为内部或外部命令

我也尝试了上面链接中建议的一些解决方案,由于声誉不高,我无法在此处添加评论。

我从上述链接尝试过的建议:

[1] /sf/answers/2042647701/

(通过上面的链接,java -version和java -jar也可以使用。那么jar文件怎么了?)

[2] /sf/answers/2974466631/

java jar

2
推荐指数
1
解决办法
2万
查看次数

在Ubuntu上通过Ansible将Java Jar作为服务运行

通过Ansible将独立的.jar作为服务运行的最佳方法是什么?

我需要在Ubuntu EC2主机上通过ansible运行metabase.jar。

我应该守护它吗?有没有推荐的方法或库?

理想情况下,如果可能的话,我想通过Ansible处理程序来管理状态。

谢谢

ubuntu service jar ansible devops

2
推荐指数
1
解决办法
2676
查看次数

spring boot包不存在错误

我正在编译我的项目mvn clean package,但失败了package does not exist.

详细命令:

  • target/xxxx.jar通过mvn clean package在源项目中运行来获取jar文件.
  • 通过运行安装此jar文件 mvn install:install-file -Dfile=lib/xxxx.jar -DgroupId=com.company -DartifactId=source-package-name -Dversion=1.0.0 -Dpackaging=jar
  • 将代码添加到目标项目,它将使用源项目中的一些函数
  • 通过运行编译目标项目mvn clean package,它刚刚失败了package does not exist

这是源项目 pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
    xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.company</groupId>
    <artifactId>source-package-name</artifactId>
    <version>1.0.0</version>
    <packaging>jar</packaging>

    <name>source-package-name</name>
    <description>xxxx</description>

    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>1.5.3.RELEASE</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>

    <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
        <java.version>1.8</java.version>
    </properties>

    <dependencies>
    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
                <executions>
                    <execution>
                        <goals>
                            <goal>repackage</goal> …
Run Code Online (Sandbox Code Playgroud)

java spring jar maven spring-boot

2
推荐指数
1
解决办法
7127
查看次数

java.lang.NoClassDefFoundError:com / twitter / jsr166e / LongAdder

我有一个包含4个节点的Spark集群,并且尝试启动应用程序: spark-submit --deploy-mode cluster --class "Init" --master spark://host /home/cassandra/spark2Cassandra-assembly-0.1.jar-即使添加此功能,这也无法正常工作:--jars /home/cassandra/jsr166e-1.1.0.jar

此外,我尝试将所有依赖项都组装到我的应用程序中 com/twitter/jsr166e/LongAdder

libraryDependencies += "com.twitter" % "jsr166e" % "1.1.0"
Run Code Online (Sandbox Code Playgroud)

另外,我试图将此jar添加到所有节点的spark \ jars目录中-这对我不起作用

如何将这个jar分发到群集中?

完全错误(多次出现同一条消息):

java.lang.NoClassDefFoundError:org.apache.spark.metrics.OutputMetricsUpdater $ TaskMetricsSupport $ class。$ init $(OutputMetricsUpdater.scala:107)上的com / twitter / jsr166e / LongAdder在org.apache.spark.metrics.OutputMetricsUpdater $ TaskMetricsUpdater 。(OutputMetricsUpdater.scala:153)位于org.apache.spark.metrics.OutputMetricsUpdater $ .apply(OutputMetricsUpdater.scala:75)位于com.datastax.spark.connector.writer.TableWriter.writeInternal(TableWriter.scala:174) com.datastax.spark.connector.writer.TableWriter.write(TableWriter.scala:149)处的com.datastax.spark.connector.writer.TableWriter.insert(TableWriter.scala:162) RDDFunctions $$ anonfun $ saveToCassandra $ 1.apply(RDDFunctions.scala:36)位于com.datastax.spark.connector.RDDFunctions $$ anonfun $ saveToCassandra $ 1.apply(RDDFunctions.scala:36)位于org.apache.spark.executor.Executor的org.apache.spark.scheduler.Task.run(Task.scala:108)的org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:87) Java上的java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)的$ TaskRunner.run(Executor.scala:335)在Java的java.util.concurrent.ThreadPoolExecutor $ Worker.run(ThreadPoolExecutor.java:617) lang.Thread.run(Thread.java:748)java:748)java:748)

更新

如果我使用本地模式并通过以下方式启动它:

spark-shell --jars /data/tmp/spark-cassandra-connector-2.0.5-s_2.11.jar,/data/tmp/jsr166e-1.1.0.jar 
Run Code Online (Sandbox Code Playgroud)

它可以工作,但是对于集群模式却不起作用

scala jar apache-spark

2
推荐指数
1
解决办法
1837
查看次数

如何检查罐子是否为多版本

该分离出的最初的问题,我有,假设这是通用就够了。在使用工件之前,如何检查它是否是多版本的jar。

Multi-Release: true
Run Code Online (Sandbox Code Playgroud)

我知道它可以手动寻找到MANIFEST.MFMETA-INF的罐子上面的属性,但有一个命令行选项可用于此?

也许我错过了一些已经存在的其他名称,或者对非常明显的东西视而不见。但是我试图寻找这样的选项jarjava工具,但也没有成功。

java jar manifest java-9 java-module

2
推荐指数
1
解决办法
382
查看次数