所以,我设法在 Windows 中创建了一个可执行文件,使用pyinstaller
. 我尝试pyinstaller myscript.py
并创建了 buid 和 dist 文件夹以及.spec
文件
但是,稍后,我将对底层代码进行更改。所以我需要做的是重新编译,我的应用程序再次运行。
但是,有没有办法编辑已经存在的应用程序?或者我是否必须在进行更改后始终重新编译?
另外,.spec
文件的目的是什么?
我正在尝试将 pyspark 与 python 2.7(Pycharm IDE)集成。我需要运行一些巨大的文本文件。
所以这就是我正在做的。
下载 Spark (2.3.0-bin-hadoop-2.7) 并解压 安装 JDK
然后我试图运行这个脚本
spark_home = os.environ.get('SPARK_HOME', None) os.environ["SPARK_HOME"] = "C:\spark-2.3.0-bin-hadoop2.7" import pyspark from pyspark import SparkContext, SparkConf from pyspark。 sql 导入 SparkSession
conf = SparkConf()
sc = SparkContext(conf=conf)
spark = SparkSession.builder.config(conf=conf).getOrCreate()
import pandas as pd
ip = spark.read.format("csv").option("inferSchema","true").option("header","true").load(r"D:\some file.csv")
Run Code Online (Sandbox Code Playgroud)
Pycharm 说没有找到名为 Pyspark 的模块。
我正在通过添加内容根并指向安装它的文件夹来解决这个问题。
但问题是每次我重新打开 pycharm 时,我都必须添加内容根。我该如何解决?
接下来是,当我设法运行脚本时,它会引发以下错误。
2018-06-01 12:20:49 ERROR Shell:397 - Failed to locate the winutils binary in the hadoop binary path
java.io.IOException: Could not locate executable …
Run Code Online (Sandbox Code Playgroud) 我有一个这样的数据框,
a b c d e
1 0 0 4 5
0 23 5 0 0
0 5 8 6 0
Run Code Online (Sandbox Code Playgroud)
现在,我np.log
像这样在整个数据框上使用 a 。
df = (np.log(weights_df))
Run Code Online (Sandbox Code Playgroud)
一切都很好,正在锻炼。但是只要有 0,它就会按照预期给出“-inf”。我想将所有这些转换为其他内容,也许是“0”代替“-inf”。我试过了,fillna
但我不认为它会在这里工作。
我该怎么做?
python-2.7 ×2
apache-spark ×1
dataframe ×1
numpy ×1
pandas ×1
pyinstaller ×1
pyspark ×1
python ×1