在分发应用程序以将所有鸡蛋组合成单个zip文件时会很方便,这样您需要分发的只是一个zip文件和一个可执行文件(一些自定义二进制文件只需启动,加载zip文件的主要功能并踢出python关闭或类似).
我已经看过一些关于在线做这个的讨论,但没有关于如何实际做到这一点的例子.
我知道你可以(如果它的zip安全)将鸡蛋转换为zip文件.
我不确定的是:
你能以某种方式将所有鸡蛋合并成一个zip文件吗?如果是这样,怎么样?
你将如何加载和运行特定鸡蛋的代码?
你如何确保该蛋中的代码可以访问所有依赖项(即zip文件中的其他蛋)?
人们会问很多这样的东西并得到答案; 使用py2exe.是的,我明白了,这是一个解决方案.这不是我在这里问的问题......
我知道您可以使用Python Spark程序将各个文件作为依赖项发送.但是完全成熟的图书馆(例如numpy)呢?
Spark是否有办法使用提供的包管理器(例如pip)来安装库依赖项?或者这是否必须在执行Spark程序之前手动完成?
如果答案是手动的,那么在大量分布式节点上同步库(安装路径,版本等)的"最佳实践"方法是什么?
dependencies hadoop distributed-computing shared-libraries apache-spark
在AWS上新的ETL工具中使用诸如numpy和pandas之类的软件包的最简单方法是什么?我在Python中有一个完整的脚本我想在AWS Glue中运行,它使用numpy和pandas.
python ×2
apache-spark ×1
aws-glue ×1
aws-lambda ×1
dependencies ×1
hadoop ×1
pandas ×1
pypi ×1
setup.py ×1