rai*_*ros 5 databricks azure-databricks gcp-databricks
希望每个人都过得很好...
我们正在探索是否可以将一些 jar 组织为 Workspace 中文件夹的一部分,并将其作为 init 脚本的一部分移动。
例如,在工作区中我们有以下结构。
/Workspace/<Folder_Name1>/jars/sample_name_01.jar
初始化脚本将尝试将其移动到 DBFS/驱动程序节点文件系统中的路径。
!/bin/bash
cp /Workspace/<Folder_Name1>/jars/sample_name_01.jar /dbfs/jars/
cp /Workspace/<Folder_Name1>/jars/sample_name_01.jar /tmp/jars/
Run Code Online (Sandbox Code Playgroud)
当然,初始化脚本失败并显示错误消息
cp: cannot stat '/Workspace/<Folder_Name1>/jars/sample_name_01.jar': No such file or directory
已尝试使用包含和删除 /Workspace 的路径。我还尝试从网络终端访问该文件,并且我能够看到这些文件。
感谢大家的帮助...干杯...
更新01:
尝试了通过其他方式收到的一些建议......
/Workspace我也尝试过没有它们,但仍然存在同样的问题。首先,检查您是否具有工作区和 jar 文件夹的权限。如果您仍然cp 无法工作,以下是可能的原因。
当管理员上传 jar 文件时,有两种选择。
选项 1 下面是作为库上传时的操作方式。

之后,会提示上传。

点击创建后,结果如下。

在这里您可以看到,它提供了在集群上安装的选项,以及您需要的Source 。
作为库上传时,dbfs默认情况下您将在以下位置获取路径中的 jar。
/dbfs/FileStore/jars/
Run Code Online (Sandbox Code Playgroud)
选项2
当它作为文件上传时。

提示文件上传和创建。

下面是上传的jar。

您在 jar 上使用复制命令,作为文件上传,这将起作用。
如果仍然出现相同的错误,则需要许可。因此,可能的解决方案是,您可以在创建集群后在笔记本中运行以下代码。
%sh
cp '/Workspace/Users/xxxxxxx/jars/helloworld-2.0_tmp (1).jar' /dbfs/jars/
ls /dbfs/jars/
Run Code Online (Sandbox Code Playgroud)

注意- 如果管理员上传为库,则此操作不起作用。正如我上面提到的,它们仅在 dbfs 中可用。
| 归档时间: |
|
| 查看次数: |
2472 次 |
| 最近记录: |