标签: databricks-repos

从存储库 Databricks 中的另一个笔记本运行笔记本

我有一个笔记本,其功能位于存储库文件夹中,我试图在另一个笔记本中运行它。

通常我可以这样运行它:%run /Users/name/project/file_name

因此,我将这两个文件(function_notebook、processed_notebook)克隆到 Databricks 中的 Repo 中。

当我尝试复制刚刚克隆的路径时,仅出现此选项:Copy File Path relative to Root

但是,在工作区用户文件夹中,选项是Copy File Path

显然我不太明白相对路径和工作空间路径之间的区别。

如何运行已在存储库中克隆的笔记本?

等级制度:

RepoName(有 2 个文件夹):

  1. 文件夹1Notebook1

  2. 文件夹2Notebook2

Notebook1想要奔跑Notebook2

%run ../Folder2/Notebook2
Run Code Online (Sandbox Code Playgroud)

databricks databricks-repos

6
推荐指数
1
解决办法
8433
查看次数

databricks 在工作流/作业中使用服务主体 + 远程存储库

我想创建一个 databricks 作业,其中所有者设置为服务主体。主要原因是,如果员工离开公司,没有什么可以改变的,也不会因为 PAT 失败或类似情况而导致工作中断。问题是这样做时,作业总是无法访问设置为 azure devops 远程存储库的代码。问题和错误消息表明服务主体无法克隆 git 存储库。

我怎样才能做到这一点?

我的理解是,我可以使用 databricks 中的 git-credentials api 让服务主体使用我的 PAT 令牌之一来访问 git。不适合我。 https://docs.databricks.com/dev-tools/api/latest/gitcredentials.html#operation/create-git-credential

我知道一个解决方法是构建轮子并发布它,这样“检查代码”就不是通过工作完成的,而是通过 CI/CD 提前完成。但由于远程存储库非常简单易用,我们也希望将该功能与服务主体一起使用。

有人使用过它并让它发挥作用吗?也许还可以选择允许服务主体访问 azure devops 本身,但我被告知这还不可能。

azure-devops databricks azure-databricks databricks-repos databricks-workflows

6
推荐指数
1
解决办法
1268
查看次数

如何访问 Databricks Repos 元数据?

有没有办法访问 Repo 内笔记本内的数据,例如 Repo url 和分支名称?也许是 dbutils 中的东西。

databricks databricks-repos

5
推荐指数
1
解决办法
2677
查看次数

Azure databricks 存储库:如何通过 API 拉取

我正在使用 Azure DevOps 存储库将 Azure databricks 连接到我在 DevOps 中的存储库。我需要从 Azure DevOps 管道自动拉取。为此,我尝试使用 databricks API 进行拉取,但参考此链接,没有拉取方法。

按照说明并查看 swagger ,唯一可用的方法是: 仓库API 有没有办法通过 API 或 CLI 或任何其他方式以编程方式拉取?如果是,怎么办?

databricks azure-databricks databricks-repos

5
推荐指数
1
解决办法
1046
查看次数