我有一个笔记本,其功能位于存储库文件夹中,我试图在另一个笔记本中运行它。
通常我可以这样运行它:%run /Users/name/project/file_name
因此,我将这两个文件(function_notebook、processed_notebook)克隆到 Databricks 中的 Repo 中。
当我尝试复制刚刚克隆的路径时,仅出现此选项:Copy File Path relative to Root
但是,在工作区用户文件夹中,选项是Copy File Path
显然我不太明白相对路径和工作空间路径之间的区别。
如何运行已在存储库中克隆的笔记本?
等级制度:
RepoName(有 2 个文件夹):
文件夹1Notebook1
文件夹2Notebook2
我Notebook1想要奔跑Notebook2
%run ../Folder2/Notebook2
Run Code Online (Sandbox Code Playgroud) 我想创建一个 databricks 作业,其中所有者设置为服务主体。主要原因是,如果员工离开公司,没有什么可以改变的,也不会因为 PAT 失败或类似情况而导致工作中断。问题是这样做时,作业总是无法访问设置为 azure devops 远程存储库的代码。问题和错误消息表明服务主体无法克隆 git 存储库。
我怎样才能做到这一点?
我的理解是,我可以使用 databricks 中的 git-credentials api 让服务主体使用我的 PAT 令牌之一来访问 git。不适合我。 https://docs.databricks.com/dev-tools/api/latest/gitcredentials.html#operation/create-git-credential
我知道一个解决方法是构建轮子并发布它,这样“检查代码”就不是通过工作完成的,而是通过 CI/CD 提前完成。但由于远程存储库非常简单易用,我们也希望将该功能与服务主体一起使用。
有人使用过它并让它发挥作用吗?也许还可以选择允许服务主体访问 azure devops 本身,但我被告知这还不可能。
azure-devops databricks azure-databricks databricks-repos databricks-workflows
有没有办法访问 Repo 内笔记本内的数据,例如 Repo url 和分支名称?也许是 dbutils 中的东西。
我正在使用 Azure DevOps 存储库将 Azure databricks 连接到我在 DevOps 中的存储库。我需要从 Azure DevOps 管道自动拉取。为此,我尝试使用 databricks API 进行拉取,但参考此链接,没有拉取方法。
按照说明并查看 swagger ,唯一可用的方法是:
有没有办法通过 API 或 CLI 或任何其他方式以编程方式拉取?如果是,怎么办?