我正在寻找有关在云中托管的Jupyter Notebooks选择的服务。
Google合作实验室(GCL)似乎可以与他人共享(与拥有Google Apps帐户的人),并与他们实时协作。
但是,对我来说,Azure笔记本(AZNB)具有优于GCL的一些优势,但是我不能拥有共享和协作的功能。似乎有这么明显的功能,我在这里提出了一个问题–我想念我前面的东西吗?
注意:对于AZNB,我找到了“共享”选项和“克隆”选项,该选项可强制笔记本公开,而“克隆”选项可让其他人使用我的图书馆副本。这不是我想要的。
我正在尝试从在 Python 3.6 中运行 Jupyter Notebooks 的 Microsoft Azure Notebooks 中的 ipywidgets 小部件获取输出。但是,当我获取新值时,它不会返回新值。这也适用于从未被其他小部件调用的事件处理程序/交互。
我尝试使用不同类型的小部件(Text、Textarea、Checkbox、Button、ToggleButton)输入不同的初始值。我尝试过在按钮上添加w.value、ipywidgets.interact、w.observe、 和。w.on_click
我做的一个测试:
import time
import ipywidgets as widgets
from IPython.display import display
w = widgets.Text(disabled=False)
display(w)
while True:
print(w.value)
time.sleep(1)
Run Code Online (Sandbox Code Playgroud)
我希望当我在字段中输入某些内容时Text,它会输出该文本,但它会继续打印它开始的内容。没有错误。因此,对于上面的示例,无论我在结果文本字段中输入什么,所有打印的都是空行。
我有一个要求,其中我需要将 pyspark 数据帧作为笔记本参数传递给子笔记本。本质上,子笔记本几乎没有以参数类型作为数据帧的函数来执行某些任务。现在的问题是我无法使用(不将其写入临时目录)将数据帧传递到该子笔记本
dbutils.notebook.run(<notebookpath>, timeout, <arguments>)
Run Code Online (Sandbox Code Playgroud)
我尝试引用此网址 - 从 databricks 中的另一个笔记本返回数据框
但是,我仍然有点困惑如何将数据帧从子笔记本返回到父笔记本,以及从父笔记本返回到另一个子笔记本。
我尝试编写如下代码 -
tempview_list = ["tempView1", "tempView2", "tempView3"]
for tempview in tempview_list:
dbutils.notebook.exit(spark.sql(f"Select * from {tempview}"))
Run Code Online (Sandbox Code Playgroud)
但它只是返回第一个 tempView 的架构。
请帮忙。我是 pyspark 的新手。
谢谢。
pyspark spark-notebook databricks azure-notebooks azure-databricks