我正在尝试获取 python 笔记本中的工作区名称。我们有什么办法可以做到这一点吗?
例如:我的工作区名称是databricks-test.
我想在 python 笔记本的变量中捕获它
我无法弄清楚我是如何处理这个问题的:
这是我的数据:
Table1: Table2:
BRAND PRODUCT SOLD
Sony Sony ABCD 1233
Apple Sony adv 1233
Google Sony aaaa 1233
IBM Apple 123 1233
etc. Apple 345 1233
IBM 13123 1233
Run Code Online (Sandbox Code Playgroud)
是否有可能过滤查询,我有一个表格的品牌和销售总额?我的想法是:
Select table1.brand, sum(table2.sold) from table1
join table2
on (table1.brand LIKE '%table2.product%')
group by table.1.brand
Run Code Online (Sandbox Code Playgroud)
这是我的想法,但我总是得到一个错误
最大的问题是Like-Operator还是有其他解决方案吗?
我想打印此输出
+------------------------------------------------+--+
| tab_name |
+------------------------------------------------+--+
| table1 |
| table2 |
| table3 |
| wt |
| wa |
| wal |
+------------------------------------------------+--+
Run Code Online (Sandbox Code Playgroud)
AS没有标题,没有表格格式的直线
table1
table2 table3 wt
wa
wal
我的表有 UTC 时区的日期列。我想将数据转换为 PST。这个怎么做?
世界标准时间:
| 日期 |
|---|
| 2017-06-26 17:35:47.0 |
| 2017-06-26 17:35:51.0 |
| 2017-06-26 17:28:04.0 |
| 2017-06-26 17:35:51.0 |
| 2017-06-26 17:35:45.0 |
| 2017-06-26 17:35:51.0 |
| 2017-06-26 17:35:51.0 |
| 2017-06-26 17:35:27.0 |
| 2017-06-26 17:35:27.0 |
| 2017-06-26 17:35:51.0 |
| 2017-06-26 17:35:51.0 |
| 2017-06-26 17:35:51.0 |
| 2017-06-26 17:35:51.0 |
我正在尝试删除一个创建了 Spark-Sql 的表(内部)表,一些表是如何被删除的,但表的位置仍然存在。有人可以让我知道如何做到这一点吗?
我尝试了 Beeline 和 Spark-Sql
create table something(hello string)
PARTITIONED BY(date_d string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY "^"
LOCATION "hdfs://path"
)
Drop table something;
No rows affected (0.945 seconds)
Run Code Online (Sandbox Code Playgroud)
谢谢
hive ×3
beeline ×2
hadoop ×2
apache-spark ×1
databricks ×1
hive-query ×1
hiveql ×1
sql ×1
sql-like ×1
sqlite ×1