将 Sqoop 数据从 HDFS 移动到 Hive

Nic*_*ick 1 hadoop hive hdfs sqoop

当使用 Sqoop 将一堆大型 MySQL 表导入 HDFS 时,我忘记包含 --hive-import 标志。现在我已经将这些表放在 HDFS 中,并且想知道是否有一种简单的方法将数据加载到 Hive 中(无需自己编写 LOAD DATA 语句)。

我尝试使用 sqoop create-hive-table:

./bin/sqoop create-hive-table --connect jdbc:mysql://xxx:3306/dw --username xxx --password xxx --hive-import --table tweets
Run Code Online (Sandbox Code Playgroud)

虽然这确实创建了正确的配置单元表,但它没有将任何数据导入其中。我有一种感觉,我在这里错过了一些简单的东西......

根据记录,我使用 Elastic MapReduce 和 Sqoop 1.4.1。

Mat*_*one 5

不能在hive中创建一个外部表并将其指向这些文件吗?

create external table something(a string, b string) location 'hdfs:///some/path'
Run Code Online (Sandbox Code Playgroud)