sca*_*ser 6 hadoop amazon-s3 hdfs
我想将test.tar.gz文件从S3复制到HDFS.这可以通过distcp或s3distcp来完成.但我的要求是,当我将文件传输到HDFS时,它应该在运行中提取,在HDFS中,我应该只提取文件而不是tar.gz.
请给我任何建议.
使用bash脚本有什么问题?我是说:
s3distcp --src [file-location] --dst . #Without the hdfs prefix
tar -zxvf test.tar.gz
hadoop fs -mkdir /input
hadoop fs -mkdir /input/test
hadoop fs -copyFromLocal test/ /input/test
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
4441 次 |
| 最近记录: |