小编cld*_*ldo的帖子

Hbase快速计算行数

现在我ResultScanner像这样实现行计数

for (Result rs = scanner.next(); rs != null; rs = scanner.next()) {
    number++;
}
Run Code Online (Sandbox Code Playgroud)

如果数据达到数百万计算时间很大.我想实时计算我不想使用Mapreduce

如何快速计算行数.

hadoop hbase bigdata

49
推荐指数
6
解决办法
10万
查看次数

Hive查询输出到文件

我用java代码运行hive查询.例:

"SELECT*FROM table WHERE id> 100"

如何将结果导出到hdfs文件.

hadoop hive

39
推荐指数
3
解决办法
13万
查看次数

如何将文本文件加载到存储为序列文件的Hive表中

我有一个hive表存储为序列文件.

我需要将一个文本文件加载到此表中.如何将数据加载到此表中?

hadoop hive

26
推荐指数
1
解决办法
12万
查看次数

Hbase mapreduce错误

我写了job mapreduce.输入是hbase中的一个表.

工作运行时出错:

org.apache.hadoop.hbase.client.ScannerTimeoutException:自上次调用以来传递了88557ms,当前在org.apache.hadoop.hbase.client.HTable $ ClientScanner.next(HTable.java:1196)的org上将超时设置为60000 org.apache.hadoop.mapred.MapTask上的org.apache.hadoop.hbase.mapreduce.TableRecordReader.nextKeyValue(TableRecordReader.java:142)中的.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl.nextKeyValue(TableRecordReaderImpl.java:133) $ NewTrackingRecordReader.nextKeyValue(MapTask.java:532)在org.apache.hadoop.mapreduce.MapContext.nextKeyValue(MapContext.java:67)在org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:143)在org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:764)在org.apache.hadoop.mapred.MapTask.run(MapTask.java:370)在org.apache.hadoop.mapred.Child $ 4.run (Child.java:255)位于org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInf)的javax.security.auth.Subject.doAs(Subject.java:396)的java.security.AccessController.doPrivileged(Native Method)ormation.java:1083)在org.apache.hadoop.mapred.Child.main(Child.java:249)引起的:org.apache.hadoop.hbase.UnknownScannerException:org.apache.hadoop.hbase.UnknownScannerException:名称: 1502530095384129314在org.apache.hadoop.hbase.regionserver.HRegionServer.next(HRegionServer.java:1837)在sun.reflect.GeneratedMethodAccessor19.invoke(未知来源)在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)在java.lang.reflect.Method.invoke(Method.java:597)位于org.apache.hadoop.hbase.ipc的org.apache.hadoop.hbase.ipc.HBaseRPC $ Server.call(HBaseRPC.java:570). HBaseServer $ Handler.run(HBaseServer.java:1039)at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl. java:27)atg.apach的java.lang.reflect.Constructor.newInstance(Constructor.java:513)e.hadoop.hbase.RemoteExceptionHandler.decodeRemoteException在org.apache.hadoop.hbase.client.ScannerCallable(RemoteExceptionHandler.java:96)在org.apache.hadoop.hbase.client.ScannerCallable.call(ScannerCallable.java:83).调用(ScannerCallable.java:38)在org.apache.hadoop.hbase.client.HConnectionManager $ HConnectionImplementation.getRegionServerWithRetries(HConnectionManager.java:1226)在org.apache.hadoop.hbase.client.HTable $ ClientScanner.next(HTable. java:1187)......还有12个

你能帮帮我解决吗?

hadoop hbase

13
推荐指数
2
解决办法
1万
查看次数

如何添加SerDe jar

我使用Hive来创建表存储序列文件.行格式serder类myserde.TestDeserializerhiveserde-1.0.jar

在命令行中,我使用此命令添加jar文件:

hive ADD JAR hiveserde-1.0.jar

然后我创建一个表,文件加载成功.

但现在我想运行它并使用mysql jdbc在客户端上创建一个表.错误是:

SerDe:myserde.TestDeserializer不存在.

怎么运行呢?谢谢

hadoop hive

7
推荐指数
2
解决办法
2万
查看次数

将多个序列文件合并到Hadoop中的一个序列文件中

如何在Hadoop中将多个序列文件合并为一个序列文件谢谢.

hadoop mapreduce

5
推荐指数
2
解决办法
1万
查看次数

如何与多个用户一起使用 Hive

我有几个用户使用同一个配置单元。

现在我希望每个用户在配置单元中都有一个私有元数据。

例子:

用户调用显示表:a1,a2,a3 ...

用户b调用显示表:b1,b2,b3 ...

当然,当用户运行查询时,他们无法访问其他用户的表。

谢谢。

hadoop hive

4
推荐指数
1
解决办法
7009
查看次数

标签 统计

hadoop ×7

hive ×4

hbase ×2

bigdata ×1

mapreduce ×1