hadoop-HBase批量加载错误。怎么了?


0

我试着像下面这样将数据批量加载到hbase表中,并成功了。

hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.bulk.output=/tmp/example_output -Dimporttsv.columns=HBASE_ROW_KEY,cf1:val1,cf1:val2,cf1:val3 so_table /user/uclab/smallbusiness/bulk3/

完成这项 job 后,我的表现如下。

hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles /tmp/example_output so_table

但是一些错误像下面这样反复出现。

2015-10-12 01:52:42.835 DEBUG [LoadIncrementalHFiles-0]  
mapreduce.LoadIncrementalHFiles: Goint to connect to server 
regiont=so_table,,1444580736986.3c5aa99d4ca4dcb509c8cfb26c2b223f., 
hostname=datanode83,60020,1444578166533, seqNum=2 for row with hfile 
group[{[B@5d37ce06,hdfs://namenode.uclab.com:8020/tmp/example_output/cf1/541f346
80be24932afa54c3fa14e4ad4}]

Caused by: org.apache.hadoop.ipc.RemoteException
(org.apache.hadoop.security.AccessControlException): 
Permission denied: user=hbase, access=WRITE,
inode="/tmp/example_output/cf1":uclab:hdfs:drwxr-xr-x

我怎样才能给予书面许可?我怎样才能解决这个问题。。。?

1 答案


0

我在Cloudera Quickstart VM上也遇到了类似的问题。

将所有者更改为“hbase”,否则hbase将无权移动文件。运行以下命令:

sudo-u hdfs hdfs dfs-chown-Rhbase:hbase/tmp/exampleu输出

现在快跑

糖化血红蛋白org.apache.hadoop下载.hbase.mapreduce.LoadIncrementalHFiles文件/tmp/输出so表格示例


我来回答

写文章

提问题

面试题