本文整理汇总了Java中org.apache.hadoop.hbase.mapreduce.HLogInputFormat.HLogRecordReader类的典型用法代码示例。如果您正苦于以下问题:Java HLogRecordReader类的具体用法?Java HLogRecordReader怎么用?Java HLogRecordReader使用的例子?那么恭喜您, 这里精选的类代码示例或许可以为您提供帮助。
HLogRecordReader类属于org.apache.hadoop.hbase.mapreduce.HLogInputFormat包,在下文中一共展示了HLogRecordReader类的2个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Java代码示例。
示例1: testSplit
import org.apache.hadoop.hbase.mapreduce.HLogInputFormat.HLogRecordReader; //导入依赖的package包/类
/**
* Create a new reader from the split, and match the edits against the passed columns.
*/
private void testSplit(InputSplit split, byte[]... columns) throws Exception {
HLogRecordReader reader = new HLogRecordReader();
reader.initialize(split, MapReduceTestUtil.createDummyMapTaskAttemptContext(conf));
for (byte[] column : columns) {
assertTrue(reader.nextKeyValue());
KeyValue kv = reader.getCurrentValue().getKeyValues().get(0);
if (!Bytes.equals(column, kv.getQualifier())) {
assertTrue("expected [" + Bytes.toString(column) + "], actual ["
+ Bytes.toString(kv.getQualifier()) + "]", false);
}
}
assertFalse(reader.nextKeyValue());
reader.close();
}
示例2: testSplit
import org.apache.hadoop.hbase.mapreduce.HLogInputFormat.HLogRecordReader; //导入依赖的package包/类
/**
* Create a new reader from the split, and match the edits against the passed columns.
*/
private void testSplit(InputSplit split, byte[]... columns) throws Exception {
HLogRecordReader reader = new HLogRecordReader();
reader.initialize(split, MapReduceTestUtil.createDummyMapTaskAttemptContext(conf));
for (byte[] column : columns) {
assertTrue(reader.nextKeyValue());
assertTrue(Bytes
.equals(column, reader.getCurrentValue().getKeyValues().get(0).getQualifier()));
}
assertFalse(reader.nextKeyValue());
reader.close();
}