当前位置: 首页>>代码示例>>Java>>正文


Java DataNode.getFSDataset方法代码示例

本文整理汇总了Java中org.apache.hadoop.hdfs.server.datanode.DataNode.getFSDataset方法的典型用法代码示例。如果您正苦于以下问题:Java DataNode.getFSDataset方法的具体用法?Java DataNode.getFSDataset怎么用?Java DataNode.getFSDataset使用的例子?那么, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在org.apache.hadoop.hdfs.server.datanode.DataNode的用法示例。


在下文中一共展示了DataNode.getFSDataset方法的4个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Java代码示例。

示例1: stopLazyWriter

import org.apache.hadoop.hdfs.server.datanode.DataNode; //导入方法依赖的package包/类
/**
 * Stop the lazy writer daemon that saves RAM disk files to persistent storage.
 * @param dn
 */
public static void stopLazyWriter(DataNode dn) {
  FsDatasetImpl fsDataset = ((FsDatasetImpl) dn.getFSDataset());
  ((FsDatasetImpl.LazyWriter) fsDataset.lazyWriter.getRunnable()).stop();
}
 
开发者ID:naver,项目名称:hadoop,代码行数:9,代码来源:FsDatasetTestUtil.java

示例2: triggerEviction

import org.apache.hadoop.hdfs.server.datanode.DataNode; //导入方法依赖的package包/类
protected void triggerEviction(DataNode dn) {
  FsDatasetImpl fsDataset = (FsDatasetImpl) dn.getFSDataset();
  fsDataset.evictLazyPersistBlocks(Long.MAX_VALUE); // Run one eviction cycle.
}
 
开发者ID:aliyun-beta,项目名称:aliyun-oss-hadoop-fs,代码行数:5,代码来源:LazyPersistTestCase.java

示例3: FsDatasetImplTestUtils

import org.apache.hadoop.hdfs.server.datanode.DataNode; //导入方法依赖的package包/类
public FsDatasetImplTestUtils(DataNode datanode) {
  Preconditions.checkArgument(
      datanode.getFSDataset() instanceof FsDatasetImpl);
  dataset = (FsDatasetImpl) datanode.getFSDataset();
}
 
开发者ID:aliyun-beta,项目名称:aliyun-oss-hadoop-fs,代码行数:6,代码来源:FsDatasetImplTestUtils.java

示例4: testReplicaMapAfterDatanodeRestart

import org.apache.hadoop.hdfs.server.datanode.DataNode; //导入方法依赖的package包/类
/**
 * This is a test to check the replica map before and after the datanode 
 * quick restart (less than 5 minutes)
 * @throws Exception
 */
@Test
public  void testReplicaMapAfterDatanodeRestart() throws Exception {
  Configuration conf = new HdfsConfiguration();
  MiniDFSCluster cluster = new MiniDFSCluster.Builder(conf)
      .nnTopology(MiniDFSNNTopology.simpleFederatedTopology(2))
      .build();
  try {
    cluster.waitActive();
    NameNode nn1 = cluster.getNameNode(0);
    NameNode nn2 = cluster.getNameNode(1);
    assertNotNull("cannot create nn1", nn1);
    assertNotNull("cannot create nn2", nn2);
    
    // check number of volumes in fsdataset
    DataNode dn = cluster.getDataNodes().get(0);
    FsDatasetImpl dataSet = (FsDatasetImpl)DataNodeTestUtils.
        getFSDataset(dn);
    
    List<FsVolumeSpi> volumes = null;
    try (FsDatasetSpi.FsVolumeReferences referredVols = dataSet.getFsVolumeReferences()) {
      // number of volumes should be 2 - [data1, data2]
      assertEquals("number of volumes is wrong", 2, referredVols.size());
      volumes = new ArrayList<>(referredVols.size());
      for (FsVolumeSpi vol : referredVols) {
        volumes.add(vol);
      }
    }
    ArrayList<String> bpList = new ArrayList<>(Arrays.asList(
        cluster.getNamesystem(0).getBlockPoolId(),
        cluster.getNamesystem(1).getBlockPoolId()));
    
    Assert.assertTrue("Cluster should have 2 block pools", 
        bpList.size() == 2);
    
    createReplicas(bpList, volumes, cluster.getFsDatasetTestUtils(dn));
    ReplicaMap oldReplicaMap = new ReplicaMap(this);
    oldReplicaMap.addAll(dataSet.volumeMap);

    cluster.restartDataNode(0);
    cluster.waitActive();
    dn = cluster.getDataNodes().get(0);
    dataSet = (FsDatasetImpl) dn.getFSDataset();
    testEqualityOfReplicaMap(oldReplicaMap, dataSet.volumeMap, bpList);
  } finally {
    cluster.shutdown();
  }
}
 
开发者ID:aliyun-beta,项目名称:aliyun-oss-hadoop-fs,代码行数:53,代码来源:TestWriteToReplica.java


注:本文中的org.apache.hadoop.hdfs.server.datanode.DataNode.getFSDataset方法示例由纯净天空整理自Github/MSDocs等开源代码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。