当前位置: 首页>>代码示例>>Java>>正文


Java FsVolumeSpi.getStorageType方法代码示例

本文整理汇总了Java中org.apache.hadoop.hdfs.server.datanode.fsdataset.FsVolumeSpi.getStorageType方法的典型用法代码示例。如果您正苦于以下问题:Java FsVolumeSpi.getStorageType方法的具体用法?Java FsVolumeSpi.getStorageType怎么用?Java FsVolumeSpi.getStorageType使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在org.apache.hadoop.hdfs.server.datanode.fsdataset.FsVolumeSpi的用法示例。


在下文中一共展示了FsVolumeSpi.getStorageType方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Java代码示例。

示例1: startUpCluster

import org.apache.hadoop.hdfs.server.datanode.fsdataset.FsVolumeSpi; //导入方法依赖的package包/类
/**
 * If ramDiskStorageLimit is >=0, then RAM_DISK capacity is artificially
 * capped. If ramDiskStorageLimit < 0 then it is ignored.
 */
protected final void startUpCluster(final int numDataNodes,
                                    final StorageType[] storageTypes,
                                    final long ramDiskStorageLimit,
                                    final boolean useSCR)
  throws IOException {

  Configuration conf = new Configuration();
  conf.setLong(DFS_BLOCK_SIZE_KEY, BLOCK_SIZE);
  conf.setInt(DFS_NAMENODE_LAZY_PERSIST_FILE_SCRUB_INTERVAL_SEC,
    LAZY_WRITE_FILE_SCRUBBER_INTERVAL_SEC);
  conf.setLong(DFS_HEARTBEAT_INTERVAL_KEY, HEARTBEAT_INTERVAL_SEC);
  conf.setInt(DFS_NAMENODE_HEARTBEAT_RECHECK_INTERVAL_KEY,
    HEARTBEAT_RECHECK_INTERVAL_MSEC);
  conf.setInt(DFS_DATANODE_LAZY_WRITER_INTERVAL_SEC,
    LAZY_WRITER_INTERVAL_SEC);

  if (useSCR)
  {
    conf.setBoolean(DFS_CLIENT_READ_SHORTCIRCUIT_KEY,useSCR);
    conf.set(DFS_CLIENT_CONTEXT, UUID.randomUUID().toString());
    sockDir = new TemporarySocketDirectory();
    conf.set(DFS_DOMAIN_SOCKET_PATH_KEY, new File(sockDir.getDir(),
        this.getClass().getSimpleName() + "._PORT.sock").getAbsolutePath());
    conf.set(DFS_BLOCK_LOCAL_PATH_ACCESS_USER_KEY,
      UserGroupInformation.getCurrentUser().getShortUserName());
  }

  cluster = new MiniDFSCluster
    .Builder(conf)
    .numDataNodes(numDataNodes)
    .storageTypes(storageTypes != null ?
        storageTypes : new StorageType[] { DEFAULT, DEFAULT })
    .build();
  fs = cluster.getFileSystem();
  client = fs.getClient();

  // Artificially cap the storage capacity of the RAM_DISK volume.
  if (ramDiskStorageLimit >= 0) {
    List<? extends FsVolumeSpi> volumes =
      cluster.getDataNodes().get(0).getFSDataset().getVolumes();

    for (FsVolumeSpi volume : volumes) {
      if (volume.getStorageType() == RAM_DISK) {
        ((FsVolumeImpl) volume).setCapacityForTesting(ramDiskStorageLimit);
      }
    }
  }

  LOG.info("Cluster startup complete");
}
 
开发者ID:naver,项目名称:hadoop,代码行数:55,代码来源:LazyPersistTestCase.java


注:本文中的org.apache.hadoop.hdfs.server.datanode.fsdataset.FsVolumeSpi.getStorageType方法示例由纯净天空整理自Github/MSDocs等开源代码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。