当前位置: 首页>>代码示例>>Java>>正文


Java AnalysisException类代码示例

本文整理汇总了Java中org.apache.spark.sql.AnalysisException的典型用法代码示例。如果您正苦于以下问题:Java AnalysisException类的具体用法?Java AnalysisException怎么用?Java AnalysisException使用的例子?那么, 这里精选的类代码示例或许可以为您提供帮助。


AnalysisException类属于org.apache.spark.sql包,在下文中一共展示了AnalysisException类的3个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Java代码示例。

示例1: checkApplyBulkMutations_Exception_TableExist

import org.apache.spark.sql.AnalysisException; //导入依赖的package包/类
@Test(expected = AnalysisException.class)
public void checkApplyBulkMutations_Exception_TableExist() throws Exception {
  JdbcOutput jdbcOutput = new JdbcOutput();
  jdbcOutput.configure(ConfigUtils.configFromPath(JdbcInput.class.getResource(JDBC_PROPERTIES_TABLE_USER_PATH).getPath()));

  ArrayList<Tuple2<MutationType, Dataset<Row>>> planned = new ArrayList<>();
  Dataset<Row> o = Contexts.getSparkSession().read().json(JdbcInput.class.getResource(SAMPLE_DATA_PATH).getPath());
  Tuple2<MutationType, Dataset<Row>> input = new Tuple2<>(MutationType.INSERT, o);

  planned.add(input);

  jdbcOutput.applyBulkMutations(planned);
}
 
开发者ID:cloudera-labs,项目名称:envelope,代码行数:14,代码来源:TestJdbcOutput.java

示例2: testNoUDFs

import org.apache.spark.sql.AnalysisException; //导入依赖的package包/类
@Test
(expected = AnalysisException.class)
public void testNoUDFs() throws Throwable {
  Config config = ConfigUtils.configFromResource("/udf/udf_none.conf");

  Contexts.closeSparkSession(true);
  
  try {
    Runner.run(config);
  }
  // Data steps run off the main thread so we have to dig into the concurrency-related exception first
  catch (ExecutionException e) {
    throw e.getCause();
  }
}
 
开发者ID:cloudera-labs,项目名称:envelope,代码行数:16,代码来源:TestRunner.java

示例3: testInputRepartitionInvalidColumn

import org.apache.spark.sql.AnalysisException; //导入依赖的package包/类
@Test (expected = AnalysisException.class)
public void testInputRepartitionInvalidColumn() throws Exception {
  Map<String, Object> configMap = Maps.newHashMap();
  configMap.put("input.type", DummyInput.class.getName());
  configMap.put("input.starting.partitions", 10);
  configMap.put("input." + BatchStep.REPARTITION_COLUMNS_PROPERTY, Lists.newArrayList("modulo == 0"));
  configMap.put("input." + BatchStep.REPARTITION_NUM_PARTITIONS_PROPERTY, 5);
  Config config = ConfigFactory.parseMap(configMap);

  BatchStep batchStep = new BatchStep("test", config);
  batchStep.submit(Sets.<Step>newHashSet());
  batchStep.getData();
}
 
开发者ID:cloudera-labs,项目名称:envelope,代码行数:14,代码来源:TestBatchStep.java


注:本文中的org.apache.spark.sql.AnalysisException类示例由纯净天空整理自Github/MSDocs等开源代码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。