说明:
根据数据源中的数据集创建外部表,返回与外部表关联的 SparkDataFrame。
用法:
createExternalTable(tableName, path = NULL, source = NULL, schema = NULL, ...)
参数:
tableName
表的名称。path
要加载的文件的路径。source
外部数据源的名称。schema
某些数据源所需的数据架构。...
传递给方法的附加参数。
细节:
数据源由source
和一组选项(...)指定。如果不指定source
,则使用"spark.sql.sources.default"配置的默认数据源。
返回:
一个 SparkDataFrame。
注意:
从 1.4.0 开始的 createExternalTable
例子:
sparkR.session()
df <- createExternalTable("myjson", path="path/to/json", source="json", schema)
相关用法
- R SparkR createDataFrame用法及代码示例
- R SparkR createOrReplaceTempView用法及代码示例
- R SparkR createTable用法及代码示例
- R SparkR crosstab用法及代码示例
- R SparkR crossJoin用法及代码示例
- R SparkR count用法及代码示例
- R SparkR column用法及代码示例
- R SparkR columns用法及代码示例
- R SparkR cube用法及代码示例
- R SparkR corr用法及代码示例
- R SparkR cast用法及代码示例
- R SparkR cacheTable用法及代码示例
- R SparkR checkpoint用法及代码示例
- R SparkR cov用法及代码示例
- R SparkR cache用法及代码示例
- R SparkR currentDatabase用法及代码示例
- R SparkR collect用法及代码示例
- R SparkR coltypes用法及代码示例
- R SparkR coalesce用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 (Deprecated) Create an external table。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。