当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark schema_of_csv用法及代码示例


本文简要介绍 pyspark.sql.functions.schema_of_csv 的用法。

用法:

pyspark.sql.functions.schema_of_csv(csv, options=None)

解析 CSV 字符串并以 DDL 格式推断其架构。

3.0.0 版中的新函数。

参数

csv Column 或 str

CSV 字符串或包含 CSV 字符串的可折叠字符串列。

options字典,可选

控制解析的选项。接受与 CSV 数据源相同的选项。请参阅您使用的版本中的Data Source Option

例子

>>> df = spark.range(1)
>>> df.select(schema_of_csv(lit('1|a'), {'sep':'|'}).alias("csv")).collect()
[Row(csv='STRUCT<`_c0`: INT, `_c1`: STRING>')]
>>> df.select(schema_of_csv('1|a', {'sep':'|'}).alias("csv")).collect()
[Row(csv='STRUCT<`_c0`: INT, `_c1`: STRING>')]

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.schema_of_csv。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。