当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark DataFrame.from_records用法及代码示例


本文简要介绍 pyspark.pandas.DataFrame.from_records 的用法。

用法:

static DataFrame.from_records(data: Union[numpy.ndarray, List[tuple], dict, pandas.core.frame.DataFrame], index: Union[str, list, numpy.ndarray] = None, exclude: list = None, columns: list = None, coerce_float: bool = False, nrows: int = None) → pyspark.pandas.frame.DataFrame

将结构化或记录 ndarray 转换为 DataFrame。

参数

datandarray(结构化数据类型)、元组列表、字典或DataFrame
index字符串、字段列表、类似数组

用作索引的数组字段,交替使用一组特定的输入标签

exclude序列,默认无

要排除的列或字段

columns序列,默认无

要使用的列名。如果传递的数据没有与之关联的名称,则此参数提供列的名称。否则,此参数指示结果中列的顺序(数据中未找到的任何名称都将变为 all-NA 列)

coerce_float布尔值,默认为 False

尝试将非字符串、非数字对象(如 decimal.Decimal)的值转换为浮点数,这对 SQL 结果集很有用

nrows整数,默认无

如果数据是迭代器,则要读取的行数

返回

dfDataFrame

例子

使用 dict 作为输入

>>> ps.DataFrame.from_records({'A': [1, 2, 3]})
   A
0  1
1  2
2  3

使用元组列表作为输入

>>> ps.DataFrame.from_records([(1, 2), (3, 4)])
   0  1
0  1  2
1  3  4

使用NumPy数组作为输入

>>> ps.DataFrame.from_records(np.eye(3))
     0    1    2
0  1.0  0.0  0.0
1  0.0  1.0  0.0
2  0.0  0.0  1.0

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.DataFrame.from_records。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。