本文简要介绍
pyspark.pandas.DataFrame.from_records
的用法。用法:
static DataFrame.from_records(data: Union[numpy.ndarray, List[tuple], dict, pandas.core.frame.DataFrame], index: Union[str, list, numpy.ndarray] = None, exclude: list = None, columns: list = None, coerce_float: bool = False, nrows: int = None) → pyspark.pandas.frame.DataFrame
将结构化或记录 ndarray 转换为 DataFrame。
- data:ndarray(结构化数据类型)、元组列表、字典或DataFrame
- index:字符串、字段列表、类似数组
用作索引的数组字段,交替使用一组特定的输入标签
- exclude:序列,默认无
要排除的列或字段
- columns:序列,默认无
要使用的列名。如果传递的数据没有与之关联的名称,则此参数提供列的名称。否则,此参数指示结果中列的顺序(数据中未找到的任何名称都将变为 all-NA 列)
- coerce_float:布尔值,默认为 False
尝试将非字符串、非数字对象(如 decimal.Decimal)的值转换为浮点数,这对 SQL 结果集很有用
- nrows:整数,默认无
如果数据是迭代器,则要读取的行数
- df:DataFrame
参数:
返回:
例子:
使用 dict 作为输入
>>> ps.DataFrame.from_records({'A': [1, 2, 3]}) A 0 1 1 2 2 3
使用元组列表作为输入
>>> ps.DataFrame.from_records([(1, 2), (3, 4)]) 0 1 0 1 2 1 3 4
使用NumPy数组作为输入
>>> ps.DataFrame.from_records(np.eye(3)) 0 1 2 0 1.0 0.0 0.0 1 0.0 1.0 0.0 2 0.0 0.0 1.0
相关用法
- Python pyspark DataFrame.foreachPartition用法及代码示例
- Python pyspark DataFrame.foreach用法及代码示例
- Python pyspark DataFrame.filter用法及代码示例
- Python pyspark DataFrame.first用法及代码示例
- Python pyspark DataFrame.first_valid_index用法及代码示例
- Python pyspark DataFrame.fillna用法及代码示例
- Python pyspark DataFrame.floordiv用法及代码示例
- Python pyspark DataFrame.ffill用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataFrame.align用法及代码示例
- Python pyspark DataFrame.plot.bar用法及代码示例
- Python pyspark DataFrame.to_delta用法及代码示例
- Python pyspark DataFrame.quantile用法及代码示例
- Python pyspark DataFrame.cumsum用法及代码示例
- Python pyspark DataFrame.iloc用法及代码示例
- Python pyspark DataFrame.dropDuplicates用法及代码示例
- Python pyspark DataFrame.printSchema用法及代码示例
- Python pyspark DataFrame.to_table用法及代码示例
- Python pyspark DataFrame.rmod用法及代码示例
- Python pyspark DataFrame.div用法及代码示例
- Python pyspark DataFrame.drop_duplicates用法及代码示例
- Python pyspark DataFrame.to_pandas用法及代码示例
- Python pyspark DataFrame.sum用法及代码示例
- Python pyspark DataFrame.transform用法及代码示例
- Python pyspark DataFrame.get用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.DataFrame.from_records。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。