本文簡要介紹
pyspark.pandas.DataFrame.from_records
的用法。用法:
static DataFrame.from_records(data: Union[numpy.ndarray, List[tuple], dict, pandas.core.frame.DataFrame], index: Union[str, list, numpy.ndarray] = None, exclude: list = None, columns: list = None, coerce_float: bool = False, nrows: int = None) → pyspark.pandas.frame.DataFrame
將結構化或記錄 ndarray 轉換為 DataFrame。
- data:ndarray(結構化數據類型)、元組列表、字典或DataFrame
- index:字符串、字段列表、類似數組
用作索引的數組字段,交替使用一組特定的輸入標簽
- exclude:序列,默認無
要排除的列或字段
- columns:序列,默認無
要使用的列名。如果傳遞的數據沒有與之關聯的名稱,則此參數提供列的名稱。否則,此參數指示結果中列的順序(數據中未找到的任何名稱都將變為 all-NA 列)
- coerce_float:布爾值,默認為 False
嘗試將非字符串、非數字對象(如 decimal.Decimal)的值轉換為浮點數,這對 SQL 結果集很有用
- nrows:整數,默認無
如果數據是迭代器,則要讀取的行數
- df:DataFrame
參數:
返回:
例子:
使用 dict 作為輸入
>>> ps.DataFrame.from_records({'A': [1, 2, 3]}) A 0 1 1 2 2 3
使用元組列表作為輸入
>>> ps.DataFrame.from_records([(1, 2), (3, 4)]) 0 1 0 1 2 1 3 4
使用NumPy數組作為輸入
>>> ps.DataFrame.from_records(np.eye(3)) 0 1 2 0 1.0 0.0 0.0 1 0.0 1.0 0.0 2 0.0 0.0 1.0
相關用法
- Python pyspark DataFrame.foreachPartition用法及代碼示例
- Python pyspark DataFrame.foreach用法及代碼示例
- Python pyspark DataFrame.filter用法及代碼示例
- Python pyspark DataFrame.first用法及代碼示例
- Python pyspark DataFrame.first_valid_index用法及代碼示例
- Python pyspark DataFrame.fillna用法及代碼示例
- Python pyspark DataFrame.floordiv用法及代碼示例
- Python pyspark DataFrame.ffill用法及代碼示例
- Python pyspark DataFrame.to_latex用法及代碼示例
- Python pyspark DataFrame.align用法及代碼示例
- Python pyspark DataFrame.plot.bar用法及代碼示例
- Python pyspark DataFrame.to_delta用法及代碼示例
- Python pyspark DataFrame.quantile用法及代碼示例
- Python pyspark DataFrame.cumsum用法及代碼示例
- Python pyspark DataFrame.iloc用法及代碼示例
- Python pyspark DataFrame.dropDuplicates用法及代碼示例
- Python pyspark DataFrame.printSchema用法及代碼示例
- Python pyspark DataFrame.to_table用法及代碼示例
- Python pyspark DataFrame.rmod用法及代碼示例
- Python pyspark DataFrame.div用法及代碼示例
- Python pyspark DataFrame.drop_duplicates用法及代碼示例
- Python pyspark DataFrame.to_pandas用法及代碼示例
- Python pyspark DataFrame.sum用法及代碼示例
- Python pyspark DataFrame.transform用法及代碼示例
- Python pyspark DataFrame.get用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.DataFrame.from_records。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。