本文簡要介紹
pyspark.pandas.DataFrame.to_string
的用法。用法:
DataFrame.to_string(buf: Optional[IO[str]] = None, columns: Optional[Sequence[Union[Any, Tuple[Any, …]]]] = None, col_space: Union[str, int, Dict[Union[Any, Tuple[Any, …]], Union[str, int]], None] = None, header: bool = True, index: bool = True, na_rep: str = 'NaN', formatters: Union[List[Callable[[Any], str]], Dict[Union[Any, Tuple[Any, …]], Callable[[Any], str]], None] = None, float_format: Optional[Callable[[float], str]] = None, sparsify: Optional[bool] = None, index_names: bool = True, justify: Optional[str] = None, max_rows: Optional[int] = None, max_cols: Optional[int] = None, show_dimensions: bool = False, decimal: str = '.', line_width: Optional[int] = None) → Optional[str]
將 DataFrame 渲染為控製台友好的表格輸出。
注意
僅當預期生成的 pandas 對象很小時才應使用此方法,因為所有數據都加載到驅動程序的內存中。如果輸入很大,設置max_rows參數。
- buf:StringIO-like,可選
要寫入的緩衝區。
- columns:序列,可選,默認無
要寫入的列的子集。默認情況下寫入所有列。
- col_space:整數,可選
每列的最小寬度。
- header:布爾型,可選
寫出列名。如果給出字符串列表,則假定它是列名的別名
- index:布爾值,可選,默認 True
是否打印索引(行)標簽。
- na_rep:str,可選,默認為“NaN”
要使用的 NAN 的字符串表示形式。
- formatters:one-param 的列表或字典。函數,可選
按位置或名稱應用於列元素的格式化函數。每個函數的結果必須是一個 unicode 字符串。列表的長度必須等於列數。
- float_format:單參數函數,可選,默認 None
如果它們是浮點數,則應用於列的元素的格式化函數。此函數的結果必須是 unicode 字符串。
- sparsify:布爾值,可選,默認 True
對於具有分層索引的 DataFrame 設置為 False 以打印每行的每個多索引鍵。
- index_names:布爾值,可選,默認 True
打印索引的名稱。
- justify:str,默認無
如何證明列標簽的合理性。如果 None 使用打印配置中的選項(由 set_option 控製),則 ‘right’ 開箱即用。有效值為
left
right
center
justify
justify-all
start
end
inherit
match-parent
initial
未設置。
- max_rows:整數,可選
控製台中顯示的最大行數。
- max_cols:整數,可選
控製台中顯示的最大列數。
- show_dimensions:布爾值,默認為 False
顯示 DataFrame 維度(行數乘列數)。
- decimal:str,默認“。”
識別為小數分隔符的字符,例如',' 在歐洲。
- line_width:整數,可選
以字符換行的寬度。
- str(或 unicode,取決於數據和選項)
DataFrame 的字符串表示。
參數:
返回:
例子:
>>> df = ps.DataFrame({'col1': [1, 2, 3], 'col2': [4, 5, 6]}, columns=['col1', 'col2']) >>> print(df.to_string()) col1 col2 0 1 4 1 2 5 2 3 6
>>> print(df.to_string(max_rows=2)) col1 col2 0 1 4 1 2 5
相關用法
- Python pyspark DataFrame.to_spark_io用法及代碼示例
- Python pyspark DataFrame.to_latex用法及代碼示例
- Python pyspark DataFrame.to_delta用法及代碼示例
- Python pyspark DataFrame.to_table用法及代碼示例
- Python pyspark DataFrame.to_pandas用法及代碼示例
- Python pyspark DataFrame.to_records用法及代碼示例
- Python pyspark DataFrame.to_excel用法及代碼示例
- Python pyspark DataFrame.to_pandas_on_spark用法及代碼示例
- Python pyspark DataFrame.to_clipboard用法及代碼示例
- Python pyspark DataFrame.to_numpy用法及代碼示例
- Python pyspark DataFrame.to_orc用法及代碼示例
- Python pyspark DataFrame.to_dict用法及代碼示例
- Python pyspark DataFrame.to_parquet用法及代碼示例
- Python pyspark DataFrame.to_markdown用法及代碼示例
- Python pyspark DataFrame.to_csv用法及代碼示例
- Python pyspark DataFrame.to_json用法及代碼示例
- Python pyspark DataFrame.toPandas用法及代碼示例
- Python pyspark DataFrame.toLocalIterator用法及代碼示例
- Python pyspark DataFrame.toJSON用法及代碼示例
- Python pyspark DataFrame.toDF用法及代碼示例
- Python pyspark DataFrame.transform用法及代碼示例
- Python pyspark DataFrame.take用法及代碼示例
- Python pyspark DataFrame.tail用法及代碼示例
- Python pyspark DataFrame.transpose用法及代碼示例
- Python pyspark DataFrame.truncate用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.DataFrame.to_string。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。