本文简要介绍
pyspark.pandas.DataFrame.to_string
的用法。用法:
DataFrame.to_string(buf: Optional[IO[str]] = None, columns: Optional[Sequence[Union[Any, Tuple[Any, …]]]] = None, col_space: Union[str, int, Dict[Union[Any, Tuple[Any, …]], Union[str, int]], None] = None, header: bool = True, index: bool = True, na_rep: str = 'NaN', formatters: Union[List[Callable[[Any], str]], Dict[Union[Any, Tuple[Any, …]], Callable[[Any], str]], None] = None, float_format: Optional[Callable[[float], str]] = None, sparsify: Optional[bool] = None, index_names: bool = True, justify: Optional[str] = None, max_rows: Optional[int] = None, max_cols: Optional[int] = None, show_dimensions: bool = False, decimal: str = '.', line_width: Optional[int] = None) → Optional[str]
将 DataFrame 渲染为控制台友好的表格输出。
注意
仅当预期生成的 pandas 对象很小时才应使用此方法,因为所有数据都加载到驱动程序的内存中。如果输入很大,设置max_rows参数。
- buf:StringIO-like,可选
要写入的缓冲区。
- columns:序列,可选,默认无
要写入的列的子集。默认情况下写入所有列。
- col_space:整数,可选
每列的最小宽度。
- header:布尔型,可选
写出列名。如果给出字符串列表,则假定它是列名的别名
- index:布尔值,可选,默认 True
是否打印索引(行)标签。
- na_rep:str,可选,默认为“NaN”
要使用的 NAN 的字符串表示形式。
- formatters:one-param 的列表或字典。函数,可选
按位置或名称应用于列元素的格式化函数。每个函数的结果必须是一个 unicode 字符串。列表的长度必须等于列数。
- float_format:单参数函数,可选,默认 None
如果它们是浮点数,则应用于列的元素的格式化函数。此函数的结果必须是 unicode 字符串。
- sparsify:布尔值,可选,默认 True
对于具有分层索引的 DataFrame 设置为 False 以打印每行的每个多索引键。
- index_names:布尔值,可选,默认 True
打印索引的名称。
- justify:str,默认无
如何证明列标签的合理性。如果 None 使用打印配置中的选项(由 set_option 控制),则 ‘right’ 开箱即用。有效值为
left
right
center
justify
justify-all
start
end
inherit
match-parent
initial
未设置。
- max_rows:整数,可选
控制台中显示的最大行数。
- max_cols:整数,可选
控制台中显示的最大列数。
- show_dimensions:布尔值,默认为 False
显示 DataFrame 维度(行数乘列数)。
- decimal:str,默认“。”
识别为小数分隔符的字符,例如',' 在欧洲。
- line_width:整数,可选
以字符换行的宽度。
- str(或 unicode,取决于数据和选项)
DataFrame 的字符串表示。
参数:
返回:
例子:
>>> df = ps.DataFrame({'col1': [1, 2, 3], 'col2': [4, 5, 6]}, columns=['col1', 'col2']) >>> print(df.to_string()) col1 col2 0 1 4 1 2 5 2 3 6
>>> print(df.to_string(max_rows=2)) col1 col2 0 1 4 1 2 5
相关用法
- Python pyspark DataFrame.to_spark_io用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataFrame.to_delta用法及代码示例
- Python pyspark DataFrame.to_table用法及代码示例
- Python pyspark DataFrame.to_pandas用法及代码示例
- Python pyspark DataFrame.to_records用法及代码示例
- Python pyspark DataFrame.to_excel用法及代码示例
- Python pyspark DataFrame.to_pandas_on_spark用法及代码示例
- Python pyspark DataFrame.to_clipboard用法及代码示例
- Python pyspark DataFrame.to_numpy用法及代码示例
- Python pyspark DataFrame.to_orc用法及代码示例
- Python pyspark DataFrame.to_dict用法及代码示例
- Python pyspark DataFrame.to_parquet用法及代码示例
- Python pyspark DataFrame.to_markdown用法及代码示例
- Python pyspark DataFrame.to_csv用法及代码示例
- Python pyspark DataFrame.to_json用法及代码示例
- Python pyspark DataFrame.toPandas用法及代码示例
- Python pyspark DataFrame.toLocalIterator用法及代码示例
- Python pyspark DataFrame.toJSON用法及代码示例
- Python pyspark DataFrame.toDF用法及代码示例
- Python pyspark DataFrame.transform用法及代码示例
- Python pyspark DataFrame.take用法及代码示例
- Python pyspark DataFrame.tail用法及代码示例
- Python pyspark DataFrame.transpose用法及代码示例
- Python pyspark DataFrame.truncate用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.DataFrame.to_string。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。