本文简要介绍
pyspark.pandas.DataFrame.info
的用法。用法:
DataFrame.info(verbose: Optional[bool] = None, buf: Optional[IO[str]] = None, max_cols: Optional[int] = None, null_counts: Optional[bool] = None) → None
打印 DataFrame 的简明摘要。
此方法打印有关 DataFrame 的信息,包括索引数据类型和列数据类型、非空值和内存使用情况。
- verbose:布尔型,可选
是否打印完整的摘要。
- buf:可写缓冲区,默认为sys.stdout
将输出发送到哪里。默认情况下,输出打印到 sys.stdout。如果您需要进一步处理输出,请传递一个可写缓冲区。
- max_cols:整数,可选
何时从详细输出切换到截断输出。如果 DataFrame 的列数多于
max_cols
列,则使用截断的输出。- null_counts:布尔型,可选
是否显示非空计数。
- None
此方法打印 DataFrame 的摘要并返回 None。
参数:
返回:
例子:
>>> int_values = [1, 2, 3, 4, 5] >>> text_values = ['alpha', 'beta', 'gamma', 'delta', 'epsilon'] >>> float_values = [0.0, 0.25, 0.5, 0.75, 1.0] >>> df = ps.DataFrame( ... {"int_col": int_values, "text_col": text_values, "float_col": float_values}, ... columns=['int_col', 'text_col', 'float_col']) >>> df int_col text_col float_col 0 1 alpha 0.00 1 2 beta 0.25 2 3 gamma 0.50 3 4 delta 0.75 4 5 epsilon 1.00
打印所有列的信息:
>>> df.info(verbose=True) <class 'pyspark.pandas.frame.DataFrame'> Index: 5 entries, 0 to 4 Data columns (total 3 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 int_col 5 non-null int64 1 text_col 5 non-null object 2 float_col 5 non-null float64 dtypes: float64(1), int64(1), object(1)
打印列数及其 dtypes 的摘要,但不打印每列信息:
>>> df.info(verbose=False) <class 'pyspark.pandas.frame.DataFrame'> Index: 5 entries, 0 to 4 Columns: 3 entries, int_col to float_col dtypes: float64(1), int64(1), object(1)
将 DataFrame.info 的输出通过管道传输到缓冲区而不是 sys.stdout,获取缓冲区内容并写入文本文件:
>>> import io >>> buffer = io.StringIO() >>> df.info(buf=buffer) >>> s = buffer.getvalue() >>> with open('%s/info.txt' % path, "w", ... encoding="utf-8") as f: ... _ = f.write(s) >>> with open('%s/info.txt' % path) as f: ... f.readlines() ["<class 'pyspark.pandas.frame.DataFrame'>\n", 'Index: 5 entries, 0 to 4\n', 'Data columns (total 3 columns):\n', ' # Column Non-Null Count Dtype \n', '--- ------ -------------- ----- \n', ' 0 int_col 5 non-null int64 \n', ' 1 text_col 5 non-null object \n', ' 2 float_col 5 non-null float64\n', 'dtypes: float64(1), int64(1), object(1)']
相关用法
- Python pyspark DataFrame.insert用法及代码示例
- Python pyspark DataFrame.inputFiles用法及代码示例
- Python pyspark DataFrame.intersectAll用法及代码示例
- Python pyspark DataFrame.iloc用法及代码示例
- Python pyspark DataFrame.isnull用法及代码示例
- Python pyspark DataFrame.iat用法及代码示例
- Python pyspark DataFrame.iterrows用法及代码示例
- Python pyspark DataFrame.itertuples用法及代码示例
- Python pyspark DataFrame.isna用法及代码示例
- Python pyspark DataFrame.idxmin用法及代码示例
- Python pyspark DataFrame.iteritems用法及代码示例
- Python pyspark DataFrame.isin用法及代码示例
- Python pyspark DataFrame.idxmax用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataFrame.align用法及代码示例
- Python pyspark DataFrame.plot.bar用法及代码示例
- Python pyspark DataFrame.to_delta用法及代码示例
- Python pyspark DataFrame.quantile用法及代码示例
- Python pyspark DataFrame.cumsum用法及代码示例
- Python pyspark DataFrame.dropDuplicates用法及代码示例
- Python pyspark DataFrame.printSchema用法及代码示例
- Python pyspark DataFrame.to_table用法及代码示例
- Python pyspark DataFrame.rmod用法及代码示例
- Python pyspark DataFrame.div用法及代码示例
- Python pyspark DataFrame.drop_duplicates用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.DataFrame.info。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。