用法:
DataFrame.count(axis=None, split_every=False, numeric_only=None)
计算每一列或每一行的非 NA 单元格。
此文档字符串是从 pandas.core.frame.DataFrame.count 复制而来的。
可能存在与 Dask 版本的一些不一致之处。
值
None
,NaN
,NaT
和可选的numpy.inf
(取决于pandas.options.mode.use_inf_as_na
)被认为是 NA。- axis:{0 或 ‘index’,1 或 ‘columns’},默认 0
如果为每列生成 0 或 ‘index’ 计数。如果为每一行生成 1 或 ‘columns’ 计数。
- level:int 或 str,可选(Dask 中不支持)
如果轴是
MultiIndex
(分层),则沿特定的level
计数,折叠成DataFrame
。str
指定级别名称。- numeric_only:布尔值,默认为 False
仅包括
float
,int
或boolean
数据。
- Series或DataFrame
对于每一列/行,非 NA/空条目的数量。如果指定了
level
,则返回DataFrame
。
参数:
返回:
例子:
从字典构造 DataFrame:
>>> df = pd.DataFrame({"Person": ... ["John", "Myla", "Lewis", "John", "Myla"], ... "Age": [24., np.nan, 21., 33, 26], ... "Single": [False, True, True, True, False]}) >>> df Person Age Single 0 John 24.0 False 1 Myla NaN True 2 Lewis 21.0 True 3 John 33.0 True 4 Myla 26.0 False
注意未计数的 NA 值:
>>> df.count() Person 5 Age 4 Single 5 dtype: int64
每行的计数:
>>> df.count(axis='columns') 0 3 1 2 2 3 3 3 4 3 dtype: int64
相关用法
- Python dask.dataframe.DataFrame.cov用法及代码示例
- Python dask.dataframe.DataFrame.corr用法及代码示例
- Python dask.dataframe.DataFrame.cummin用法及代码示例
- Python dask.dataframe.DataFrame.cumprod用法及代码示例
- Python dask.dataframe.DataFrame.cummax用法及代码示例
- Python dask.dataframe.DataFrame.cumsum用法及代码示例
- Python dask.dataframe.DataFrame.applymap用法及代码示例
- Python dask.dataframe.DataFrame.sub用法及代码示例
- Python dask.dataframe.DataFrame.mod用法及代码示例
- Python dask.dataframe.DataFrame.truediv用法及代码示例
- Python dask.dataframe.DataFrame.round用法及代码示例
- Python dask.dataframe.DataFrame.ne用法及代码示例
- Python dask.dataframe.DataFrame.partitions用法及代码示例
- Python dask.dataframe.DataFrame.to_bag用法及代码示例
- Python dask.dataframe.DataFrame.any用法及代码示例
- Python dask.dataframe.DataFrame.itertuples用法及代码示例
- Python dask.dataframe.DataFrame.memory_usage用法及代码示例
- Python dask.dataframe.DataFrame.describe用法及代码示例
- Python dask.dataframe.DataFrame.to_parquet用法及代码示例
- Python dask.dataframe.DataFrame.groupby用法及代码示例
注:本文由纯净天空筛选整理自dask.org大神的英文原创作品 dask.dataframe.DataFrame.count。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。