用法:
Series.value_counts(sort=None, ascending=False, dropna=None, normalize=False, split_every=None, split_out=1)
返回一个包含唯一值计数的系列。
此文档字符串是从 pandas.core.series.Series.value_counts 复制而来的。
可能存在与 Dask 版本的一些不一致之处。
注意:dropna 仅在 pandas >= 1.1.0 中受支持,在这种情况下它默认为 True。
结果对象将按降序排列,因此第一个元素是最多的 frequently-occurring 元素。默认情况下排除 NA 值。
- normalize:布尔值,默认为 False
如果为 True,则返回的对象将包含唯一值的相对频率。
- sort:布尔值,默认为真
按频率排序。
- ascending:布尔值,默认为 False
按升序排列。
- bins:int,可选(在 Dask 中不支持)
与其计数值,不如将它们分组到半开箱中,这对
pd.cut
很方便,仅适用于数字数据。- dropna:布尔值,默认为真
不包括 NaN 的计数。
- Series
参数:
返回:
例子:
>>> index = pd.Index([3, 1, 2, 3, 4, np.nan]) >>> index.value_counts() 3.0 2 1.0 1 2.0 1 4.0 1 dtype: int64
将
normalize
设置为True
时,通过将所有值除以值的总和来返回相对频率。>>> s = pd.Series([3, 1, 2, 3, 4, np.nan]) >>> s.value_counts(normalize=True) 3.0 0.4 1.0 0.2 2.0 0.2 4.0 0.2 dtype: float64
箱子
箱对于从连续变量到分类变量很有用;而不是计算值的唯一幻影,而是将索引划分为指定数量的半开箱。
>>> s.value_counts(bins=3) (0.996, 2.0] 2 (2.0, 3.0] 2 (3.0, 4.0] 1 dtype: int64
dropna
将
dropna
设置为False
我们还可以看到 NaN 索引值。>>> s.value_counts(dropna=False) 3.0 2 1.0 1 2.0 1 4.0 1 NaN 1 dtype: int64
相关用法
- Python dask.dataframe.Series.var用法及代码示例
- Python dask.dataframe.Series.visualize用法及代码示例
- Python dask.dataframe.Series.apply用法及代码示例
- Python dask.dataframe.Series.clip用法及代码示例
- Python dask.dataframe.Series.prod用法及代码示例
- Python dask.dataframe.Series.fillna用法及代码示例
- Python dask.dataframe.Series.to_frame用法及代码示例
- Python dask.dataframe.Series.sum用法及代码示例
- Python dask.dataframe.Series.dropna用法及代码示例
- Python dask.dataframe.Series.gt用法及代码示例
- Python dask.dataframe.Series.ge用法及代码示例
- Python dask.dataframe.Series.repartition用法及代码示例
- Python dask.dataframe.Series.mod用法及代码示例
- Python dask.dataframe.Series.count用法及代码示例
- Python dask.dataframe.Series.append用法及代码示例
- Python dask.dataframe.Series.add用法及代码示例
- Python dask.dataframe.Series.pow用法及代码示例
- Python dask.dataframe.Series.last用法及代码示例
- Python dask.dataframe.Series.nunique用法及代码示例
- Python dask.dataframe.Series.isin用法及代码示例
注:本文由纯净天空筛选整理自dask.org大神的英文原创作品 dask.dataframe.Series.value_counts。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。