當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python pyspark DataFrame.nunique用法及代碼示例

本文簡要介紹 pyspark.pandas.DataFrame.nunique 的用法。

用法:

DataFrame.nunique(axis: Union[int, str] = 0, dropna: bool = True, approx: bool = False, rsd: float = 0.05) → Series

返回對象中唯一元素的數量。

默認情況下排除 NA 值。

參數

axisint,默認 0 或 ‘index’

目前隻能設置為0。

dropna布爾值,默認為真

計數中請勿包含NaN。

approx: bool, default False

如果為 False,將使用精確的算法並返回唯一的精確數量。如果為 True,則使用 HyperLogLog 近似算法,該算法對於大量數據來說速度明顯更快。注意:該參數是pandas-on-Spark特有的,在pandas中找不到。

rsd: float, default 0.05

HyperLogLog 算法允許的最大估計誤差。注意:就像approx 一樣,該參數特定於pandas-on-Spark。

返回

作為 pandas-on-Spark 係列的每列唯一值的數量。

例子

>>> df = ps.DataFrame({'A': [1, 2, 3], 'B': [np.nan, 3, np.nan]})
>>> df.nunique()
A    3
B    1
dtype: int64
>>> df.nunique(dropna=False)
A    3
B    2
dtype: int64

在大數據上,我們建議使用近似算法來加速這個函數。結果將非常接近確切的唯一計數。

>>> df.nunique(approx=True)
A    3
B    1
dtype: int64

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.DataFrame.nunique。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。