本文简要介绍
pyspark.sql.functions.approx_count_distinct
的用法。用法:
pyspark.sql.functions.approx_count_distinct(col, rsd=None)
聚合函数:返回一个新的
Column
用于列col
的近似不同计数。2.1.0 版中的新函数。
- col:
Column
或 str - rsd:浮点数,可选
允许的最大相对标准偏差(默认 = 0.05)。对于 rsd < 0.01,使用
count_distinct()
效率更高
- col:
参数:
例子:
>>> df.agg(approx_count_distinct(df.age).alias('distinct_ages')).collect() [Row(distinct_ages=2)]
相关用法
- Python pyspark arrays_overlap用法及代码示例
- Python pyspark aggregate用法及代码示例
- Python pyspark add_months用法及代码示例
- Python pyspark array_distinct用法及代码示例
- Python pyspark array_except用法及代码示例
- Python pyspark array_remove用法及代码示例
- Python pyspark array用法及代码示例
- Python pyspark arrays_zip用法及代码示例
- Python pyspark array_contains用法及代码示例
- Python pyspark array_repeat用法及代码示例
- Python pyspark array_intersect用法及代码示例
- Python pyspark array_union用法及代码示例
- Python pyspark array_position用法及代码示例
- Python pyspark array_to_vector用法及代码示例
- Python pyspark array_max用法及代码示例
- Python pyspark assert_true用法及代码示例
- Python pyspark array_sort用法及代码示例
- Python pyspark array_join用法及代码示例
- Python pyspark array_min用法及代码示例
- Python pyspark create_map用法及代码示例
- Python pyspark date_add用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataStreamReader.schema用法及代码示例
- Python pyspark MultiIndex.size用法及代码示例
- Python pyspark Series.asof用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.sql.functions.approx_count_distinct。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。