當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark RDD.reduce用法及代碼示例


本文簡要介紹 pyspark.RDD.reduce 的用法。

用法:

RDD.reduce(f)

使用指定的交換和關聯二元運算符減少此 RDD 的元素。目前在本地減少分區。

例子

>>> from operator import add
>>> sc.parallelize([1, 2, 3, 4, 5]).reduce(add)
15
>>> sc.parallelize((2 for _ in range(10))).map(lambda x: 1).cache().reduce(add)
10
>>> sc.parallelize([]).reduce(add)
Traceback (most recent call last):
    ...
ValueError: Can not reduce() empty RDD

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.RDD.reduce。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。