PySpark DataFrame 的 take(~)
方法将第一个 num
行数作为 Row
对象的列表返回。
参数
1. num
| integer
要返回的行数。
返回值
Row
对象的列表。
例子
考虑以下PySpark DataFrame:
df = spark.createDataFrame([["Alex", 25], ["Bob", 30], ["Cathy", 40]], ["name", "age"])
df.show()
+-----+---+
| name|age|
+-----+---+
| Alex| 25|
| Bob| 30|
|Cathy| 40|
+-----+---+
获取 PySpark DataFrame 的前 n 行作为 Row 对象列表
获取前 n
行数作为 Row
对象列表:
df.take(2)
[Row(name='Alex', age=25), Row(name='Bob', age=30)]
take(~) 和 head(~) 方法之间的区别
方法 takes(~)
和 head(~)
之间的区别是始终返回 Row 对象列表,而 head(~)
在设置 head(n=1)
的情况下仅返回 Row 对象。
例如,考虑以下PySpark DataFrame:
df = spark.createDataFrame([["Alex", 20], ["Bob", 30]], ["name", "age"])
df.show()
+----+---+
|name|age|
+----+---+
|Alex| 20|
| Bob| 30|
+----+---+
调用 take(1)
会产生:
df.take(1)
[Row(name='Alex', age=20)]
调用 head(1)
会产生:
df.head(1)
[Row(name='Alex', age=20)]
对于 n
的所有其他值,方法 take(~)
和 head(~)
产生相同的输出。
相关用法
- Python Pandas DataFrame take方法用法及代码示例
- Python Pandas DataFrame tail方法用法及代码示例
- Python PySpark DataFrame tail方法用法及代码示例
- Python Pandas DataFrame tz_convert方法用法及代码示例
- Python Pandas DataFrame transform方法用法及代码示例
- Python Pandas DataFrame truncate方法用法及代码示例
- Python Pandas DataFrame to_csv方法用法及代码示例
- Python Pandas DataFrame tz_localize方法用法及代码示例
- Python Pandas DataFrame truediv方法用法及代码示例
- Python Pandas DataFrame transpose方法用法及代码示例
- Python PySpark DataFrame toDF方法用法及代码示例
- Python PySpark DataFrame toJSON方法用法及代码示例
- Python Pandas DataFrame tshift方法用法及代码示例
- Python Pandas DataFrame to_period方法用法及代码示例
- Python Pandas DataFrame to_json方法用法及代码示例
- Python PySpark DataFrame toPandas方法用法及代码示例
- Python Pandas DataFrame to_timestamp方法用法及代码示例
- Python Pandas DataFrame to_numpy方法用法及代码示例
- Python PySpark DataFrame transform方法用法及代码示例
- Python Pandas DataFrame to_dict方法用法及代码示例
- Python Pandas DataFrame empty属性用法及代码示例
- Python Pandas DataFrame pop方法用法及代码示例
- Python Pandas DataFrame nsmallest方法用法及代码示例
- Python Pandas DataFrame sample方法用法及代码示例
- Python Pandas DataFrame items方法用法及代码示例
注:本文由纯净天空筛选整理自Isshin Inada大神的英文原创作品 PySpark DataFrame | take method。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。