PySpark DataFrame 的 take(~)
方法將第一個 num
行數作為 Row
對象的列表返回。
參數
1. num
| integer
要返回的行數。
返回值
Row
對象的列表。
例子
考慮以下PySpark DataFrame:
df = spark.createDataFrame([["Alex", 25], ["Bob", 30], ["Cathy", 40]], ["name", "age"])
df.show()
+-----+---+
| name|age|
+-----+---+
| Alex| 25|
| Bob| 30|
|Cathy| 40|
+-----+---+
獲取 PySpark DataFrame 的前 n 行作為 Row 對象列表
獲取前 n
行數作為 Row
對象列表:
df.take(2)
[Row(name='Alex', age=25), Row(name='Bob', age=30)]
take(~) 和 head(~) 方法之間的區別
方法 takes(~)
和 head(~)
之間的區別是始終返回 Row 對象列表,而 head(~)
在設置 head(n=1)
的情況下僅返回 Row 對象。
例如,考慮以下PySpark DataFrame:
df = spark.createDataFrame([["Alex", 20], ["Bob", 30]], ["name", "age"])
df.show()
+----+---+
|name|age|
+----+---+
|Alex| 20|
| Bob| 30|
+----+---+
調用 take(1)
會產生:
df.take(1)
[Row(name='Alex', age=20)]
調用 head(1)
會產生:
df.head(1)
[Row(name='Alex', age=20)]
對於 n
的所有其他值,方法 take(~)
和 head(~)
產生相同的輸出。
相關用法
- Python Pandas DataFrame take方法用法及代碼示例
- Python Pandas DataFrame tail方法用法及代碼示例
- Python PySpark DataFrame tail方法用法及代碼示例
- Python Pandas DataFrame tz_convert方法用法及代碼示例
- Python Pandas DataFrame transform方法用法及代碼示例
- Python Pandas DataFrame truncate方法用法及代碼示例
- Python Pandas DataFrame to_csv方法用法及代碼示例
- Python Pandas DataFrame tz_localize方法用法及代碼示例
- Python Pandas DataFrame truediv方法用法及代碼示例
- Python Pandas DataFrame transpose方法用法及代碼示例
- Python PySpark DataFrame toDF方法用法及代碼示例
- Python PySpark DataFrame toJSON方法用法及代碼示例
- Python Pandas DataFrame tshift方法用法及代碼示例
- Python Pandas DataFrame to_period方法用法及代碼示例
- Python Pandas DataFrame to_json方法用法及代碼示例
- Python PySpark DataFrame toPandas方法用法及代碼示例
- Python Pandas DataFrame to_timestamp方法用法及代碼示例
- Python Pandas DataFrame to_numpy方法用法及代碼示例
- Python PySpark DataFrame transform方法用法及代碼示例
- Python Pandas DataFrame to_dict方法用法及代碼示例
- Python Pandas DataFrame empty屬性用法及代碼示例
- Python Pandas DataFrame pop方法用法及代碼示例
- Python Pandas DataFrame nsmallest方法用法及代碼示例
- Python Pandas DataFrame sample方法用法及代碼示例
- Python Pandas DataFrame items方法用法及代碼示例
注:本文由純淨天空篩選整理自Isshin Inada大神的英文原創作品 PySpark DataFrame | take method。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。