本文简要介绍
pyspark.pandas.DataFrame.astype
的用法。用法:
DataFrame.astype(dtype: Union[str, numpy.dtype, pandas.core.dtypes.base.ExtensionDtype, Dict[Union[Any, Tuple[Any, …]], Union[str, numpy.dtype, pandas.core.dtypes.base.ExtensionDtype]]]) → pyspark.pandas.frame.DataFrame
将 pandas-on-Spark 对象转换为指定的 dtype
dtype
。- dtype:数据类型,或列名的字典 -> 数据类型
使用 numpy.dtype 或 Python 类型将整个 pandas-on-Spark 对象转换为相同类型。或者,使用 {col: dtype, …},其中 col 是列标签,dtype 是 numpy.dtype 或 Python 类型,将 DataFrame 的一个或多个列转换为 column-specific 类型。
- casted:与调用者相同的类型
参数:
返回:
例子:
>>> df = ps.DataFrame({'a': [1, 2, 3], 'b': [1, 2, 3]}, dtype='int64') >>> df a b 0 1 1 1 2 2 2 3 3
转换为浮点类型:
>>> df.astype('float') a b 0 1.0 1.0 1 2.0 2.0 2 3.0 3.0
转回 int64 类型:
>>> df.astype('int64') a b 0 1 1 1 2 2 2 3 3
将 a 列转换为浮点类型:
>>> df.astype({'a': float}) a b 0 1.0 1 1 2.0 2 2 3.0 3
相关用法
- Python pyspark DataFrame.assign用法及代码示例
- Python pyspark DataFrame.align用法及代码示例
- Python pyspark DataFrame.any用法及代码示例
- Python pyspark DataFrame.alias用法及代码示例
- Python pyspark DataFrame.applymap用法及代码示例
- Python pyspark DataFrame.append用法及代码示例
- Python pyspark DataFrame.apply用法及代码示例
- Python pyspark DataFrame.at用法及代码示例
- Python pyspark DataFrame.add_prefix用法及代码示例
- Python pyspark DataFrame.all用法及代码示例
- Python pyspark DataFrame.add用法及代码示例
- Python pyspark DataFrame.axes用法及代码示例
- Python pyspark DataFrame.aggregate用法及代码示例
- Python pyspark DataFrame.abs用法及代码示例
- Python pyspark DataFrame.agg用法及代码示例
- Python pyspark DataFrame.at_time用法及代码示例
- Python pyspark DataFrame.add_suffix用法及代码示例
- Python pyspark DataFrame.to_latex用法及代码示例
- Python pyspark DataFrame.plot.bar用法及代码示例
- Python pyspark DataFrame.to_delta用法及代码示例
- Python pyspark DataFrame.quantile用法及代码示例
- Python pyspark DataFrame.cumsum用法及代码示例
- Python pyspark DataFrame.iloc用法及代码示例
- Python pyspark DataFrame.dropDuplicates用法及代码示例
- Python pyspark DataFrame.printSchema用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.DataFrame.astype。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。