本文简要介绍
pyspark.pandas.DataFrame.sem
的用法。用法:
DataFrame.sem(axis: Union[int, str, None] = None, ddof: int = 1, numeric_only: bool = None) → Union[int, float, bool, str, bytes, decimal.Decimal, datetime.date, datetime.datetime, None, Series]
返回请求轴上平均值的无偏标准误差。
- axis:{索引 (0), 列 (1)}
要应用的函数的轴。
- ddof:整数,默认 1
Delta 自由度。计算中使用的除数是 N - ddof,其中 N 表示元素的数量。
- numeric_only:布尔值,默认无
仅包括 float、int、boolean 列。不支持 False。这个参数主要是为了pandas的兼容性。
- 标量(用于系列)或系列(用于 DataFrame)
参数:
返回:
例子:
>>> psdf = ps.DataFrame({"a": [1, 2, 3], "b": [4, 5, 6]}) >>> psdf a b 0 1 4 1 2 5 2 3 6
>>> psdf.sem() a 0.57735 b 0.57735 dtype: float64
>>> psdf.sem(ddof=0) a 0.471405 b 0.471405 dtype: float64
>>> psdf.sem(axis=1) 0 1.5 1 1.5 2 1.5 dtype: float64
支持系列
>>> psser = psdf.a >>> psser 0 1 1 2 2 3 Name: a, dtype: int64
>>> psser.sem() 0.5773502691896258
>>> psser.sem(ddof=0) 0.47140452079103173
相关用法
- Python pyspark DataFrame.semanticHash用法及代码示例
- Python pyspark DataFrame.select用法及代码示例
- Python pyspark DataFrame.set_index用法及代码示例
- Python pyspark DataFrame.select_dtypes用法及代码示例
- Python pyspark DataFrame.selectExpr用法及代码示例
- Python pyspark DataFrame.sum用法及代码示例
- Python pyspark DataFrame.sort_index用法及代码示例
- Python pyspark DataFrame.sort_values用法及代码示例
- Python pyspark DataFrame.sampleBy用法及代码示例
- Python pyspark DataFrame.style用法及代码示例
- Python pyspark DataFrame.spark.to_table用法及代码示例
- Python pyspark DataFrame.sortWithinPartitions用法及代码示例
- Python pyspark DataFrame.skew用法及代码示例
- Python pyspark DataFrame.spark.frame用法及代码示例
- Python pyspark DataFrame.sub用法及代码示例
- Python pyspark DataFrame.shape用法及代码示例
- Python pyspark DataFrame.sample用法及代码示例
- Python pyspark DataFrame.std用法及代码示例
- Python pyspark DataFrame.spark.cache用法及代码示例
- Python pyspark DataFrame.schema用法及代码示例
- Python pyspark DataFrame.spark.persist用法及代码示例
- Python pyspark DataFrame.size用法及代码示例
- Python pyspark DataFrame.spark.to_spark_io用法及代码示例
- Python pyspark DataFrame.show用法及代码示例
- Python pyspark DataFrame.summary用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.DataFrame.sem。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。