📅  最后修改于: 2023-12-03 15:24:47.220000             🧑  作者: Mango
标准差(Standard deviation)是一种用来衡量数据集中数据点离散程度的一种统计指标。用数学符号表示为 σ
,计算公式为:
σ = [(Σ(xi - μ)²)/n] ¹/²
其中,xi
表示每个数据点,μ
表示平均数,n
表示数据集中数据点的数量。
在程序开发中,我们经常需要计算标准差。下面介绍几种方法:
Python 自带的 statistics 模块提供了很多统计学函数,包括计算标准差的函数 stdev()
。使用方法如下:
import statistics
data = [1, 2, 3, 4, 5]
std_dev = statistics.stdev(data)
print(std_dev) # 输出:1.5811388300841898
Numpy 是 Python 中用于科学计算的常用库之一,提供了数组和矩阵运算的功能,也包含了许多统计函数。使用该库计算标准差的方法如下:
import numpy as np
data = [1, 2, 3, 4, 5]
std_dev = np.std(data)
print(std_dev) # 输出:1.5811388300841898
如果不想使用库函数,也可以手动计算标准差。以下是 Python 代码:
import math
data = [1, 2, 3, 4, 5]
mean = sum(data) / len(data)
variance = sum([((x - mean) ** 2) for x in data]) / len(data)
std_dev = math.sqrt(variance)
print(std_dev) # 输出:1.5811388300841898
以上给出了三种计算标准差的方法,如果你经常需要计算标准差,建议封装成函数,便于复用。