标准偏差是衡量数据平均分布的一种指标,反映了一组数据之间个体间的离散程度。标准差较大说明差异较大;标准较小说明差异较小。

标准差

  标准差大小反映了什么?

  标准差,又称为标准偏差,一个较大的标准差,代表大部分数值和其平均值之间差异较大;一个较小的标准差,代表这些数值较接近平均值。标准差没有取值范围,标准差为0代表样本的离散程度小。

  标准差的含义

  标准差,是离均差平方的算术平均数(即:方差)的算术平方根,用σ表示。标准差也被称为标准偏差,或者实验标准差,在概率统计中最常使用作为统计分布程度上的测量依据。标准差能反映一个数据集的离散程度。平均数相同的两组数据,标准差未必相同。标准差应用于投资上,可作为量度回报稳定性的指标。标准差数值越大,代表回报远离过去平均数值,回报较不稳定故风险越高。相反,标准差数值越小,代表回报较为稳定,风险亦较小。

  例如,甲、乙两组各有6位学生参加同一次语文测验,甲组的分数为95、85、65、55、45、75,乙组的分数为73、72、71、68、67、69。这两组的平均数都是70,但甲组的标准差约为17.08分,乙组的标准差约为2.16分,说明甲组学生之间的差距要比乙组学生之间的差距大。

  标准差的计算公式

  标准差公式是一种数学公式,是一组数值自平均值分散开来的程度的一种测量观念。

  公式如下:

  样本标准差=方差的算术平方根=s=sqrt(((x1-x)^2+(x2-x)^2+......(xn-x)^2)/(n-1))

  总体标准差=σ=sqrt(((x1-x)^2+(x2-x)^2+......(xn-x)^2)/n)

  注解:上述两个标准差公式里的x为一组数(n个数据)的算术平均值。当所有数(个数为n)概率性地出现时(对应的n个概率数值和为1),则x为该组数的数学期望。