标准偏差是什么意思?
标准偏差(Std Dev,Standard Deviation)是统计学名词,也称为标准差,是指一种度量数据分布的分散程度之标准,用来衡量数据值偏离算术平均值的程度。标准偏差越小的,这些值偏离平均值就越少,反之亦然。标准偏差的大小可通过标准偏差与平均值的倍率关系来衡量。
标准差也称均方差,是各数据偏离平均数的距离的平均数,它是离均差平方和平均后的方根。标准差是方差的算术平方根。平均数相同的,标准差未必相同,它可以反映平均数不能反映出的东西(比如稳定度等)。标准差可以当作不确定性的一种测量,例如在物理科学中,做重复性测量时,测量数值集合的标准差代表这些测量的精确度。
标准偏差的计算公式是什么?
标准差公式是一种数学公式。标准差也被称为标准偏差,或者实验标准差,公式如下所示:
样本标准差=方差的算术平方根=s=sqrt(((x1-x)^2 +(x2-x)^2 +......(xn-x)^2)/(n-1))
总体标准差=σ=sqrt(((x1-x)^2 +(x2-x)^2 +......(xn-x)^2)/n )
注解:上述两个标准差公式里的x为一组数(n个数据)的算术平均值。当所有数(个数为n)概率性地出现时(对应的n个概率数值和为1),则x为该组数的数学期望。
责任编辑:243
热点新闻