Wie jeder Statistiker weiß, gibt es zwei Varianzen und damit zwei Standardabweichungen, die einem über den Weg laufen können.

R benutzt dabei zur Berechung von Var(x) die empirische Schätzung (vgl. [1] S.428ff): \[ \frac{1}{n-1} \sum \left(x - \bar{x}\right)^2 \]

wie man leicht an dem Beispiel nachrechnen kann:

> x <- c(1, 2, 3, 4, 5)
> var(x)
[1] 2.5
> 1/4 * sum( (x-mean(x))^2)
[1] 2.5

Will man aber die Varianz einer beobachteten statistischen Reihe (vgl [1] S. 53) mittels der Formel \[ \frac{1}{n} \sum \left(x - \mu\right)^2 \] berechnet haben, dann muss man die Varianz von R entsprechend umrechnen:

> 1/5 * sum( (x-mean(x))^2)
[1] 2
> (length(x)-1)/length(x) * var(x)
[1] 2

Für die Standardabweichung gilt in R dabei immer die Formel sd(x)=sqrt(var(x)); die Standardabweichung ist die Wurzel der Varianz. Will man die Standardabweichung von \(\frac{1}{n} \sum \left(x - \mu\right)^2\), so muss man daraus die Wurzel ziehen:

> sqrt(1/5 * sum( (x-mean(x))^2))
[1] 1.414214
> sqrt((length(x)-1)/length(x) * var(x))
[1] 1.414214

Auf Wikipedia findet man unter Stichprobenvarianz eine kurze Erklärung was es mit den zwei Varianzen auf sich hat, falls man es einmal ‘vergessen’ hat.

Weiterführende Literatur und Quellen dieses Eintrags : Stichprobenvarianz

1. Schira, J.: Statistische Methoden der VWL und BWL. PEARSON Studion, München (2005).

2. Wikipedia: Stichprobenvarianz, https://de.wikipedia.org/wiki/Stichprobenvarianz, (2017).