Une autre définition est : le degré de liberté est égal au nombre d'observations moins le nombre de relations entre ces observations[1]. On pourrait remplacer l'expression « nombre de relations » par « nombre de paramètres à estimer ».
Exemple : vecteur aléatoire
Supposons un ensemble de n variables aléatoires, toutes de même loi et indépendantes X1,...,Xn.
Le vecteur aléatoire X dont chaque coordonnée est une de ces variables est défini dans un espace à n dimensions, donc naturellement, il a n degrés de libertés.
On note la moyenne de ce vecteur. On peut alors réécrire le vecteur de cette façon :
Le premier vecteur étant entièrement déterminé par la valeur , il n'a qu'un degré de liberté. Le deuxième vecteur doit satisfaire la condition . Ainsi, en connaissant n − 1 coordonnées du vecteur, on peut en déduire la ne : ce vecteur a n − 1 degrés de liberté.
Mathématiquement, cette décomposition traduit la projection orthogonale du vecteur aléatoire sur le sous-espace défini par le vecteur constant à 1, qui est de dimension 1, et donc son complémentaire de dimension n − 1.
Dans les tests statistiques, on s'intéresse plus à l'écart quadratique des composantes du vecteur :
Pour le cas où les Xi suivent une loi normale centrée et de variance σ2, alors la somme définie plus haut suit une loi du χ² à n − 1 degrés de liberté, comme vu précédemment.