Em Inferência estatística , o Método Delta é uma técnica utilizada para aproximar um vetor aleatório através de uma expansão de Taylor . é um método simples, mas útil, para deduzir a distribuição assintótica de variáveis .[ 1]
O Teorema do Limite Central pode ser considerado como um caso particular do Método Delta . Assim deve começar por familiarizar-se com este teorema .
O teorema do limite central afirma que a soma de um número suficientemente elevado de variáveis aleatórias identicamente distribuídas tem uma distribuição semelhante a uma distribuição Normal .
Verificadas certas condições, o Método Delta permite concluir que uma função (não apenas a soma) de um número suficientemente elevado de variáveis aleatórias também tem uma distribuição semelhante a uma distribuição Normal.
Seja uma função contínua
g
:
D
⊂
R
k
→
R
m
{\displaystyle g:D\subset {\mathbb {R} ^{k}}\rightarrow \mathbb {R} ^{m}}
definida num subconjunto de
R
k
{\displaystyle \mathbb {R} ^{k}}
chamado "D" e diferenciável no ponto
μ
{\displaystyle \mu }
.
Sejam Yn vetores aleatórios que assumem valores no domínio da função g, tal que
E
[
Y
n
]
=
μ
{\displaystyle E\left[Y_{n}\right]=\mu }
Seja Y um vetor aleatório (no caso particular de esse vetor aleatório ter dimensão 1X1, teremos uma variável aleatória , mas aqui vamos apresentar o enunciado geral).
Lembre-se que
→
d
{\displaystyle {\xrightarrow {d}}}
designa uma convergência em distribuição .
Suponha que
r
n
[
Y
n
−
μ
]
→
d
Y
{\displaystyle r_{n}\left[Y_{n}-\mu \right]{\xrightarrow {d}}Y}
quando
r
n
→
∞
{\displaystyle r_{n}\rightarrow \infty }
.
Então[ 1] ,
r
n
[
g
(
Y
n
)
−
g
(
μ
)
]
→
d
g
′
(
μ
)
Y
{\displaystyle r_{n}\left[g\left(Y_{n}\right)-g\left(\mu \right)\right]{\xrightarrow {d}}g'\left(\mu \right)Y}
Caso particular: distribuição normal
Seja
Y
n
{\displaystyle Y_{n}}
uma sucessão de variáveis aleatórias tais que
n
[
Y
n
−
μ
]
→
d
N
(
0
,
σ
2
)
,
{\displaystyle {{\sqrt {n}}[Y_{n}-\mu ]\,{\xrightarrow {d}}\,N(0,\sigma ^{2})},}
.
onde
σ
2
{\displaystyle \sigma ^{2}}
é a variância da distribuição Normal e
μ
{\displaystyle \mu }
é o valor esperado de
Y
n
{\displaystyle Y_{n}}
. Estes valores têm de existir e serem finitos.
Considere também uma função "g" diferenciável em
μ
{\displaystyle \mu }
.
Método Delta de 1ª ordem : Considere o caso em que, para o valor especifico
μ
{\displaystyle \mu }
,
g
′
(
μ
)
≠
0
{\displaystyle g'(\mu )\neq 0}
.Então:
n
[
g
(
Y
n
)
−
g
(
μ
)
]
→
d
N
(
0
,
σ
2
[
g
′
(
μ
)
]
2
)
{\displaystyle {{\sqrt {n}}[g(Y_{n})-g(\mu )]\,{\xrightarrow {d}}\,N(0,\sigma ^{2}[g'(\mu )]^{2})}}
[ 2] [ 3]
Método delta de 2ª ordem : Considere agora o caso em que, para o valor especifico
μ
{\displaystyle \mu }
,
g
′
(
μ
)
=
0
{\displaystyle g'\left(\mu \right)=0}
mas que
g
″
(
μ
)
≠
0
{\displaystyle g''\left(\mu \right)\neq 0}
. Então,
n
[
g
(
Y
n
)
−
g
(
μ
)
]
→
d
σ
2
g
″
(
μ
)
2
χ
1
2
{\displaystyle {\sqrt {n}}\left[g(Y_{n})-g(\mu )\right]{\xrightarrow {d}}\sigma ^{2}{\frac {g''\left(\mu \right)}{2}}\chi _{1}^{2}}
,[ 4] porque o quadrado de uma distribuição normal padrão é uma qui-quadrado
χ
1
2
{\displaystyle \chi _{1}^{2}}
[ 3] .
Método Delta de ordens superiores : Considere finalmente o caso em que a função g é "r" vezes derivável e que, para o valor especifico
μ
{\displaystyle \mu }
,
g
′
(
μ
)
=
g
″
(
μ
)
=
.
.
.
=
g
(
r
−
1
)
(
μ
)
=
0
{\displaystyle g'\left(\mu \right)=g''\left(\mu \right)=...=g^{(r-1)}\left(\mu \right)=0}
mas que a r-ésima derivada
g
(
r
)
(
μ
)
≠
0
{\displaystyle g^{(r)}\left(\mu \right)\neq 0}
. Então,
(
n
)
r
[
g
(
Y
n
)
−
g
(
μ
)
]
→
d
σ
2
g
(
r
)
(
μ
)
r
!
Y
r
{\displaystyle \left({\sqrt {n}}\right)^{r}\left[g(Y_{n})-g(\mu )\right]{\xrightarrow {d}}\sigma ^{2}{\frac {g^{(r)}\left(\mu \right)}{r!}}Y^{r}}
[ 5]
Exemplos
Exemplo 1
Do Teorema do Limite Central sabemos que
(
n
)
[
X
¯
n
−
μ
]
→
d
N
(
0
,
σ
2
)
{\displaystyle {\sqrt {(}}n)[{\overline {X}}_{n}-\mu ]{\xrightarrow {d}}N(0,\sigma ^{2})}
.
Consideremos agora
g
(
x
)
=
1
/
x
{\displaystyle g(x)=1/x}
, sabemos que
g
′
(
x
)
=
−
1
/
x
2
{\displaystyle g'(x)=-1/x^{2}}
que para
∀
x
∈
{\displaystyle \forall x\in }
IR\{0} é diferente de 0.
Então estamos nas condições do Método Delta e podemos afirmar que
(
n
)
[
g
(
X
¯
n
)
−
g
(
μ
)
]
→
d
N
(
0
,
σ
2
[
g
′
(
μ
)
]
2
)
=
(
n
)
[
1
/
X
¯
n
−
1
/
μ
]
→
d
N
(
0
,
σ
2
/
μ
4
)
{\displaystyle {\sqrt {(}}n)[g({\overline {X}}_{n})-g(\mu )]{\xrightarrow {d}}N(0,\sigma ^{2}[g'(\mu )]^{2})={\sqrt {(}}n)[1/{\overline {X}}_{n}-1/\mu ]{\xrightarrow {d}}N(0,\sigma ^{2}/\mu ^{4})}
.[ 6]
Nota:
g
′
(
x
)
=
(
1
/
x
)
′
=
−
1
/
x
2
{\displaystyle g'(x)=(1/x)'=-1/x^{2}}
[
g
′
(
x
)
]
2
=
[
−
1
/
x
2
]
2
=
1
/
x
4
{\displaystyle [g'(x)]^{2}=[-1/x^{2}]^{2}=1/x^{4}}
[
g
′
(
μ
)
]
2
=
1
/
μ
4
{\displaystyle [g'(\mu )]^{2}=1/\mu ^{4}}
Exemplo 2
Suponha
Y
1
,
Y
2
,
.
.
.
,
Y
n
{\displaystyle Y_{1},Y_{2},...,Y_{n}}
variáveis aleatórias independentes com distribuição de Bernoulli (p). O parâmetro de interesse típico é
p
=
E
[
Y
]
{\displaystyle p=E\left[Y\right]}
, a probabilidade de sucesso, mas outro parâmetro popular é
(
p
)
/
(
1
−
p
)
{\displaystyle {\left(p\right)/\left(1-p\right)}}
, que mede a chance. Por exemplo, se os dados representam os resultados de uma moeda viciada com p=2/3 para "cara", então a moeda tem chance 2:1 de mostrar o resultado "cara".
Vamos considerar a utilização de
(
p
^
)
/
(
1
−
p
^
)
{\displaystyle {\left({\hat {p}}\right)/\left(1-{\hat {p}}\right)}}
como uma estimativa para
(
p
)
/
(
1
−
p
)
{\displaystyle {\left(p\right)/\left(1-p\right)}}
. Ou seja, vamos jogar a moeda "n" vezes, contar o número de caras e obter
p
^
=
(
∑
i
=
1
N
Y
i
)
/
n
{\displaystyle {\hat {p}}=\left(\sum _{i=1}^{N}Y_{i}\right)/n}
a partir desta amostra de n observações, e utilizar este p estimado (
p
^
{\displaystyle {\hat {p}}}
) como estimativa para o verdadeiro parâmetro p. Nosso interesse, agora, é saber a variância de
(
p
^
)
/
(
1
−
p
^
)
{\displaystyle {\left({\hat {p}}\right)/\left(1-{\hat {p}}\right)}}
. O método delta permite obter uma resposta aproximada, já que uma resposta exata não é possível.
Vamos então definir a função
g
(
p
)
=
p
1
−
p
{\displaystyle g(p)={\frac {p}{1-p}}}
. Portanto,
g
′
(
p
)
=
1
(
1
−
p
)
2
{\displaystyle g'(p)={\frac {1}{\left(1-p\right)^{2}}}}
.
Pelo método delta, teremos que:
V
a
r
(
p
^
1
−
p
^
)
≈
[
g
′
(
p
)
]
2
V
a
r
(
p
^
)
≈
[
1
(
1
−
p
)
2
]
2
p
(
1
−
p
)
n
{\displaystyle {\begin{matrix}Var\left({\frac {\hat {p}}{1-{\hat {p}}}}\right)&\approx &\left[g'(p)\right]^{2}Var\left({\hat {p}}\right)\\\ &\approx &\left[{\frac {1}{\left(1-p\right)^{2}}}\right]^{2}{\frac {p\left(1-p\right)}{n}}\end{matrix}}}
[ 3]
Demonstração
Sabemos que
(
n
)
[
Y
n
−
μ
]
→
d
N
(
0
,
σ
2
)
<=>
(
n
)
[
Y
n
−
μ
σ
]
→
d
N
(
0
,
1
)
{\displaystyle {\sqrt {(}}n)[Y_{n}-\mu ]{\xrightarrow {d}}N(0,\sigma ^{2})<=>{\sqrt {(}}n)[{\frac {Y_{n}-\mu }{\sigma }}]{\xrightarrow {d}}N(0,1)}
Sabemos também que
g
′
(
μ
)
≠
0
{\displaystyle g'(\mu )\neq 0}
, existe e é finito.
O desenvolvimento em série de Taylor de
g
(
Y
n
)
{\displaystyle g(Y_{n})}
em torno de valor
μ
{\displaystyle \mu }
é
g
(
Y
n
)
=
g
(
μ
)
+
g
′
(
μ
)
[
y
n
−
μ
]
+
o
1
<=>
{\displaystyle g(Y_{n})=g(\mu )+g'(\mu )[y_{n}-\mu ]+o_{1}<=>}
onde
o
1
→
0
{\displaystyle o_{1}\rightarrow 0}
quando
Y
n
→
μ
{\displaystyle Y_{n}\rightarrow \mu }
g
(
Y
n
)
−
g
(
μ
)
=
g
′
(
μ
)
[
Y
n
−
μ
]
+
0
1
<=>
{\displaystyle g(Y_{n})-g(\mu )=g'(\mu )[Y_{n}-\mu ]+0_{1}<=>}
g
(
Y
n
)
−
g
(
μ
)
=
g
′
(
μ
)
σ
[
Y
n
−
μ
σ
]
+
0
1
<>
{\displaystyle g(Y_{n})-g(\mu )=g'(\mu )\sigma [{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}<>}
g
(
Y
n
)
−
g
(
μ
)
=
g
′
(
μ
)
σ
[
Y
n
−
μ
σ
]
+
0
1
<=>
{\displaystyle g(Y_{n})-g(\mu )=g'(\mu )\sigma [{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}<=>}
(
n
)
g
(
Y
n
)
−
g
(
μ
)
=
g
′
(
μ
)
σ
(
n
)
[
Y
n
−
μ
σ
]
+
0
1
<=>
{\displaystyle {\sqrt {(}}n)g(Y_{n})-g(\mu )=g'(\mu )\sigma {\sqrt {(}}n)[{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}<=>}
usando o teorema de Slutsky
(
n
)
g
(
Y
n
)
−
g
(
μ
)
=
g
′
(
μ
)
σ
(
n
)
[
Y
n
−
μ
σ
]
+
0
1
→
d
N
(
0
,
σ
2
[
g
′
(
μ
)
]
2
)
{\displaystyle {\sqrt {(}}n)g(Y_{n})-g(\mu )=g'(\mu )\sigma {\sqrt {(}}n)[{\frac {Y_{n}-\mu }{\sigma }}]+0_{1}{\xrightarrow {d}}N(0,\sigma ^{2}[g'(\mu )]^{2})}
logo
n
[
g
(
Y
n
)
−
g
(
μ
)
]
→
d
N
(
0
,
σ
2
[
g
′
(
μ
)
]
2
)
{\displaystyle {{\sqrt {n}}[g(Y_{n})-g(\mu )]{\xrightarrow {d}}N(0,\sigma ^{2}[g'(\mu )]^{2})}}
Ver também
Referências
↑ a b VAN DER VAART, A. Asymptotic statistics. 1998. new York: Cambridge University Press. capítulo 3, Delta Method. Página 25 e 26.
↑ Pestana, D. e Velosa, S. (2002). Introdução à Probabilidade e Estatística. Fundação Calouste Gulbenkian, Lisboa.
↑ a b c CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana . São Paulo: Centage learning, 2010. Páginas 215 a 217
↑ PAPANICOLAOU, Alex.Taylor Approximation and the Delta Method . 2009. Página 5. Disponível em: <http://www.stanford.edu/class/cme308/notes/TaylorAppDeltaMethod.pdf >. Acesso em: 13 de julho de 2011.
↑
HUNTER, David R. Statistics 553:
Asymptotic Tools.Chapter 5- The Delta Method and Applications, Página 61.Disponível em <http://www.stat.psu.edu/~dhunter/asymp/lectures/ANGELchpt05.pdf >. Acesso em: 13 de julho de 2011.
↑ Alves, I.; Gomes, I. e Sousa, L. (2007). Fundamentos e Metodologias da Estatistica. Centro de Estatística e Aplicações, Lisboa.