Download PDF
ads:
CORREÇÃO DE VIÉS NO MODELO DE REGRESSÃO NORMAL
ASSIMÉTRICO
ÊNIO ANTÔNIO COSTA LOPES
Orientador: Prof. Dr. Klaus Leite Pinto Vasconcellos
Área de Concentração: Estatística Matemática
Dissertação submetida como requerimento parcial para obtenção do grau de Mestre em
Estatística pela Universidade Federal de Pernambuco
Recife, fevereiro de 2007
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
Lopes, Ênio Antônio Costa.
Correção de viés no modelo de regressão normal
assimétrico / Ênio Antônio Costa Lopes – Recife : O
autor, 2007.
ix, 101 folhas. : il., fig., tab.
Dissertação (mestrado) Universidade Federal de
Pernambuco. CCEN. Estatística, 2007.
Inclui bibliografia e apêndices.
1. Análise de regressão. 2. Correção de viés 3.
Bootstrap 4. Normal assimétrica. 5. Máxima
verossimilhança I. Título.
519.536 CDD (22.ed.) MEI2007-011
ads:
Dedico este trabalho aos meus
queridos e amados pais.
i
Agradecimentos
A Deus, que sempre me ilumina, me forças nos momentos mais difíceis da minha
vida e que colocou pessoas maravilhosas no meu caminho.
A minha amada esposa Rachel e a meu querido filho Gabriel, pelo amor, carinho,
momentos de descontração e apoio que têm me dado, aos quais peço sinceras desculpas
pela minha ausência durante o período do curso de mestrado.
Aos meus pais, Francisco Lopes e Clédina Lopes, por todo amor, educação, carinho,
apoio e incentivo que me deram durante a vida. Com certeza, são as pessoas em que
sempre me espelhei e que tenho profunda admiração.
Ao professor Klaus Leite Pinto Vasconcellos, pela orientação, dedicação e compreensão,
que sempre me orientou de maneira objetiva, contribuindo para o desenvolvimento deste
trabalho.
Aos meus amigos Chagas Almeida, Rafael Bráz e Geraldo Henrique, pelas conversas,
alegrias, companheirismo e amizade. Aos meus amigos Larissa Barreto, Marcelo Rodrigo,
Leonardo Bomfim e Hemílio Fernandes pelas brincadeiras, conversas e convivência durante
o mestrado. Aos meus amigos Alexandre Patriota, Eveliny Barroso e Fabienne Rodrigues,
por todas as discussões, brincadeiras e incentivo durante a graduação.
Aos professores Klaus Leite Pinto Vasconcellos, Cristiano Ferraz, Francisco Cribari-
Neto e Francisco Cysneiros, pelo apoio, incentivo e conhecimentos transmitidos durante
o mestrado.
Aos professores Vicente de Paulo, João Maurício e Silvia Maria, pelo estímulo dado
durante a graduação e por terem acreditado em mim.
À Valéria Bittencourt, por sua competência, compreensão e presteza aos alunos do
mestrado.
Aos participantes da banca examinadora, pelas sugestões.
À CAPES, pelo apoio financeiro.
ii
“A vida é a arte do encontro, embora
haja tanto desencontro pela vida.”
Vinicius de Moraes
iii
Resumo
Esta dissertação tem como objetivos principais fornecer expressões para os vieses de
segunda ordem dos estimadores de máxima verossimilhança dos parâmetros do modelo
de regressão normal assimétrico, utilizando-as para obtermos estimadores corrigidos, e
apresentar uma alternativa para modelar dados que são restritos ao intervalo (0, 1). Com
o intuito de reduzirmos os vieses destes estimadores, em amostras de tamanho finito,
utilizamos correção de viés via Cox e Snell (1968) e por bootstrap.
Apresentamos resultados das simulações de Monte Carlo, as quais foram utilizadas
a fim de verificarmos o comportamento dos estimadores de máxima verossimilhança dos
parâmetros do modelo de regressão normal assimétrico, bem como o de suas versões
corrigidas, em amostras finitas.
Palavras-chave: Correção de viés; Bootstrap; Normal assimétrica; Máxima verossimil-
hança.
iv
Abstract
Our chief interest, in this thesis, is to supply closed-form expressions for the second
order biases of the maximum likelihood estimators of the skew-normal regression model
parameters, using them to get corrected estimators and to present an alternative to data
analysis that are restricted to the (0, 1) interval. In order to reduce the bias of these esti-
mators, in finite sample, we use bias correction via Cox & Snell (1968) and via bootstrap.
Numerical evaluation is performed using Monte Carlo simulation.
Keywords: Bias correction; Bootstrap; Skew-normal; Maximum likelihood.
v
Índice
Lista de Figuras viii
Lista de Tabelas ix
1 Introdução 1
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Organização da Dissertação . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Suporte computacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 O modelo de regressão normal assimétrico 4
2.1 Distribuição Normal Assimétrica . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.2 Definição e Propriedades . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Aspectos Inferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 O modelo de regressão normal assimétrico . . . . . . . . . . . . . . . . . . 13
3 Correção de Viés 18
3.1 Revisão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2 Correção de Cox & Snell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2.1 Correção de viés dos estimadores de máxima verossimilhança do
modelo de regressão normal assimétrico . . . . . . . . . . . . . . . . 20
vi
3.3 Correção por Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Avaliação Numérica 31
4.1 Detalhes Metodológicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Resultados e Discussão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5 Aplicações e conclusões 43
5.1 Distâncias percorridas por carros desde o momento da frenagem até sua
parada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Proporção de petróleo cru . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.3 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Apêndice 46
A Aproximações 47
B Cálculo dos Momentos 54
C Programa de Simulação 91
C.1 Programa Principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
C.2 Biblioteca de Funções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Referências Bibliográficas 98
vii
Lista de Figuras
2.1 Gráfico da distribuição normal assimétrica para alguns valores de α . . . . 5
4.1 Gráfico da quantidade A
2
2
(α). . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Gráfico das densidades estimadas do EMV, EMVCS e EMVBOOT para
α = 10 e n = 250. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
A.1 Gráfico da quantidade A
3
0
(α) e sua aproximação. . . . . . . . . . . . . . . . 49
A.2 Gráfico da quantidade A
3
1
(α) e sua aproximação. . . . . . . . . . . . . . . . 49
A.3 Gráfico da quantidade A
3
2
(α) e sua aproximação. . . . . . . . . . . . . . . . 50
A.4 Gráfico da quantidade A
3
3
(α) e sua aproximação. . . . . . . . . . . . . . . . 50
A.5 Gráfico da quantidade A
2
0
(α) e sua aproximação. . . . . . . . . . . . . . . . 51
A.6 Gráfico da quantidade A
2
1
(α) e sua aproximação. . . . . . . . . . . . . . . . 51
A.7 Gráfico da quantidade A
2
2
(α) e sua aproximação. . . . . . . . . . . . . . . . 52
A.8 Gráfico da quantidade A
2
3
(α) e sua aproximação. . . . . . . . . . . . . . . . 52
A.9 Gráfico da quantidade A
2
4
(α) e sua aproximação. . . . . . . . . . . . . . . . 53
viii
Lista de Tabelas
4.1 Estimativas de máxima verossimilhança e suas versões corrigidas dos pa-
râmetros β
0
e β
1
no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 3. . . . . . . . . 34
4.2 Estimativas de máxima verossimilhança e suas versões corrigidas dos pa-
râmetros β
0
e β
1
no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 5. . . . . . . . . 35
4.3 Estimativas de máxima verossimilhança e suas versões corrigidas dos pa-
râmetros β
0
e β
1
no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 10. . . . . . . . . 36
4.4 Estimativas de máxima verossimilhança e suas versões corrigidas dos pa-
râmetros σ e α no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 3. . . . . . . . . . 38
4.5 Estimativas de máxima verossimilhança e suas versões corrigidas dos pa-
râmetros σ e α no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 5. . . . . . . . . . 39
4.6 Estimativas de máxima verossimilhança e suas versões corrigidas dos pa-
râmetros σ e α no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 10. . . . . . . . . 40
4.7 Taxas de falha observadas nos diversos cenários considerados. . . . . . . . . 42
5.1 Estimativas de máxima verossimilhança e suas versões corrigidas; dados de
distâncias percorridas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2 Estimativas de máxima verossimilhança e suas versões corrigidas; dados de
proporção de petróleo cru. . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
ix
CAPÍTULO 1
Introdução
1.1 Introdução
Em muitas situações práticas, a rotineira suposição de normalidade não é satisfeita,
fato este que alavanca cada vez mais o uso de modelos mais maleáveis, como é o caso do
modelo normal assimétrico.
A distribuição normal assimétrica univariada foi introduzida por Azzalini (1985, 1986).
Posteriormente, Azzalini e Dalla Vale (1996) estenderam a normal assimétrica ao caso
multivariado. Azzalini e Capitanio (1999) enfatizaram aplicações estatísticas da versão
multivariada. Sartori (2006) estuda uma correção de viés para o parâmetro de forma α,
baseada no método de Firth (1993), a qual sempre produz estimativas finitas. Entretanto,
tal autor não considera um modelo com estrutura de regressão.
Neste trabalho, consideramos um modelo de regressão normal assimétrico e utilizamos
o método de máxima verossimilhança para estimarmos os parâmetros deste modelo.
Porém, tais estimadores podem se apresentar bastante viesados quando o tamanho amos-
tral n é pequeno ou até mesmo moderado. Para grandes tamanhos de amostras, o viés não
é um problema sério, pois tipicamente é de ordem O(n
1
), enquanto que o erro-padrão
assintótico é de ordem O(n
1/2
). Assim, a derivação de expressões que possibilitem re-
duzir o viés é de suma importância para a obtenção de estimadores mais precisos que os
não-corrigidos. Desta forma, adicionalmente, apresentamos expressões de forma fechada
1
para o cálculo do viés de segunda ordem dos estimadores de máxima verossimilhança
do modelo de regressão normal assimétrico, as quais foram obtidas a partir da expressão
geral dada por Cox e Snell (1968). Ainda, utilizamos o método bootstrap, introduzido por
Efron (1979), com o intuito de reduzir o viés dos estimadores de máxima verossimilhança
do modelo de regressão normal assimétrico.
1.2 Organização da Dissertação
Esta dissertação está dividida em cinco capítulos e contém três apêndices. No segundo
capítulo, apresentamos características e propriedades da distribuição normal assimétrica,
abordamos aspectos inferenciais e expomos o modelo de regressão normal assimétrico.
Fornecemos, também, uma alternativa para modelar dados que são restritos ao intervalo
(0, 1). No terceiro capítulo, apresentamos uma revisão sobre correção de viés. Através da
fórmula geral de Cox e Snell (1968), fornecemos expressões de forma fechada para o viés
de segunda ordem dos estimadores de máxima verossimilhança dos parâmetros do modelo
de regressão normal assimétrico. Adicionalmente, apresentamos a metodologia bootstrap
e como utilizá-la para obter estimativas do viés de ordem O(n
1
) dos estimadores de
máxima verossimilhança dos parâmetros do modelo de regressão supracitado. No capítulo
quatro, realizamos simulações de Monte Carlo, a fim de verificarmos o desempenho dos
estimadores de máxima verossimilhança dos parâmetros do modelo de regressão normal
assimétrico, bem como o de suas versões corrigidas, em amostras de tamanho finito. No
quinto capítulo, apresentamos duas aplicações do modelo de regressão normal assimétrico
e as conclusões dos resultados obtidos neste trabalho.
1.3 Suporte computacional
As avaliações numéricas realizadas nesta dissertação foram feitas utilizando a lin-
guagem matricial de programação Ox em sua versão 4.04. Esta linguagem foi desen-
volvida por Jurgem Doornik, sendo bastante semelhante à linguagem C. Um grande atra-
tivo desta plataforma computacional é o fato de que ela é distribuída gratuitamente para
uso acadêmico, e está disponível em http://www.doornik.com. Outra vantagem é que
ela possui um número elevado de implementações numéricas que são de grande valia para
2
estatísticos, economistas, matemáticos, etc. Para mais detalhes veja Doornik (2001) e
Cribari-Neto e Zarkos (2003).
Os gráficos que são apresentados ao longo deste trabalho foram confeccionados no
ambiente de programação, análise de dados e gráficos R em sua versão 2.4.0. R é distribuída
gratuitamente e está disponível em http://www.r-project.org. Uma grande vantagem
de tal linguagem é o fato dela ser utilizada amplamente no meio acadêmico, o que contribui
para a imensa variedade de pacotes desenvolvidos nas diversas áreas da estatística.
3
CAPÍTULO 2
O modelo de regressão normal assimétrico
2.1 Distribuição Normal Assimétrica
2.1.1 Introdução
um interesse crescente, na literatura estatística, por modelos flexíveis, que per-
mitam representar o comportamento dos dados tão adequadamente quanto possível e
capazes de reduzir suposições irrealísticas. Uma das razões dessa tendência é a existência
de inúmeros conjuntos de dados que são providos de assimetria.
Uma classe paramétrica de distribuições de probabilidade, introduzida por Azza-
lini (1985), denominada normal assimétrica é o resultado da procura por modelos mais
flexíveis. Tal classe engloba o modelo normal através de um parâmetro adicional que
regula a assimetria, além de ser matematicamente tratável e de possuir algumas pro-
priedades em comum com a distribuição normal; por exemplo, a função densidade normal
assimétrica é unimodal, seu suporte é a reta e o quadrado de uma normal assimétrica é
uma distribuição qui-quadrado (χ
2
) com um grau de liberdade.
2.1.2 Definição e Propriedades
Definição 2.1.1. Dizemos que Y tem distribuição normal assimétrica padrão com parâ-
metro α R, denotado por Y SN(α), se sua função densidade de probabilidade (fdp)
é dada por
4
f
Y
(y; α) = 2φ(y)Φ(αy), −∞ < y < (2.1)
onde φ(·) e Φ(·) são as funções densidade de probabilidade e de distribuição da normal
padrão, respectivamente. A densidade (2.1) é idêntica ao modelo normal padrão se α = 0.
O parâmetro de assimetria α define a forma da distribuição. Valores positivos (negativos)
de α apontam uma assimetria positiva (negativa) no modelo. A figura (2.1) mostra o
comportamento desta densidade para diferentes valores de α. Note que, se α ou
α −∞, mais acentuada se torna a assimetria da distribuição.
−4 −2 0 2 4
0.0 0.2 0.4 0.6 0.8
y
Densidade
α = 0
α = 3
α = 5
α = 10
Figura 2.1: Gráfico da distribuição normal assimétrica para alguns valores de α
Apresentaremos algumas propriedades da distribuição normal assimétrica no decorrer do
capítulo, tais propriedades encontram-se na literatura, ver por exemplo Azzalini (1985).
Duas propriedades que vêm como conseqüência da definição (2.1) são expostas a seguir.
5
Propriedade 2.1.1. A função densidade de uma variável aleatória Y SN(0) é idêntica
à de uma variável aleatória X N(0, 1).
Propriedade 2.1.2. Quando α , a densidade (2.1) converge para 2φ(y)I
y>0
, a qual
corresponde à fdp de uma seminormal.
Propriedade 2.1.3. A fdp (2.1) é unimodal, sendo log f
Y
(y; α) uma função côncava de
y.
Propriedade 2.1.4. A função de distribuição acumulada de uma variável aleatória com
função densidade como em (2.1) é dada por
F
Y
(y; α) =
y
−∞
2φ(t)Φ(αt)dt = 2
y
−∞
φ(t)
αt
−∞
φ(u)dudt = 2
y
−∞
αt
−∞
φ(t)φ(u)dudt.
Assim,
F
Y
(y; α) = 2
y
−∞
αt
−∞
φ(t)φ(u)dudt.
A fim de efetuarmos o cálculo de F
Y
(y; α) podemos utilizar a função T (y; α), para y e
α positivos, estudada por Owen (1956), a qual integra a densidade de uma normal padrão
bivariada sobre a região limitada pelas linhas x = y, z = 0, z = αx no plano (x, z). A
saber,
T (y; α) =
y
αt
0
φ(t)φ(u)dudt. (2.2)
Dessa forma,
F
Y
(y; α) = Φ(y) 2T (y; α). (2.3)
T (y; α) é uma função decrescente de y e tem as seguintes propriedades:
T (y; α) = T (y; α), T (y; α) = T (y; α), 2T (y; 1) = Φ(y)Φ(y).
Para mais detalhes ver Azzalini (1985).
Assim, a partir de (2.3) e das propriedades citadas acima, temos as seguintes pro-
priedades adicionais
6
Propriedade 2.1.5. 1-F
Y
(y; α) = F
Y
(y; α).
P rova :
1 F
Y
(y; α) = 1 [Φ(y) 2T (y; α)] = 1 Φ(y) + 2T (y; α)
= Φ(y) + 2T (y; α) = Φ(y) 2T (y; α) = F
Y
(y; α).
Propriedade 2.1.6. Se Y SN(α), então Y SN(α).
P rova : seja W = Y ; então,
P (W w) = P (Y w) = P (Y > w) = 1 P (Y w)
= 1 F
Y
(w; α) = F
Y
(w, α).
Assim, W = Y SN(α).
Propriedade 2.1.7. F
Y
(y; 1) = [Φ(y)]
2
.
P rova :
F
Y
(y; 1) = Φ(y) 2T (y; 1) = Φ(y) Φ(y)Φ(y) = Φ(y)[1 Φ(y)]
= [Φ(y)]
2
.
Proposição 2.1.1. Se W N(0, 1) e Y SN(α) então |W | e |Y | têm a mesma distri-
buição (seminormal).
P rova
: sejam
w >
0
e
y >
0
,
P (|W| w) = P (w W w) = Φ(w) Φ(w) = 2Φ(w) 1.
P (|Y | y) = P (y Y y) = F
Y
(y; α) F
Y
(y; α)
= Φ(y) 2T (y; α) [Φ(y) 2T (y; α)]
= Φ(y) 2T (y; α) 1 + Φ(y) + 2 T (y; α) = 2Φ(y) 1.
Dessa forma, uma conseqüência direta da proposição (2.1.1) é a propriedade que segue:
Propriedade 2.1.8. Se Y SN(α), então Y
2
χ
2
1
.
7
A propriedade (2.1.8) é de suma importância, pois auxilia-nos a calcular os momentos
pares da distribuição normal assimétrica, dado que tais momentos são iguais aos de uma
variável aleatória normalmente distribuída.
A seguir, apresentamos um lema de grande valia para o cálculo da função geradora de
momentos da normal assimétrica, o qual é apresentado em Azzalini (1985).
Lema 2.1.1. Se V tem distribuição N(0, 1), então
E[Φ(hV + k)] = Φ
k
1 + h
2
, h, k R.
A função geradora de momentos de uma variável aleatória Y regida por uma dis-
tribuição normal assimétrica padrão é dada por
M
Y
(t) = E[e
tY
] =
−∞
e
ty
2φ(y)Φ(αy)dy = 2
−∞
1
2π
e
y
2
2
+ty
Φ(αy)dy
= 2
−∞
1
2π
e
1
2
(y
2
2ty+t
2
)
e
t
2
2
Φ(αy)dy
= 2e
t
2
2
−∞
1
2π
e
1
2
(yt)
2
Φ(αy)dy; se x = y t,
= 2e
t
2
2
−∞
1
2π
e
x
2
2
Φ(αx + αt)dx = 2 e
t
2
2
E[Φ(αX + αt)],
onde X N(0, 1). Portanto, a partir do Lema (2.1.1), temos que
M
Y
(t) = 2e
t
2
2
Φ(δt), (2.4)
onde
δ =
α
1 + α
2
· (2.5)
Assim, através de (2.4) podemos obter, após alguma álgebra, a esperança e a variância
de Y , a saber
E[Y ] = bδ, (2.6)
V ar[Y ] = 1 b
2
δ
2
, (2.7)
onde
8
b =
2
π
· (2.8)
Henze (1986) apresenta a seguinte expressão, de forma fechada, para os momentos
ímpares de uma variável SN(α):
E(Y
2k+1
) = (1 + α
2
)
(k+1/2)
2
k
(2k + 1)!
k
t=0
t!(2α)
2t
(2t + 1)!(k t)!
· (2.9)
Portanto, a partir da propriedade (2.1.8) e de (2.9), podemos calcular os coeficientes de
assimetria (µ
3
) e curtose (µ
4
), os quais são dados respectivamente por
µ
3
=
1
2
(4 π)sinal(α)
E
2
(Y )
V ar(Y )
3/2
,
µ
4
= 2(π 3)
E
2
(Y )
V ar(Y )
2
.
O coeficiente µ
3
mede a assimetria, enquanto que µ
4
avalia a espessura das caudas da
distribuição. Os intervalos de variação de µ
3
e µ
4
são (-0.9953,0.9953) e [0,0.8692], respec-
tivamente. Valores de µ
3
positivos (negativos) indicam que a distribuição é assimétrica
à direita (esquerda). Como µ
4
assume valores no intervalo [0, 0.8692] temos que a
distribuição normal assimétrica pode ser classificada como mesocúrtica (µ
4
= 0) ou lep-
tocúrtica (µ
4
> 0).
Na prática, freqüentemente é necessário introduzirmos parâmetros de locação e escala.
Seja Y SN(α); estenderemos o modelo (2.1) através da transformação Z = µ + σY . A
fdp de Z é apresentada na definição subseqüente.
Definição 2.1.2. Dizemos que Z tem distribuição normal assimétrica com parâmetros
de locação (µ R), de escala (σ > 0) e forma (α R), denotado por Z SN(µ, σ, α),
se sua fdp é dada por
f
Z
(z) =
2
σ
φ
z µ
σ
Φ
α
z µ
σ
, −∞ < z < . (2.10)
A partir da transformação Z = µ + σY podemos obter facilmente a função de dis-
tribuição acumulada de uma variável aleatória com função densidade como em (2.10), a
qual é dada por
9
F
Z
(z; α) = P (Z z) = P (µ + σY z) = P
Y
z µ
σ
= F
Y
z µ
σ
; α
= 2
zµ
σ
−∞
αt
−∞
φ(t)φ(u)dudt.
Assim,
F
Z
(z; α) = 2
zµ
σ
−∞
αt
−∞
φ(t)φ(u)dudt.
A função geradora de momentos de Z = µ + σY é dada por
M
Z
(t) = E[e
tZ
] = E[e
t(µ+σY )
] = E[e
e
Y
] = e
E[e
Y
]
= e
M
Y
() = 2e
+
t
2
σ
2
2
Φ(δ).
onde δ é definido em (2.5).
Vê-se facilmente que o valor esperado e a variância de Z são dados por
E[Z] = µ + σbδ,
V ar[Z] = σ
2
(1 b
2
δ
2
).
Apresentaremos dois métodos bem conhecidos, discutidos em Azzalini e Dalla Valle
(1996), que possibilitam a geração de variáveis aleatórias normais assimétricas.
Proposição 2.1.2. (Método da Condição) Se (X, Y ) é um vetor aleatório normal bivari-
ado com distribuições marginais N(0, 1) e correlação δ, então a distribuição condicional
de Y dado X > 0 é SN(α)
A segunda técnica, denominada método da transformação, é uma representação es-
tocástica obtida por Henze (1986). Este método é de extrema importância por facilitar
extensões para o caso multivariado.
Proposição 2.1.3. (Método da Transformação) Se Y
0
e Y
1
são variáveis aleatórias nor-
mais independentes N(0, 1) e δ (1, 1), então
Z = δ|Y
0
| + (1 δ
2
)
1/2
Y
1
(2.11)
é SN(α), onde δ é definido como em (2.5).
10
2.2 Aspectos Inferenciais
Seja z = (z
1
, . . . , z
n
) uma amostra aleatória de Z SN(µ, σ, α ); então, a função de
verossimilhança é dada pela expressão
L(µ, σ, α) =
2
σ
n
n
i=1
φ
z
i
µ
σ
Φ
α
z
i
µ
σ
. (2.12)
Portanto, a função de logverossimilhança, a menos de uma constante, é dada por
(µ, σ, α) = log[L(µ, σ, α)] = n log σ+
n
i=1
log φ
z
i
µ
σ
+
n
i=1
log Φ
α
z
i
µ
σ
(2.13)
Embora o modelo normal assimétrico possua boas propriedades, existem alguns pro-
blemas inferenciais. Considere o caso em que µ = 0 e σ = 1, ou seja, o cenário em que
Z SN(α). Analisando a verossimilhança com um pouco de atenção, vê-se neste caso
que se todas as observações forem positivas (negativas), a função de verossimilhança será
uma função monótona crescente (decrescente) de α e a estimativa de máxima verossimi-
lhança de α será infinito (menos infinito). Isto ocorre com probabilidade positiva, embora
tal probabilidade decresça substancialmente à medida que o tamanho amostral aumenta
(Liseo e Loperfido, 2004). No caso em que temos a função dada em (2.12) é mais difícil
identificar amostras que produzam estimativas infinitas de α. No entanto, evidências
empíricas mostram que tal problema é restrito ao parâmetro de forma α e que estimativas
dos parâmetros de locação (µ) e escala (σ) sempre existem.
Com o propósito de solucionar o problema de estimativas infinitas, Sartori (2006)
propõe que a estimação de α seja feita através de um estimador corrigido preventivamente
(Firth, 1993). No caso geral, em que temos os parâmetros de locação e escala, a sugestão de
Sartori (2006) é que a estimação de µ e σ seja feita via método da máxima verossimilhança.
A partir daí, tais parâmetros são considerados fixos, e procede-se com a estimação de
α através do estimador corrigido preventivamente. Outra opção é proceder uma análise
bayesiana, onde se pode incluir informações adicionais sobre α através de uma distribuição
a priori. Liseo e Loperfido (2004) realizam uma análise bayesiana para a distribuição
normal assimétrica e provam que a priori de Jeffrey é própria.
A partir de (2.13) obtemos as equações de verossimilhança, dadas por
11
(µ, σ, α)
µ
=
1
σ
n
i=1
ψ
i
α
σ
n
i=1
W
i
= 0,
(µ, σ, α)
σ
=
n
σ
+
1
σ
n
i=1
ψ
2
i
α
σ
n
i=1
W
i
ψ
i
= 0,
(µ, σ, α)
α
=
n
i=1
W
i
ψ
i
= 0,
onde
ψ
i
=
z
i
µ
σ
e W
i
=
φ(αψ
i
)
Φ(αψ
i
)
·
Dessa forma, vê-se que não é possível encontrar uma expressão de forma fechada
para os estimadores de máxima verossimilhança dos parâmetros. Portanto, devemos
utilizar procedimentos de otimização nãolinear a fim de maximizarmos a função de
log-verossimilhança e, conseqüentemente, acharmos as soluções das equações de verossi-
milhança. Alguns métodos que podem ser empregados são NewtonRaphson, BHHH,
Escore de Fisher, BFGS, e em alguns casos de não-convergência o algoritmo EM é suge-
rido, embora tenha a desvantagem de ser muito lento.
Após alguma álgebra, obtemos a matriz de informação de Fisher I
F
(µ, σ, α) dada por
I
F
(µ, σ, α) =
1+α
2
c
0
σ
2
(1+2α
2
)(1+α
2
)
3/2
+α
2
c
1
σ
2
b(1+α
2
)
3/2
αc
1
σ
(1+2α
2
)(1+α
2
)
3/2
+α
2
c
1
σ
2
2+α
2
c
2
σ
2
αc
2
σ
b(1+α
2
)
3/2
αc
1
σ
αc
2
σ
c
2
,
onde c
h
= E[ψ
h
W
2
], h = 0, 1, 2, ...
Dessa forma, outra complicação que surge é o fato da matriz de informação de Fisher
ser singular quando α 0. Além disso, um ponto de sela em
(µ, σ, α) =
z,
1
n
n
i=1
(z
i
z)
2
, 0
.
A fim de resolver o problema da singularidade da matriz de informação de Fisher,
Azzalini (1985) sugere uma reparametrização do modelo.
12
2.3 O modelo de regressão normal assimétrico
Em diversas situações práticas, temos interesse em pesquisar o comportamento de uma
determinada variável em função de outras. Uma alternativa muito utilizada para detectar
tais relações é a aplicação de um modelo de regressão linear. No entanto, tal alternativa
pode não ser adequada quando a variável resposta assume valores no intervalo (0, 1), por
exemplo, taxas e proporções. Uma possível solução é transformar a variável dependente
de tal maneira que esta assuma valores em toda a reta. Entretanto, em alguns casos,
tal alternativa pode não produzir um resultado satisfatório, pois a variável resposta pode
ser provida de assimetria. Outra possível solução é utilizar um modelo de regressão beta
como proposto por Ferrari e CribariNeto (2004). Tal modelo é baseado na suposição de
que a variável resposta tem distribuição beta sob uma determinada parametrização.
Nossa proposta é aplicar uma transformação na variável resposta de tal forma que
esta assuma valores na reta e substituir a usual suposição de normalidade dos erros pela
suposição de que os erros têm distribuição normal assimétrica. Dessa forma, utilizando o
modelo normal assimétrico, levamos em consideração a assimetria que é inerente à variável
dependente.
Seja y = (y
1
, . . . , y
n
) onde os y
i
’s são variáveis aleatórias independentes e cada y
i
, i =
1, . . . , n, é a variável resposta relativa à iésima observação. Assumimos que os y
i
’s são
restritos ao intervalo (0, 1). A transformação sugerida é a logística (veja Aitchison 1986).
Assim, o modelo proposto é definido por
log
y
i
1 y
i
= X
i
β + ε
i
, (2.14)
onde X
i
= (1, X
i1
, . . . , X
ip1
) são observações de p (p < n) covariáveis conhecidas e fixas,
β = (β
0
, β
1
, . . . , β
p
)
é um vetor de parâmetros de regressão desconhecidos (β R
p+1
) e
ε
i
são variáveis aleatórias regidas por uma distribuição SN(0, σ, α). Definindo z
i
da forma
z
i
= log
y
i
1 y
i
.
temos que
z
i
= X
i
β + ε
i
. (2.15)
Ainda,
13
Z = Xβ + ε.
onde
Z = [z
1
, . . . , z
n
]
e X = [X
1
, . . . , X
n
]
.
Utilizaremos a seguinte notação, dada por Lawley (1956), para as derivadas da função
de logverossimilhança. U
r
=
(β)
β
r
, U
σ
=
(β)
σ
, U
α
=
(β)
α
, U
rt
=
2
(β)
β
r
β
t
,
U
α
=
3
(β ,σ,α)
β
r
σα
, e assim sucessivamente, onde as letras r, t, . . ., dizem respeito às compo-
nentes de β; da mesma forma, σ e α correspondem aos parâmetros σ e α, respectivamente.
Os cumulantes são denotados por κ
rt
= E(U
rt
), κ
rσ,α
= E(U
U
α
), κ
α
= E(U
α
) e assim
por diante. As derivadas dos cumulantes são representadas por κ
(u)
rt
=
κ
rt
β
u
, κ
(σ)
rt
=
κ
rt
σ
,
κ
(u)
σα
=
κ
σα
β
u
, etc.
Portanto, a partir do modelo (2.15), temos que a função de logverossimilhança, a
menos de uma constante, é dada por
(β, σ, α ) = n log σ +
n
i=1
log φ
z
i
X
i
β
σ
+
n
i=1
log Φ
α
z
i
X
i
β
σ
(2.16)
= n log σ +
n
i=1
log φ(ω
i
) +
n
i=1
log Φ(αω
i
),
onde
ω
i
=
z
i
X
i
β
σ
·
Assim, a fim de obtermos o vetor escore, diferenciamos (2.16) em relação aos parâme-
tros desconhecidos (β, σ, α). Como se pode verificar no Apêndice B, as quantidades são
dadas por
U
β
=
(β, σ, α)
β
=
1
σ
n
i=1
X
i
ω
i
α
σ
n
i=1
X
i
i
, (2.17)
U
σ
=
n
σ
+
1
σ
n
i=1
ω
2
i
α
σ
n
i=1
i
ω
i
, (2.18)
U
α
=
n
i=1
i
ω
i
, (2.19)
14
onde
i
=
φ(αω
i
)
Φ(αω
i
)
·
A partir de (2.17) temos, para r = 0, . . . , p,
(β, σ, α)
β
r
=
1
σ
n
i=1
X
ir
ω
i
α
σ
n
i=1
X
ir
i
. (2.20)
Portanto, o vetor escore U(θ), de dimensão (p + 2 × 1), com θ = (β
, σ, α)
, é dado por
U(θ) =
U
β
U
σ
U
α
.
Os estimadores de máxima verossimilhança do vetor de parâmetros θ são obtidos pela
solução do sistema U(θ) = 0, ou seja,
U
β
= 0,
U
σ
= 0,
U
α
= 0.
Observamos que não existem soluções explícitas para o sistema U(θ) = 0. Porém,
as estimativas de máxima verossimilhança do vetor θ podem ser encontradas a partir de
procedimentos numéricos que maximizem a função de logverossimilhança. O método de
otimização nãolinear empregado a fim de obter tais soluções foi o algoritmo BFGS.
Com o intuito de obtermos a matriz de informação de Fisher K(θ), calculamos as
derivadas de segunda ordem e seus momentos. O cálculo dessas quantidades está apre-
sentado no Apêndice B. Os cumulantes são dados por
15
κ
rt
=
1
σ
2
1 + α
2
A
2
0
(α)
n
i=1
X
ir
X
it
,
κ
=
α
σ
2
b(1 + α
2
)
1/2
2
(1 + α
2
)
3/2
αA
2
1
(α)
n
i=1
X
ir
,
κ
=
1
σ
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n
i=1
X
ir
,
κ
σσ
=
n
σ
2
2 + α
2
A
2
2
(α)
,
κ
ασ
=
σ
A
2
2
(α),
κ
αα
= nA
2
2
(α),
onde
A
m
n
(α) = E
ω
i
[∆
m
i
ω
n
i
]. (2.21)
Apresentamos aproximações para algumas quantidades da forma A
m
n
(α) no Apêndice
A.
Assim, de posse dessas informações, definimos a matriz
W , de dimensão (n+2)×(n+2),
da forma
W =
W
β β
W
β σ
W
βα
W
σβ
W
σσ
W
σα
W
αβ
W
ασ
W
αα
,
onde
W
β β
= diag
1
σ
2
1 + α
2
A
2
0
(α)
n×n
,
W
β σ
= rep
α
σ
2
b(1 + α
2
)
1/2
+
2
(1 + α
2
)
3/2
+ αA
2
1
(α)
n×1
,
W
β α
= rep
1
σ
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n×1
,
16
W
σβ
= W
βσ
,
W
σσ
= κ
σσ
,
W
σα
= κ
σα
,
W
αβ
= W
βα
,
W
ασ
= W
σα
,
W
αα
= κ
αα
.
Ainda, diag{d
i
} é uma matriz diagonal formada pelos elementos d
i
, i = 1, . . . , n, e rep{d}
é um vetor coluna formado por d, onde todos os elementos são iguais.
Definimos a matriz estendida
X, de dimensão(n + 2) × (p + 2) , da forma
X =
X 0 0
0 1 0
0 0 1
,
onde X é a matriz de covariáveis, a qual tem dimensão n × p.
Dessa forma, a matriz de informação de Fisher é dada por
K(θ) =
K
β β
K
β σ
K
β α
K
σβ
K
σσ
K
σα
K
αβ
K
ασ
K
αα
=
X
W
X, (2.22)
onde K
ββ
= X
W
ββ
X, K
βσ
= X
W
βσ
= K
σβ
, K
βα
= X
W
βα
= K
αβ
, K
σσ
= W
σσ
e
K
αα
= W
αα
.
Conseqüentemente, temos que a inversa da matriz de informação é dada por
K
1
(θ) =
K
β β
K
β σ
K
β α
K
σβ
K
σσ
K
σα
K
αβ
K
ασ
K
αα
= (
X
W
X)
1
. (2.23)
É importante salientar que os parâmetros não são ortogonais, pois
K
σβ
= K
βσ
= 0,
K
αβ
= K
βα
= 0,
K
ασ
= K
σα
= 0.
17
CAPÍTULO 3
Correção de Viés
3.1 Revisão
O estudo do comportamento dos estimadores de máxima verossimilhança (EMV) em
amostras finitas é uma notável área de pesquisa em estatística. Tais estimadores são, tipi-
camente, viesados para os verdadeiros valores dos parâmetros quando o tamanho amostral
n é pequeno ou a informação de Fisher é reduzida. Esse viés não é um problema relevante
para tamanhos de amostra relativamente grandes, pois em geral é de ordem O(n
1
), en-
quanto que o respectivo erropadrão é de ordem O(n
1/2
). Todavia, quando trabalhamos
com tamanhos amostrais pequenos ou até mesmo moderados, esse viés pode tornar-se
grande quando comparado ao erropadrão do estimador. Nesse caso, o viés pode vir a
ser um problema. Portanto, fórmulas que permitam o cálculo dos vieses de segunda ordem
dos EMV são extremamente úteis, essencialmente quando os tamanhos de amostra são
reduzidos.
Correções de viés têm sido bastante estudadas na literatura estatística. Um artigo
precursor sobre correção de viés surgiu através de Bartlett (1953), o qual apresentou uma
expressão simples para o viés de ordem O(n
1
) do EMV no caso uniparamétrico. Haldane
(1953) e Haldane e Smith (1956) forneceram expressões de ordem O(n
1
) para os primeiros
quatro cumulantes em amostras aleatórias de um ou dois parâmetros desconhecidos. Cox
e Snell (1968) apresentam uma expressão geral para o viés de ordem O(n
1
) dos EMV nos
18
casos uniparamétrico e multiparamétrico. Box (1971) fornece uma expressão geral para o
viés de segunda ordem em modelos nãolineares onde a matriz de covariâncias é conhe-
cida. Pike, Hill e Smith (1980) investigam o viés em modelos lineares logísticos. Cook,
Tsai e Wei (1986) apresentam os vieses dos EMV em um modelo de regressão nãolinear
onde os erros têm distribuição normal. Eles mostram que o viés pode ser conseqüência da
posição de covariáveis no espaço amostral. Young e Bakir (1987) mostram que a correção
de viés pode melhorar a estimação em modelos de regressão loggama generalizados.
Posteriormente, Cordeiro e McCullagh (1991) obtêm uma fórmula geral para os vieses
de segunda ordem dos EMV em modelos lineares generalizados. Expressões para os
vieses de ordem O(n
1
) dos EMV em modelos de regressão normais heteroscedásticos são
fornecidas por Cordeiro (1993). Firth (1993) desenvolve um estimador corrigido, o qual
corresponde à solução de uma equação escore modificada. Mais recentemente, Cordeiro e
Vasconcellos (1997) apresentam uma fórmula geral para calcular o viés de segunda ordem
em uma ampla classe de modelos de regressão multivariados nãolineares com erros nor-
mais, enquanto Cordeiro e Vasconcellos (1999) obtêm os vieses de ordem O(n
1
) dos EMV
em modelos de regressão von Mises. Vasconcellos e Cordeiro (2000) derivam expressões
em forma matricial para o viés de segunda ordem dos EMV em modelos de regressão
multivariados nãolineares com erros tStudent. Cordeiro, Ferrari, UribeOpazo e Vas-
concellos (2000) derivam uma fórmula geral para os vieses de segunda ordem dos EMV
em uma classe de modelos de regressão nãolineares simétricos. CribariNeto e Vascon-
cellos (2002) analisam o comportamento, em amostras finitas, dos EMV dos parâmetros
que indexam a distribuição beta. Recentemente Vasconcellos e Silva (2005) obtêm uma
fórmula geral para os vieses de segunda ordem dos EMV dos parâmetros em um modelo
de regressão nãolinear tStudent onde o número de graus de liberdade é desconhecido.
Ospina, CribariNeto e Vasconcellos (2006) derivam expressões de forma fechada para os
vieses de ordem O(n
1
) dos EMV em um modelo de regressão beta.
Outra técnica que pode ser utilizada com o intuito de obter estimadores corrigidos,
é o método de reamostragem bootstrap, desenvolvido por Efron (1979). O bootstrap é
um método computacional de inferência estatística que substitui cálculos analíticos por
esforço computacional. Tal método tem sido bastante explorado nas últimas décadas. O
uso de bootstrap em modelos de regressão foi amplamente estudado por Wu (1986). Efron
19
e Tibshirani (1993) e Davison e Hinkley (1997) descrevem detalhadamente a correção de
viés por bootstrap. Ferrari e CribariNeto (1998) estudam a relação entre o método
analítico, baseado em expansões de Edgeworth, e a técnica bootstrap. Esta técnica está
descrita em detalhes na Seção (3.3) .
3.2 Correção de Cox & Snell
Uma fórmula geral ,bastante conhecida, utilizada com o propósito de obter o viés de
segunda ordem dos estimadores de máxima verossimilhança em modelos multiparamétri-
cos, com vetor de parâmetros θ = (θ
1
, . . . , θ
p
)
, foi desenvolvida por Cox e Snell (1968) e
é dada por
B(
ˆ
θ
a
) =
h,i,j
κ
ah
κ
ij
κ
hi,j
+
1
2
κ
hij
, (3.1)
onde a, h, i, j indexam o espaço paramétrico, κ
ah
sendo referente ao elemento (a, h) da
inversa da matriz de informação de Fisher K(θ). Em diversas situações, é conveniente
substituirmos, em decorrência das identidades de Bartlett, κ
hi,j
+
1
2
κ
hij
por κ
(j)
hi
1
2
κ
hij
.
Assim, a fórmula dada em (3.1) é de grande valia, pois a partir de tal resultado,
podemos definir um estimador corrigido
˜
θ
a
=
ˆ
θ
a
ˆ
B(
ˆ
θ
a
), onde
ˆ
B(
ˆ
θ
a
) é o viés estimado de
ˆ
θ
a
. Podemos mostrar que
˜
θ
a
tem viés de ordem O(n
2
). Logo, à medida que o tamanho
amostral n aumenta, esperamos que o viés de
˜
θ
a
aproxime-se mais rapidamente de zero
que o viés de
ˆ
θ
a
.
3.2.1 Correção de viés dos estimadores de máxima verossimilhan-
ça do modelo de regressão normal assimétrico
A fim de obtermos uma expressão matricial para calcularmos o viés de ordem O(n
1
)
dos estimadores de máxima verossimilhança do modelo de regressão normal assimétrico,
utilizaremos a fórmula geral de Cox e Snell (1968). A notação empregada é dada por
Lawley (1956), como apresentado no Capítulo 2.
A partir da expressão (3.1), obtemos a fórmula para calcular o viés de segunda ordem
da sésima componente de
ˆ
β, a qual é dada por
20
B(
ˆ
β
s
) =
r,t,u
κ
sr
κ
tu
κ
(u)
rt
1
2
κ
rtu
+
r,t
κ
sr
κ
κ
(σ)
rt
1
2
κ
rtσ
(3.2)
+
r,t
κ
sr
κ
κ
(α)
rt
1
2
κ
rtα
+
r,u
κ
sr
κ
σu
κ
(u)
1
2
κ
u
+
r,u
κ
sr
κ
αu
κ
(u)
1
2
κ
rαu
+ κ
t,u
κ
tu
κ
(u)
σt
1
2
κ
σtu
+ κ
t,u
κ
tu
κ
(u)
αt
1
2
κ
αtu
+ κ
σσ
r
κ
sr
κ
(σ)
1
2
κ
σ
+ κ
σα
r
κ
sr
κ
(α)
1
2
κ
α
+ κ
ασ
r
κ
sr
κ
(σ)
1
2
κ
rασ
+ κ
αα
r
κ
sr
κ
(α)
1
2
κ
rαα
+ κ
κ
σσ
κ
(σ)
σσ
1
2
κ
σσσ
+ κ
κ
σα
κ
(α)
σσ
1
2
κ
σσα
+ κ
κ
ασ
κ
(σ)
σα
1
2
κ
σασ
+ κ
κ
αα
κ
(α)
σα
1
2
κ
σαα
+ κ
κ
σσ
κ
(σ)
ασ
1
2
κ
ασσ
+ κ
κ
σα
κ
(α)
ασ
1
2
κ
ασα
+ κ
κ
ασ
κ
(σ)
αα
1
2
κ
αασ
+ κ
κ
αα
κ
(α)
αα
1
2
κ
ααα
+ κ
t
κ
κ
(σ)
σt
1
2
κ
σ
+ κ
t
κ
κ
(α)
σt
1
2
κ
σ
+ κ
t
κ
κ
(σ)
αt
1
2
κ
αtσ
+ κ
t
κ
κ
(α)
αt
1
2
κ
αtα
+ κ
u
κ
σu
κ
(u)
σσ
1
2
κ
σσu
+ κ
u
κ
αu
κ
(u)
σα
1
2
κ
σαu
+ κ
u
κ
σu
κ
(u)
ασ
1
2
κ
ασu
+ κ
u
κ
αu
κ
(u)
αα
1
2
κ
ααu
.
Da mesma forma, temos que a fórmula para calcular o viés de ordem O(n
1
) do estimador
ˆσ é da forma
21
B(ˆσ) =
r,t,u
κ
σr
κ
tu
κ
(u)
rt
1
2
κ
rtu
+
r,t
κ
σr
κ
κ
(σ)
rt
1
2
κ
rtσ
(3.3)
+
r,t
κ
σr
κ
κ
(α)
rt
1
2
κ
rtα
+
r,u
κ
σr
κ
σu
κ
(u)
1
2
κ
u
+
r,u
κ
σr
κ
αu
κ
(u)
1
2
κ
rαu
+ κ
σσ
t,u
κ
tu
κ
(u)
σt
1
2
κ
σtu
+ κ
σα
t,u
κ
tu
κ
(u)
αt
1
2
κ
αtu
+ κ
σσ
r
κ
σr
κ
(σ)
1
2
κ
σ
+ κ
σα
r
κ
σr
κ
(α)
1
2
κ
α
+ κ
ασ
r
κ
σr
κ
(σ)
1
2
κ
rασ
+ κ
αα
r
κ
σr
κ
(α)
1
2
κ
rαα
+ κ
σσ
κ
σσ
κ
(σ)
σσ
1
2
κ
σσσ
+ κ
σσ
κ
σα
κ
(α)
σσ
1
2
κ
σσα
+ κ
σσ
κ
ασ
κ
(σ)
σα
1
2
κ
σασ
+ κ
σσ
κ
αα
κ
(α)
σα
1
2
κ
σαα
+ κ
σα
κ
σσ
κ
(σ)
ασ
1
2
κ
ασσ
+ κ
σα
κ
σα
κ
(α)
ασ
1
2
κ
ασα
+ κ
σα
κ
ασ
κ
(σ)
αα
1
2
κ
αασ
+ κ
σα
κ
αα
κ
(α)
αα
1
2
κ
ααα
+ κ
σσ
t
κ
κ
(σ)
σt
1
2
κ
σ
+ κ
σσ
t
κ
κ
(α)
σt
1
2
κ
σ
+ κ
σα
t
κ
κ
(σ)
αt
1
2
κ
αtσ
+ κ
σα
t
κ
κ
(α)
αt
1
2
κ
αtα
+ κ
σσ
u
κ
σu
κ
(u)
σσ
1
2
κ
σσu
+ κ
σσ
u
κ
αu
κ
(u)
σα
1
2
κ
σαu
+ κ
σα
u
κ
σu
κ
(u)
ασ
1
2
κ
ασu
+ κ
σα
u
κ
αu
κ
(u)
αα
1
2
κ
ααu
.
Ainda, para o estimador ˆα temos
22
B(ˆα) =
r,t,u
κ
αr
κ
tu
κ
(u)
rt
1
2
κ
rtu
+
r,t
κ
αr
κ
κ
(σ)
rt
1
2
κ
rtσ
(3.4)
+
r,t
κ
αr
κ
κ
(α)
rt
1
2
κ
rtα
+
r,u
κ
αr
κ
σu
κ
(u)
1
2
κ
u
+
r,u
κ
αr
κ
αu
κ
(u)
1
2
κ
rαu
+ κ
ασ
t,u
κ
tu
κ
(u)
σt
1
2
κ
σtu
+ κ
αα
t,u
κ
tu
κ
(u)
αt
1
2
κ
αtu
+ κ
σσ
r
κ
αr
κ
(σ)
1
2
κ
σ
+ κ
σα
r
κ
αr
κ
(α)
1
2
κ
α
+ κ
ασ
r
κ
αr
κ
(σ)
1
2
κ
rασ
+ κ
αα
r
κ
αr
κ
(α)
1
2
κ
rαα
+ κ
ασ
κ
σσ
κ
(σ)
σσ
1
2
κ
σσσ
+ κ
ασ
κ
σα
κ
(α)
σσ
1
2
κ
σσα
+ κ
ασ
κ
ασ
κ
(σ)
σα
1
2
κ
σασ
+ κ
ασ
κ
αα
κ
(α)
σα
1
2
κ
σαα
+ κ
αα
κ
σσ
κ
(σ)
ασ
1
2
κ
ασσ
+ κ
αα
κ
σα
κ
(α)
ασ
1
2
κ
ασα
+ κ
αα
κ
ασ
κ
(σ)
αα
1
2
κ
αασ
+ κ
αα
κ
αα
κ
(α)
αα
1
2
κ
ααα
+ κ
ασ
t
κ
κ
(σ)
σt
1
2
κ
σ
+ κ
ασ
t
κ
κ
(α)
σt
1
2
κ
σ
+ κ
αα
t
κ
κ
(σ)
αt
1
2
κ
αtσ
+ κ
αα
t
κ
κ
(α)
αt
1
2
κ
αtα
+ κ
ασ
u
κ
σu
κ
(u)
σσ
1
2
κ
σσu
+ κ
ασ
u
κ
αu
κ
(u)
σα
1
2
κ
σαu
+ κ
αα
u
κ
σu
κ
(u)
ασ
1
2
κ
ασu
+ κ
αα
u
κ
αu
κ
(u)
αα
1
2
κ
ααu
.
Devido ao fato dos parâmetros não serem ortogonais, todos os termos dados em (3.2),
(3.3), e (3.4) devem ser calculados.
Assim, objetivando facilitar o cálculo de tais quantidades, após alguma álgebra, con-
seguimos expressá-las em forma matricial. No Apêndice B, são apresentados os cálculos
dos cumulantes, as derivadas dos cumulantes e o processo pelo qual as expressões (3.2),
23
(3.3), e (3.4) foram conduzidas à forma matricial. Dessa forma, notamos que B(
ˆ
β
s
) pode
ser escrito como
B(
ˆ
β
s
) = Q
1
e
s
K
ββ
X
δ
ββ
+ Q
2
e
s
K
ββ
X
XK
βσ
+ Q
3
e
s
K
ββ
X
XK
βα
+ Q
4
e
s
K
ββ
X
XK
βσ
+ Q
5
e
s
K
ββ
X
XK
βα
+ Q
4
e
s
K
βσ
tr(XK
ββ
X
)
+ Q
5
e
s
K
βα
tr(XK
ββ
X
) + Q
6
e
s
K
ββ
X
11K
σσ
+ Q
8
e
s
K
ββ
X
11K
σα
+ Q
7
e
s
K
ββ
X
11K
σα
+ Q
9
e
s
K
ββ
X
11K
αα
+ Q
10
e
s
K
βσ
K
σσ
+ Q
11
e
s
K
βσ
K
σα
+ Q
12
e
s
K
βσ
K
σα
+ Q
13
e
s
K
βσ
K
αα
+ Q
12
e
s
K
βα
K
σσ
+ Q
13
e
s
K
βα
K
σα
+ Q
14
e
s
K
βα
K
σα
+ Q
15
e
s
K
βα
K
αα
+ Q
6
e
s
K
βσ
11
XK
βσ
+ Q
7
e
s
K
βσ
11
XK
βα
+ Q
8
e
s
K
βα
11
XK
βσ
+ Q
9
e
s
K
βα
11
XK
βα
+ Q
16
e
s
K
βσ
11
XK
βσ
+ Q
17
e
s
K
βσ
11
XK
βα
+ Q
17
e
s
K
βα
11
XK
βσ
+ Q
18
e
s
K
βα
11
XK
βα
,
onde e
s
é o sésimo vetor coluna da matriz identidade de ordem n, tr(·) denota o operador
traço, 11 é um vetor coluna com todos os n elementos iguais a 1, δ
ββ
é um vetor coluna
formado pelos n elementos diagonais de XK
ββ
X
e as quantidades Q
1
a Q
18
estão
definidas no Apêndice B.
Podemos ainda, colocar alguns termos em evidência, o que nos permitirá escrever B(
ˆ
β
s
)
de uma forma mais simplificada:
B(
ˆ
β
s
) = e
s
K
ββ
X
[Q
1
δ
ββ
+ (Q
2
+ Q
4
)XK
βσ
+ (Q
3
+ Q
5
)XK
βα
+ (Q
7
+ Q
8
)11K
σα
+ Q
6
11K
σσ
+ Q
9
11K
αα
]
+ e
s
K
βσ
[Q
4
tr(XK
ββ
X
) + (Q
6
+ Q
16
)11
XK
βσ
+ ( Q
7
+ Q
17
)11
XK
βα
+ (Q
11
+ Q
12
)K
σα
+ Q
10
K
σσ
+ Q
13
K
αα
]
+ e
s
K
βα
[Q
5
tr(XK
ββ
X
) + (Q
8
+ Q
17
)11
XK
βσ
+ (Q
9
+ Q
18
)11
XK
βα
+ (Q
13
+ Q
14
)K
σα
+ Q
12
K
σσ
+ Q
15
K
αα
].
Logo, o viés de segunda ordem de
ˆ
β é dado por
24
B(
ˆ
β) = K
ββ
X
[Q
1
δ
ββ
+ (Q
2
+ Q
4
)XK
βσ
+ (Q
3
+ Q
5
)XK
βα
+ (Q
7
+ Q
8
)11K
σα
+ Q
6
11K
σσ
+ Q
9
11K
αα
]
+ K
βσ
[Q
4
tr(XK
ββ
X
) + (Q
6
+ Q
16
)11
XK
βσ
+ (Q
7
+ Q
17
)11
XK
βα
+ (Q
11
+ Q
12
)K
σα
+ Q
10
K
σσ
+ Q
13
K
αα
]
+ K
βα
[Q
5
tr(XK
ββ
X
) + (Q
8
+ Q
17
)11
XK
βσ
+ (Q
9
+ Q
18
)11
XK
βα
+ (Q
13
+ Q
14
)K
σα
+ Q
12
K
σσ
+ Q
15
K
αα
].
Definimos o bloco superior de K
1
(θ), de dimensão p × (p + 2), como
K
β
= (K
ββ
K
βσ
K
βα
).
Definimos ainda, as quantidades δ
11
, δ
21
e δ
31
da forma
δ
11
= Q
1
δ
ββ
+ ( Q
2
+ Q
4
)XK
βσ
+ (Q
3
+ Q
5
)XK
βα
+ (Q
7
+ Q
8
)11K
σα
+ Q
6
11K
σσ
+ Q
9
11K
αα
,
δ
21
= Q
4
tr(XK
ββ
X
) + (Q
6
+ Q
16
)11
XK
βσ
+ ( Q
7
+ Q
17
)11
XK
βα
+ (Q
11
+ Q
12
)K
σα
+ Q
10
K
σσ
+ Q
13
K
αα
,
δ
31
= Q
5
tr(XK
ββ
X
) + (Q
8
+ Q
17
)11
XK
βσ
+ ( Q
9
+ Q
18
)11
XK
βα
+ (Q
13
+ Q
14
)K
σα
+ Q
12
K
σσ
+ Q
15
K
αα
.
Consideramos, assim, o vetor
˜
δ, o qual tem (n + 2) elementos, dado por
˜
δ =
δ
11
δ
21
δ
31
.
Desta forma, o viés de ordem O(n
1
) de
ˆ
β pode ser expressado por
B(
ˆ
β) = K
β
X
˜
δ. (3.5)
25
Analogamente, mostramos que B(ˆσ) pode ser escrito da seguinte forma
B(ˆσ) = Q
1
K
σβ
X
δ
ββ
+ Q
2
K
σβ
X
XK
βσ
+ Q
3
K
σβ
X
XK
βα
+ Q
4
K
σβ
X
XK
βσ
+ Q
5
K
σβ
X
XK
βα
+ Q
4
K
σσ
tr(XK
ββ
X
)
+ Q
5
K
σα
tr(XK
ββ
X
) + Q
6
K
σβ
X
11K
σσ
+ Q
7
K
σβ
X
11K
σα
+ Q
8
K
σβ
X
11K
σα
+ Q
9
K
σβ
X
11K
αα
+ Q
10
K
σσ
K
σσ
+ Q
11
K
σσ
K
σα
+ Q
12
K
σσ
K
σα
+ Q
13
K
σσ
K
αα
+ Q
12
K
σα
K
σσ
+ Q
13
K
σα
K
σα
+ Q
14
K
σα
K
σα
+ Q
15
K
σα
K
αα
+ Q
6
K
σσ
11
XK
βσ
+ Q
7
K
σσ
11
XK
βα
+ Q
8
K
σα
11
XK
βσ
+ Q
9
K
σα
11
XK
βα
+ Q
16
K
σσ
11
XK
βσ
+ Q
17
K
σσ
11
XK
βα
+ Q
17
K
σα
11
XK
βσ
+ Q
18
K
σα
11
XK
βα
.
Assim, evidenciando alguns termos, B(ˆσ) pode ser expressado como
B(ˆσ) = K
σβ
X
[Q
1
δ
ββ
+ (Q
2
+ Q
4
)XK
βσ
+ (Q
3
+ Q
5
)XK
βα
+ (Q
7
+ Q
8
)11K
σα
+ Q
6
11K
σσ
+ Q
9
11K
αα
]
+ K
σσ
[Q
4
tr(XK
ββ
X
) + (Q
6
+ Q
16
)11
XK
βσ
+ (Q
7
+ Q
17
)11
XK
βα
+ (Q
11
+ Q
12
)K
σα
+ Q
10
K
σσ
+ Q
13
K
αα
]
+ K
σα
[Q
5
tr(XK
ββ
X
) + (Q
8
+ Q
17
)11
XK
βσ
+ (Q
9
+ Q
18
)11
XK
βα
+ (Q
13
+ Q
14
)K
σα
+ Q
12
K
σσ
+ Q
15
K
αα
].
Definimos o bloco mediano de K
1
(θ), de dimensão 1 × (p + 2), como
K
σ
= (K
σβ
K
σσ
K
σα
).
Portanto o viés de segunda ordem de ˆσ pode ser escrito como
B(ˆσ) = K
σ
X
˜
δ. (3.6)
26
Da mesma forma, deduzimos que B(ˆα) pode ser escrito como
B(ˆα) = Q
1
K
αβ
X
δ
ββ
+ Q
2
K
αβ
X
XK
βσ
+ Q
3
K
αβ
X
XK
βα
+ Q
4
K
αβ
X
XK
βσ
+ Q
5
K
αβ
X
XK
βα
+ Q
4
K
ασ
tr(XK
ββ
X
)
+ Q
5
K
αα
tr(XK
ββ
X
) + Q
6
K
αβ
X
11K
σσ
+ Q
7
K
αβ
X
11K
σα
+ Q
8
K
αβ
X
11K
σα
+ Q
9
K
αβ
X
11K
αα
+ Q
10
K
ασ
K
σσ
+ Q
11
K
ασ
K
σα
+ Q
12
K
ασ
K
σα
+ Q
13
K
ασ
K
αα
+ Q
12
K
αα
K
σσ
+ Q
13
K
αα
K
σα
+ Q
14
K
αα
K
σα
+ Q
15
K
αα
K
αα
+ Q
6
K
ασ
11
XK
βσ
+ Q
7
K
ασ
11
XK
βα
+ Q
8
K
αα
11
XK
βσ
+ Q
9
K
αα
11
XK
βα
+ Q
16
K
ασ
11
XK
βσ
+ Q
17
K
ασ
11
XK
βα
+ Q
17
K
αα
11
XK
βσ
+ Q
18
K
αα
11
XK
βα
.
Podemos colocar em evidência algumas quantidades, o que simplificará B(ˆα) na forma
B(ˆα) = K
αβ
X
(Q
1
δ
ββ
+ Q
2
XK
βσ
+ Q
3
XK
βα
+ Q
4
XK
βσ
+ Q
5
XK
βα
+ Q
6
11K
σσ
+ Q
7
11K
σα
+ Q
8
11K
σα
+ Q
9
11K
αα
)
+ K
ασ
[Q
4
tr(XK
ββ
X
) + Q
10
K
σσ
+ Q
11
K
σα
+ Q
12
K
ασ
+ Q
13
K
αα
+ Q
6
11
XK
βσ
+ Q
7
11
XK
βα
+ Q
16
11
XK
βσ
+ Q
17
11
XK
βα
]
+ K
αα
[Q
5
tr(XK
ββ
X
) + Q
12
K
σσ
+ Q
13
K
σα
+ Q
14
K
σα
+ Q
15
K
αα
+ Q
8
11
XK
βσ
+ Q
9
11
XK
βα
+ Q
17
11
XK
βσ
+ Q
18
11
XK
βα
].
Definimos o bloco inferior de K
1
(θ), de dimensão 1 × (p + 2), como
K
α
= (K
αβ
K
ασ
K
αα
).
Logo, o viés de ordem O(n
1
) de ˆα é dado por
B(ˆα) = K
α
X
˜
δ. (3.7)
27
Dessa forma, com base nos resultados (2.23), (3.5), (3.6) e (3.7), temos que o viés de
segunda ordem do estimador de máxima verossimilhança do vetor de parâmetros θ pode
ser representado como
B(
ˆ
θ) = K
1
(θ)
X
˜
δ = (
X
W
X)
1
X
˜
δ.
Uma forma bastante interessante de expressar tal resultado é dada a seguir
B(
ˆ
θ) = (
X
W
X)
1
X
W
˜
ξ. (3.8)
onde
˜
ξ =
W
1
˜
δ. Desse modo, vê-se facilmente que B(
ˆ
θ) pode ser obtido a partir de uma
regressão de mínimos quadrados generalizados.
A partir da expressão (3.8), definimos um estimador de máxima verossimilhança cor-
rigido
˜
θ da seguinte maneira:
˜
θ =
ˆ
θ
ˆ
B(
ˆ
θ), (3.9)
onde
ˆ
B(
ˆ
θ) denota o estimador de máxima verossimilhança de B(
ˆ
θ), ou seja, os parâmetros
(β, σ, α) são substituídos por suas respectivas estimativas de máxima verossimilhança.
Este novo estimador tem viés de ordem O(n
2
), pois E(
˜
θ) = θ + O(n
2
). Portanto,
esperamos que o estimador corrigido
˜
θ tenha melhores propriedades em amostras finitas
que o usual estimador de máxima verossimilhança, cujo viés é de ordem O(n
1
).
3.3 Correção por Bootstrap
Em diversos problemas estatísticos existe a dificuldade e, em alguns casos, até mesmo
a impossibilidade de se obter soluções analíticas. Uma alternativa que permite obter
soluções aproximadas para tais problemas é a metodologia bootstrap. O bootstrap é um
método de reamostragem, originalmente proposto por Efron (1979), que se baseia na cons-
trução de subamostras a partir de uma amostra inicial. O emprego de tal técnica evita a
necessidade de complicados cálculos analíticos, porém, requer um intensivo procedimento
computacional.
O método bootstrap é de grande utilidade quando se deseja estimar variâncias, vieses,
intervalos de confiança, pvalores e outras quantidades de interesse da inferência estatís-
28
tica. Ainda, podemos empregá-lo de forma paramétrica ou nãoparamétrica. Em sua
forma paramétrica, fazemos suposições sobre a distribuição dos dados, e a partir daí,
geramos pseudoamostras com base nas estimativas dos parâmetros provenientes dos da-
dos. No bootstrap nãoparamétrico, utilizamos os próprios dados a fim de obtermos as
subamostras.
Considere uma amostra aleatória z = (z
1
, . . . , z
n
) de uma variável aleatória popula-
cional Z cuja distribuição está completamente determinada por sua função de distribuição
acumulada F . Seja, θ = t(F ) uma função de F denominada parâmetro e
ˆ
θ = s(z) um es-
timador de θ. Neste caso, o emprego da técnica bootstrap consiste basicamente em obter,
a partir da amostra original z, um grande número de subamostras z
= (z
1
, . . . , z
n
),
calcular as respectivas réplicas bootstrap de
ˆ
θ,
ˆ
θ
= s(z
), e com base na distribuição
empírica de
ˆ
θ
, estimar a função de distribuição de
ˆ
θ.
Em sua versão nãoparamétrica, a amostra z
é obtida de uma estimativa nãopa-
ramétrica
ˆ
F de F , que é a função de distribuição empírica da amostra original, dada
por
ˆ
F (z) =
#{z
i
z}
n
,
a qual atribui probabilidade
1
n
a cada z
i
, i = 1, . . . , n. Assim, o bootstrap nãoparamé-
trico é uma aplicação direta do princípio “plug-in”, que utiliza
ˆ
F no lugar da distribuição
populacional desconhecida F . Logo, se θ = t(F ), o seu estimador é dado por
ˆ
θ = t(
ˆ
F ).
Na versão paramétrica, F deve pertencer a um modelo paramétrico conhecido F
ξ
. Assim,
a obtenção de um estimador consistente de ξ viabiliza uma estimativa paramétrica de F ,
denotada por F
ˆ
ξ
.
Podemos utilizar o método bootstrap para estimarmos o viés de um determinado
estimador. Assim, denotamos o viés de
ˆ
θ = t(
ˆ
F ) por B
F
(
ˆ
θ, θ), que é definido como sendo
B
F
(
ˆ
θ, θ) = E
F
[s(z)] t(F ).
Dessa forma, os estimadores bootstrap de viés nas versões nãoparamétrica e paramétrica
são dados por
B
ˆ
F
(
ˆ
θ, θ) = E
ˆ
F
[s(z)] t(
ˆ
F ) e B
F
ˆ
ξ
(
ˆ
θ, θ) = E
F
ˆ
ξ
[s(z)] t(F
ˆ
ξ
).
29
Gerando B amostras bootstrap independentes, (z
1
, . . . , z
B
) de z, calculando as suas
respectivas réplicas bootstrap (
ˆ
θ
1
, . . . ,
ˆ
θ
B
), onde
ˆ
θ
i
= s(z
i
) para i = 1 , . . . , B, podemos
aproximar E
ˆ
F
[s(z)] e E
F
ˆ
ξ
[s(z)] pela média
ˆ
θ
(·)
=
1
B
B
i=1
ˆ
θ
i
.
Obtemos assim, as estimativas bootstrap de viés
ˆ
B
ˆ
F
(
ˆ
θ, θ) e
ˆ
B
F
ˆ
ξ
(
ˆ
θ, θ), dadas por
ˆ
B
ˆ
F
(
ˆ
θ, θ) =
ˆ
θ
(·)
s(z) e
ˆ
B
F
ˆ
ξ
(
ˆ
θ, θ) =
ˆ
θ
(·)
s(z).
Observe que a diferença entre as estimativas está na forma de geração das subamostras.
Podemos, a partir das estimativas bootstrap de viés, definir estimadores corrigidos até
segunda ordem por bootstrap como
θ
1
= s(z)
ˆ
B
ˆ
F
(
ˆ
θ, θ) = 2s(z)
ˆ
θ
(·)
, (3.10)
θ
2
= s(z)
ˆ
B
F
ˆ
ξ
(
ˆ
θ, θ) = 2s(z)
ˆ
θ
(·)
, (3.11)
onde θ
1
e θ
2
são denominadas estimativas CBC (ConstantBiasCorrecting) como dado
em MacKinnon e Smith (1998).
No presente trabalho, faremos uso do estimador corrigido por bootstrap em sua forma
paramétrica, como visto em (3.11). Para uma discussão sobre correção de viés de segunda
ordem por bootstrap e sua relação com a correção analítica veja Ferrari e CribariNeto
(1998).
30
CAPÍTULO 4
Avaliação Numérica
4.1 Detalhes Metodológicos
Neste capítulo, avaliamos numericamente, através do método de simulação de Monte
Carlo, o desempenho dos EMV dos parâmetros do modelo de regressão normal assimétrico
em amostras de tamanho finito e sob diferentes cenários, bem como suas versões corrigidas
analiticamente via Cox e Snell (1968) e por bootstrap. A fim de avaliarmos a qualidade das
estimativas obtidas através do emprego dos estimadores citados anteriormente, utilizamos
algumas medidas, tais como viés, viés relativo e erro quadrático médio. O processo de
simulação foi realizado utilizando a linguagem matricial de programação Ox na versão 4.04
[CribariNeto e Zarkos (2003); Doornik (2001)], enquanto os gráficos foram construídos
no pacote estatístico R na versão 2.4.0 [Venables e Ripley (2002)].
Os resultados apresentados são baseados no seguinte modelo de regressão:
z
i
= β
0
+ β
1
x
i
+ ε
i
, i = 1, . . . , n (4.1)
Os valores da covariável x
i
permanecem constantes em todo o experimento e foram gera-
dos de forma que x
i
U(0, 1). Os parâmetros de regressão são definidos como β
0
= 2
e
β
1
= 2
. O parâmetro de escala foi definido como
σ
= 1
. Ao parâmetro de forma foram
atribuídos os valores: α = 3, 5 e 10. Os ε
i
’s são variáveis aleatórias regidas por uma
distribuição SN(0, σ, α) e foram gerados através do método da transformação, o qual está
31
descrito no Capítulo 2, proposição (2.1.3). Consideramos, também, os tamanhos amostrais
n = 50, 100, 150, 200, 250, 300, 350 e 400. O número de réplicas de Monte Carlo foi fixado
em 5000, enquanto que o número de réplicas bootstrap foi de 600. Para cada cenário
considerado, nós calculamos a taxa de falha da simulação, a qual é baseada no número
de não-convergências ocorridas, isto é, na quantidade de vezes em que o procedimento de
maximização da função de logverossimilhança não convergiu para uma solução ótima.
Nos cenários onde houve a ocorrência de não-convergência para um valor ótimo, nós
continuamos com a simulação até obtermos 5000 réplicas para as quais o procedimento de
maximização da logverossimilhança alcançou convergência. A taxa de falha é definida
como (N 5000)/N, onde N é o número total de réplicas até a obtenção das 5000
convergências.
A partir da definição das quantidades β
0
, β
1
, σ, α e da geração das variáveis aleatórias
ε
i
’s e x
i
, obtemos as variáveis dependentes z
i
’s, onde cada z
i
SN (β
0
+ β
1
x
i
, σ, α).
A função de logverossimilhança foi maximizada utilizando-se o método de otimização
nãolinear BFGS, através da função MaxBFGS, que está implementada no pacote Maximize
da linguagem de programação Ox. Os valores de β
0
, β
1
, σ e α que maximizam a função
de logverossimilhança são as estimativas de máxima verossimilhança
ˆ
β
0
,
ˆ
β
1
, ˆσ, e ˆα dos
parâmetros do modelo de regressão normal assimétrico. A partir das estimativas obtidas,
calculamos as estimativas dos vieses de segunda ordem
ˆ
B(
ˆ
θ) e, a seguir, as estimativas
corrigidas
˜
θ =
ˆ
θ
ˆ
B(
ˆ
θ).
De posse das estimativas de máxima verossimilhança dos parâmetros do modelo de
regressão (4.1), geramos, para cada réplica de Monte Carlo, 600 réplicas bootstrap, de
forma paramétrica, provenientes de uma distribuição SN(
ˆ
β
0
+
ˆ
β
1
x
i
, ˆσ, ˆα). A partir das
réplicas bootstrap, calculamos as estimativas dos vieses dos parâmetros do modelo de
regressão (4.1), e a seguir, as estimativas corrigidas θ =
ˆ
θ
ˆ
B
F
ˆ
ξ
(
ˆ
θ, θ).
Com o intuito de analisarmos o comportamento dos estimadores apresentados, para
cada tamanho de amostra e para os diferentes valores de α , foram calculadas as estimativas
de viés, viés relativo
1
e erro quadrático médio (EQM) baseados nas 5000 estimativas dos
parâmetros.
1
O viés relativo de um estimador é definido como sendo {E(
ˆ
θ) θ}.
32
4.2 Resultados e Discussão
Nesta seção apresentaremos os resultados das simulações referentes à correção de
viés dos EMV do modelo de regressão normal assimétrico dado em (4.1). Seja θ =
(β
0
, β
1
, σ, α)
o vetor de parâmetros do modelo de regressão supracitado. Assim como
denotado nos capítulos anteriores,
ˆ
θ = (
ˆ
β
0
,
ˆ
β
1
, ˆσ, ˆα)
diz respeito aos EMV de θ, en-
quanto que
˜
θ = (
˜
β
0
,
˜
β
1
, ˜σ, ˜α)
é atinente aos EMV corrigidos analiticamente via Cox e
Snell (1968) e θ = (β
0
, β
1
, σ, α)
é relativo aos EMV corrigidos por bootstrap.
Nas tabelas 4.1, 4.2 e 4.3 são apresentados os resultados de simulação para as esti-
mativas dos parâmetros de regressão β
0
e β
1
no caso em que β
0
= 2, β
1
= 2, σ = 1
e α = 3 , 5 e 10. Podemos observar que no caso onde α = 3, para tamanhos amostrais
inferiores a 200, o estimador
˜
β
0
possui viés, viés relativo, e EQM superiores aos apresen-
tados pelo estimador
ˆ
β
0
. No entanto, para tamanhos amostrais superiores a 200, nota-se
que o estimador
˜
β
0
trabalha de forma eficiente no que diz respeito à redução de viés e de
EQM. Observe que, em geral, o estimador β
0
apresenta menor viés e viés relativo que
ˆ
β
0
,
independentemente do tamanho de amostra. Quanto ao EQM, não observamos grandes
variações entre os diferentes estimadores para tamanhos de amostra maiores que 200. Nos
casos em que α = 5 e 10, notamos que, em grande parte dos tamanhos de amostra, os
estimadores
˜
β
0
e β
0
possuem desempenho superior a
ˆ
β
0
no que diz respeito às medidas
de viés e viés relativo. Os EQM das estimativas produzidas pelos estimadores
ˆ
β
0
,
˜
β
0
e β
0
não possuem diferenças muito marcantes. Por exemplo, para n = 350 e α = 10 todas as
estimativas do EQM são iguais a 0.00304.
Com relação às estimativas do parâmetro β
1
, podemos observar que o estimador cor-
rigido por bootstrap, em grande parte dos tamanhos amostrais, possui um desempenho
inferior ao EMV não-corrigido. Quanto à correção analítica de Cox e Snell (1968), percebe-
mos que, para α = 3, tal correção não é eficiente, dado que os valores observados nas
medidas de viés e viés relativo são superiores aos obtidos pelo EMV não-corrigido. No
entanto, quando temos valores maiores de α (α = 5 e 10), notamos que, na maioria dos
tamanhos de amostra, o estimador
˜
β
1
apresenta um desempenho satisfatório, diferente-
mente do estimador β
1
. Por exemplo, para n = 350 e α = 5, as estimativas de viés
relativo de
ˆ
β
1
,
˜
β
1
e β
1
são iguais a 0.00005, 0.00002 e 0.00138, respectivamente. Dessa
forma, o emprego da correção de viés por bootstrap para o parâmetro de inclinação β
1
33
não é recomendado.
Embora, na maioria dos casos, os estimadores corrigidos (analiticamente e por boot-
strap) de β
0
e corrigido analiticamente de β
1
possuam melhor desempenho que o EMV
não-corrigido, percebemos que tais correções de viés não produzem uma melhora signi-
ficativa.
Concluímos que os estimadores
ˆ
β
0
e
ˆ
β
1
possuem boas propriedades em amostras finitas,
ou seja, os valores estimados dos parâmetros se aproximam dos verdadeiros valores dos
parâmetros de regressão.
Tabela 4.1: Estimativas de máxima verossimilhança e suas versões corrigidas dos parâ-
metros β
0
e β
1
no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 3.
Estimativas de β
0
Estimativas de β
1
n Estimador Viés Viés Rel EQM Viés Viés Rel EQM
50
ˆ
θ 0.06615 0.02205 0.08536 0.00359 0.00120 0.11434
˜
θ 3.77386 1.25795 4353.15 0.00053 0.00018 0.11429
θ 0.00285 0.00095 0.08099 0.00674 0.00225 0.11437
100
ˆ
θ 0.02094 0.00698 0.03281 0.00209 0.00070 0.05422
˜
θ 0.13057 0.04352 24.3339 0.00162 0.00054 0.05422
θ 0.01205 0.00402 0.03252 0.00138 0.00046 0.05422
150
ˆ
θ 0.00827 0.00276 0.01872 0.00124 0.00041 0.03569
˜
θ 0.08347 0.02782 30.5652 0.00138 0.00046 0.03569
θ 0.00956 0.00319 0.01874 0.00833 0.00278 0.03575
200
ˆ
θ 0.01064 0.00355 0.01249 0.00342 0.00114 0.02399
˜
θ 0.00412 0.00137 0.01182 0.00365 0.00122 0.02399
θ 0.00447 0.00149 0.01240 0.00297 0.00099 0.02399
250
ˆ
θ 0.00346 0.00115 0.00905 0.00215 0.00072 0.01836
˜
θ 0.00131 0.00044 0.00881 0.00229 0.00076 0.01836
θ 0.00387 0.00129 0.00905 0.00895 0.00298 0.01843
300
ˆ
θ 0.00552 0.00184 0.00775 0.00232 0.00077 0.01438
˜
θ 0.00159 0.00053 0.00758 0.00251 0.00084 0.01438
θ 0.00494 0.00165 0.00774 0.00615 0.00205 0.01442
350
ˆ
θ 0.01128 0.00376 0.01298 0.00126 0.00042 0.01224
˜
θ 0.00800 0.00267 0.01287 0.00139 0.00046 0.01224
θ 0.00189 0.00063 0.01286 0.00535 0.00178 0.01226
400
ˆ
θ 0.00552 0.00184 0.00775 0.00232 0.00077 0.01438
˜
θ 0.00160 0.00053 0.00758 0.00251 0.00084 0.01438
θ 0.00494 0.00165 0.00774 0.00615 0.00205 0.01442
34
Nas tabelas 4.4, 4.5 e 4.6, apresentamos os resultados da avaliação numérica de correção
de viés dos EMV dos parâmetros σ e α nos casos onde β
0
= 2, β
1
= 2, σ = 1 e α = 3, 5
e 10. Percebemos que, embora o EMV do parâmetro de escala σ tenha boas propriedades
amostrais, isto é, possua viés, viés relativo e EQM muito pequenos, a correção de viés via
Cox e Snell (1968) e por bootstrap, na maioria dos casos, trabalham de forma satisfatória.
Tabela 4.2: Estimativas de máxima verossimilhança e suas versões corrigidas dos parâ-
metros β
0
e β
1
no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 5.
Estimativas de β
0
Estimativas de β
1
n Estimador Viés Viés Rel EQM Viés Viés Rel EQM
50
ˆ
θ 0.06136 0.01227 0.05129 0.00549 0.00110 0.08674
˜
θ 1.44626 0.28925 1603.39 0.00170 0.00034 0.08671
θ 0.04993 0.00999 0.05003 0.00540 0.00108 0.08674
100
ˆ
θ 0.01032 0.00206 0.01504 0.00139 0.00028 0.03637
˜
θ 0.00348 0.00070 0.01671 0.00077 0.00015 0.03637
θ 0.00692 0.00138 0.01499 0.00889 0.00178 0.03645
150
ˆ
θ 0.00599 0.00120 0.01116 0.00034 0.00007 0.02428
˜
θ 0.00206 0.00041 0.01099 0.00052 0.00010 0.02428
θ 0.00133 0.00027 0.01113 0.00572 0.00114 0.02431
200
ˆ
θ 0.00206 0.00041 0.00692 0.00198 0.00040 0.01605
˜
θ 0.00075 0.00015 0.00685 0.00167 0.00033 0.01605
θ 0.00373 0.00075 0.00693 0.00005 0.00001 0.01605
250
ˆ
θ 0.00115 0.00023 0.00516 0.00126 0.00025 0.01268
˜
θ 0.00111 0.00022 0.00512 0.00107 0.00021 0.01268
θ 0.00745 0.00149 0.00521 0.00900 0.00180 0.01276
300
ˆ
θ 0.00076 0.00015 0.00438 0.00188 0.00038 0.00971
˜
θ 0.00107 0.00021 0.00435 0.00163 0.00033 0.00971
θ 0.00129 0.00026 0.00438 0.00228 0.00046 0.00971
350
ˆ
θ 0.00581 0.00116 0.00737 0.00026 0.00005 0.00834
˜
θ 0.00424 0.00085 0.00736 0.00008 0.00002 0.00834
θ 0.00112 0.00022 0.00734 0.00689 0.00138 0.00839
400
ˆ
θ 0.00173 0.00035 0.00317 0.00120 0.00024 0.00728
˜
θ 0.00033 0.00007 0.00316 0.00135 0.00027 0.00728
θ 0.00184 0.00037 0.00317 0.00505 0.00101 0.00730
É importante notar que o estimador corrigido analiticamente não apresenta um bom de-
sempenho para tamanhos de amostras muito pequenos. Note que, independentemente do
35
valor de α, para n = 50, o EQM de tal estimador é muito superior aos EQM apresentados
pelo EMV não-corrigido e corrigido por bootstrap. Por exemplo, para n = 50 e α = 3, as
estimativas dos EQM de ˆσ, ˜σ e σ são 0.03129, 17.6035 e 0.02919, respectivamente.
Tabela 4.3: Estimativas de máxima verossimilhança e suas versões corrigidas dos parâ-
metros β
0
e β
1
no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 10.
Estimativas de β
0
Estimativas de β
1
n Estimador Viés Viés Rel EQM Viés Viés Rel EQM
50
ˆ
θ 0.08083 0.00808 0.04110 0.00972 0.00097 0.06223
˜
θ 1.59408 0.15941 2506.85 0.00537 0.00054 0.06216
θ 0.02326 0.00233 0.03511 0.01391 0.00139 0.06233
100
ˆ
θ 0.01874 0.00187 0.00938 0.00025 0.00003 0.02228
˜
θ 0.01514 0.00151 0.00916 0.00101 0.00010 0.02228
θ 0.00285 0.00029 0.00904 0.00763 0.00076 0.02234
150
ˆ
θ 0.00609 0.00061 0.00599 0.00355 0.00036 0.01500
˜
θ 0.00368 0.00037 0.00595 0.00332 0.00033 0.01500
θ 0.00085 0.00009 0.00596 0.00393 0.00039 0.01500
200
ˆ
θ 0.00256 0.00026 0.00379 0.00078 0.00008 0.00974
˜
θ 0.00088 0.00009 0.00378 0.00039 0.00004 0.00974
θ 0.00102 0.00010 0.00379 0.00308 0.00031 0.00975
250
ˆ
θ 0.00312 0.00031 0.00275 0.00290 0.00029 0.00735
˜
θ 0.00174 0.00017 0.00273 0.00314 0.00031 0.00735
θ 0.00106 0.00011 0.00274 0.00109 0.00011 0.00734
300
ˆ
θ 0.00010 0.00001 0.00228 0.00173 0.00017 0.00587
˜
θ 0.00120 0.00012 0.00228 0.00141 0.00014 0.00587
θ 0.00328 0.00033 0.00229 0.00812 0.00081 0.00593
350
ˆ
θ 0.00138 0.00014 0.00304 0.00058 0.00006 0.00483
˜
θ 0.00042 0.00004 0.00304 0.00036 0.00004 0.00483
θ 0.00079 0.00008 0.00304 0.00444 0.00044 0.00484
400
ˆ
θ 0.00104 0.00010 0.00166 0.00002 0.00000 0.00433
˜
θ 0.00019 0.00002 0.00166 0.00017 0.00002 0.00433
θ 0.00103 0.00010 0.00166 0.00201 0.00020 0.00433
Contrariamente ao observado nos EMV dos parâmetros β
0
, β
1
e σ, notamos que o esti-
mador de máxima verossimilhança do parâmetro de forma α não possui boas propriedades
em amostras finitas, dado que as estimativas de viés, viés relativo e EQM são muito altas.
Um fato importante que deve ser ressaltado é que à medida que o parâmetro de forma
36
aumenta, o EQM do estimador de máxima verossimilhança ˆα também cresce. Percebe-
mos que, para α = 3 e tamanhos amostrais menores que 200, o estimador corrigido via
Cox e Snell (1968) apresenta EQM muito superior aos obtidos pelo EMV não-corrigido e
corrigido por bootstrap.
Nos casos onde α = 5 e 10, ocorre um problema similar, sendo diferenciado apenas por
manifestar-se em tamanhos amostrais menores que 150. O mau comportamento de tais
estimadores pode ser explicado observando a matriz de informação de Fisher K(θ). Note
que a informação sobre α é dada por κ
αα
= nA
2
2
(α). Com base na figura 4.1, podemos
observar que quando aumentamos o dulo de α , a quantidade A
2
2
(α) fica mais próxima
de zero. Assim, se α é grande, devemos ter um valor de n relativamente alto para termos
informação suficiente a fim de estimarmos α com uma boa precisão.
−10 −5 0 5 10
0.0 0.1 0.2 0.3 0.4 0.5 0.6
α
A22
Figura 4.1: Gráfico da quantidade A
2
2
(α).
37
Observamos que, para pequenos tamanhos amostrais, o estimador corrigido por boot-
strap trabalha de forma eficiente em relação à redução de viés. Assim, para pequenas
amostras, recomendamos o emprego da correção de viés por bootstrap.
Tabela 4.4: Estimativas de máxima verossimilhança e suas versões corrigidas dos parâ-
metros σ e α no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 3.
Estimativas de σ Estimativas de α
n Estimador Viés Viés Rel EQM Viés Viés Rel EQM
50
ˆ
θ 0.04856 0.01619 0.03129 0.89085 0.29695 11.1182
˜
θ 0.26372 0.08791 17.6035 7.10607 2.36869 19209.1
θ 0.01607 0.00536 0.02919 0.15926 0.05309 10.35
100
ˆ
θ 0.01864 0.00621 0.01459 0.59821 0.19940 6.80705
˜
θ 0.00905 0.00302 0.15582 0.19093 0.06364 122.055
θ 0.00784 0.00261 0.01431 1.11418 0.37139 7.69059
150
ˆ
θ 0.00864 0.00288 0.00856 0.39957 0.13319 3.63552
˜
θ 0.00621 0.00207 0.13631 0.204031 0.06801 133.01
θ 0.00106 0.00035 0.00849 0.17758 0.05919 3.5074
200
ˆ
θ 0.00904 0.00301 0.00632 0.19758 0.06586 1.17157
˜
θ 0.00231 0.00077 0.00604 0.01374 0.00458 0.75163
θ 0.00580 0.00193 0.00627 0.65905 0.21968 1.56688
250
ˆ
θ 0.00349 0.00116 0.00458 0.20441 0.06814 0.77876
˜
θ 0.00170 0.00057 0.00447 0.03930 0.01310 0.58374
θ 0.00073 0.00024 0.00457 0.26799 0.08933 0.80879
300
ˆ
θ 0.00408 0.00136 0.00395 0.12814 0.04271 0.52819
˜
θ 0.00026 0.00009 0.00387 0.00124 0.00041 0.42918
θ 0.00360 0.00120 0.00394 0.03037 0.01012 0.51269
350
ˆ
θ 0.00635 0.00212 0.00475 0.08873 0.02958 0.53990
˜
θ 0.00266 0.00089 0.00468 0.01993 0.00664 0.46719
θ 0.00288 0.00096 0.00472 0.06021 0.02007 0.53565
400
ˆ
θ -0.00408 0.00136 0.00395 0.12814 0.04271 0.52819
˜
θ 0.00026 0.00009 0.00387 0.00124 0.00041 0.42918
θ 0.00360 0.00120 0.00394 0.03037 0.01012 0.51269
Para tamanhos de amostra maiores que 200, os resultados de simulação evidenciam
que os estimadores corrigidos são altamente eficazes. Tal eficácia não é restrita apenas à
redução de viés e viés relativo das estimativas produzidas, mas se estende à diminuição do
EQM das mesmas. Por exemplo, para n = 200 e α = 10, as estimativas de viés relativo de
38
ˆα, ˜α e α são 0.31624, 0.13234 e 0.07254, respectivamente. Ainda, as estimativas de EQM
das mesmas são dadas por 91.4574, 36.9437 e 81.9832, na devida ordem.
Tabela 4.5: Estimativas de máxima verossimilhança e suas versões corrigidas dos parâ-
metros σ e α no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 5.
Estimativas de σ Estimativas de α
n Estimador Viés Viés Rel EQM Viés Viés Rel EQM
50
ˆ
θ 0.05804 0.01161 0.02340 1.01041 0.20208 19.4995
˜
θ 0.07498 0.01500 6.40787 0.47046 0.09409 7346.36
θ 0.05035 0.01007 0.02257 5.70363 1.14073 51.0099
100
ˆ
θ 0.01198 0.00240 0.00898 1.40308 0.28062 20.7737
˜
θ 0.00315 0.00063 0.00867 0.72798 0.14560 7.76156
θ 0.00340 0.00068 0.00885 0.49194 0.09839 19.0471
150
ˆ
θ 0.00778 0.00156 0.00609 1.11355 0.22271 18.0888
˜
θ 0.00207 0.00041 0.00597 0.17863 0.03573 5.16099
θ 0.00095 0.00019 0.00603 0.95938 0.19188 17.7693
200
ˆ
θ 0.00364 0.00073 0.00443 0.73891 0.14778 10.6378
˜
θ 0.00064 0.00013 0.00439 0.03413 0.00683 4.52676
θ 0.00334 0.00067 0.00443 0.42888 0.08578 10.2758
250
ˆ
θ 0.00310 0.00062 0.00338 0.49874 0.09975 3.44447
˜
θ 0.00032 0.00006 0.00336 0.01486 0.00297 1.8849
θ 0.00305 0.00061 0.00338 0.01804 0.00361 3.19605
300
ˆ
θ 0.00324 0.00065 0.00294 0.41749 0.08350 2.54949
˜
θ 0.00039 0.00008 0.00292 0.03417 0.00683 1.5784
θ 0.00015 0.00003 0.00293 0.08576 0.01715 2.38254
350
ˆ
θ 0.00373 0.00075 0.00318 0.31171 0.06234 1.92501
˜
θ 0.00129 0.00026 0.00316 0.00003 0.00001 1.39815
θ 0.00069 0.00014 0.00317 0.04780 0.00956 1.83013
400
ˆ
θ 0.00176 0.00035 0.00216 0.28275 0.05655 1.45074
˜
θ 0.00039 0.00008 0.00215 0.01668 0.00334 1.09107
θ 0.00022 0.00004 0.00215 0.98791 0.19758 2.34676
Outro fato que pode ser notado, com base nos resultados da avaliação numérica de
correção de viés, é que o EMV do parâmetro de forma α tende a superestimar o verdadeiro
valor do parâmetro, dado que todos os resultados obtidos mostram viés positivo, com
exceção de um caso (n = 50 e α = 10).
Dessa forma, a correção de viés do EMV do parâmetro de forma α torna-se muito
39
importante. Para efetuar tal correção, sugerimos o emprego do estimador corrigido por
bootstrap se o tamanho amostral é menor que 200. E para outros casos, recomendamos
fortemente a utilização do estimador corrigido analiticamente via Cox e Snell (1968), o
qual apresenta, no cenário em discussão, todas as estimativas de viés e viés relativo, com
exceção de um caso (n = 200 e α = 10), e todas as estimativas de EQM, sem exceção,
menores que as apresentadas pelo EMV não-corrigido e corrigido por bootstrap.
Tabela 4.6: Estimativas de máxima verossimilhança e suas versões corrigidas dos parâ-
metros σ e α no caso de β
0
= 2, β
1
= 2, σ = 1 e α = 10 .
Estimativas de σ Estimativas de α
n Estimador Viés Viés Rel EQM Viés Viés Rel EQM
50
ˆ
θ 0.07399 0.00740 0.02214 0.81705 0.08171 34.2103
˜
θ 0.05381 0.00538 8.71368 5.17018 0.51702 14345.4
θ 0.01100 0.00110 0.01678 0.05789 0.00579 33.5461
100
ˆ
θ 0.02002 0.00200 0.00718 2.77737 0.27774 78.0995
˜
θ 0.01356 0.00136 0.00695 5.45438 0.54544 83.0145
θ 0.00089 0.00009 0.00678 0.56843 0.05684 70.7089
150
ˆ
θ 0.01072 0.00107 0.00459 3.51681 0.35168 106.035
˜
θ 0.00650 0.00065 0.00452 2.97075 0.29708 81.7602
θ 0.00343 0.00034 0.00448 0.76676 0.07668 94.2549
200
ˆ
θ 0.00404 0.00040 0.00338 3.16235 0.31624 91.4574
˜
θ 0.00088 0.00009 0.00338 1.32335 0.13234 36.9437
θ 0.00320 0.00032 0.00338 0.72537 0.07254 81.9832
250
ˆ
θ 0.00273 0.00027 0.00264 2.56996 0.25700 70.0661
˜
θ 0.00020 0.00002 0.00263 0.55217 0.05522 17.9073
θ 0.00023 0.00002 0.00263 0.91349 0.09135 64.2959
300
ˆ
θ 0.00252 0.00025 0.00228 2.27603 0.22760 63.0355
˜
θ 0.00041 0.00004 0.00227 0.17485 0.01749 20.3519
θ 0.00031 0.00003 0.00227 1.10782 0.11078 59.0824
350
ˆ
θ 0.00233 0.00023 0.00210 1.74024 0.17402 41.0000
˜
θ 0.00051 0.00005 0.00209 0.03217 0.00322 17.1723
θ 0.00313 0.00031 0.00210 1.60484 0.16048 40.5471
400
ˆ
θ 0.00200 0.00020 0.00169 1.44658 0.14466 26.5398
˜
θ 0.00041 0.00004 0.00169 0.07407 0.00741 8.34100
θ 0.00203 0.00020 0.00169 8.34879 0.83488 94.1496
Com o intuito de ilustrar o comportamento do EMV e dos estimadores corrigidos via
40
Cox e Snell (1968) e por bootstrap do parâmetro α, construímos um gráfico onde são
apresentadas as densidades estimadas, via kernel, a partir 5000 estimativas obtidas, para
cada um dos estimadores considerados, no caso onde n = 250 e α = 10. Tal gráfico é
apresentado na figura 4.2. Denotamos o estimador corrigido analiticamente via Cox e
Snell (1968) por EMVCS e o estimador corrigido por bootstrap por EMVBOOT. Observe
que as médias das estimativas produzidas pelos estimadores corrigidos são inferiores às
produzidas pelo EMV. As médias dos EMV, EMVCS e EMVBOOT são 12.56996, 9.44783
e 10.91349, respectivamente. Assim, é notório que a correção de viés desloca a distribuição
do EMV na direção do verdadeiro valor do parâmetro α. Observe que o EMVBOOT
desloca a distribuição do EMV sem afetar muito a estrutura de variância. Já o EMVCS
não desloca a distribuição, como também altera a estrutura de variância de tal forma
que as estimativas fiquem mais concentradas em torno do verdadeiro valor do parâmetro
α = 10.
0 10 20 30 40 50
0.00 0.05 0.10 0.15
α
Densidades estimadas
EMV
EMVCS
EMVBOOT
Figura 4.2: Gráfico das densidades estimadas do EMV, EMVCS e EMVBOOT para
α = 10 e n = 250.
41
Na tabela 4.7 são apresentadas as taxas de falha observadas em cada cenário conside-
rado na avaliação numérica.
Tabela 4.7: Taxas de falha observadas nos diversos cenários considerados.
Tamanhos amostrais (n)
α 50 100 150 200 250 300 350 400
3 0.1218 0.0174 0.0010 0.0000 0.0000 0.0000 0.0000 0.0000
5 0.3508 0.0658 0.0136 0.0018 0.0012 0.0004 0.0002 0.0000
10 1.1212 0.3560 0.1342 0.0624 0.0216 0.0104 0.0036 0.0022
Percebemos que podem ocorrer problemas de convergência, principalmente quando o
tamanho amostral é reduzido e o parâmetro α é grande. Porém, quando n aumenta, este
problema tende a desaparecer. Por exemplo, para n = 150 e α = 5, nós observamos
que a taxa de falha é de 0.0136, ou seja, tivemos problemas de convergência 68 vezes,
precisando de 5068 réplicas para obtermos as 5000 estimativas. No caso de n = 350 e
α = 5, o número de não-convergências foi reduzido a 1, produzindo uma taxa de falha de
0.0002.
42
CAPÍTULO 5
Aplicações e conclusões
Neste capítulo, apresentamos duas aplicações do modelo de regressão normal as-
simétrico. Os conjuntos de dados utilizados foram extraídos de Ezekiel (1930) e Prater
(1956), os quais são referentes às distâncias percorridas por carros desde o momento da
frenagem até sua parada e a proporção de petróleo cru que é convertido em gasolina após
a destilação e fracionamento, respectivamente.
5.1 Distâncias percorridas por carros desde o momento
da frenagem até sua parada
Utilizamos os dados referentes às distâncias percorridas por carros desde o momento
da frenagem até sua parada, os quais têm como covariável a velocidade em que o carro
se encontra antes da frenagem. As distâncias percorridas e as velocidades são medidas
em pés (ft) e milhas por hora (mph), respectivamente. O número de observações de tal
conjunto de dados é n = 50. O modelo ajustado foi
dist
i
= β
0
+ β
1
speed
i
+ ε
i
, i = 1, . . . , 50, (5.1)
onde dist
i
e speed
i
correspondem às i-ésimas distâncias percorridas e velocidades antes
da frenagem, respectivamente. Assumimos que os ε
i
’s são variáveis aleatórias regidas por
uma distribuição SN(0, σ, α). As estimativas de máxima verossimilhança dos parâmetros
43
do modelo de regressão 5.1 e suas versões corrigidas analiticamente via Cox e Snell (1968)
e por bootstrap são apresentadas na Tabela 5.1. Um fato que deve ser ressaltado é que as
versões corrigidas dos EMV sempre apontam na mesma direção. Este fato indica que os
estimadores corrigidos estão trabalhando de forma a reduzir o viés. Mais especificamente,
as estimativas corrigidas dos parâmetros β
0
e α indicam que as estimativas de máxima
verossimilhança de tais parâmetros estão superestimadas. Por outro lado, as estimativas
corrigidas dos parâmetros de inclinação (β
1
) e de escala (σ) indicam que as estimativas
de máxima verossimilhança dos mesmos estão subestimadas.
Tabela 5.1: Estimativas de máxima verossimilhança e suas versões corrigidas; dados de
distâncias percorridas.
Parâmetros EMV EMVCS EMVBOOT
β
0
25.92804 26.28965 28.72346
β
1
3.30412 3.30680 3.33175
σ 23.72400 24.17027 25.42527
α 4.34865 2.94933 3.50036
5.2 Proporção de petróleo cru
Consideramos os dados da proporção de petróleo cru que é convertido em gasolina após
a destilação e fracionamento (oil), os quais são a variável de interesse. Como covariável
temos o grau API do petróleo cru (api), o qual é uma forma de expressar a sua densidade
relativa. O grau API do petróleo cru varia inversamente à sua densidade relativa. Outras
covariáveis são a pressão de vapor do petróleo cru (press), que é uma medida de tendência
de evaporação do petróleo cru, e ainda, as temperaturas, em Farenheit, em que 10% do
petróleo cru (tempten) e toda a gasolina (temp) são vaporizados. Tal conjunto de dados
é provido de n = 32 observações. Note que a variável resposta se trata de uma proporção.
Assim, como sugerido no capítulo 2, aplicamos a transformação logística a esta variável.
Logo, definimos o modelo da seguinte forma
log
oil
i
1 oil
i
= β
0
+ β
1
api
i
+ β
2
press
i
+ β
3
tempten
i
+ β
4
temp
i
+ ε
i
, (5.2)
onde i = 1, . . . , 32. Supomos que os ε
i
’s têm distribuição SN(0, σ, α). Apresentamos
44
na tabela 5.2 as estimativas de máxima verossimilhança dos parâmetros do modelo de
regressão 5.2. Notamos que as estimativas de máxima verossimilhança do vetor de parâ-
metros β = (β
0
, . . . , β
4
)
e de σ não diferem muito daquelas produzidas pelos estimadores
corrigidos, da mesma forma como observado na avaliação numérica. Assim, a correção de
viés dos EMV dos parâmetros de regressão e escala não são muito necessárias. Entretanto,
a correção de viés do EMV do parâmetro de forma α é recomendada. Note que a maior
diferença entre os EMV dos parâmetros do modelo de regressão e suas versões corrigidas
reside nas estimativas do parâmetro α. Ainda, com base nos resultados da avaliação
numérica, a utilização do estimador corrigido por bootstrap é mais indicada.
Tabela 5.2: Estimativas de máxima verossimilhança e suas versões corrigidas; dados de
proporção de petróleo cru.
Parâmetros EMV EMVCS EMVBOOT
β
0
2.86107 2.83070 2.74428
β
1
0.00276 0.00290 0.00339
β
2
0.05568 0.05524 0.05223
β
3
0.01059 0.01062 0.01070
β
4
0.01110 0.01110 0.01114
σ 0.26641 0.29227 0.29778
α 1.84622 1.30983 2.26362
5.3 Conclusões
Neste trabalho, apresentamos características e propriedades do modelo de regressão
normal assimétrico. Adicionalmente, fornecemos uma alternativa para modelar dados
que são restritos ao intervalo (0,1). A alternativa apresentada consiste basicamente em
transformar a variável resposta de tal forma que esta assuma valores em toda a reta
(transformação logística) e substituírmos a usual suposição de normalidade dos erros pela
suposição de que os erros têm distribuição normal assimétrica.
Derivamos expressões de forma fechada para os vieses de ordem O(n
1
) dos EMV
do modelo de regressão normal assimétrico, as quais permitem a remoção do viés de
segunda ordem dos EMV dos parâmetros do modelo supracitado. Ainda, mostramos que
o viés de ordem O(n
1
) obtido através da fórmula geral de Cox e Snell (1968) pode ser
45
encontrado a partir de uma regressão de mínimos quadrados generalizados, o que facilita o
seu cálculo. Apresentamos a metodologia de correção de viés dos estimadores de máxima
verossimilhança por bootstrap paramétrico. Adicionalmente, apresentamos, no Apêndice
A, boas aproximações para as quantidades da forma A
m
n
(α), as quais são necessárias
para o cálculo dos vieses de segunda ordem dos EMV dos parâmetros do modelo de
regressão normal assimétrico. Tais aproximações são de fácil cálculo e diminuem o custo
computacional.
Os resultados das simulações de Monte Carlo mostram que as correções de viés são efi-
cazes. Embora tais correções trabalhem reduzindo o viés dos EMV, percebemos, que para
os parâmetros de regressão e escala, as estimativas produzidas não apresentam uma forte
melhoria, indicando que os EMV desses parâmetros têm boas propriedades em amostras
finitas. Entretanto, no caso do parâmetro de assimetria α, as estimativas de máxima
verossimilhança se apresentam muito viesadas, e as estimativas corrigidas produzem uma
melhora significativa. Mais precisamente, para tamanhos amostrais menores que 200, a
correção por bootstrap trabalha de forma mais satisfatória, enquanto que para tamanhos
de amostra maiores que 200 o estimador corrigido analiticamente via Cox e Snell (1968)
apresenta um desempenho superior aos dos estimadores de máxima verossimilhança e de
sua versão corrigida por bootstrap. Assim, recomendamos fortemente a correção de viés
do EMV do parâmetro de forma α.
46
APÊNDICE A
Aproximações
Neste apêndice, apresentamos aproximações para algumas quantidades da forma A
m
n
(α),
as quais são definidas como
A
m
n
(α) = E
ω
i
[∆
m
i
ω
n
i
] =
−∞
m
i
ω
n
i
2φ(ω
i
)Φ(αω
i
)
i
. (A.1)
As quantidades para as quais apresentamos aproximações são A
3
0
(α), A
3
1
(α), A
3
2
(α),
A
3
3
(α), A
2
0
(α), A
2
1
(α), A
2
2
(α), A
2
3
(α) e A
2
4
(α). As aproximações propostas foram desenvolvi-
das para valores de α diferentes de zero, dado que A
m
n
(0) pode ser obtida sem recorrer a
métodos numéricos. Notamos que, para valores pares (ímpares) de m, as funções A
m
n
(α)
são pares (ímpares). Desta forma, a partir de tal observação, primeiramente as aproxi-
mações foram obtidas para valores positivos de α, e, posteriormente, generalizamos as
mesmas para valores negativos de α.
As aproximações foram obtidas através de modelos de regressão da forma
A
m
n
(α) = β
0
α
β
1
(1 + α
2
)
β
2
. (A.2)
Observe que tal modelo se torna linear através da transformação logarítmica
log A
m
n
(α) = β
0
+ β
1
log α + β
2
log(1 + α
2
), (A.3)
47
onde β
0
= log β
0
. Note que o modelo A.3 considera α > 0. Utilizando a informação de
que para valores de m pares (ímpares) as funções A
m
n
(α) são pares (ímpares), obtemos as
seguintes aproximações:
ˆ
A
3
0
(α) = exp{−0.2172 + 0.2174 log |α| 0.5692 log(1 + α
2
)}
ˆ
A
3
1
(α) = sinal(α) exp{−0.0320 + 1.0852 log |α| 1.5257 log(1 + α
2
)}
ˆ
A
3
2
(α) = exp{0.3360 + 0.4581 log |α| 1.6676 log (1 + α
2
)}
ˆ
A
3
3
(α) = sinal(α) exp{1.1627 + 1.1295 log |α| 2.5415 log(1 + α
2
)}
ˆ
A
2
0
(α) = exp{−0.3670 + 0.0411 log |α| 0.5112 log(1 + α
2
)}
ˆ
A
2
1
(α) = sinal(α) exp{−0.7260 + 0.9769 log |α| 1.4927 log(1 + α
2
)}
ˆ
A
2
2
(α) = exp{−0.2199 + 0.1110 log |α| 1.5335 log(1 + α
2
)}
ˆ
A
2
3
(α) = sinal(α) exp{−0.3460 + 0.9647 log |α| 2.4880 log(1 + α
2
)}
ˆ
A
2
4
(α) = exp{1.0023 + 0.1678 log |α| 2.5544 log (1 + α
2
)}
A regressão foi feita para valores de α variando no intervalo (0.01, 12). O número de
observações utlizadas para estimar os parâmetros do modelo (A.3) foi 11991.
Com o objetivo de avaliarmos as aproximações propostas, construímos gráficos das
funções A
m
n
(α), obtidas através de integração numérica, e suas respectivas aproximações.
Apresentamos, também, os coeficientes de determinação R
2
obtidos pelos ajustes dos
modelos que deram origem às aproximações.
Podemos observar, através dos gráficos, que as aproximações fornecidas trabalham de
forma eficiente, pois são muito próximas dos valores obtidos por integração númerica.
Outro indicativo de que as aproximações propostas são boas está presente nos valores
obtidos pelos coeficientes de determinação R
2
. Notamos que as aproximações onde m é
ímpar trabalham de forma mais satisfatória que aquelas onde m é par.
48
−10 −5 0 5 10
0.1 0.2 0.3 0.4 0.5 0.6
α
A03
Aproximação
R
2
= 0.9953
Figura A.1: Gráfico da quantidade A
3
0
(α) e sua aproximação.
−10 −5 0 5 10
−0.3 −0.2 −0.1 0.0 0.1 0.2 0.3
α
A13
Aproximação
R
2
= 0.9998
Figura A.2: Gráfico da quantidade A
3
1
(α) e sua aproximação.
49
−10 −5 0 5 10
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7
α
A23
Aproximação
R
2
= 0.9985
Figura A.3: Gráfico da quantidade A
3
2
(α) e sua aproximação.
−10 −5 0 5 10
−0.5 0.0 0.5
α
A33
Aproximação
R
2
= 0.9999
Figura A.4: Gráfico da quantidade A
3
3
(α) e sua aproximação.
50
−10 −5 0 5 10
0.1 0.2 0.3 0.4 0.5 0.6
α
A02
Aproximação
R
2
= 0.9998
Figura A.5: Gráfico da quantidade A
2
0
(α) e sua aproximação.
−10 −5 0 5 10
−0.2 −0.1 0.0 0.1 0.2
α
A12
Aproximação
R
2
= 0.9999
Figura A.6: Gráfico da quantidade A
2
1
(α) e sua aproximação.
51
−10 −5 0 5 10
0.0 0.1 0.2 0.3 0.4 0.5 0.6
α
A22
Aproximação
R
2
= 0.9999
Figura A.7: Gráfico da quantidade A
2
2
(α) e sua aproximação.
−10 −5 0 5 10
−0.4 −0.2 0.0 0.2 0.4
α
A32
Aproximação
R
2
= 0.9999
Figura A.8: Gráfico da quantidade A
2
3
(α) e sua aproximação.
52
−10 −5 0 5 10
0.0 0.5 1.0 1.5
α
A42
Aproximação
R
2
= 0.9999
Figura A.9: Gráfico da quantidade A
2
4
(α) e sua aproximação.
53
APÊNDICE B
Cálculo dos Momentos
A função de log-verossimilhança, para o modelo de regressão normal assimétrico, a
menos de uma constante, tem a seguinte forma:
l(β, σ, α) = n log σ +
n
i=1
log φ
z
i
X
i
β
σ
+
n
i=1
log Φ
α
z
i
X
i
β
σ
= n log σ +
n
i=1
log φ(ω
i
) +
n
i=1
log Φ(αω
i
),
onde φ(·) e Φ(·) são, respectivamente, a função densidade e a função de distribuição
acumulada da variável aleatória normal padrão e ω
i
=
z
i
X
i
β
σ
.
As seguintes derivadas serão de grande valia na simplificação dos cálculos:
ω
i
α
=
α
z
i
X
i
β
σ
= 0,
ω
i
σ
=
σ
z
i
X
i
β
σ
=
1
σ
z
i
X
i
β
σ
=
ω
i
σ
,
ω
i
β
r
=
β
r
z
i
X
i
β
σ
=
1
σ
β
r
(X
i
β) =
X
ir
σ
.
54
Alguns resultados importantes:
φ(αω
i
)
Φ(αω
i
)
=
i
φ(αω
i
) =
i
Φ(αω
i
),
φ
(αω
i
)
Φ(αω
i
)
=
αω
i
φ(αω
i
)
Φ(αω
i
)
= αω
i
i
,
φ
(ω
i
)
φ(ω
i
)
=
(2π)
1/2
exp(w
2
i
/2)(1/2)(2ω
i
)
(2π)
1/2
exp(ω
2
i
/2)
= ω
i
.
Logo,
φ
(αω
i
) = αω
i
φ(αω
i
).
E[∆
i
] =
−∞
φ(αω
i
)
Φ(αω
i
)
2φ(ω
i
)Φ(αω
i
)
i
= 2
φ(ω
i
)φ(αω
i
)
i
= 2
(2π)
1/2
exp (ω
2
i
/2)(2π)
1/2
exp [(αω
i
)
2
/2]
i
=
1
π
−∞
exp
1
2
ω
2
i
(1 + α
2
)
i
; Seu = (1 + α
2
)
1/2
,
=
1
π
−∞
exp
1
2
ω
i
u
2
i
=
u
2π
π
−∞
1
u
2π
exp
1
2
ω
i
u
2
i
=
u
2π
π
=
2
π
(1 + α
2
)
1/2
; Se b =
2
π
,
= b(1 + α
2
)
1/2
.
E[∆
i
ω
2
i
] =
−∞
φ(αω
i
)
Φ(αω
i
)
ω
2
i
2φ(ω
i
)Φ(αω
i
)
i
= 2
−∞
ω
2
i
φ(ω
i
)φ(αω
i
)
i
= bu
−∞
ω
2
i
1
u
2π
exp
1
2
ω
i
u
2
i
= bu
3
= b(1 + α
2
)
3/2
.
E[∆
i
ω
4
i
] =
−∞
φ(αω
i
)
Φ(αω
i
)
ω
4
i
2φ(ω
i
)Φ(αω
i
)
i
= 2
−∞
ω
4
i
φ(ω
i
)φ(αω
i
)
i
= bu
−∞
ω
4
i
1
u
2π
exp
1
2
ω
i
u
2
i
= bu
4!
2!
u
4
4
= 3bu
5
= 3b(1 + α
2
)
5/2
.
55
r ímpar, temos:
E[∆
i
ω
r
i
] =
−∞
φ(αω
i
)
Φ(αω
i
)
ω
r
i
2φ(ω
i
)Φ(αω
i
)
i
= 2
−∞
ω
r
i
φ(ω
i
)φ(αω
i
)
i
= bu
−∞
ω
r
i
1
u
2π
exp
1
2
ω
i
u
2
i
= 0.
E[ω
i
] = (1 + α
2
)
1/2
.
E[ω
2
i
] =
−∞
ω
2
i
2φ(ω
i
)Φ(αω
i
)
i
=
0
−∞
2ω
2
i
φ(ω
i
)Φ(αω
i
)
i
+
0
2ω
2
i
φ(ω
i
)Φ(αω
i
)
i
Sez
i
= ω
i
,
E[ω
2
i
] =
0
2z
2
i
φ(z
i
)Φ(αz
i
)dz
i
+
0
2z
2
i
φ(z
i
)Φ(αz
i
)dz
i
=
0
2z
2
i
φ(z
i
)[1 Φ(αz
i
)]dz
i
+
0
2z
2
i
φ(z
i
)Φ(αz
i
)dz
i
=
0
2z
2
i
φ(z
i
)dz
i
=
−∞
z
2
i
φ(z
i
)dz
i
= 1.
Algumas derivadas importantes
i
β
r
=
β
r
φ(αω
i
)
Φ(αω
i
)
=
α
σ
X
ir
φ
(αω
i
)Φ(αω
i
) +
α
σ
X
ir
φ(αω
i
)φ(αω
i
)
Φ
2
(αω
i
)
=
α
σ
X
ir
φ
(αω
i
)
Φ(αω
i
)
+
α
σ
X
ir
φ
2
(αω
i
)
Φ
2
(αω
i
)
=
α
σ
X
ir
(αω
i
i
) +
α
σ
X
ir
2
i
=
α
2
σ
X
ir
i
ω
i
+
α
σ
X
ir
2
i
,
i
σ
=
σ
φ(αω
i
)
Φ(αω
i
)
=
α
σ
ω
i
φ
(αω
i
)Φ(αω
i
) +
α
σ
ω
i
φ(αω
i
)φ(αω
i
)
Φ
2
(αω
i
)
=
α
σ
ω
i
φ
(αω
i
)
Φ(αω
i
)
+
α
σ
ω
i
φ
2
(αω
i
)
Φ
2
(αω
i
)
=
α
σ
ω
i
(αω
i
i
) +
α
σ
ω
i
2
i
=
α
σ
2
i
ω
i
+
α
2
σ
i
ω
2
i
,
i
α
=
α
φ(αω
i
)
Φ(αω
i
)
=
ω
i
φ
(αω
i
)Φ(αω
i
) ω
i
φ(αω
i
)φ(αω
i
)
Φ
2
(αω
i
)
= ω
i
φ
(αω
i
)
Φ(αω
i
)
ω
i
φ
2
(αω
i
)
Φ
2
(αω
i
)
= ω
i
(αω
i
i
) ω
i
2
i
=
2
i
ω
i
α
i
ω
2
i
.
56
Calcularemos, agora, as derivadas de algumas funções, as quais foram definidas em (2.21):
dA
2
0
(α)
dα
=
d
dα
E(∆
2
i
)
=
d
dα
−∞
2
i
2φ(ω
i
)Φ(αω
i
)dω
i
= 2
−∞
d
dα
[∆
2
i
φ(ω
i
)Φ(αω
i
)]
ω
i
= 2
−∞
φ(ω
i
)
d
dα
2
i
Φ(αω
i
)
dω
i
= 2
−∞
φ(ω
i
)
2∆
i
Φ(αω
i
)
d∆
i
dα
+
2
i
dΦ(αω
i
)
dα
dω
i
= 2
−∞
φ(ω
i
)
2∆
i
Φ(αω
i
)
2
i
ω
i
α
i
ω
2
i
+
2
i
φ(αω
i
)ω
i
dω
i
= 2
−∞
φ(ω
i
)
2∆
3
i
ω
i
Φ(αω
i
) 2α
2
i
ω
2
i
Φ(αω
i
) +
2
i
ω
i
φ(αω
i
)
dω
i
= 4
−∞
3
i
ω
i
φ(ω
i
)Φ(αω
i
)dω
i
4
−∞
α
2
i
ω
2
i
φ(ω
i
)Φ(αω
i
)dω
i
+ 2
−∞
2
i
ω
i
φ(ω
i
)φ(αω
i
)dω
i
= 2E[∆
3
i
ω
i
] 2αE[∆
2
i
ω
2
i
] +
−∞
3
i
ω
i
2φ(ω
i
)Φ(αω
i
)dω
i
= 2E[∆
3
i
ω
i
] 2αE[∆
2
i
ω
2
i
] + E[∆
3
i
ω
i
]
= A
3
1
(α) 2αA
2
2
(α),
dA
2
1
(α)
dα
=
d
dα
E[∆
2
i
ω
i
] =
d
dα
−∞
2
i
ω
i
2φ(ω
i
)Φ(αω
i
)dω
i
= 2
−∞
d
dα
2
i
ω
i
φ(ω
i
)Φ(αω
i
)
dω
i
= 2
−∞
φ(ω
i
)ω
i
d
dα
2
i
Φ(αω
i
)
dω
i
= 2
−∞
φ(ω
i
)ω
i
2∆
i
Φ(αω
i
)
d∆
i
dα
+
2
i
ω
i
φ(αω
i
)
dω
i
= 2
−∞
2∆
i
ω
i
φ(ω
i
)Φ(αω
i
)[
2
i
ω
i
α
i
ω
2
i
]dω
i
+ 2
−∞
2
i
ω
2
i
φ(ω
i
)φ(αω
i
)dω
i
57
= 2
−∞
3
i
ω
2
i
2φ(ω
i
)Φ(αω
i
)dω
i
2α
−∞
2
i
ω
3
i
2φ(ω
i
)Φ(αω
i
)dω
i
+
−∞
2
i
ω
2
i
2φ(ω
i
)φ(αω
i
)dω
i
= 2E[∆
3
i
ω
2
i
] 2αE[∆
2
i
ω
3
i
] +
−∞
3
i
ω
2
i
2φ(ω
i
)Φ(αω
i
)dω
i
= 2E[∆
3
i
ω
2
i
] 2αE[∆
2
i
ω
3
i
] + E[∆
3
i
ω
2
i
]
= A
3
2
(α) 2αA
2
3
(α),
dA
2
2
(α)
dα
=
d
dα
E[∆
2
i
ω
2
i
] =
d
dα
−∞
2
i
ω
2
i
2φ(ω
i
)Φ(αω
i
)dω
i
= 2
−∞
d
dα
2
i
ω
2
i
φ(ω
i
)Φ(αω
i
)
dω
i
= 2
−∞
φ(ω
i
)Φ(αω
i
)
d
dα
2
i
ω
2
i
+
2
i
ω
2
i
d
dα
[φ(ω
i
)Φ(αω
i
)]
dω
i
= 2
−∞
φ(ω
i
)Φ(αω
i
)
2∆
i
ω
2
i
(
2
i
ω
i
α
i
ω
2
i
)
+
2
i
ω
2
i
[φ(ω
i
)φ(αω
i
)ω
i
]
dω
i
= 2
−∞
2∆
3
i
ω
3
i
φ(ω
i
)Φ(αω
i
) 2α
2
i
ω
4
i
φ(ω
i
)Φ(αω
i
) +
2
i
ω
3
i
φ(ω
i
)φ(αω
i
)
dω
i
= 2E[∆
3
i
ω
3
i
] 2αE[∆
2
i
ω
4
i
] + E[∆
3
i
ω
3
i
]
= 2A
3
3
(α) 2αA
2
4
(α) + A
3
3
(α) = A
3
3
(α) 2αA
2
4
(α).
Derivadas da função de log-verossimilhança
Derivadas de primeira ordem
U
r
=
l(β, σ, α)
β
r
=
n
i=1
β
r
log φ(ω
i
) +
n
i=1
β
r
log Φ(αω
i
)
=
n
i=1
φ
(ω
i
)
φ(ω
i
)
ω
i
β
r
+
n
i=1
φ(αω
i
)
Φ(αω
i
)
αω
i
β
r
58
U
r
=
n
i=1
(ω
i
)
X
ir
σ
+
n
i=1
i
α
X
ir
σ
=
1
σ
n
i=1
X
ir
ω
i
α
σ
n
i=1
X
ir
i
,
U
σ
=
l(β, σ, α)
σ
=
n
σ
+
n
i=1
φ
(ω
i
)
φ(ω
i
)
ω
i
σ
+
n
i=1
φ(αω
i
)
Φ(αω
i
)
αω
i
σ
=
n
σ
+
1
σ
n
i=1
ω
2
i
α
σ
n
i=1
i
ω
i
,
U
α
=
l(β, σ, α)
α
=
n
i=1
φ(αω
i
)
Φ(αω
i
)
ω
i
=
n
i=1
i
ω
i
.
Derivadas de segunda ordem
U
rt
=
2
l(θ)
β
r
β
t
=
β
t
1
σ
n
i=1
X
ir
ω
i
α
σ
n
i=1
X
ir
i
=
1
σ
n
i=1
X
ir
ω
i
β
t
α
σ
n
i=1
X
ir
i
β
t
=
1
σ
2
n
i=1
X
ir
X
it
1 + α
3
i
ω
i
+ α
2
2
i
,
59
U
=
2
l ( θ)
β
r
σ
=
σ
1
σ
n
i=1
X
ir
ω
i
α
σ
n
i=1
X
ir
i
=
σ
σ
1
n
i=1
X
ir
ω
i
α
σ
σ
1
n
i=1
X
ir
i
=
1
σ
2
n
i=1
X
ir
ω
i
+
n
i=1
X
ir
ω
i
σ
1
σ
α
1
σ
2
n
i=1
X
ir
i
+
1
σ
n
i=1
X
ir
α
σ
2
i
ω
i
+
α
2
σ
i
ω
i
=
1
σ
2
n
i=1
X
ir
2ω
i
+ α
i
α
2
2
i
ω
i
α
3
i
ω
2
i
,
U
=
2
l(θ)
β
r
α
=
α
1
σ
n
i=1
X
ir
ω
i
α
σ
n
i=1
X
ir
i
=
1
σ
n
i=1
X
ir
ω
i
α
1
σ
α
α
n
i=1
X
ir
i
=
1
σ
n
i=1
X
ir
i
+
n
i=1
X
ir
i
α
α
=
1
σ
n
i=1
X
ir
i
1
σ
n
i=1
X
ir
(α
i
ω
2
i
2
i
ω
i
)α
=
1
σ
n
i=1
X
ir
i
+
α
2
σ
n
i=1
X
ir
i
ω
2
i
+
α
σ
n
i=1
X
ir
2
i
ω
i
=
1
σ
n
i=1
X
ir
(
i
+ α
2
i
ω
2
i
+ α
2
i
ω
i
),
60
U
σσ
=
2
l(θ)
σ
2
=
σ
n
σ
+
1
σ
n
i=1
ω
2
i
α
σ
n
i=1
i
ω
i
=
n
σ
2
+
σ
σ
1
n
i=1
ω
2
i
α
σ
σ
1
n
i=1
i
ω
i
=
n
σ
2
1
σ
2
n
i=1
ω
2
i
+
1
σ
n
i=1
2ω
i
ω
i
σ
+
α
σ
2
n
i=1
i
ω
i
α
1
σ
2
n
i=1
i
ω
i
+
1
σ
σ
n
i=1
i
ω
i

=
n
σ
2
3
σ
2
n
i=1
ω
2
i
+
2α
σ
2
n
i=1
i
ω
i
α
σ
n
i=1
α
σ
2
i
ω
2
i
+
α
2
σ
i
ω
3
i
=
1
σ
2
n 3
n
i=1
ω
2
i
+ 2α
n
i=1
i
ω
i
α
2
n
i=1
2
i
ω
2
i
α
3
n
i=1
i
ω
3
i
,
U
ασ
=
2
l(θ)
ασ
=
σ
n
i=1
i
ω
i
=
n
i=1
α
σ
2
i
ω
2
i
+
α
2
σ
i
ω
3
i
i
ω
i
σ
=
α
2
σ
n
i=1
i
ω
3
i
+
α
σ
n
i=1
2
i
ω
2
i
1
σ
n
i=1
i
ω
i
,
U
αα
=
2
l(θ)
α
2
=
α
n
i=1
i
ω
i
=
n
i=1
i
α
ω
i
+
ω
i
α
i
= α
n
i=1
i
ω
3
i
n
i=1
2
i
ω
2
i
.
61
Derivadas de terceira ordem
U
rtu
=
3
l(β, σ, α)
β
r
β
t
β
u
=
β
u
1
σ
2
n
i=1
X
ir
X
it
1 α
3
i
ω
i
α
2
2
i
=
1
σ
2
n
i=1
X
ir
X
it
β
u
(α
3
i
ω
i
)
β
u
(α
2
2
i
)
=
1
σ
2
n
i=1
X
ir
X
it
α
3
α
2
σ
X
iu
i
ω
2
i
+
α
σ
X
iu
2
i
ω
i
i
X
iu
σ

α
2
β
u
2
i
=
1
σ
2
n
i=1
X
ir
X
it
α
5
σ
X
iu
i
ω
2
i
α
4
σ
X
iu
2
i
ω
i
+
α
3
σ
i
X
iu
1
σ
2
n
i=1
X
ir
X
it
2α
2
i
α
2
σ
X
iu
i
ω
i
+
α
σ
X
iu
2
i

=
1
σ
3
n
i=1
X
ir
X
it
X
iu
α
5
i
ω
2
i
3α
4
2
i
ω
i
+ α
3
i
2α
3
3
i
,
U
rtσ
=
3
l(β, σ, α)
β
r
β
t
σ
=
σ
1
σ
2
n
i=1
X
ir
X
it
(1 + α
3
i
ω
i
+ α
2
2
i
)
=
2
σ
3
n
i=1
X
ir
X
it
(1 + α
3
i
ω
i
+ α
2
2
i
)
1
σ
2
n
i=1
X
ir
X
it
σ
(α
3
i
ω
i
+ α
2
2
i
)
=
1
σ
3
n
i=1
X
ir
X
it
(2 + 2α
3
i
ω
i
+ 2α
2
2
i
)
1
σ
2
n
i=1
X
ir
X
it
α
3
α
σ
2
i
ω
2
i
+
α
2
σ
i
ω
3
i
1
σ
i
ω
i
+ α
2
2α
σ
3
i
ω
i
+
2α
2
σ
2
i
ω
2
i

=
1
σ
3
n
i=1
X
ir
X
it
(2 + 2α
3
i
ω
i
+ 2α
2
2
i
α
4
2
i
ω
2
i
α
5
i
ω
3
i
+ α
3
i
ω
i
2α
3
3
i
ω
i
2α
4
2
i
ω
2
i
)
=
1
σ
3
n
i=1
X
ir
X
it
(2 + 2α
2
2
i
+ 3α
3
i
ω
i
2α
3
3
i
ω
i
3α
4
2
i
ω
2
i
α
5
i
ω
3
i
),
62
U
rtα
=
3
l(β, σ, α)
β
r
β
r
α
=
α
1
σ
2
n
i=1
X
ir
X
it
(1 + α
3
i
ω
i
+ α
2
2
i
)
=
1
σ
2
n
i=1
X
ir
X
it
α
(α
3
i
ω
i
) +
α
(α
2
2
i
)
=
1
σ
2
n
i=1
X
ir
X
it
3α
2
i
ω
i
+ α
3
[ω
i
(
2
i
ω
i
α
i
ω
2
i
)] + 2α
2
i
+ 2α
2
i
(
2
i
ω
i
α
i
ω
2
i
)
=
1
σ
2
n
i=1
X
ir
X
it
(3α
2
i
ω
i
α
4
i
ω
3
i
α
3
2
i
ω
2
i
2α
3
2
i
ω
2
i
2α
2
3
i
ω
i
+ 2α
2
i
)
=
1
σ
2
n
i=1
X
ir
X
it
(3α
2
i
ω
i
α
4
i
ω
3
i
3α
3
2
i
ω
2
i
2α
2
3
i
ω
i
+ 2α
2
i
),
U
σ
=
3
l(β, σ, α)
β
r
σ
2
=
σ
1
σ
2
n
i=1
X
ir
(2ω
i
+ α
i
α
2
2
i
ω
i
α
3
i
ω
2
i
)
=
2
σ
3
n
i=1
X
ir
(2ω
i
+ α
i
α
2
2
i
ω
i
α
3
i
ω
2
i
)
+
1
σ
2
n
i=1
X
ir
σ
(2ω
i
+ α
i
α
2
2
i
ω
i
α
3
i
ω
2
i
=
2
σ
3
n
i=1
X
ir
(2ω
i
+ α
i
α
2
2
i
ω
i
α
3
i
ω
2
i
)
+
1
σ
2
n
i=1
X
ir
2
ω
i
σ
+ α
α
σ
2
i
ω
i
+
α
2
σ
i
ω
2
i

1
σ
2
n
i=1
X
ir
α
2
2∆
i
ω
i
α
σ
2
i
ω
i
+
α
2
σ
i
ω
2
i
+
2
i
ω
i
σ

1
σ
2
n
i=1
X
ir
α
3
ω
2
i
α
σ
2
i
ω
i
+
α
2
σ
i
ω
2
i
+ 2∆
i
ω
i
ω
i
σ

63
=
1
σ
3
n
i=1
X
ir
(4ω
i
2α
i
+ 2α
2
2
i
+ 2α
3
i
ω
2
i
+ 2ω
i
+ α
2
2
i
+ α
3
i
ω
2
i
2α
3
3
i
ω
2
i
)
+
1
σ
3
n
i=1
X
ir
(2α
4
2
i
ω
3
i
+ α
2
2
i
ω
i
α
4
2
i
ω
3
i
α
5
i
ω
4
i
+ 2α
3
i
ω
2
i
)
=
1
σ
3
n
i=1
X
ir
(6ω
i
2α
i
+ 4α
2
2
i
ω
i
+ 5α
3
i
ω
2
i
2α
3
3
i
ω
2
i
3α
4
2
i
ω
3
i
α
5
i
ω
4
i
),
U
α
=
3
l(β, σ, α)
β
r
σα
=
α
1
σ
2
n
i=1
X
ir
(2ω
i
+ α
i
α
2
2
i
ω
i
α
3
i
ω
2
i
)
=
1
σ
2
n
i=1
X
ir
α
(α
i
)
α
(α
2
2
i
ω
i
)
α
(α
3
i
ω
2
i
)
=
1
σ
2
n
i=1
X
ir
[∆
i
+ α(
2
i
ω
i
α
i
ω
2
i
)] 2α
2
i
ω
i
α
2
2∆
i
ω
i
(
2
i
ω
i
α
i
ω
2
i
)

1
σ
2
n
i=1
X
ir
{3α
2
i
ω
2
i
+ α
3
[ω
2
i
(
2
i
ω
i
α
i
ω
2
i
)}
=
1
σ
2
n
i=1
X
ir
(∆
i
α
2
i
ω
i
α
2
i
ω
2
i
2α
2
i
ω
i
+ 2α
2
3
i
ω
2
i
+ 2α
3
2
i
ω
3
i
3α
2
i
ω
2
i
)
+
1
σ
2
n
i=1
X
ir
(α
3
2
i
ω
3
i
+ α
4
i
ω
4
i
)
=
1
σ
2
n
i=1
X
ir
(∆
i
3α
2
i
ω
i
4α
2
i
ω
2
i
+ 2 α
2
3
i
ω
2
i
+ 3α
3
2
i
ω
3
i
+ α
4
i
ω
4
i
),
U
rαα
=
3
l(β, σ, α)
β
r
α
2
=
α
1
σ
n
i=1
X
ir
(
i
+ α
2
i
ω
2
i
+ α
2
i
ω
i
)
=
1
σ
n
i=1
X
ir
i
α
+
α
(α
2
i
ω
2
i
) +
α
(α
2
i
ω
i
)
64
=
1
σ
n
i=1
X
ir
2
i
ω
i
+ α
i
ω
2
i
+ 2α
i
ω
2
i
+ α
2
α
(∆
i
ω
2
i
) +
2
i
ω
i
+ α
α
(∆
2
i
ω
i
)
=
1
σ
n
i=1
X
ir
2
i
ω
i
+ 3 α
i
ω
2
i
+ α
2
ω
2
i
i
α
+
2
i
ω
i
+ 2α
i
ω
i
i
α
=
1
σ
n
i=1
X
ir
[∆
2
i
ω
i
+ 3α
i
ω
2
i
+ α
2
ω
2
i
(
2
i
ω
i
α
i
ω
2
i
) +
2
i
ω
i
+ 2α
i
ω
i
(
2
i
ω
i
α
i
ω
2
i
)]
=
1
σ
n
i=1
X
ir
[2∆
2
i
ω
i
+ 3α
i
ω
2
i
3α
2
2
i
ω
3
i
α
3
i
ω
4
i
2α
3
i
ω
2
i
],
U
σσσ
=
3
l(β, σ, α)
σ
3
=
σ
1
σ
2
n 3
n
i=1
ω
2
i
+ 2α
n
i=1
i
ω
i
α
2
n
i=1
2
i
ω
2
i
α
3
n
i=1
i
ω
3
i

=
2
σ
3
n 3
n
i=1
ω
2
i
+ 2α
n
i=1
i
ω
i
α
2
n
i=1
2
i
ω
2
i
α
3
n
i=1
i
ω
3
i
+
1
σ
2
3
n
i=1
2ω
i
ω
i
σ
+ 2α
n
i=1
σ
(∆
i
ω
i
) α
2
n
i=1
σ
(∆
2
i
ω
2
i
) α
3
n
i=1
σ
(∆
i
ω
3
i
)
=
1
σ
3
2n + 6
n
i=1
ω
2
i
4α
n
i=1
i
ω
i
+ 2α
2
n
i=1
2
i
ω
2
i
+ 2α
3
n
i=1
i
ω
3
i
+
1
σ
3
6
n
i=1
ω
2
i
+ 2α
n
i=1
(α
2
i
ω
2
i
+ α
2
i
ω
3
i
i
ω
i
)
1
σ
3
α
2
n
i=1
[2∆
i
ω
2
i
(α
2
i
ω
i
+ α
2
i
ω
2
i
) 2∆
2
i
ω
2
i
]
1
σ
3
α
3
n
i=1
(α
2
i
ω
4
i
+ α
2
i
ω
5
i
3∆
i
ω
3
i
)
=
1
σ
3
n
i=1
2 + 12ω
2
i
6α
i
ω
i
+ 6α
2
2
i
ω
2
i
+ 7α
3
i
ω
3
i
2α
3
3
i
ω
3
i
3α
4
2
i
ω
4
i
α
5
i
ω
5
i
,
65
U
σσα
=
3
l(β, σ, α)
σ
2
α
=
α
1
σ
2
n 3
n
i=1
ω
2
i
+ 2α
n
i=1
i
ω
i
α
2
n
i=1
2
i
ω
2
i
α
3
n
i=1
i
ω
3
i

=
1
σ
2
α
3
n
i=1
ω
2
i
+
α
2α
n
i=1
i
ω
i
α
α
2
n
i=1
2
i
ω
2
i
α
α
3
n
i=1
i
ω
3
i

=
1
σ
2
2
n
i=1
i
ω
i
+ 2α
n
i=1
α
(∆
i
ω
i
) 2α
n
i=1
2
i
ω
2
i
α
2
n
i=1
α
(∆
2
i
ω
2
i
)
1
σ
2
3α
2
n
i=1
i
ω
3
i
+ α
3
n
i=1
α
(∆
i
ω
3
i
)
=
1
σ
2
2
n
i=1
i
ω
i
+ 2α
n
i=1
2
i
ω
2
i
α
i
ω
3
i
2α
n
i=1
2
i
ω
2
i
α
2
n
i=1
2∆
3
i
ω
3
i
2α
2
i
ω
4
i
1
σ
2
3α
2
n
i=1
i
ω
3
i
+ α
3
n
i=1
2
i
ω
4
i
α
i
ω
5
i
=
1
σ
2
2
n
i=1
i
ω
i
4α
n
i=1
2
i
ω
2
i
5α
2
n
i=1
i
ω
3
i
+ 2α
2
n
i=1
3
i
ω
3
i
+
1
σ
2
3α
3
n
i=1
2
i
ω
4
i
+ α
4
n
i=1
i
ω
5
i
,
U
σαα
=
3
l(β, σ, α)
σα
2
=
α
α
2
σ
n
i=1
i
ω
3
i
+
α
σ
n
i=1
2
i
ω
2
i
1
σ
n
i=1
i
ω
i
=
1
σ
α
α
2
n
i=1
i
ω
3
i
+
α
α
n
i=1
2
i
ω
2
i
α
n
i=1
i
ω
i

=
1
σ
2α
n
i=1
i
ω
3
i
+ α
2
n
i=1
ω
3
i
i
α
+
n
i=1
2
i
ω
2
i
+ α
n
i=1
2∆
i
ω
2
i
i
α
n
i=1
ω
i
i
α
66
U
σαα
=
1
σ
2α
n
i=1
i
ω
3
i
+ α
2
n
i=1
ω
3
i
(
2
i
ω
i
α
i
ω
2
i
) +
n
i=1
2
i
ω
2
i
+ 2α
n
i=1
i
ω
2
i
(
2
i
ω
i
α
i
ω
2
i
)
1
σ
n
i=1
ω
i
(
2
i
ω
i
α
i
ω
2
i
)
=
1
σ
3α
n
i=1
i
ω
3
i
3α
2
n
i=1
2
i
ω
4
i
α
3
n
i=1
i
ω
5
i
+ 2
n
i=1
2
i
ω
2
i
2α
n
i=1
3
i
ω
3
i
,
U
ααα
=
3
l(β, σ, α)
α
3
=
α
α
n
i=1
i
ω
3
i
n
i=1
2
i
ω
2
i
=
α
α
n
i=1
i
ω
3
i
α
n
i=1
2
i
ω
2
i
=
n
i=1
i
ω
3
i
+ α
n
i=1
α
(∆
i
ω
3
i
)
n
i=1
α
2
i
ω
2
i
=
n
i=1
i
ω
3
i
α
n
i=1
ω
3
i
2
i
ω
i
α
i
ω
2
i
2
n
i=1
i
ω
2
i
(
2
i
ω
i
α
i
ω
2
i
)
=
n
i=1
i
ω
3
i
+ 3α
n
i=1
2
i
ω
4
i
+ 2
n
i=1
3
i
ω
3
i
+ α
2
n
i=1
i
ω
5
i
.
Cálculo de cumulantes
κ
rt
= E[U
rt
] = E
1
σ
2
n
i=1
X
ir
X
it
(1 + α
3
+
i
ω
i
α
2
2
i
)
=
1
σ
2
n
i=1
X
ir
X
it
1 + α
3
E[∆
i
ω
i
] + α
2
E[∆
2
i
]
=
1
σ
2
1 + α
2
A
2
0
(α)
n
i=1
X
ir
X
it
,
67
κ
= E[U
] = E
1
σ
2
n
i=1
X
ir
(2ω
+
α
i
α
2
2
i
ω
i
α
3
i
ω
2
i
)
=
1
σ
2
n
i=1
X
ir
2E[ω
i
] + αE[∆
i
] α
2
E[∆
2
i
ω
i
] α
3
E[∆
i
ω
2
i
]
=
1
σ
2
n
i=1
X
ir
2
(1 +
α
2
)
1/2
+
(1 +
α
2
)
1/2
α
2
A
2
1
(
α
)
3
(1 +
α
2
)
3/2
=
1
σ
2
(1 + α
2
)
1/2
α
2
A
2
1
(α)
3
(1 + α
2
)
3/2
n
i=1
X
ir
=
α
σ
2
b(1 + α
2
)
1/2
2
(1 + α
2
)
3/2
αA
2
1
(α)
n
i=1
X
ir
,
κ
= E[U
] = E
1
σ
n
i=1
X
ir
(
i
+ α
2
i
ω
2
i
+ α
2
i
ω
i
)
=
1
σ
n
i=1
X
ir
E[∆
i
] + α
2
E[∆
i
ω
2
i
] + αE[∆
2
i
ω
i
]
=
1
σ
b(1 + α
2
)
1/2
+
2
(1 + α
2
)
3/2
+ αA
2
1
(α)
n
i=1
X
ir
=
1
σ
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n
i=1
X
ir
,
κ
σσ
= E[U
σσ
] = E
1
σ
2
n 3
n
i=1
ω
2
i
+ 2α
n
i=1
i
ω
i
α
2
n
i=1
2
i
ω
2
i
α
3
n
i=1
i
ω
3
i

=
1
σ
2
n 3
n
i=1
E[ω
2
i
] + 2α
n
i=1
E[∆
i
ω
i
] α
2
n
i=1
E[∆
2
i
ω
2
i
] α
3
n
i=1
E[∆
i
ω
3
i
]
=
1
σ
2
n 3n α
2
n
i=1
A
2
2
(α)
=
1
σ
2
2n
2
A
2
2
(α)
=
n
σ
2
2 + α
2
A
2
2
(α)
,
68
κ
ασ
= E[U
ασ
] = E
α
2
σ
n
i=1
i
ω
3
i
+
α
σ
n
i=1
2
i
ω
2
i
1
σ
n
i=1
i
ω
i
=
α
2
σ
n
i=1
E[∆
i
ω
3
i
] +
α
σ
n
i=1
E[∆
2
i
ω
2
i
]
1
σ
n
i=1
E[∆
i
ω
i
] =
α
σ
n
i=1
A
2
2
(α)
=
σ
A
2
2
(α),
κ
αα
= E[U
αα
] = E
α
n
i=1
i
ω
3
i
n
i=1
2
i
ω
2
i
= α
n
i=1
E[∆
i
ω
3
i
]
n
i=1
E[∆
2
i
ω
2
i
] =
n
i=1
A
2
2
(α)
= nA
2
2
(α),
κ
rtu
= E[U
rtu
] = E
1
σ
3
n
i=1
X
ir
X
it
X
iu
α
5
i
ω
2
i
3α
4
2
i
ω
i
+ α
3
i
2α
3
3
i
=
1
σ
3
n
i=1
X
ir
X
it
X
iu
α
5
E[∆
i
ω
2
i
] 3α
4
E[∆
2
i
ω
i
] + α
3
E[∆
i
] 2α
3
E[∆
3
i
]
=
1
σ
3
n
i=1
X
ir
X
it
X
iu
5
(1 + α
2
)
3/2
3α
4
A
2
1
(α) +
3
(1 + α
2
)
1/2
2α
3
A
3
0
(α)
=
1
σ
3
3
[α
2
(1 + α
2
)
3/2
+ (1 + α
2
)
1/2
] + α
3
[3αA
2
1
(α) 2A
3
0
(α)]
n
i=1
X
ir
X
it
X
iu
=
α
3
σ
3
b
(1 + α
2
)
1/2
α
2
(1 + α
2
)
3/2
3αA
2
1
(α) 2A
3
0
(α)
n
i=1
X
ir
X
it
X
iu
,
κ
rtσ
= E[U
rtσ
] = E
1
σ
3
n
i=1
X
ir
X
it
2 + 3α
3
i
ω
i
3α
4
2
i
ω
2
i
+ 2α
2
2
i
2α
3
3
i
ω
i
α
5
i
ω
3
i
=
1
σ
3
n
i=1
X
ir
X
it
2 + 3α
3
E[∆
i
ω
i
] 3α
4
E[∆
2
i
ω
2
i
] + 2α
2
E[∆
2
i
] 2α
3
E[∆
3
i
ω
i
] α
5
E[∆
i
ω
3
i
]
=
1
σ
3
2 3α
4
A
2
2
(α) + 2α
2
A
2
0
(α) 2α
3
A
3
1
(α)
n
i=1
X
ir
X
it
,
69
κ
rtα
= E[U
rtα
] = E
1
σ
2
n
i=1
X
ir
X
it
(3α
2
i
ω
i
α
4
i
ω
3
i
3α
3
2
i
ω
2
i
2α
2
3
i
ω
i
+ 2α
2
i
)
=
1
σ
2
n
i=1
X
ir
X
it
3α
2
E[∆
i
ω
i
] + α
4
E[∆
i
ω
3
i
] + 3α
3
E[∆
2
i
ω
2
i
] + 2α
2
E[∆
3
i
ω
i
] 2αE[∆
2
i
]
=
1
σ
2
n
i=1
X
ir
X
it
3
α
3
A
2
2
(
α
) + 2
α
2
A
3
1
(
α
)
2
αA
2
0
(
α
)
=
α
σ
2
3α
2
A
2
2
(α) + 2αA
3
1
(α) 2A
2
0
(α)
n
i=1
X
ir
X
it
,
κ
σ
= E[U
σ
] = E
1
σ
3
n
i=1
X
ir
(6ω
i
2α
i
+ 4α
2
2
i
ω
i
+ 5α
3
i
ω
2
i
)
+ E
1
σ
3
n
i=1
X
ir
2α
3
3
i
ω
2
i
3α
4
2
i
ω
3
i
α
5
i
ω
4
i
=
1
σ
3
n
i=1
X
ir
6E[ω
i
] 2αE[∆
i
] + 4α
2
E[∆
2
i
ω
i
] + 5α
3
E[∆
i
ω
2
i
] 2α
3
E[∆
3
i
ω
2
i
]
+
1
σ
3
n
i=1
X
ir
3α
4
E[∆
2
i
ω
3
i
] α
5
E[∆
i
ω
4
i
]
=
1
σ
3
n
i=1
X
ir
6(1 + α
2
)
1/2
2(1 + α
2
)
1/2
+ 4α
2
A
2
1
(α) + 5
3
(1 + α
2
)
3/2
+
1
σ
3
n
i=1
X
ir
2α
3
A
3
2
(α) 3α
4
A
2
3
(α) 3
5
(1 + α
2
)
5/2
=
1
σ
3
n
i=1
X
ir
4(1 + α
2
)
1/2
+ 5
3
(1 + α
2
)
3/2
3
5
(1 + α
2
)
5/2
+
1
σ
3
n
i=1
X
ir
4α
2
A
2
1
(α) 2α
3
A
3
2
(α) 3α
4
A
2
3
(α)
=
α
σ
3
b
4(1 + α
2
)
1/2
+ 5α
2
(1 + α
2
)
3/2
3α
4
(1 + α
2
)
5/2

n
i=1
X
ir
+
α
σ
3
4αA
2
1
(α) 2α
2
A
3
2
(α) 3α
3
A
2
3
(α)
n
i=1
X
ir
,
70
κ
α
= E[U
α
] = E
1
σ
2
n
i=1
X
ir
(∆
i
3α
2
i
ω
i
4α
2
i
ω
2
i
+ 2α
2
3
i
ω
2
i
+ 3α
3
2
i
ω
3
i
+ α
4
i
ω
4
i
)
=
1
σ
2
n
i=1
X
ir
E[∆
i
] 3αE[∆
2
i
ω
i
] 4α
2
E[∆
i
ω
2
i
] + 2α
2
E[∆
3
i
ω
2
i
] + 3α
3
E[∆
2
i
ω
3
i
] + α
4
E[∆
i
ω
4
i
]
=
1
σ
2
n
i=1
X
ir
b(1 + α
2
)
1/2
3αA
2
1
(α) 4
2
(1 + α
2
)
3/2
+
1
σ
2
n
i=1
X
ir
2α
2
A
3
2
(α) + 3α
3
A
2
3
(α) + 3
4
(1 + α
2
)
5/2
=
1
σ
2
b
(1 + α
2
)
1/2
4α
2
(1 + α
2
)
3/2
+ 3α
4
(1 + α
2
)
5/2

n
i=1
X
ir
+
1
σ
2
3α
3
A
2
3
(α) + 2α
2
A
3
2
(α) 3αA
2
1
(α)
n
i=1
X
ir
,
κ
rαα
= E[U
rαα
] = E
1
σ
n
i=1
X
ir
(2∆
2
i
ω
i
+ 3α
i
ω
2
i
3α
2
2
i
ω
3
i
α
3
i
ω
4
i
2α
3
i
ω
2
i
)
=
1
σ
n
i=1
X
ir
2E[∆
2
i
ω
i
] + 3αE[∆
i
ω
2
i
] 3α
2
E[∆
2
i
ω
3
i
] α
3
E[∆
i
ω
4
i
] 2αE[∆
3
i
ω
2
i
]
=
1
σ
n
i=1
X
ir
2A
2
1
(α) + 3(1 + α
2
)
3/2
3α
2
A
2
3
(α) 3
3
(1 + α
2
)
5/2
2αA
3
2
(α)
=
1
σ
3
(1 + α
2
)
3/2
α
2
(1 + α
2
)
5/2
+ 2A
2
1
(α) 2αA
3
2
(α) 3α
2
A
2
3
(α)
n
i=1
X
ir
,
κ
σσσ
= E[U
σσσ
] = E
1
σ
3
n
i=1
(2 + 12ω
2
i
6α
i
ω
i
+ 6 α
2
2
i
ω
2
i
+ 7α
3
i
ω
3
i
)
+ E
1
σ
3
n
i=1
(2α
3
3
i
ω
3
i
3α
4
2
i
ω
4
i
α
5
i
ω
5
i
)
=
1
σ
3
2n + 12
n
i=1
E[ω
2
i
] 6α
n
i=1
E[∆
i
ω
i
] + 6α
2
n
i=1
E[∆
2
i
ω
2
i
] + 7α
3
n
i=1
E[∆
i
ω
3
i
]
+
1
σ
3
2α
3
n
i=1
E[∆
3
i
ω
3
i
] 3α
4
n
i=1
E[∆
2
i
ω
4
i
] α
5
n
i=1
E[∆
i
ω
5
i
]
71
=
1
σ
3
2n + 12n + 6
2
A
2
2
(α) 2
3
A
3
3
(α) 3
4
A
2
4
(α)
=
n
σ
3
10 + 6α
2
A
2
2
(α) 2α
3
A
3
3
(α) 3α
4
A
2
4
(α)
,
κ
σσα
= E[U
σσα
] = E
1
σ
2
2
n
i=1
i
ω
i
4α
n
i=1
2
i
ω
2
i
5α
2
n
i=1
i
ω
3
i
+ 2α
2
n
i=1
3
i
ω
3
i

+ E
1
σ
2
3α
3
n
i=1
2
i
ω
4
i
+ α
4
n
i=1
i
ω
5
i

=
1
σ
2
2
n
i=1
E[∆
i
ω
i
] 4α
n
i=1
E[∆
2
i
ω
2
i
] 5α
2
n
i=1
E[∆
i
ω
3
i
] + 2α
2
n
i=1
E[∆
3
i
ω
3
i
]
+
1
σ
2
3α
3
n
i=1
E[∆
2
i
ω
4
i
] + α
4
n
i=1
E[∆
i
ω
5
i
]
=
1
σ
2
4nαA
2
2
(α) + 2
2
A
3
3
(α) + 3
3
A
2
4
(α)
=
σ
2
2αA
3
3
(α) + 3α
2
A
2
4
(α) 4A
2
2
(α)
,
κ
σαα
= E[U
σαα
] = E
1
σ
3α
n
i=1
i
ω
3
i
3α
2
n
i=1
2
i
ω
4
i
α
3
n
i=1
i
ω
5
i

+ E
1
σ
2
n
i=1
2
i
ω
2
i
2α
n
i=1
3
i
ω
3
i

=
1
σ
3α
n
i=1
E[∆
i
ω
3
i
] 3α
2
n
i=1
E[∆
2
i
ω
4
i
] α
3
n
i=1
E[∆
i
ω
5
i
]
+
1
σ
2
n
i=1
E[∆
2
i
ω
2
i
] 2α
n
i=1
E[∆
3
i
ω
3
i
]
=
1
σ
3
2
A
2
4
(α) + 2nA
2
2
(α) 2A
3
3
(α)
=
n
σ
2A
2
2
(α) 2αA
3
3
(α) 3α
2
A
2
4
(α)
,
72
κ
ααα
= E[U
ααα
] = E
n
i=1
i
ω
3
i
+ 3α
n
i=1
2
i
ω
4
i
+ 2
n
i=1
3
i
ω
3
i
+ α
2
n
i=1
i
ω
5
i
=
n
i=1
E[∆
i
ω
3
i
] + 3α
n
i=1
E[∆
2
i
ω
4
i
] + 2
n
i=1
E[∆
3
i
ω
3
i
] + α
2
n
i=1
E[∆
i
ω
5
i
]
= n[3αA
2
4
(α) + 2A
3
3
(α)].
Derivadas de cumulantes
κ
(u)
rt
=
κ
rt
β
u
=
β
u
1
σ
2
1 + α
2
A
2
0
(α)
n
i=1
X
ir
X
it
= 0,
κ
(σ)
rt
=
κ
rt
σ
=
σ
1
σ
2
1 + α
2
A
2
0
(α)
n
i=1
X
ir
X
it
= [1 + α
2
A
2
0
(α)]
n
i=1
X
ir
X
it
σ
2
σ
=
2
σ
3
[1 + α
2
A
2
0
(α)]
n
i=1
X
ir
X
it
,
κ
(α)
rt
=
κ
rt
α
=
α
1
σ
2
1 + α
2
A
2
0
(α)
n
i=1
X
ir
X
it
=
1
σ
2
n
i=1
X
ir
X
it
d
dα
α
2
A
2
0
(α)
=
1
σ
2
n
i=1
X
ir
X
it
2αA
2
0
(α) + α
2
dA
2
0
(α)
dα
=
1
σ
2
n
i=1
X
ir
X
it
2αA
2
0
(α) α
2
[A
3
1
(α) + 2αA
2
2
(α)]
=
α
σ
2
αA
3
1
(α) + 2α
2
A
2
2
(α) 2A
2
0
(α)
n
i=1
X
ir
X
it
,
κ
(u)
=
κ
β
u
=
β
u
α
σ
2
b(1 + α
2
)
1/2
2
(1 + α
2
)
3/2
αA
2
1
(α)
n
i=1
X
ir
= 0,
κ
(σ)
=
κ
σ
=
σ
α
σ
2
b(1 + α
2
)
1/2
2
(1 + α
2
)
3/2
αA
2
1
(α)
n
i=1
X
ir
=
2α
σ
3
b(1 + α
2
)
1/2
+
2
(1 + α
2
)
3/2
+ αA
2
1
(α)
n
i=1
X
ir
,
73
κ
(α)
=
κ
α
=
α
α
σ
2
b(1 + α
2
)
1/2
2
(1 + α
2
)
3/2
αA
2
1
(α)
n
i=1
X
ir
=
1
σ
2
n
i=1
X
ir
d
dα
(1 + α
2
)
1/2
d
dα
3
(1 + α
2
)
3/2
d
dα
α
2
A
2
1
(α)
=
1
σ
2
n
i=1
X
ir
b
(1 +
α
2
)
1/2
α
2
(1 +
α
2
)
3/2
b
3
α
2
(1 +
α
2
)
3/2
3
α
4
(1 +
α
2
)
5/2

+
1
σ
2
n
i=1
X
ir
2αA
2
1
(α) α
2
[A
3
2
(α) 2αA
3
2
(α)]
=
1
σ
2
n
i=1
X
ir
b
(1 + α
2
)
1/2
+ α
2
(1 + α
2
)
3/2
3α
2
(1 + α
2
)
3/2
+ 3α
4
(1 + α
2
)
5/2

+
1
σ
2
n
i=1
X
ir
2αA
2
1
(α) + α
2
A
3
2
(α) + 2α
3
A
2
3
(α)
=
1
σ
2
b
(1 + α
2
)
1/2
2α
2
(1 + α
2
)
3/2
+ 3α
4
(1 + α
2
)
5/2

n
i=1
X
ir
+
1
σ
2
2αA
2
1
(α) + α
2
A
3
2
(α) + 2α
3
A
2
3
(α)
n
i=1
X
ir
,
κ
(u)
=
κ
β
u
=
β
u
1
σ
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n
i=1
X
ir
= 0,
κ
(σ)
=
κ
σ
=
σ
1
σ
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n
i=1
X
ir
=
1
σ
2
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n
i=1
X
ir
,
74
κ
(α)
=
κ
α
=
α
1
σ
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n
i=1
X
ir
=
1
σ
n
i=1
X
ir
b
2α(1 + α
2
)
3/2
3α
3
(1 + α
2
)
5/2
+ b
α(1 + α
2
)
3/2

+
1
σ
n
i=1
X
ir
A
2
1
(
α
) +
α
A
3
2
(
α
)
2
αA
2
3
(
α
)

=
1
σ
3
(1 + α
2
)
3/2
α
2
(1 + α
2
)
5/2
+ A
2
1
(α) αA
3
2
(α) 2α
2
A
2
3
(α)
n
i=1
X
ir
,
κ
(u)
σσ
=
κ
σσ
β
u
=
β
u
n
σ
2
2 + α
2
A
2
2
(α)
= 0,
κ
(σ)
σσ
=
κ
σσ
σ
=
σ
n
σ
2
2 + α
2
A
2
2
(α)
=
2n
σ
3
2 + α
2
A
2
2
(α)
,
κ
(α)
σσ
=
κ
σσ
α
=
α
n
σ
2
2 + α
2
A
2
2
(α)
=
n
σ
2
d
dα
α
2
A
2
2
(α)
=
n
σ
2
2αA
2
2
(α) + α
2
[A
3
3
(α) 2αA
2
4
(α)]
=
σ
2
2α
2
A
2
4
(α) + αA
3
3
(α) 2A
2
2
(α)
,
κ
(u)
σα
=
κ
σα
β
u
σ
A
2
2
(α)
= 0,
κ
(σ)
σα
=
κ
σα
σ
=
σ
σ
A
2
2
(α)
=
σ
2
A
2
2
(α),
κ
(α)
σα
=
κ
σα
α
=
α
σ
A
2
2
(α)
=
n
σ
A
2
2
(α) + α[A
3
3
(α) 2αA
2
4
(α)]
=
n
σ
A
2
2
(α) αA
3
3
(α) 2α
2
A
2
4
(α)
,
75
κ
(u)
αα
=
κ
αα
β
u
=
β
u
nA
2
2
(α)
= 0,
κ
(σ)
αα
=
κ
αα
σ
=
σ
[nA
2
2
(α)] = 0,
κ
(α)
αα
=
κ
αα
α
=
α
[nA
2
2
(α)] = n[A
3
3
(α) + 2αA
2
4
(α)].
Utilizando os resultados acima, calculamos as quantidades a seguir:
κ
(u)
rt
1
2
κ
rtu
=
α
3
2σ
3
b
(1 + α
2
)
1/2
α
2
(1 + α
2
)
3/2
3αA
2
1
(α) 2A
3
0
(α)
n
i=1
X
ir
X
it
X
iu
.
Definindo Q
1
como
Q
1
=
α
3
2σ
3
b
(1 + α
2
)
1/2
α
2
(1 + α
2
)
3/2
3αA
2
1
(α) 2A
3
0
(α)
,
temos
κ
(u)
rt
1
2
κ
rtu
= Q
1
n
i=1
X
ir
X
it
X
iu
,
logo,
r,t,u
κ
sr
κ
tu
κ
(u)
rt
1
2
κ
rtu
=
r,t,u
κ
sr
κ
tu
Q
1
n
i=1
X
ir
X
it
X
iu
= Q
1
n
i=1
r,t,u
κ
sr
κ
tu
X
ir
X
it
X
iu
= Q
1
n
i=1
r
κ
sr
X
ir
t,u
X
it
κ
tu
X
iu
= Q
1
n
i=1
e
s
K
ββ
X
i
X
i
K
ββ
X
i
= Q
1
e
s
K
ββ
n
i=1
X
i
(X
i
K
ββ
X
i
) = Q
1
e
s
K
ββ
X
δ
ββ
,
onde δ
ββ
é o vetor formado pelos elementos diagonais de XK
ββ
X
.
Analogamente, temos
76
κ
(σ)
rt
1
2
κ
rtσ
=
2
σ
3
[1 + α
2
A
2
0
(α)]
n
i=1
X
ir
X
it
1
2σ
3
2 3α
4
A
2
2
(α) + 2α
2
A
2
0
(α) 2α
3
A
3
1
(α)
n
i=1
X
ir
X
it
=
1
σ
3
2α
2
A
2
0
(α) + 2 1 +
3
2
α
4
A
2
2
(α) + α
3
A
3
1
(α) α
2
A
2
0
(α)
n
i=1
X
ir
X
it
=
1
σ
3
α
2
A
2
0
(α) + 1 +
3
2
α
4
A
2
2
(α) + α
3
A
3
1
(α)
n
i=1
X
ir
X
it
.
Definindo Q
2
como
Q
2
=
1
σ
3
α
2
A
2
0
(α) + 1 +
3
2
α
4
A
2
2
(α) + α
3
A
3
1
(α)
,
temos
κ
(σ)
rt
1
2
κ
rtσ
= Q
2
n
i=1
X
ir
X
it
,
assim,
r,t
κ
sr
κ
κ
(σ)
rt
1
2
κ
rtσ
=
r,t
κ
sr
κ
Q
2
n
i=1
X
ir
X
it
= Q
2
n
i=1
r,t
κ
sr
κ
X
ir
X
it
= Q
2
n
i=1
r
κ
sr
X
ir
t
κ
X
it
= Q
2
n
i=1
e
s
K
ββ
X
i
X
i
K
βσ
= Q
2
e
s
K
ββ
n
i=1
X
i
X
i
K
βσ
= Q
2
e
s
K
ββ
X
XK
βσ
.
77
Da mesma forma,
κ
(α)
rt
1
2
κ
rtα
=
α
σ
2
αA
3
1
(α) + 2α
2
A
2
2
(α) 2A
2
0
(α)
n
i=1
X
ir
X
it
α
2σ
2
3α
2
A
2
2
(α) + 2αA
3
1
(α) 2A
2
0
(α)
n
i=1
X
ir
X
it
=
α
σ
2
αA
3
1
(α) + 2α
2
A
2
2
(α) 2A
2
0
(α)
3
2
α
2
A
2
2
(α) αA
3
1
(α) + A
2
0
(α)
n
i=1
X
ir
X
it
=
α
σ
2
2α
2
A
2
2
(α)
3
2
α
2
A
2
2
(α) 2A
2
0
(α) + A
2
0
(α)
n
i=1
X
ir
X
it
=
α
σ
2
α
2
2
A
2
2
(α) A
2
0
(α)
n
i=1
X
ir
X
it
.
Definindo Q
3
como
Q
3
=
α
σ
2
α
2
2
A
2
2
(α) A
2
0
(α)
,
obtemos
κ
(α)
rt
1
2
κ
rtα
= Q
3
n
i=1
X
ir
X
it
,
logo,
r,t
κ
sr
κ
κ
(α)
rt
1
2
κ
rtα
=
r,t
κ
sr
κ
Q
3
n
i=1
X
ir
X
it
= Q
3
n
i=1
r,t
κ
sr
κ
X
ir
X
it
= Q
3
n
i=1
r
κ
sr
X
ir
t
κ
X
it
= Q
3
n
i=1
e
s
K
ββ
X
i
X
i
K
βα
= Q
3
e
s
K
ββ
n
i=1
X
i
X
i
K
βα
= Q
3
e
s
K
ββ
X
XK
βα
.
Da mesma maneira, temos
κ
(u)
1
2
κ
u
=
1
2σ
3
2 + 3α
4
A
2
2
(α) 2α
2
A
2
0
(α) + 2α
3
A
3
1
(α)
n
i=1
X
ir
X
iu
.
78
Definindo Q
4
como
Q
4
=
1
2σ
3
2 + 3α
4
A
2
2
(α) 2α
2
A
2
0
(α) + 2α
3
A
3
1
(α)
,
obtemos
κ
(u)
1
2
κ
u
= Q
4
n
i=1
X
ir
X
iu
,
logo,
r,u
κ
sr
κ
σu
κ
(u)
1
2
κ
u
=
r,u
κ
sr
κ
σu
Q
4
n
i=1
X
ir
X
iu
= Q
4
n
i=1
r,u
κ
sr
κ
σu
X
ir
X
iu
= Q
4
n
i=1
r
κ
sr
X
ir
u
κ
σu
X
iu
= Q
4
n
i=1
e
s
K
ββ
X
i
X
i
K
βσ
= Q
4
e
s
K
ββ
n
i=1
X
i
X
i
K
βσ
= Q
4
e
s
K
ββ
X
XK
βσ
.
De maneira análoga,
κ
(u)
1
2
κ
rαu
=
α
2σ
2
3α
2
A
2
2
(α) + 2αA
3
1
(α) 2A
2
0
(α)
n
i=1
X
ir
X
iu
=
α
σ
2
A
2
0
(α) αA
3
1
(α)
3
2
α
2
A
2
2
(α)
n
i=1
X
ir
X
iu
.
Definindo Q
5
como
Q
5
=
α
σ
2
A
2
0
(α) αA
3
1
(α)
3
2
α
2
A
2
2
(α)
,
temos
κ
(u)
1
2
κ
rαu
= Q
5
n
i=1
X
ir
X
iu
,
assim,
79
r,u
κ
sr
κ
αu
κ
(u)
1
2
κ
rαu
=
r,u
κ
sr
κ
αu
Q
5
n
i=1
X
ir
X
iu
= Q
5
n
i=1
r,u
κ
sr
κ
αu
X
ir
X
iu
= Q
5
n
i=1
r
κ
sr
X
ir
u
κ
αu
X
iu
= Q
5
n
i=1
e
s
K
ββ
X
i
X
i
K
βα
= Q
5
e
s
K
ββ
n
i=1
X
i
X
i
K
βα
= Q
5
e
s
K
ββ
X
XK
βα
.
Da mesma forma,
κ
(u)
σt
1
2
κ
σtu
= Q
4
n
i=1
X
it
X
iu
,
logo,
κ
t,u
κ
tu
κ
(u)
σt
1
2
κ
σtu
= κ
t,u
κ
tu
Q
4
n
i=1
X
it
X
iu
= Q
4
κ
n
i=1
t,u
κ
tu
X
it
X
iu
= Q
4
κ
n
i=1
t,u
X
it
κ
tu
X
iu
= Q
4
e
s
K
βσ
n
i=1
X
i
K
ββ
X
i
= Q
4
e
s
K
βσ
tr(XK
ββ
X
).
Analogamente, temos
κ
(u)
αt
1
2
κ
αtu
= Q
5
n
i=1
X
it
X
iu
,
assim,
κ
t,u
κ
tu
κ
(u)
αt
1
2
κ
αtu
= κ
t,u
κ
tu
Q
5
n
i=1
X
it
X
iu
= Q
5
κ
n
i=1
t,u
X
it
κ
tu
X
iu
= Q
5
e
s
K
βα
n
i=1
X
i
K
ββ
X
i
= Q
5
e
s
K
βα
tr(XK
ββ
X
).
80
Dessa forma,
κ
(σ)
1
2
κ
σ
=
α
σ
3
2b(1 + α
2
)
1/2
+ 2
2
(1 + α
2
)
3/2
+ 2αA
2
1
(α)
n
i=1
X
ir
α
σ
3
b
2(1 + α
2
)
1/2
+
5
2
α
2
(1 + α
2
)
3/2
3
2
α
4
(1 + α
2
)
5/2

n
i=1
X
ir
α
σ
3
2αA
2
1
(α) α
2
A
3
2
(α)
3
2
α
3
A
2
3
(α)
n
i=1
X
ir
=
α
σ
3
b
2α
2
(1 + α
2
)
3/2
5
2
α
2
(1 + α
2
)
3/2
+
3
2
α
4
(1 + α
2
)
5/2

n
i=1
X
ir
+
α
σ
3
α
2
A
3
2
(α) +
3
2
α
3
A
2
3
(α)
n
i=1
X
ir
=
α
σ
3
b
1
2
α
2
(1 + α
2
)
3/2
+
3
2
α
4
(1 + α
2
)
5/2
+ α
2
A
3
2
(α) +
3
2
α
3
A
2
3
(α)
n
i=1
X
ir
.
Definindo Q
6
como
Q
6
=
α
σ
3
b
1
2
α
2
(1 + α
2
)
3/2
+
3
2
α
4
(1 + α
2
)
5/2
+ α
2
A
3
2
(α) +
3
2
α
3
A
2
3
(α)
,
obtemos
κ
(σ)
1
2
κ
σ
= Q
6
n
i=1
X
ir
,
logo,
κ
σσ
r
κ
sr
κ
(σ)
1
2
κ
σ
= κ
σσ
r
κ
sr
Q
6
n
i=1
X
ir
= Q
6
κ
σσ
n
i=1
r
κ
sr
X
ir
= Q
6
K
σσ
n
i=1
ρ
i
XK
ββ
e
s
= Q
6
K
σσ
1
XK
ββ
e
s
= Q
6
e
s
K
ββ
X
1K
σσ
.
De maneira análoga,
81
κ
(α)
1
2
κ
α
=
1
σ
2
b
(1 + α
2
)
1/2
2α
2
(1 + α
2
)
3/2
+ 3α
4
(1 + α
2
)
5/2

n
i=1
X
ir
+
1
σ
2
2αA
2
1
(α) + α
2
A
3
2
(α) + 2α
3
A
2
3
(α)
n
i=1
X
ir
1
σ
2
b
1
2
(1 + α
2
)
1/2
2α
2
(1 + α
2
)
3/2
+
3
2
α
4
(1 + α
2
)
5/2

n
i=1
X
ir
1
σ
2
3
2
α
3
A
2
3
(α) + α
2
A
3
2
(α)
3
2
αA
2
1
(α)
n
i=1
X
ir
=
1
σ
2
b
3
2
(1 + α
2
)
1/2
+
3
2
α
4
(1 + α
2
)
5/2
α
2
A
2
1
(α) +
1
2
α
3
A
2
3
(α)
n
i=1
X
ir
.
Definindo Q
7
como
Q
7
=
1
σ
2
b
3
2
(1 + α
2
)
1/2
+
3
2
α
4
(1 + α
2
)
5/2
α
2
A
2
1
(α) +
1
2
α
3
A
2
3
(α)
,
temos
κ
(α)
1
2
κ
α
= Q
7
n
i=1
X
ir
logo,
κ
σα
r
κ
sr
κ
(α)
1
2
κ
α
= κ
σα
r
κ
sr
Q
7
n
i=1
X
ir
= Q
7
κ
σα
n
i=1
r
κ
sr
X
ir
= Q
7
K
σα
n
i=1
ρ
i
XK
ββ
e
s
= Q
7
e
s
K
ββ
X
1K
σα
.
Da mesma forma, temos
82
κ
(σ)
1
2
κ
rασ
=
1
σ
2
b
α
2
(1 + α
2
)
3/2
(1 + α
2
)
1/2
+ αA
2
1
(α)
n
i=1
X
ir
1
2σ
2
b
(1 + α
2
)
1/2
4α
2
(1 + α
2
)
3/2
+ 3 α
4
(1 + α
2
)
5/2

n
i=1
X
ir
1
2σ
2
3α
3
A
2
3
(α) + 2α
2
A
3
2
(α) 3αA
2
1
(α)
n
i=1
X
ir
=
1
σ
2
b
1
2
(1 + α
2
)
1/2
+ α
2
(1 + α
2
)
3/2
3
2
α
4
(1 + α
2
)
5/2

n
i=1
X
ir
+
1
σ
2
α
2
A
2
1
(α) α
2
A
3
2
(α)
3
2
α
3
A
2
3
(α)
n
i=1
X
ir
.
Definindo Q
8
como
Q
8
=
1
σ
2
b
1
2
(1 + α
2
)
1/2
+ α
2
(1 + α
2
)
3/2
3
2
α
4
(1 + α
2
)
5/2

+
1
σ
2
α
2
A
2
1
(α) α
2
A
3
2
(α)
3
2
α
3
A
2
3
(α)
,
obtemos
κ
(σ)
1
2
κ
rασ
= Q
8
n
i=1
X
ir
,
assim,
κ
ασ
r
κ
sr
κ
(σ)
1
2
κ
rασ
=κ
ασ
r
κ
sr
Q
8
n
i=1
X
ir
= Q
8
κ
ασ
n
i=1
r
κ
sr
X
ir
= Q
8
κ
σα
n
i=1
ρ
i
XK
ββ
e
s
= Q
8
K
σα
1
XK
ββ
e
s
= Q
8
e
s
K
ββ
X
1K
σα
.
Analogamente, obtemos
κ
(α)
1
2
κ
rαα
=
1
σ
3
(1 + α
2
)
3/2
α
2
(1 + α
2
)
5/2
+ A
2
1
(α) αA
3
2
(α) 2α
2
A
2
3
(α)
n
i=1
X
ir
1
σ
3
1
2
(1 + α
2
)
3/2
1
2
α
2
(1 + α
2
)
5/2
+ A
2
1
(α) αA
3
2
(α)
3
2
α
2
A
2
3
(α)
n
i=1
X
ir
=
1
2σ
3
(1 + α
2
)
3/2
α
2
(1 + α
2
)
5/2
α
2
A
2
3
(α)
n
i=1
X
ir
.
83
Definindo Q
9
como
Q
9
=
1
2σ
3
(1 + α
2
)
3/2
α
2
(1 + α
2
)
5/2
α
2
A
2
3
(α)
,
temos
κ
(α)
1
2
κ
rαα
= Q
9
n
i=1
X
ir
,
assim,
κ
αα
r
κ
sr
κ
(α)
1
2
κ
rαα
= κ
αα
r
κ
sr
Q
9
n
i=1
X
ir
= Q
9
K
αα
n
i=1
r
κ
sr
X
ir
= Q
9
K
αα
n
i=1
ρ
i
XK
ββ
e
s
= Q
9
e
s
K
ββ
X
1K
αα
.
Da mesma maneira,
κ
(σ)
σσ
1
2
κ
σσσ
=
2n
σ
3
2 + α
2
A
2
2
(α)
n
2σ
3
10 + 6α
2
A
2
2
(α) 2α
3
A
3
3
(α) 3α
4
A
2
4
(α)
=
n
σ
3
1 α
2
A
2
2
(α) + α
3
A
3
3
(α) +
3
2
α
4
A
2
4
(α)
.
Definindo Q
10
como
Q
10
=
n
σ
3
1 α
2
A
2
2
(α) + α
3
A
3
3
(α) +
3
2
α
4
A
2
4
(α)
,
obtemos
κ
(σ)
σσ
1
2
κ
σσσ
= Q
10
,
assim,
κ
κ
σσ
κ
(σ)
σσ
1
2
κ
σσσ
= κ
κ
σσ
Q
10
= Q
10
e
s
K
βσ
K
σσ
.
De maneira análoga,
κ
(α)
σσ
1
2
κ
σσα
=
σ
2
2α
2
A
2
4
(α) + αA
3
3
(α) 2A
2
2
(α)
σ
2
αA
3
3
(α) +
3
2
α
2
A
2
4
(α) 2A
2
2
(α)
=
3
2σ
2
A
2
4
(α).
84
Definindo Q
11
como
Q
11
=
3
2σ
2
A
2
4
(α),
temos
κ
(α)
σσ
1
2
κ
σσα
= Q
11
,
daí,
κ
κ
σα
κ
(α)
σσ
1
2
κ
σσα
= κ
κ
σα
Q
11
= Q
11
e
s
K
βσ
K
σα
.
Da mesma forma,
κ
(σ)
σα
1
2
κ
σασ
=
σ
2
A
2
2
(α)
σ
2
αA
3
3
(α) +
3
2
α
2
A
2
4
(α) 2A
2
2
(α)
=
σ
2
A
2
2
(α) + αA
3
3
(α) +
3
2
α
2
A
2
4
(α)
.
Definindo Q
12
como
Q
12
=
σ
2
A
2
2
(α) + αA
3
3
(α) +
3
2
α
2
A
2
4
(α)
,
obtemos
κ
(σ)
σα
1
2
κ
σασ
= Q
12
,
logo,
κ
κ
ασ
κ
(σ)
σα
1
2
κ
σασ
= κ
κ
ασ
Q
12
= Q
12
e
s
K
βσ
K
σα
.
De maneira análoga,
κ
(α)
σα
1
2
κ
σαα
=
n
σ
A
2
2
(α) αA
3
3
(α) 2α
2
A
2
4
(α)
n
σ
A
2
2
(α) αA
3
3
(α)
3
2
α
2
A
2
4
(α)
=
2
2σ
A
2
4
(α).
Definindo Q
13
como
Q
13
=
2
2σ
A
2
4
(α),
85
temos
κ
(α)
σα
1
2
κ
σαα
= Q
13
,
daí,
κ
κ
αα
κ
(α)
σα
1
2
κ
σαα
= κ
κ
αα
Q
13
= Q
13
e
s
K
βσ
K
αα
.
Analogamente,
κ
(σ)
ασ
1
2
κ
ασσ
= Q
12
,
daí,
κ
κ
σσ
κ
(σ)
ασ
1
2
κ
ασσ
= κ
κ
σσ
Q
12
= Q
12
e
s
K
βα
K
σσ
.
De forma similar,
κ
(α)
ασ
1
2
κ
ασα
= Q
13
,
assim,
κ
κ
σα
κ
(α)
ασ
1
2
κ
ασα
= Q
13
e
s
K
βα
K
σα
.
De maneira semelhante,
κ
(σ)
αα
1
2
κ
αασ
=
n
σ
A
2
2
(α) αA
3
3
(α)
3
2
α
2
A
2
4
(α)
.
Definindo Q
14
como
Q
14
=
n
σ
A
2
2
(α) αA
3
3
(α)
3
2
α
2
A
2
4
(α)
,
temos
κ
(σ)
αα
1
2
κ
αασ
= Q
14
,
86
daí,
κ
κ
ασ
κ
(σ)
αα
1
2
κ
αασ
= Q
14
e
s
K
βα
K
σα
.
Da mesma forma,
κ
(α)
αα
1
2
κ
ααα
= n[A
3
3
(α) + 2αA
2
4
(α)] n
3
2
αA
2
4
(α) + A
3
3
(α)
=
2
A
2
4
(α).
Definindo Q
15
como
Q
15
=
2
A
2
4
(α),
obtemos
κ
(α)
αα
1
2
κ
ααα
= Q
15
,
daí,
κ
κ
αα
κ
(α)
αα
1
2
κ
ααα
= Q
15
e
s
K
βα
K
αα
.
De forma similar,
κ
(σ)
σt
1
2
κ
σ
= Q
6
n
i=1
X
it
.
daí,
κ
t
κ
κ
(σ)
σt
1
2
κ
σ
= κ
t
κ
Q
6
n
i=1
X
it
= Q
6
κ
n
i=1
t
κ
X
it
= Q
6
e
s
K
βσ
n
i=1
X
i
K
βσ
= Q
6
e
s
K
βσ
n
i=1
ρ
i
XK
βσ
= Q
6
e
s
K
βσ
1
XK
βσ
.
Analogamente,
κ
(α)
σt
1
2
κ
σ
= Q
7
n
i=1
X
it
,
87
assim,
κ
t
κ
κ
(α)
σt
1
2
κ
σ
= κ
t
κ
Q
7
n
i=1
X
it
= Q
7
κ
n
i=1
t
κ
X
it
= Q
7
e
s
K
βσ
n
i=1
X
i
K
βα
= Q
7
e
s
K
βσ
n
i=1
ρ
i
XK
βα
= Q
7
e
s
K
βσ
1
XK
βα
.
De maneira semelhante, obtemos
κ
(σ)
αt
1
2
κ
αtσ
= Q
8
n
i=1
X
it
,
assim,
κ
t
κ
κ
(σ)
αt
1
2
κ
αtσ
= κ
t
κ
Q
8
n
i=1
X
it
= Q
8
κ
n
i=1
t
κ
X
it
= Q
8
e
s
K
βα
n
i=1
X
i
K
βσ
= Q
8
e
s
K
βα
n
i=1
ρ
i
XK
βσ
= Q
8
e
s
K
βα
1
XK
βσ
.
Da mesma maneira,
κ
(α)
αt
1
2
κ
αtα
= Q
9
n
i=1
X
it
,
daí,
κ
t
κ
κ
(α)
αt
1
2
κ
αtα
= κ
t
κ
Q
9
n
i=1
X
it
= Q
9
κ
n
i=1
t
κ
X
it
= Q
9
e
s
K
βα
n
i=1
X
i
K
βα
= Q
9
e
s
K
βα
n
i=1
ρ
i
XK
βα
= Q
9
e
s
K
βα
1
XK
βα
.
Analogamente, temos
κ
(u)
σσ
1
2
κ
σσu
=
α
2σ
3
b
4(1 + α
2
)
1/2
+ 5α
2
(1 + α
2
)
3/2
3α
4
(1 + α
2
)
5/2

n
i=1
X
iu
α
2σ
3
4αA
2
1
(α) 2α
2
A
3
2
(α) 3α
3
A
2
3
(α)
n
i=1
X
iu
.
88
Definindo Q
16
como
Q
16
=
α
2σ
3
b
4(1 + α
2
)
1/2
+ 5α
2
(1 + α
2
)
3/2
3α
4
(1 + α
2
)
5/2

α
2σ
3
4αA
2
1
(α) 2α
2
A
3
2
(α) 3α
3
A
2
3
(α)
,
obtemos
κ
(u)
σσ
1
2
κ
σσu
= Q
16
n
i=1
X
iu
,
assim,
κ
u
κ
σu
κ
(u)
σσ
1
2
κ
σσu
= κ
u
κ
σu
Q
16
n
i=1
X
iu
= Q
16
κ
n
i=1
u
κ
σu
X
iu
= Q
16
e
s
K
βσ
n
i=1
u
κ
X
iu
= Q
16
e
s
K
βσ
n
i=1
X
i
K
βσ
= Q
16
e
s
K
βσ
n
i=1
ρ
i
XK
βσ
= Q
16
e
s
K
βσ
1
XK
βσ
.
Da mesma forma,
κ
(u)
σα
1
2
κ
σαu
=
1
2σ
2
b
(1 + α
2
)
1/2
4α
2
(1 + α
2
)
3/2
+ 3α
4
(1 + α
2
)
5/2

n
i=1
X
iu
1
2σ
2
3α
3
A
2
3
(α) + 2α
2
A
3
2
(α) 3αA
2
1
(α)
n
i=1
X
iu
.
Definindo Q
17
como
Q
17
=
1
2σ
2
b
(1 + α
2
)
1/2
4α
2
(1 + α
2
)
3/2
+ 3α
4
(1 + α
2
)
5/2

1
2σ
2
3α
3
A
2
3
(α) + 2α
2
A
3
2
(α) 3αA
2
1
(α)
,
temos
κ
(u)
σα
1
2
κ
σαu
= Q
17
n
i=1
X
iu
,
daí,
κ
u
κ
αu
κ
(u)
σα
1
2
κ
σαu
= κ
u
κ
αu
Q
17
n
i=1
X
iu
= Q
17
κ
n
i=1
u
κ
αu
X
iu
= Q
17
e
s
K
βσ
n
i=1
u
κ
X
iu
= Q
17
e
s
K
βσ
n
i=1
X
i
K
βα
= Q
17
e
s
K
βσ
n
i=1
ρ
i
XK
βα
= Q
17
e
s
K
βσ
1
XK
βα
.
89
De forma semelhante, temos
κ
(u)
ασ
1
2
κ
ασu
= Q
17
n
i=1
X
iu
,
assim,
κ
u
κ
σu
κ
(u)
ασ
1
2
κ
ασu
= κ
u
κ
σu
Q
17
n
i=1
X
iu
= Q
17
κ
n
i=1
u
κ
σu
X
iu
= Q
17
e
s
K
βα
n
i=1
u
κ
X
iu
= Q
17
e
s
K
βα
n
i=1
X
i
K
βσ
= Q
17
e
s
K
βα
n
i=1
ρ
i
XK
βσ
= Q
17
e
s
K
βα
1
XK
βσ
.
Por último,
κ
(u)
αα
1
2
κ
ααu
=
1
2σ
3
(1 + α
2
)
3/2
α
2
(1 + α
2
)
5/2
+ 2A
2
1
(α) 2αA
3
2
(α) 3α
2
A
2
3
(α)
n
i=1
X
iu
.
Definindo Q
18
como
Q
18
=
1
2σ
3
(1 + α
2
)
3/2
α
2
(1 + α
2
)
5/2
+ 2A
2
1
(α) 2αA
3
2
(α) 3α
2
A
2
3
(α)
,
obtemos
κ
(u)
αα
1
2
κ
ααu
= Q
18
n
i=1
X
iu
,
daí,
κ
u
κ
αu
κ
(u)
αα
1
2
κ
ααu
= κ
u
κ
αu
Q
18
n
i=1
X
iu
= Q
18
κ
n
i=1
u
κ
αu
X
iu
= Q
18
e
s
K
βα
n
i=1
u
κ
X
iu
= Q
18
e
s
K
βα
n
i=1
X
i
K
βα
= Q
18
e
s
K
βα
n
i=1
ρ
i
XK
βα
= Q
18
e
s
K
βα
1
XK
βα
.
90
APÊNDICE C
Programa de Simulação
Apresentamos, neste apêndice, o programa de simulação utilizado nesta dissertação. O
programa foi desenvolvido na linguagem de programação Ox, a qual está descrita com
mais detalhes no Capítulo 1, seção 1.3.
C.1 Programa Principal
/***********************************************************************
* Autor: Ênio Lopes *
* *
* Programa:Prog_Correção.ox *
* *
* Função: Correção analítica via Cox e Snell (1968) e *
* correção por boostrap dos EMV dos parâmetros *
* de regressão, escala e forma do modelo de regressão *
* normal assimétrico. *
* *
* Orientador: Prof. Dr. Klaus Leite Pinto Vasconcellos. *
************************************************************************/
/*Bibliotecas Principais*/
#include<oxstd.h>
#include<oxprob.h>
#include<oxfloat.h>
#import<maximize>
#include<quadpack.h>
#include "funcoes.ox"
/*Definições da simulação e do modelo utilizado*/
const decl rep=2; //Número de réplicas
const decl p=2; //Número de parâmetros de regressão
const decl beta_0=-2; //Valor do parâmetro beta_0
const decl beta_1=2; //Valor do parâmetro beta_1
91
const decl sigma=1; //Valor do parâmetro de escala sigma
const decl Bboot=2; //Número de réplicas bootstrap
/*Corpo Principal do Programa*/
main()
{
/*Declaração das variáveis locais*/
decl beta,alpha,b;
decl thetaini,theta,dfunc,msg;
decl i,j,k,n,conv,nrep;
decl hattheta,vieshattheta;
decl A12,A03,A02,A22,A13,A23,A32,A33,A42,erro,erro1;
decl q1,q2,q3,q4,q5,q6,q7,q8,q9,q10;
decl q11,q12,q13,q14,q15,q16,q17,q18;
decl hatsigma,hatbeta_0,hatbeta_1;
decl w1,W,W_bb,W_bs,W_ba,W_sb,W_ss,W_sa,W_ab,W_as,W_aa;
decl delta_bb,delta11,delta21,delta31;
decl K,B,invK;
decl invK_bb,invK_bs,invK_ba,invK_sb,invK_ss,invK_sa,invK_ab,invK_as,invK_aa;
decl hatB,hatthetacor,vieshatthetacor;
decl liminf,limsup;
decl eqmhattheta,eqmhatthetacor;
decl hatz,m,hatthetaboot;
decl erroboot,thetainiboot,msgboot;
decl vieshatthetaboot,hatthetabootcor;
decl vieshatthetabootcor,eqmhatthetabootcor;
/*Algumas definições*/
n=(200|250); //Tamanhos amostrais
b=sqrt(1/(M_PI_2)); //Define a constante b;
alpha=(3|5|10); //Valores do parâmetro de forma alpha
beta=(beta_0|beta_1); //Vetor de beta’s
/*Início do loop para os diversos tamanhos de amostra*/
for(k=0;k<rows(n);++k){
ranseed("MWC_52"); //Define o gerador de números pseudo-aleatórios de George Marsaglia
ranseed(-1); //Retorna à semente inicial
W_bb=zeros(n[k][0],n[k][0]);
x=(1~ranu(n[k][0],1)); //Matriz de covariáveis
/*Início do loop para os diferentes valores de alpha*/
for(j=0;j<rows(alpha);++j){
nrep=0;
i=0; //zerando contador do número de réplicas
theta=(beta|sigma|alpha[j][0]); //Vetor de parâmetros do modelo
/*Inicialização de variáveis que armazenarão alguns resultados*/
hattheta=zeros(p+2,rep); //Armazenará parâmetros estimados por Máxima Verossimilhança
hatthetacor=zeros(p+2,rep); //Armazenará parâmetros estimados corrigidos analiticamente
hatthetaboot=zeros(p+2,Bboot); //Armazenará os parâmetros estimados corrigidos por bootstrap
vieshattheta=0; //Armazenará os vieses estimados por Máxima Verossimilhança
vieshatthetacor=0; //Armazenará os vieses estimados analiticamente
vieshatthetaboot=zeros(p+2,rep); //Armazenará os vieses estimados por Máxima Verossimilhança
hatthetabootcor=zeros(p+2,rep); //Armazenará os vieses estimados por bootstrap
eqmhattheta=0; //Armazenará o erro quadrático médio do EMV dos parâmetros do modelo
eqmhatthetacor=0; //Armazenará o erro quadrático médio do EMV corrigido analiticamente dos
//parâmetros do modelo
hatB=zeros(p+2,rep); //Armazenará os vieses estimados de determinada réplica de Monte Carlo
92
while(i<rep){ //Início da simulação de Monte Carlo
m=0; //inicialização do contador do número de réplicas bootstrap
erro=rskewnormal(n[k][0],alpha[j][0]); //geração dos erros
z=x*beta+sigma*erro; //Geração da variável resposta segundo o modelo definido
thetaini=(invert(x’*x)*x’*z|0.5|0.5); //chute inicial para os parâmetros.
msg=MaxBFGS(flogver,&thetaini,&dfunc,0,TRUE); //Maximização da função de log-verossimilhança
if(MaxConvergenceMsg(msg)=="Strong convergence"){ //Verifica se ocorreu convergência forte
hattheta[][i]=thetaini; //armazena os valores estimados dos parâmetros do modelo
hatalpha=thetaini[3][0]; //armazena o valor estimado de alpha
hatsigma=thetaini[2][0]; //armazena o valor estimadode sigma
hatbeta_0=thetaini[0][0]; //armazena o valor estimado de beta_0
hatbeta_1=thetaini[1][0]; //armazena o valor estimado de beta_1
/*início da correção por bootstrap*/
hatz=x*(hatbeta_0|hatbeta_1);
while(m<Bboot){
erroboot=rskewnormal(n[k][0],hatalpha);
zboot=hatz+hatsigma.*erroboot;
thetainiboot=(invert(x’*x)*x’*zboot|0.5|0.5);
msgboot=MaxBFGS(flogverboot,&thetainiboot,&dfunc,0,TRUE);
if(MaxConvergenceMsg(msgboot)=="Strong convergence"){
hatthetaboot[][m]=thetainiboot;
m=m+1;
}//fim-do-se
}//fim-do-while(bootstrap)
/*Cálculo dos vieses estimados e estimativas corrigidas por bootstrap*/
vieshatthetaboot[][i]=meanr(hatthetaboot)-hattheta[][i];
hatthetabootcor[][i]=hattheta[][i]-vieshatthetaboot;
/*Início da correção analítica de Cox e Snell (1968) */
liminf=-36/fabs(hatalpha); //Limite inferior para a integração numérica
limsup=36/fabs(hatalpha); //Limite superior para a integração numérica
QAGS(a12,liminf,limsup,&A12,&erro1); //calcula o valor de A12(alpha)
QAGS(a03,liminf,limsup,&A03,&erro1); //calcula o valor de A03(alpha)
QAGS(a02,liminf,limsup,&A02,&erro1); //calcula o valor de A02(alpha)
QAGS(a22,liminf,limsup,&A22,&erro1); //calcula o valor de A22(alpha)
QAGS(a13,liminf,limsup,&A13,&erro1); //calcula o valor de A13(alpha)
QAGS(a23,liminf,limsup,&A23,&erro1); //calcula o valor de A23(alpha)
QAGS(a32,liminf,limsup,&A32,&erro1); //calcula o valor de A32(alpha)
QAGS(a33,liminf,limsup,&A33,&erro1); //calcula o valor de A33(alpha)
QAGS(a42,liminf,limsup,&A42,&erro1); //calcula o valor de A42(alpha)
/*Cálculo das quantidades necessárias para efetuar a correção analítica */
q1=((-hatalpha^3)/(2*hatsigma^3))*(b*((1+hatalpha^2)^(-1/2)-hatalpha^2*(1+hatalpha^2)^(-3/2))-
3*hatalpha*A12-2*A03);
q2=(1/hatsigma^3)*(hatalpha^2*A02+1+(3/2)*hatalpha^4*A22+hatalpha^3*A13);
q3=(hatalpha/hatsigma^2)*((hatalpha^2/2)*A22-A02);
q4=(1/(2*hatsigma^3))*(-2+3*hatalpha^4*A22-2*hatalpha^2*A02+2*hatalpha^3*A13);
q5=(hatalpha/hatsigma^2)*(A02-hatalpha*A13-(3/2)*hatalpha^2*A22);
q6=(hatalpha/hatsigma^3)*(b*((-1/2)*hatalpha^2*(1+hatalpha^2)^(-3/2)+(3/2)*hatalpha^4*
(1+hatalpha^2)^(-5/2))+hatalpha^2*A23+(3/2)*hatalpha^3*A32);
q7=(1/hatsigma^2)*(b*((-3/2)*(1+hatalpha^2)^(-1/2)+(3/2)*hatalpha^4*(1+hatalpha^2)^(-5/2))-
(hatalpha/2)*A12+(1/2)*hatalpha^3*A32);
q8=(1/hatsigma^2)*(b*((1/2)*(1+hatalpha^2)^(-1/2)+hatalpha^2*(1+hatalpha^2)^(-3/2)-(3/2)*
hatalpha^4*(1+hatalpha^2)^(-5/2)))+(1/hatsigma^2)*((hatalpha/2)*A12-hatalpha^2*A23-(3/2)*
hatalpha^3*A32);
q9=(1/(2*hatsigma))*(3*b*hatalpha*((1+hatalpha^2)^(-3/2)-hatalpha^2*(1+hatalpha^2)^(-5/2))-
93
hatalpha^2*A32);
q10=(n[k][0]/hatsigma^3)*(-1-hatalpha^2*A22+hatalpha^3*A33+(3/2)*hatalpha^4*A42);
q11=(n[k][0]*hatalpha^3*A42)/(2*hatsigma^2);
q12=((-n[k][0]*hatalpha)/(hatsigma^2))*(-A22+hatalpha*A33+(3/2)*hatalpha^2*A42);
q13=(-n[k][0]*hatalpha^2*A42)/(2*hatsigma);
q14=(-n[k][0]/hatsigma)*(A22-hatalpha*A33-(3/2)*hatalpha^2*A42);
q15=(n[k][0]*hatalpha*A42)/2;
q16=(-hatalpha/(2*hatsigma^3))*(b*(4*(1+hatalpha^2)^(-1/2)+5*hatalpha^2*(1+hatalpha^2)^(-3/2)-
3*hatalpha^4*(1+hatalpha^2)^(-5/2)))-(hatalpha/(2*hatsigma^3))*(4*hatalpha*A12-2*hatalpha^2*
A23-3*hatalpha^3*A32);
q17=(-1/(2*hatsigma^2))*(b*((1+hatalpha^2)^(-1/2)-4*hatalpha^2*(1+hatalpha^2)^(-3/2)+3*hatalpha^4*
(1+hatalpha^2)^(-5/2)))-(1/(2*hatsigma^2))*(3*hatalpha^3*A32+2*hatalpha^2*A23-3*hatalpha*A12);
q18=(-1/(2*hatsigma))*(3*b*hatalpha*((1+hatalpha^2)^(-3/2)-hatalpha^2*(1+hatalpha^2)^(-5/2))+2*A12-
2*hatalpha*A23-3*hatalpha^2*A32);
/*Cálculo da matriz W til*/
w1=((1/hatsigma^2)*(1+hatalpha^2*A02)).*ones(n[k][0],1);
W_bb=diag(w1);
W_bs=-((hatalpha/hatsigma^2)*(-b*(1+hatalpha^2)^(-1/2)-b*hatalpha^2*(1+hatalpha^2)^(-3/2)-
hatalpha*A12))*ones(n[k][0],1);
W_ba=-((1/hatsigma)*(b*(hatalpha^2*(1+hatalpha^2)^(-3/2)-(1+hatalpha^2)^(-1/2))+hatalpha*A12))*
ones(n[k][0],1);
W_sb=W_bs’;
W_ss=(n[k][0]/hatsigma^2)*(2+hatalpha^2*A22);
W_sa=-(n[k][0]*hatalpha*A22)/(hatsigma);
W_ab=W_ba’;
W_as=W_sa’;
W_aa=n[k][0]*A22;
W=((W_bb~W_bs~W_ba)|(W_sb~W_ss~W_sa)|(W_ab~W_as~W_aa));
/*Definindo X aumentada*/
Xaum=((x~0~0)|(0~0~1~0)|(0~0~0~1));
K=Xaum’*W*Xaum; //Matriz de Informação de Fisher
/*Inversa da Matriz de Informação de Fisher*/
invK=invert(K);
invK_bb=invK[0:p-1][0:p-1];
invK_bs=invK[0:p-1][2];
invK_ba=invK[0:p-1][3];
invK_sb=invK[2][0:p-1];
invK_ss=invK[2][2];
invK_sa=invK[2][3];
invK_ab=invK[3][0:p-1];
invK_as=invK[3][2];
invK_aa=invK[3][3];
/*Cálculo do vetor delta til*/
delta_bb=(diagonal(x*invK_bb*x’))’;
delta11=q1.*delta_bb+(q2+q4).*x*invK_bs+(q3+q5).*x*invK_ba+(q7+q8).*ones(n[k][0],1)*invK_sa+
q6.*ones(n[k][0],1)*invK_ss+q9.*ones(n[k][0],1)*invK_aa;
delta21=q4.*trace(x*invK_bb*x’)+(q6+q16).*ones(1,n[k][0])*x*invK_bs+(q7+q17).*ones(1,n[k][0])*
x*invK_ba+(q11+q12).*invK_sa+q10.*invK_ss+q13.*invK_aa;
delta31=q5.*trace(x*invK_bb*x’)+(q8+q17)*ones(1,n[k][0])*x*invK_bs+(q9+q18).*ones(1,n[k][0])*x*
invK_ba+(q13+q14).*invK_sa+q12.*invK_ss+q15.*invK_aa;
deltatil=(delta11|delta21|delta31);
/*Cálculo do viés estimado*/
B=invK*Xaum’*deltatil;
94
/*Cálculo das estimativas corrigidas via Cox e Snell (1968)*/
hatthetacor[][i]=hattheta[][i]-B;
i=i+1;//incrementando contador
}//fim-do-se
nrep=nrep+1;//incrementando contador do número de réplicas executadas
}//fim-do-while(loop de Monte Carlo)
/*Cálculo dos vieses dos diferentes estimadores dos parâmetros do modelo*/
vieshattheta=meanr(hattheta)-theta;
vieshatthetacor=meanr(hatthetacor)-theta;
vieshatthetabootcor=meanr(hatthetabootcor)-theta;
/*Cálculo do erro quadrático médio dos diferentes estimadores dos parâmetros do modelo*/
eqmhattheta=vieshattheta.^2+varr(hattheta);
eqmhatthetacor=vieshatthetacor.^2+varr(hatthetacor);
eqmhatthetabootcor=vieshatthetabootcor.^2+varr(hatthetabootcor);
/*Impressão dos resultados da simulação de Monte Carlo*/
println("Número de Réplicas: ",rep);
println("Tamanho amostral: ",n[k][0]);
println("alpha: ",alpha[j][0]);
println("Número de réplicas totais: ",nrep);
println(" ");
println("Viés de theta Viés de theta corrigido Viés de theta corrigido por bootstrap");
println(vieshattheta[0][0]," ",vieshatthetacor[0][0]," ",vieshatthetabootcor[0][0]);
println(vieshattheta[1][0]," ",vieshatthetacor[1][0]," ",vieshatthetabootcor[1][0]);
println(vieshattheta[2][0]," ",vieshatthetacor[2][0]," ",vieshatthetabootcor[2][0]);
println(vieshattheta[3][0]," ",vieshatthetacor[3][0]," ",vieshatthetabootcor[3][0]);
println(" ");
println("EQM de theta EQM de theta corrigido EQM de theta corrigido por bootstrap");
println(eqmhattheta[0][0]," ",eqmhatthetacor[0][0]," ",eqmhatthetabootcor[0][0]);
println(eqmhattheta[1][0]," ",eqmhatthetacor[1][0]," ",eqmhatthetabootcor[1][0]);
println(eqmhattheta[2][0]," ",eqmhatthetacor[2][0]," ",eqmhatthetabootcor[2][0]);
println(eqmhattheta[3][0]," ",eqmhatthetacor[3][0]," ",eqmhatthetabootcor[3][0]);
println(" ");
}//fim-do-for(diferentes valores de alpha)
}//fim-do-for(diferentes tamanhos de amostra)
}//fim-de-main()
95
C.2 Biblioteca de Funções
/***********************************************************************
* Autor: Ênio Lopes *
* Programa:funcoes.ox *
************************************************************************/
/*Declaração das variáveis globais*/
decl x,z,erro;
decl hatalpha;
decl Xaum,deltatil;
decl zboot;
/*função que gera uma amostra de tamanho n de uma SN(alpha) */
rskewnormal(n,alpha){
decl y,delta,dados;
delta=alpha/(sqrt(1+alpha^2));
y=rann(n,2);
dados=delta*fabs(y[][0])+sqrt(1-delta^2)*(y[][1]);
return dados;
}
/*função de log-verossimilhança*/
flogver(const vp,const adfunc, avscore, const amhess)
{
decl soma1,soma2,omega,beta;
beta=(vp[0]|vp[1]);
omega=(z-x*beta)/vp[2];
soma1=sumc(log(densn(omega)));
soma2=sumc(log(probn(vp[3]*omega)));
adfunc[0]=-rows(x)*log(vp[2])+soma1+soma2;
return 1;
}
/*função de log-verossimilhança para bootstrap*/
flogverboot(const vp,const adfunc, avscore, const amhess)
{
decl soma1,soma2,omega,beta;
beta=(vp[0]|vp[1]);
omega=(zboot-x*beta)/vp[2];
soma1=sumc(log(densn(omega)));
soma2=sumc(log(probn(vp[3]*omega)));
adfunc[0]=-rows(x)*log(vp[2])+soma1+soma2;
return 1;
}
/*Funções necessárias para o cálculo das quantidades da forma Anm*/
a12(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^2*omega*2*densn(omega)*probn(hatalpha*omega));
}
a03(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^3*2*densn(omega)*probn(hatalpha*omega));
}
a02(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^2*2*densn(omega)*probn(hatalpha*omega));
}
96
a22(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^2*omega^2*2*densn(omega)*probn(hatalpha*omega));
}
a13(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^3*omega*2*densn(omega)*probn(hatalpha*omega));
}
a23(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^3*omega^2*2*densn(omega)*probn(hatalpha*omega));
}
a32(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^2*omega^3*2*densn(omega)*probn(hatalpha*omega));
}
a33(omega)
{
return (densn(hatalpha*omega)/probn(hatalpha*omega))^3*omega^3*2*densn(omega)*probn(hatalpha*omega);
}
a42(omega)
{
return ((densn(hatalpha*omega)/probn(hatalpha*omega))^2*omega^4*2*densn(omega)*probn(hatalpha*omega));
}
97
Referências Bibliográficas
[1] Aitchison, J. (2003). The Statistical Analysis of Compositional Data. The
Blackburn Press, New Jersey.
[2] Azzalini, A. (1985). A class of distributions which includes the normal ones,
Scandinavian Journal of Statistics, 12, 171–178.
[3] Azzalini, A. (1986). Further results on a class of distributions which includes the
normal ones. Statistica, 46, 199–208.
[4] Azzalini, A., Capitanio, A. (1999). Statistical applications of the multivariate skew
normal distribution. Journal of the Royal Statistical Society, Series B, 61, 579–602.
[5] Azzalini, A., Dalla Valle, A. (1996). The multivariate skew normal distribution.
Biometrika, 83, 715–726.
[6] Bartlett, M. S. (1953). Aproximate confidence intervals. Biometrika, 40, 12–19.
[7] Box, M. J. (1971). Bias in nonlinear estimation (with discussion) Journal of the
Royal Statistical Society, Series B, 33, 171–201.
[8] Cook, R., Tsai, C., Wei, B. (1986). Bias in nonlinear regression. Biometrika, 73,
615–623.
98
[9] Cordeiro, G. M. (1993). Barlett corrections and bias correction for two
heteroscedastic regression models. Communications in Statistics, Theory and
Methods, 22, 169–188.
[10] Cordeiro, G. M., Ferrari, S. L. P., Uribe-Opazo, M. A., Vasconcellos, K. L. P.
(2000). Corrected maximum-likelihood estimation in a class of symmetric nonlinear
regression models. Statistics and Probability Letters, 46, 317–328.
[11] Cordeiro, G. M., McCullagh, P.(1991). Bias correction in generalized linear models.
Journal of the Royal Statistical Society, Series B, 53, 629–643.
[12] Cordeiro, G. M., Vasconcellos, K. L. P. (1997). Bias correction for a class of
multivariate nonlinear regression models. Statistics and Probability Letters, 35,
155–164.
[13] Cordeiro, G. M., Vasconcellos, K. L. P. (1999). Second-order biases of the
maximum likelihood estimates in von Mises regression models. Australian and New
Zealand Journal of Statistics, 41, 901–910.
[14] Cox, D. R., Snell, E. (1968). A general definition of residuals. Journal of the Royal
Statistical Society, Series B, 30, 248–275.
[15] Cribari-Neto, F., Vasconcellos, K. L. P. (2002). Nearly unbiased maximum
likelihood estimation for the beta distribution. Journal of Statistical Computation
and Simulation, 72, 107–118.
[16] Cribari-Neto, F., Zarkos, S. G. (2003). Econometric and statistical computing using
Ox. Computational Economics, 21, 277–295.
[17] Davison, A. C., Hinkley, D. V.(1997). Bootstrap Methods and Their Application.
Cambridge University Press, New York.
[18] Doornik, J. A. (2001). Ox: An Object-Oriented Matrix Language. 4th ed.
Timberlake Consultants Press, London; Oxford, http://www.doornik.com.
[19] Efron, B. (1979). Bootstrap methods: another look at the jackknife. Annals of
Statistics, 7, 1–26.
99
[20] Efron, B., Tibshirani, R. J. (1993). An Introduction to the Bootstrap. Chapman &
Hall, New York.
[21] Ezekiel, M. (1930). Methods of Correlation Analysis. John Wiley and Sons, New
York.
[22] Ferrari, S. L. P., Cribari-Neto, F. (1998). On bootstrap and analytical bias
corrections. Economics Letters, 58, 7–15.
[23] Ferrari, S. L. P. ; Cribari-Neto, F. (2004). Beta Regression for Modelling Rates and
Proportions. Journal of Applied Statistics, 31, 799–815.
[24] Firth, D. (1993). Bias reduction of maximum likelihood estimates. Biometrika, 80,
27–38.
[25] Haldane, J. B. S. (1953). The estimation of two parameters from a sample.
Sankhyã, 12, 313–320.
[26] Haldane, J. B. S., Smith, S. M. (1953). The sampling distribution of a maximum
likelihood estimate Biometrika, 43, 96–103.
[27] Henze, N. (1986). A probabilistic representation of the “skew normal” distribution.
Scandinavian Journal of Statistics, 13, 271–275.
[28] Lawley, D. (1956). A general method for approximating to the distribution of
likelihood ratio criteria. Biometrika, 43, 295–303.
[29] Liseo, B., Loperfido, N. (2006). A note on reference priors for the scalar
skew-normal distribution. Journal of Statistical Planning and Inference, 136,
373–389.
[30] MacKinnon, J. G., Smith, J. A. A. (1998). Approximate bias correction in
econometrics. Journal of Econometrics, 85, 205–230.
[31] Ospina, R., Cribari-Neto, F., Vasconcellos, K. L. P. (2006). Improved point and
interval estimation for a beta regression model. Computational Statistics & Data
Analysis, 51, 960–981.
100
[32] Prater, N. H. (1956). Estimate gasoline yields from crude. Petroleum Refiner, 35,
236–238.
[33] Sartori, N. (2006). Bias prevention of maximum likelihood estimates for scalar skew
normal and skew t distributions. Journal of Statistical Planning and Inference, 136,
259–275.
[34] Vasconcellos, K. L. P., Cordeiro, G. M. (2000). Bias corrected estimates in
multivariate Student t regression models. Communications in Statistics, Theory
and Methods, 29, 797–822.
[35] Vasconcellos, K. L. P., Silva, S. G. (2005). Corrected estimates for Student t
regression models with unknown degrees of freedom. Journal of Statistical
Computation and Simulation, 75, 409–423.
[36] Venables, W. N., Ripley, B. D.(2002). Modern Applied Statistics with S. 4th ed.
Springer Verlag, New York.
[37] Wu, C. F. J. (1986). Jackknife, bootstrap and other resampling methods in
regression analysis. Annals of Statistics, 14, 1261–1295.
[38] Young, D., Bakir, S. (1987). Bias correction for a generalized log-gamma regression
model. Technometrics, 29, 183–191.
101
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo