Download PDF
ads:
ANTÔNIO DE PÁDUA DE MIRANDA HENRIQUES
CLASSIFICAÇÃO DE IMAGENS DE AMBIENTES CORALINOS:
UMA ABORDAGEM EMPREGANDO UMA COMBINAÇÃO DE
CLASSIFICADORES E MÁQUINA DE VETOR DE SUPORTE
Tese apresentada ao Programa de Pós-Graduação em
Engenharia Elétrica e de Computação, como requisito
parcial à obtenção do grau de Doutor em Engenharia Elé-
trica e de Computação - PPgEEC.
Universidade Federal do Rio Grande do Norte.
Orientador: Prof. Dr. Adrião Duarte Dória Neto.
Co-orientador: Prof Dr. Ricardo Farias do Amaral.
NATAL – RN / 2008
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
2
Divisão de Serviços Técnicos
Catalogação da Publicação na Fonte. UFRN / Biblioteca Central
Zila Mamede
Henriques, Antônio de Pádua de
Miranda.
Classificação de imagens de ambientes coralinos : uma abor-
dagem empregando uma combinação de classificadores e máqui-
na de vetor de suporte / Antônio de Pá
dua de Miranda Henriques.
– Natal, RN, 2008.
148 f. : il.
Orientador: Adrião Duarte Dória Neto.
Co-orientador: Ricardo Farias do Amaral.
Tese (Doutorado)
Universidade Federal do Rio Grande do
Norte. Programa de Pós-Graduação em Engenharia Elé
Computação.
1. Recifes de coral – Tese. 2. Classificação de imagem -
Tese. 3.
Máquina de vetor de suporte Tese. I. Dória Neto, Adrião Duar-
te. II. Amaral, Ricardo Farias do. III. Título.
RN/UF/BCZM CDU 551.351.5(043.2)
ads:
3
ANTÔNIO DE PÁDUA DE MIRANDA HENRIQUES
CLASSIFICAÇÃO DE IMAGENS DE AMBIENTES CORALINOS:
UMA ABORDAGEM EMPREGANDO UMA COMBINAÇÃO DE
CLASSIFICADORES E MÁQUINA DE VETOR DE SUPORTE
Natal, 08 de Agosto de 2008.
______________________________________________________
Adrião Duarte Dória Neto, D. Sc. – DCA
Universidade Federal do Rio Grande do Norte
______________________________________________________
Ricardo Farias do Amaral, D. Sc. – Depto de Geologia
Universidade Federal do Rio Grande do Norte
______________________________________________________
Luiz Marcos Garcia Gonçalves, D. Sc. – DECA / UFRN
Universidade Federal do Rio Grande do Norte
______________________________________________________
Francisco Hilário Rego Bezerra, D. Sc. – Depto de Geologia / UFRN
Universidade Federal do Rio Grande do Norte
______________________________________________________
Marcelino Pereira dos Santos Silva, D. Sc – DI / UERN
Universidade do Estado do Rio Grande do Norte
______________________________________________________
Douglas Francisco Marcolino Gherardi, D. Sc. – INPE / SP
Instituto Nacional de Pesquisa Espaciais
4
RESUMO
A utilização de mapas, derivados da classificação de imagens de sensores remotos
orbitais, tornou-se de fundamental importância para viabilizar ações de conservação e monito-
ramento de recifes de corais. Entretanto, a acurácia atingida no mapeamento dessas áreas é
limitada pelo efeito da variação da coluna d’água, que degrada o sinal recebido pelo sensor
orbital e introduz erros no resultado final do processo de classificação. A limitada capacidade
dos métodos tradicionais, baseados em técnicas estatísticas convencionais, para resolver este
tipo de problema determinou a investigação de uma estratégia ligada à área da Inteligência
Computacional. Neste trabalho foi construído um conjunto de classificadores baseados em
Máquinas de Vetor de Suporte e classificador de Distância Mínima, com o objetivo de classi-
ficar imagens de sensoriamento remoto de ecossistema de recifes de corais. O sistema é com-
posto por três estágios, através dos quais acontece o refinamento progressivo do processo de
classificação. Os padrões que receberam uma classificação ambígua em uma determinada
etapa do processo são reavaliados na etapa posterior. A predição não ambígua para todos os
dados aconteceu através da redução ou eliminação dos falsos positivos. As imagens foram
classificadas em cinco tipos de fundos: águas profundas, corais submersos, corais intermarés,
algas e fundo arenoso. A melhor acurácia geral (89%) foi obtida quando foram utilizadas Má-
quinas de Vetor de Suporte com kernel polinomial. A acurácia das imagens classificadas foi
comparada, através da utilização de matriz de erro, aos resultados alcançados pela aplicação
de outros métodos de classificação baseados em um único classificador (redes neurais e o
algoritmo k-means). Ao final, a comparação dos resultados alcançados demonstrou o potenci-
al do conjunto de classificadores como instrumento de classificação de imagens de áreas sub-
mersas, sujeitas aos ruídos provocados pelos efeitos atmosféricos e da coluna d’água.
Palavras-chaves: Recifes de Corais, Classificação de Imagens, Conjunto de Classificadores,
Máquina de Vetor de Suporte
5
ABSTRACT
The use of the maps obtained from remote sensing orbital images submitted to
digital processing became fundamental to optimize conservation and monitoring actions of the
coral reefs. However, the accuracy reached in the mapping of submerged areas is limited by
variation of the water column that degrades the signal received by the orbital sensor and in-
troduces errors in the final result of the classification. The limited capacity of the traditional
methods based on conventional statistical techniques to solve the problems related to the in-
ter-classes took the search of alternative strategies in the area of the Computational Intelli-
gence. In this work an ensemble classifiers was built based on the combination of Support
Vector Machines and Minimum Distance Classifier with the objective of classifying remotely
sensed images of coral reefs ecosystem. The system is composed by three stages, through
which the progressive refinement of the classification process happens. The patterns that re-
ceived an ambiguous classification in a certain stage of the process were revalued in the sub-
sequent stage. The prediction non ambiguous for all the data happened through the reduction
or elimination of the false positive. The images were classified into five bottom-types: deep
water; under-water corals; inter-tidal corals; algal and sandy bottom. The highest overall accu-
racy (89%) was obtained from SVM with polynomial kernel. The accuracy of the classified
image was compared through the use of error matrix to the results obtained by the application
of other classification methods based on a single classifier (neural network and the k-means
algorithm). In the final, the comparison of results achieved demonstrated the potential of the
ensemble classifiers as a tool of classification of images from submerged areas subject to the
noise caused by atmospheric effects and the water column.
Keywords: Coral Reefs, Image Classification, Classifiers Ensemble, Support Vector Machine
6
SUMÁRIO
SUMÁRIO
1. INTRODUÇÃO
7
1.1. Apresentação
7
1.2. Justificativa
10
1.3. Objetivo
12
1.4. Área de Trabalho
12
2. FUNDAMENTAÇÃO TEÓRICA
15
2.1. RECIFES DE CORAIS
15
2.1.1. Ambientes costeiros
15
2.1.2. Geomorfologia dos recifes de corais
16
2.1.3. Ecossistema de recifes de corais brasileiro
20
2.1.4. Ação do homem sobre os recifes de corais
21
2.2. SENSORIAMENTO REMOTO
22
2.2.1. Caracterização das imagens de sensoriamento remoto
22
2.2.2. Sensoriamento remoto em ambiente costeiro
25
2.2.3. Correção da coluna d’água
27
2.2.4. Métodos de classificação em sensoriamento remoto
31
2.3. MAPEAMENTO
34
2.3.1. Informações espaciais georreferenciadas
34
2.3.2. Estimativa da acurácia
36
2.3.3. Mapeamento de ambientes coralinos
38
2.4. MÁQUINA DE VETOR DE SUPORTE
40
2.4.1. Introdução
40
2.4.2. Aprendizagem de máquina
43
2.4.3. Teoria estatística da aprendizagem
45
2.4.4. Máquina de vetor de suporte para classificação
51
2.4.4.1. Determinação do hiperplano ótimo
53
7
2.4.4.2. SVM com margens rígidas
58
2.4.4.3. SVM com margens suaves
61
2.4.4.4. SVM não-lineares
62
2.4.4.5. SVM para várias classes
66
2.5. CONJUNTO DE CLASSIFICADORES
68
3. MATERIAIS E MÉTODOS
73
3.1. MATERIAIS E EQUIPAMENTOS
73
3.1.1. Imagens multiespectrais e fotografias de pequeno formato
74
3.1.2. Dados espaciais e descritivos de levantamentos anteriores
76
3.1.3. Ferramentas computacionais utilizadas
77
3.2. DESENVOLVIMENTO METODOLÓGICO
78
3.2.1. Introdução
79
3.2.2. Pré-processamento dos dados
80
3.2.3. Determinação da batimetria
83
3.2.4. Conjuntos de dados de treinamento e validação
86
3.2.5. Procedimento adotado na classificação dos dados
88
3.2.6. Procedimento para geração dos mapas
95
4. RESULTADOS: APRESENTAÇÃO E ANÁLISE
97
4.1. DADOS DE ENTRADA GERADOS
97
4.2. RESULTADOS APRESENTADOS
104
4.2.1. Quantidade de pixels classificados
104
4.2.2. Desempenho do sistema quanto aos dados de treinamento
106
4.2.3. Desempenho do sistema quanto ao parâmetro C e ao kernel
107
4.2.4. Resultados apresentados pelos módulos
109
4.2.5. Proporção de pixels associados às classes
116
5. CONCLUSÕES E PERSPECTIVAS
135
5.1. CONCLUSÕES
135
5.2. PERSPECTIVAS
138
6. REFERÊNCIAS BIBLIOGRÁFICAS
140
1 INTRODUÇÃO
1.1 APRESENTAÇÃO
A busca de novos instrumentos e técnicas que facilitem a apreensão e a com-
preensão do mundo em que vivemos foi um dos objetivos norteadores do processo de evo-
lução do conhecimento humano. A utilização das imagens geradas a partir de sensores re-
motos de satélites como fonte de dados para estudos em diversas áreas é uma realidade.
As informações repassadas para o público, através da mídia televisiva e impressa sobre:
guerras, previsão meteorológica, desastres ecológicos, etc., utilizam cada vez mais, como
veículo facilitador do processo comunicativo, imagens geradas a partir de satélites.
No campo técnico-científico as imagens geradas através de sensores orbitais e
sub-orbitais são utilizadas como base para estudos e levantamentos que vão do campo da
geografia urbana até as pesquisas por civilizações perdidas, passando pelos estudos e levan-
tamentos florestais, cartográficos, geológicos, oceanográficos, urbanos, etc.
A viabilidade da utilização de imagens de sensores orbitais e sub-orbitais, parti-
cularmente as imagens multiespectrais, que possibilitam a extração de informações nas di-
ferentes partes do espectro eletromagnético facilitando a identificação e discriminação de
alvos de interesse, têm-se revelado uma valiosa ferramenta para pesquisadores da área de
recursos naturais.
O grande interesse do uso de imagens de sensoriamento remoto como fonte de
9
informação para a produção de mapas, como explica Fonseca (2000), é resultado da tempo-
ralidade da informação e da boa relação custo benefício proveniente do seu uso. Outro as-
pecto, destacado pela autora, está relacionado ao potencial dos dados coletados pelos senso-
res orbitais para detectar mudanças ocorridas no ambiente, permitindo assim monitorar de
forma adequada à dinâmica dos processos econômicos e sociais e seus efeitos sobre os am-
bientes estudados.
O Mapeamento de hábitat e outros produtos derivados da utilização de sensori-
amento remoto de satélites estão sendo utilizados, cada vez mais, por pesquisadores e ges-
tores de ambientes costeiros, responsáveis pela conservação e monitoramento dos recursos
naturais destes ambientes (Mumby e Edwards, 2000). Estudo realizado e apresentado por
Edwards (2000) destaca as três principais formas de utilização do Sensoriamento Remoto
para gerenciamento costeiro:
Sua utilização como base para o plano de gerenciamento;
Seu uso na detecção de mudanças no ambiente ao longo do tempo;
Na estruturação de estratégias de monitoramento.
Crósta (1999) destaca a importância da utilização de sistemas computacionais
para análise e manipulação de imagens brutas de sensoriamento remoto no sentido da pro-
dução de outras imagens que contenham informações específicas para um determinado ob-
jetivo. O autor reforça a idéia lembrando que o processamento digital de imagens deve ser
encarado como um estágio, na maioria das vezes imprescindível, para atividade de extração
de informações a partir de imagens.
Segundo o mesmo autor, geralmente a quantidade de informação contida em
uma imagem vai além da capacidade humana, fazendo-se necessário à utilização de técni-
cas de processamento que possam torná-la mais visível, ou representá-la de uma forma pela
qual ela possa ser percebida melhor.
O aperfeiçoamento dos métodos de processamento de imagens digitais, com o
objetivo final de aumentar a quantidade de informação disponível para uma determinada
aplicação, continua a ser realizado a cada dia. A área de processamento digital de imagens
vem crescendo vigorosamente a partir de 1964, quando foram utilizadas pela primeira vez
técnicas de computação para o melhoramento de imagens produzidas por uma sonda espa-
10
cial (Gonzales e Woods, 2000).
As técnicas utilizadas no processamento digital de imagens de sensoriamento
remoto têm como objetivo final extrair, condensar e/ou realçar informações importantes
para uma determinada atividade. Estas diversas técnicas, segundo Eastman (2001) podem
ser divididas em quatro grupos de operações básicas:
I. Correção e calibração, utilizadas para obter uma representação da terra mais acurada
quanto possível;
II. Realce de Imagens, que objetiva otimizar a aparência da imagem para o sistema visu-
al humano;
III. Classificação de Imagens, que refere-se a interpretação de imagem por computador;
IV. Transformação de Imagens, que está relacionada à derivação de novas imagens atra-
vés de algum tratamento matemático das bandas das imagens brutas.
Abordagens tradicionais baseadas em técnicas estatísticas convencionais, tais
como: máxima verossimilhança e mínima distância têm sido aplicadas rotineiramente na
classificação de imagens de sensores orbitais. Porém a limitada capacidade destes métodos
para resolver os problemas relacionados a interclasse, levou a busca de estratégias alterna-
tivas na área da Inteligência Computacional (Matter, 1999). Estas alternativas se concen-
tram na utilização de propostas baseadas em Máquinas de Aprendizagem.
As Máquinas de Vetor de Suporte (SVM Support Vector Machine) constitu-
em um tipo especial de máquinas de aprendizagem introduzidas por Vapinik e co-autores,
baseadas na teoria estatística da aprendizagem (Vapinik, 1995) e tem sido reconhecida nos
últimos anos como uma eficiente técnica para solução de problemas de classificação. Os
resultados obtidos apresentam desempenho superior aos obtidos pela aplicação de outros
algoritmos de aprendizagem (Haykin, 2001). Trabalhos recentes têm demonstrado a viabi-
lidade e o potencial da utilização de SVM para o enfrentamento de problemas de classifica-
ção de imagens de sensoriamento remoto orbital.
11
1.2 JUSTIFICATIVA
A crescente atividade humana, particularmente aquelas relacionadas ao turismo
e a pesca esportiva e predatória, vêm infringindo severos danos em muitos dos ambientes
coralinos em todo o mundo. Com o objetivo de proteger estes preciosos ambientes, varias
ações governamentais e não-governamentais estão em andamento. O mapeamento através
de imagens de sensores remotos orbitais e sub-orbitais, uma das ferramentas mais utiliza-
das, tem como objetivo final o mapeamento das áreas de crescimento e destruição e a de-
terminação da densidade da cobertura especifica (coral, algas e fundo arenoso) e se possível
os diversos tipos de corais presentes.
No Brasil, onde as formações recifais localizam-se principalmente na Costa
Nordeste e Sudeste (entre os Estados do Ceará e do Rio de Janeiro), a situação dos recifes
de corais não é diferente. Para Castro (1994) pode-se afirmar que o conhecimento sobre
grande parte dos recifes brasileiros limita-se apenas às informações rudimentares sobre sua
origem, constituição, fauna, flora, ecologia, parâmetros físico-químicos e o impacto da in-
fluência antrópica. Os trabalhos publicados por Leão (1996) sobre os recifes de corais do
Estado da Bahia, e por Maida & Ferreira (1997), no qual os autores avaliam pressões antró-
picas sobre recifes brasileiros, são algumas das poucas fontes que podem servir de referên-
cia para avaliar a situação destes ambientes no Brasil. A grave situação dos ambientes cora-
linos foi confirmada durante o workshop Avaliação e Ações Prioritárias para a Zona Cos-
teira e Marinha” realizado em 1997, no qual foi recomendado, entre outras ações, o mape-
amento urgente da área destes ambientes (PROBIO, 1999).
A utilização de imagens de sensoriamento remoto como fonte atualizada para a
produção de mapas é uma realidade, porém a utilização destas imagens está diretamente
relacionada à possibilidade de utilização de técnicas de processamento digital de imagens
que possam diminuir os vários tipos de distorções inerentes ao processo de aquisição,
transmissão e visualização e conseqüentemente facilitar a identificação e extração da in-
formação contida nas imagens.
O desenvolvimento de algumas técnicas de processamento de imagens de sen-
soriamento remoto tem como objetivo específico um melhoramento na qualidade visual da
imagem. Em ambientes submersos, no qual a profundidade da água afeta de forma signifi-
12
cativa às medidas realizadas, através de sensores orbitais e sub-orbitais destas áreas, a utili-
zação de métodos para compensação dos efeitos da variável profundidade é de fundamental
importância para a exatidão do mapeamento e a fidedignidade das informações coletadas
nestes ambientes.
No Brasil, dentre os vários problemas enfrentados em ambientes costeiros, re-
sultante do crescimento vertiginoso da população, da especulação imobiliária e do turismo
desordenado, destaca-se a situação crítica relacionada aos ecossistemas de recifes de corais.
Portanto, a busca de ferramentas mais eficientes que aprimorem o mapeamento destes am-
bientes torna-se de fundamental importância para o desenvolvimento de propostas de ges-
tão e monitoramento destas áreas (Braga e Gherardi, 2001).
Um desafio específico na produção de mapas, derivados da classificação de i-
magens de sensores remotos orbitais de ambientes costeiros subaquáticos, está relacionado
com efeitos atmosféricos e da coluna de água, que degrada o sinal recebido pelo sensor
orbital. Devido aos processos de espalhamento e absorção da energia eletromagnética, dife-
rentes fundos, que geralmente apresentam uma assinatura espectral única, podem apresen-
tar uma resposta espectral muito semelhante criando interclasses (um pixel pode conter
informações de mais de uma classe), que introduzem erros no resultado final do processo
de classificação (Green, 2000).
Por outro lado, a acurácia do mapeamento, a partir da classificação dessas ima-
gens, depende, sobretudo, da assinatura espectral dos vários tipos de fundo, e da habilidade
do algoritmo utilizado para separá-las. A limitada capacidade das abordagens tradicionais
baseadas em técnicas estatísticas convencionais para resolver os problemas relacionados a
interclasse, levou a busca de estratégias baseadas na Aprendizagem de Máquina para solu-
ção destes problemas.
Neste trabalho, propomos a integração de duas diferentes abordagens de apren-
dizagem supervisionada: Máquina de Vetor de Suporte e a Combinação de Classificadores
(Conjunto de Classificadores). Uma Máquina de Vetor de Suporte constitui um tipo especi-
al de quina de aprendizagem, que tem sido reconhecida nos últimos anos como uma efi-
ciente ferramenta para a solução dos problemas de classificação, tornando-se também popu-
lar para a classificação de imagens multiespectrais de sensoriamento remoto (BROWN et
al., 2000; HUANG et al., 2002; MITRA et al). A abordagem da combinação de classifica-
13
dores está baseada na idéia da utilização de um conjunto de classificadores (combinando
suas previsões individuais), com objetivo de atingir um melhor desempenho quando com-
parado com o desempenho alcançado com a utilização de um único classificador (DIET-
TERICH, 2000).
1.3 OBJETIVO
O objetivo geral deste estudo é avaliar a eficácia de um conjunto de classifica-
dores baseado em Máquinas de Vetores de Suporte, na identificação e extração de informa-
ções a partir de imagens de sensoriamento remoto de ambientes coralinos, sujeitas aos pro-
cessos de espalhamento, e absorção, da energia eletromagnética provenientes do efeito at-
mosférico e coluna d’água.
1.4 ÁREA DE TRABALHO
Através do decreto no. 15.476 de 06 de junho de 2001 o governo do Estado do
Rio Grande do Norte criou a Área de Proteção Ambiental dos Recifes de Corais APARC.
A área protegida corresponde à região marinha que abrange a faixa costeira dos municípios
de Maxaranguape, Rio do Fogo e Touros, tendo uma área de 180.000 hectares. Seus limites
norte e sul, ao longo da linha de costa são, em coordenadas UTM, 9419 e 9398 km N, res-
pectivamente. Seus limites leste e oeste são respectivamente 255 e 240 km E, o que limita
uma região entre uma profundidade de cerca de 20 metros e a linha de costa. A área delimi-
tada inclui a plataforma rasa em frente à linha de costa que vai desde o Cabo de São Roque
até o Cabo Calcanhar na porção nordeste do Estado do Rio Grande do Norte.
A área de trabalho deste projeto é formada pelas formações recifais de Maraca-
jaú, Rio do Fogo e Cioba, circunscritas na área da APARC-RN (figura 1.1). Dentro da área
da APARC a formação recifal de Maracajaú destaca-se dentre as feições mais importantes,
afastada 3,5 km da linha de costa e cerca de 9 Km de comprimento e 3 km de largura é par-
14
cialmente emerso nas marés baixas. A profundidade varia no seu topo plano entre 1 e 3
metros na baixa-mar e a distância da praia até este recifes de corais é de aproximadamente
7 km (Amaral, 2003).
Figura 1.1. Localização das três áreas de trabalho (Maracajaú, Rio do Fogo e Cioba), e dos
municípios costeiros adjacentes à área da APARC – RN.
15
Entretanto, é a quantidade e qualidade das informações relacionadas a Baixio de
Maracajaú que o torna ponto de partida para o desenvolvimento deste trabalho. As informa-
ções resultantes do trabalho de Amaral (2003) e Lima (2002) foram fundamentais para trei-
namento e validação do sistema de classificação proposto. a partir da validação do sis-
tema, respaldada nas informações complementares disponíveis sobre a formação de Mara-
cajaú, foi possível realizar o processo de classificação das outras duas áreas de trabalho.
Como descrito em Amaral (2003), estes ecossistemas constituem um dos ambi-
entes mais frágeis e ameaçados do planeta, no entanto possuem grande importância econô-
mica, pois representam a fonte de recursos pesqueiros para muitas comunidades. Protegem
o litoral contra a ação das ondas, proporcionam empregos por meio do turismo e recreação
marinha, além de outros incontáveis benefícios aos seres humanos, incluindo fontes de
substâncias medicinais.
Figura 1.2. Fotografia aérea da Área de Uso Turístico Intensivo, localizada na formação
recifal de Maracajaú. Na parte superior da imagem as lanchas de uso turístico e na parte
inferior os 5 flutuantes fixos (Maracajaú Diver 1 e 2, Ma-noa, Corais de Maracajaú). Foto:
Nelson.
16
2 FUNDAMENTAÇÃO TEÓRICA
2.1 RECIFES DE CORAIS
2.1.1 Ambientes Costeiros
Segundo Tessler e Mahiques (2001) a informação direta de que os oceanos co-
brem 70% da superfície da Terra, constantemente divulgada em livros didáticos e textos
científicos, o faz jus à grande importância dos oceanos como parte do intrincado sistema
de auto-regulação do planeta terra.
A Plataforma Continental margeia os continentes, e é constituída por extensões
submersas dos mesmos, apresentando pequena declividade em relação ao mar. Apesar de
representarem, em termos de superfície, uma pequena parcela dos oceanos, ela é responsá-
veis por mais de 90% de toda proteína animal retirada dos oceanos, pela atividade econô-
mica humana (Tessler e Mahiques, 2001).
A Plataforma Continental Brasileira apresenta as maiores larguras ao longo do
setor sul, chegando a 350 km junto à foz do rio Amazonas e 246 na região de Abrolhos. No
Rio Grande do Norte, a plataforma varia de uma largura máxima de 50 km na extremidade
nordeste, defronte a cidade de Touros a 20 Km na cidade de Baia Formosa (Tessler e Ma-
hiques, 2001).
17
Os estudos geológicos e geomorfológicos globais mais recentes da Plataforma
Continental Brasileira foram realizados através do Projeto REMAC, criado em 1972. A
utilização de imagens de sensores remotos para compreensão das estruturas regionais foi
realizada pela equipe do INPE -Instituto Nacional de Pesquisas Espaciais.
A Diretoria de Hidrografia e Navegação é a responsável pela primeira base de
informações sistemáticas e constantes sobre a batimetria da plataforma continental do Nor-
deste do Brasil, publicadas através das cartas náuticas. Apesar destas cartas delimitarem a
área da plataforma e apresentarem um grande número de medidas de profundidades, con-
centram suas medições nas proximidades das zonas portuárias (Chaves, 1979).
A Zona Costeira pode ser caracterizada como sistema ambiental especial for-
mado na área de integração direta entre os componentes da geosfera (continente) e, compo-
nentes da hidrosfera (oceano), e atmosfera. A zona costeira brasileira possui 8.000 km de
extensão, sendo uma das maiores do mundo. Ao longo dessa faixa litorânea é possível iden-
tificar uma grande diversidade de paisagens como dunas, ilhas, recifes, costões rochosos,
baías, estuários, brejos e falésias. Mesmo os ecossistemas que se repetem ao longo do lito-
ral - como praias, restingas, lagunas e manguezais - apresentam diferentes espécies animais
e vegetais. Isso se deve, basicamente, às diferenças climáticas e geológicas (Asmus et al.,
1999).
2.1.2 Geomorfologia dos Recifes de Corais
Christofoletti (1980) explica que o termo recifes foi utilizado inicialmente com
o objetivo de designar qualquer proeminência rochosa perto da superfície do oceano, inter-
ceptando as ondas e constituindo obstáculos para navegação. O autor acrescenta que ao
utilizar o termo recifes de corais para todos os recifes, como se as edificações encontradas
nestas áreas fossem constituídas apenas por corais, Charles Darwin contribuiu de forma
significativa para que o termo recifes de corais fosse utilizado de forma genérica para de-
signar todos os tipos de estruturas encontradas nos mares tropicais e que representassem
obstáculos para navegação. Segundo o mesmo autor uma definição atualizada conceituaria
18
os recifes como um complexo organogênico de carbonato de cálcio (primariamente de co-
rais) que forma uma saliência rochosa no soalho marinho e que geralmente cresce até o
limite das marés. Como explica o autor existem várias teorias sobre a formação dos recifes
de corais, porém as mais aceitas são de Charles Darwin e Reginald Daly. De acordo com a
teoria de Darwin, os atóis se desenvolveriam sobre uma ilha vulcânica em via de submer-
são. Os corais formariam em principio um recife de franja, em seguida um recife de barrei-
ra e, finalmente, um atol quando a ilha vulcânica submergisse totalmente. A segunda teoria,
sugerida por Daly, vincula o desenvolvimento dos corais às oscilações glacio-eustáticas
quaternárias.
Dentre as várias formas apresentadas pelos recifes de corais Christofoletti
(1980) argumenta que três delas podem ser consideradas de maior importância: Os atóis, os
recifes em franja (fringing reefs) e os recifes em barreira (barriers reefs). Os recifes em
franja são a forma básica dos recifes de corais que crescem em águas rasas e limitam-se as
áreas perto da costa ou estão separados desta por alguns canais existentes (Figura 2.1 (a)).
Do ponto de vista do autor, os recifes em franjas podem ser subdivididos em duas estrutu-
ras sicas: os recifes que o o protegidos por barreiras e que ficam diretamente expos-
tos a ondas do mar aberto, e os que estão protegidos por barreiras. Os últimos são os mais
comumente encontrados e apresentam lagoas internas nas marés baixas. Os recifes em bar-
reira apresentam um perfil bem característico: do lado oceânico a declividade é íngreme,
contrastando com a parte interior que apresenta uma declividade suave. Uma outra forte
característica é a existência na parte interna de uma ou mais ilhas não recifais (Figura 2.1
(b)). O terceiro tipo de recifes de corais é o atol (Figura 2.1 (c)). Os Atóis são anéis de
recifes de corais, a lagoa interna delimitada pelos anéis não ultrapassa a profundidade de 30
metros, a grande diferença na declividade do lado externo e interno dos atóis é uma das
suas principais características, a declividade exterior em direção ao mar circundante é acen-
tuada, chegando a atingir mais de 45 graus, enquanto a declividade interior em direção a
laguna é bastante suave.
19
(a) Recifes em Franja (b) Recifes em Barreira (c) Atóis
Figura 2.1 - Principais tipos de recifes de Corais - Fonte: http://www.com.univ-mrs.fr/
Guilcher (1988) amplia o conceito de recifes de corais, explicando que os reci-
fes de corais formam uma associação simbiótica na qual muitos outros organismos vivos
contribuem e modelam uma estrutura comum. Dentre estes organismos estão incluídos al-
gas, foraminífera, crustáceos, gastropods, lamellibrands, echinoderms, holothurians e pei-
xes. A área na qual os corais desenvolvem-se está localizada principalmente entre os trópi-
cos de Câncer e Capricórnio. Apesar de algumas espécies tolerarem temperaturas abaixo de
15º C e acima de 36º C por um breve período de tempo, eles necessitam de águas nas quais
a temperatura varia entre 17-18º C e 33-34º C para crescer adequadamente, limitando sua
ocorrência em uma grande faixa que circunda todo o planeta (Figura 2.2). As chances de
sobrevivência destes corais podem ser interrompidas por correntes frias existentes em al-
gumas áreas desta faixa.
Entretanto, segundo o mesmo autor, a temperatura o é a única variável limi-
tante da ocorrência, os corais se desenvolvem perto da superfície da água, dependendo dire-
tamente da presença da luz. Assim, a profundidade da água também limita a distribuição
vertical dos recifes. Os recifes coralinos desenvolvem-se bem em até 25 m de profundidade
não conseguindo sobreviver a mais de 70 m. A transparência das águas e a sua salinidade
são outros dois fatores que interferem diretamente sobre o crescimento dos corais. A pre-
sença de águas turvas, causadas principalmente por excesso de partículas em suspensão ou
por baixa circulação, dificulta o desenvolvimento dos corais, pois limitam a execução das
suas funções básicas de fotossíntese, alimentação e excreção. Em relação à salinidade da
água, existe pouca tolerância aos valores de salinidade muito diferentes do intervalo entre
30 a 38 ppm. No entanto encontramos no Mar Vermelho, recifes que resistem a salinidades
em torno dos 40 a 41 ppm.
20
Figura 2.2 – Distribuição de corais no mundo - Fonte: http://www.coris.noaa.gov
Uma sub divisão mais detalhada em subtipos dos recifes em franja é apresenta-
do por Guilcher (1988) onde as principais características classificadoras estão diretamente
relacionadas com a existência ou não de canais e de pequenas lagoas. O autor acrescenta
que os recifes em barreira podem ser contínuos, com apenas algumas passagens ou apresen-
tarem-se de forma fragmentada, compostos por pequenas unidades recifais. Além disso,
explica que os recifes em franjas são, particularmente, encontrados na Costa do Mar Ver-
melho devido ao clima árido e o abastecimento de sedimento ser restrito.
Do ponto de vista de Burchette e Wrigth (1992), a classificação dos recifes não
pode ser caracterizada com base apenas na natureza dos organismos dominantes que parti-
ciparam da sua construção (exemplo: algas, estromatoporoides, ruditos e corais) ou através
de sua morfologia (atol, recifes de barreiras e recifes de franjas). Os complexos de recifes e
as manchas recifais são considerados como as duas estruturas básicas de classificação, po-
rém o autor argumenta que estudos mais recentes revelam numerosos sub ambientes reci-
fais.
Os recifes de corais estão entre os ecossistemas mais produtivos e ricos em bio-
diversidade, comparáveis às exuberantes florestas tropicais, e desenvolvem-se em áreas
rasas e quentes afastadas da desembocadura de grandes rios. No Brasil, diferentes tipos de
recifes orgânicos são encontrados na região Nordeste (Leão, 1994).
21
2.1.3 Ecossistema de recifes de corais brasileiro
Como evidenciado no plano de trabalho elaborado pelo Programa HI-
DRO/INPE e a Diretoria de Áreas Protegidas (2001), no território brasileiro os recifes de
corais se distribuem por cerca de 3.000 km da costa nordeste, até a costa sudeste, constitu-
indo os únicos ecossistemas recifais do Atlântico Sul. A maioria das espécies de coral que
forma estes recifes é endêmica, ocorrendo apenas em águas brasileiras, as estruturas tam-
bém são singulares, não sendo encontradas em nenhuma outra parte do mundo. Castro
(1994) reforça a importância dos recifes brasileiros, afirmando que devido às suas diferen-
ças, biológicas e geomorfológicas, os mesmos não formam uma unidade homogênea, exi-
gindo posturas diferenciadas de pesquisa, manejo e conservação.
Figura 2.3 – Distribuição de corais no Brasil - Fonte: Guilcher (1988).
As formações recifais brasileiras localizam-se principalmente entre o litoral
norte do Estado do Ceará e o litoral norte do Estado do Rio de Janeiro (Figura 2.3). Porém
colônias isoladas de corais, que não podem ser caracterizadas como recifes, são encontradas
desde a região equatorial compreendida entre o litoral norte do país até áreas do Estado de
22
Santa Catarina (Gomes, 2001). Maida e Ferreira (1997) esclarecem que a fauna brasileira
inclui 18 espécies, das quais sete destas espécies são consideradas endêmicas, e que os co-
rais brasileiros estão bastante relacionados com espécies encontradas na Europa, bem como
as encontradas no Caribe.
Os mesmos autores relatam fatos interessantes sobre os estudos relacionados
aos recifes de corais no Brasil, dividindo-os em duas fases, a primeira pioneira iniciou-se
em 1828 com uma expedição germânica dos naturalistas von Spix e von Martius, e teve
como destaque o trabalho publicado por Darwin em 1841, no qual ele descreve os recifes
localizados em frente à cidade do Recife, fato este que foi diretamente responsável pelo
atual nome da Cidade. A segunda fase de estudos e pesquisas, segundo os autores, teve ini-
cio nos anos 80 com o estudo detalhado realizado por Zelinda Leão sobre os recifes de co-
rais do Estado da Bahia. Atualmente, os órgãos governamentais federais e estaduais são os
responsáveis diretos pela preservação e divulgação das pesquisas nesta área.
2.1.4 Ação do homem sobre os recifes de corais
A vida dos ambientes coralinos tem declinado durante as últimas décadas em
muitas partes do mundo, dentre outros a poluição e o dano causado pela prática de pesca
desordenada e predatória são destrutivos aos delicados e frágeis corais, na medida em que
aqueles desequilibram o meio ambiente alterando a cadeia alimentar e o ciclo de vida do
ecossistema (Guilcher, 1988).
Dentre os diversos ecossistemas presentes na Zona Costeira Nordestina, tais
como: manguezais, recifes de corais, dunas, restingas, praias arenosas, costões rochosos,
lagoas e estuários, a situação de maior criticidade identificada refere-se aos ecossistemas de
recifes de corais (Probio, 1999).
No nordeste do Brasil, cerca de 18 milhões de pessoas vivem na região costeira.
A saúde, o bem estar e, em alguns casos, a sobrevivência dessas populações costeiras de-
pende diretamente da saúde e bem estar dos ecossistemas marinhos e costeiros, em especial
dos recifes de corais e ecossistemas associados (Braga e Gherardi, 2001).
23
Segundo Maida e Ferreira (1997) o desenvolvimento costeiro, o turismo e a
pesca predatória estão entre os principais fatores responsáveis pelos impactos negativos
relacionados às alterações na composição das comunidades recifais.
Apesar dessas indicações de degradação, não temos, como evidenciado no pla-
no de trabalho elaborado pelo Grupo de Pesquisa em Ecossistemas Marinhos (Braga e Ghe-
rardi, 2001) e Diretoria de Áreas Protegidas (Secretaria de Biodiversidade e Florestas
/MMA), uma visão geral do estado da saúde da maioria dos recifes brasileiros, nem uma
avaliação das principais causas antrópicas, ou mesmo naturais, que estão gerando alterações
em diferentes áreas do Nordeste.
2.2 SENSORIAMENTO REMOTO
2.2.1 Caracterização das imagens de sensoriamento remoto
A coleta de imagens sobre alvos ou objetos da superfície terrestre pode ser rea-
lizada através de sensores remotos presentes em satélites (sensores orbitais) ou através de
sensores aerotransportados (sub-orbitais). O registro das imagens é realizado por filmes
fotográficos fotossensíveis ou através de dispositivos de aquisição eletrônica de imagens.
O sensoriamento remoto envolve, basicamente, a medição da radiação eletro-
magnética refletida ou emitida pela superfície dos objetos. Dependendo da propriedade do
objeto presente na superfície terrestre, a radiação eletromagnética pode sofrer absorção,
reflexão e transmissão. Os comprimentos de ondas refletidos e captados pelos sensores re-
motos são utilizados na identificação deste objeto (Matter, 1999).
A natureza dos sistemas de sensores utilizada para geração das imagens remotas
determina as características das imagens. As principais características que diferenciam
estas imagens de outras imagens digitais estão relacionadas com sua estrutura e sua resolu-
24
ção.
Crósta (1999) caracteriza as imagens de sensoriamento remoto como constituí-
das por um arranjo de elementos sob a forma de uma malha ou gride, com cada cela dessa
malha tendo uma localização definida (x, y) em um sistema de coordenadas, e um terceiro
elemento “z” que indica o nível de cinza dessa cela, denotado por DN (digital number). O
autor esclarece que o valor DN, que representa a intensidade da energia eletromagnética
refletida ou emitida, corresponde sempre à média da medida da intensidade da energia dos
diferentes materiais presentes na área do terreno representado pela cela ou pixel (picture
element). A resolução em sensoriamento remoto pode ser subdividida em três diferentes
parâmetros: resolução espacial, resolução espectral e resolução radiométrica.
Diferentes sistemas de sensores possuem resoluções espaciais diferentes, que
determinam a capacidade do sensor de distinguir objetos na superfície terrestre (Novo,
1992). A resolução espacial dos sensores orbitais freqüentemente utilizados para o gerenci-
amento costeiro varia entre 1 m – Ikonos a 80 m -Landsat MMS (Tabela 2.1)
Tabela 2.1 – Resolução espacial de alguns sensores utilizados no Gerenciamento Costeiro
SATELITE / SENSOR RESOLUÇÃO
IKONOS 1 m
SPOT - Pan 10 m
CERS (Multi-espectral) 20 m
Seasat Radar 25 m
Landsat - TM 30 m
Landsat – MSS 80m
A resolução espectral é um conceito diretamente relacionado com a capacidade
de alguns sensores de adquirir uma coleção de imagens de uma mesma cena, com respostas
espectrais diferentes, criando uma imagem multiespectral. Assim, a resolução espectral é
definida, como descreve Crósta (1999), pelo número de bandas espectrais de um sistema
sensor e pela largura do intervalo de comprimento de onda coberto por cada banda. Uma
imagem colorida de uma cena é conseguida através da concatenação de três bandas espec-
25
trais diferentes. A composição colorida é a mais tradicional forma de combinar 3 bandas
espectrais, associando-as ao sistema de cores RGB. A atribuição de cores para as bandas é
arbitrária, porém como explica Fonseca (2000), para produzir uma composição colorida
deve-se fazer uma prévia seleção das bandas para que a imagem colorida gerada traduza a
informação espectral desejada, para o olho humano (Figura 2.4).
A escolha das bandas utilizadas depende diretamente dos objetivos da aplica-
ção. Como descrito em Eastman (2001), na maioria dos ambientes naturais as bandas de
comprimento de onda do infravermelho próximo e do vermelho são as que carregam a mai-
or parte de informações. Para aplicações em ambientes costeiros, objeto de estudo deste
trabalho, existe um interesse especial em bandas situadas na parte visível, infravermelho
próximo e na radiação infravermelho termal (Mumby e Edwards, 2000).
Figura 2.4 Composição colorida de imagens ETM+ (Canal B Banda 1, Canal G
Banda 2 e Canal R Banda 3), relativa à área do baixo de Maracajaú.
A resolução radiométrica refere-se ao número de níveis digitais (níveis de cin-
za) utilizados para representar a imagem adquirida. A resolução radiométrica dos sensores
mais utilizados atualmente, satélites LANDSAT e SPOT, variam entre 64 a 256 níveis de
cinza (Crósta, 1999).
O tamanho do arquivo da imagem adquirida é diretamente proporcional à reso-
lução radiométrica do sensor. Uma imagem composta pelas sete bandas do sistema sensor
ETM+ 1
ETM+ 2
ETM+ 3
Composição Colorida
26
do LANDSAT TM, que possui uma resolução espacial de 30 metros e uma resolução ra-
diométrica de oito bits, é composta, aproximadamente, por 270 milhões de bytes ou 270
Mb. A capacidade de armazenamento e de transmissão de dados pelo sistema sensor deter-
mina a relação entre resolução e a área coberta pelo sensor, uma alta resolução exige uma
redução relativa da área coberta pelo sensor (Mumby e Edwards, 2000).
Outros autores, como Green (2000) e Novo (1992), apresentam a resolução
temporal como um quarto parâmetro que caracteriza as imagens provenientes de sensores
orbitais. A resolução temporal está relacionada com o intervalo de tempo no qual é possível
obter uma outra imagem da mesma cena, isto é, o intervalo de tempo entre consecutivas
passagens do satélite por um posto determinado. A resolução espacial tem fundamental
importância para estudos relacionados ao monitoramento das modificações sofridas pelo
ambiente estudado.
2.2.2 Sensoriamento remoto em ambiente costeiro
Apesar de existirem sensores capazes de medir a radiação em diferentes partes
do espectro eletromagnético, apenas alguns são de maior interesse para as aplicações em
ambientes costeiros (Green, 2000). Os sensores capazes de medir a radiação eletromagnéti-
ca refletida na faixa do visível ou infravermelho próximo da superfície da terra ou a energia
infravermelha termal emitida são, a princípio, os mais utilizados.
Os sensores orbitais utilizados para aplicações em gerenciamento costeiro, se-
gundo Green (2000), podem ser divididos em três categorias, com base em sua resolução
espacial: aqueles com resolução maior do que 100 m, os com resolução entre 10 e 100 m e
os com resolução menor do que 10 m. Os sensores com resolução maior do que 100 m são
bastante utilizados no monitoramento da temperatura da água do mar e na determinação da
concentração de clorofila destes ambientes.
O segundo grupo de sensores (10-100 m) por apresentarem uma melhor resolu-
ção espacial, fornecendo uma quantidade maior de informações, é mais apropriado para
ambientes biológicos, podendo ser utilizado para criação de diferentes mapas deste hábitat.
27
Tradicionalmente, os sensores mais utilizados são MSS - Multispectral Scanner Subsystem
(instalados a bordo dos primeiros satélites da série Landsat); o TM - Thematic Mapper (a
bordo dos satélites LANDSAT 4 e 5); e os sensores HRV Haute Resolution Visible, os
quais constituem a carga útil do satélite francês SPOT.
Lançado em 15 de abril de 1999, o LandSat 7 foi o último membro da família
LandSat. Os sensores do LandSat 7 ETM+ (Enhanced Thematic Mapper), com uma resolu-
ção de 30 metros para sete bandas e 15 metros para banda pancromática, têm a capacidade
de produzir imagens de uma mesma área a cada 16 dias, tornando-o uma excelente ferra-
menta para o monitoramento das mudanças ambientais através da comparação de imagens
adquiridas em datas distintas, porém bastante próximas.
A utilização de sensores orbitais com resolução menor que 10 metros para o es-
tudo e monitoramento de ambiente costeiro vem crescendo nos últimos anos. Em seu traba-
lho Abileah (2001) utilizou as imagens de alta resolução do satélite Ikonos (1 metro de re-
solução para imagens pancromáticas e 4 metros) para imagens multiespectrais, como fer-
ramenta para o monitoramento da saúde dos recifes de corais na área de Maui – Hawai.
Além das correções radiométricas e geométricas realizadas sobre as imagens
brutas, antes de serem utilizadas nas aplicações em ambientes costeiros, torna-se necessário
a correção atmosférica. Como descreve Fonseca (2000), a atmosfera influencia diretamente
na quantidade de radiação refletida, seja através da absorção, que subtrai valores desta radi-
ação, seja através do espalhamento, que adiciona valores à resposta espectral de um deter-
minado alvo. A aleatoriedade e o número de variáveis torna a modelagem do processo de
espalhamento e absorção da atmosfera um processo muito complexo. Entretanto, alguns
modelos, que tentam estimar por meio de aproximações os efeitos atmosféricos apresen-
tam-se como uma excelente alternativa a esta modelagem.
Um dos métodos considerados efetivos para redução dos efeitos atmosféricos
envolve a aplicação Análise de Componentes Principais (Crósta, 1999). Esse método se
baseia no fato de que as bandas de uma imagem multiespectral guardam um alto grau de
correlação, onde a presença de correlação entre as bandas implica que existe redundância
nos dados. O espaço de dados é transformado em espaço de característica. A transformação
é projetada de tal forma que o conjunto de dados pode ser representado por um conjunto
reduzido de características e ainda reter a maioria do conteúdo da informação intrínseca dos
28
dados (Haykin, 2001). Porém, como destaca Tso e Matter (2001), não existe razão para
assumir que os componentes de ordem baixa não contenham informações discriminantes.
2.2.3 Correção da coluna d’ água
Em ambientes costeiros subaquáticos, além da correção atmosférica, torna-se
necessário à correção dos efeitos gerados pela coluna de água. A intensidade da radiação
eletromagnética decai exponencialmente em relação ao aumento da profundidade, este pro-
cesso, conhecido como atenuação, exerce um forte efeito no desempenho dos sensores re-
motos em ambientes aquáticos (Mumby e Edwards, 2000). Segundo Edwards (2000) a téc-
nica de correção da coluna de água é subutilizada, apesar de se mostrar essencial para redu-
ção dos custos e aprimoramento da acurácia destes projetos em ambientes submersos. Em
apenas 9% de 45 estudos, revisados pelo autor, foi realizada a técnica de correção da coluna
d’água.
Os processos de absorção e dispersão são responsáveis pelo decréscimo da in-
tensidade da luz com o incremento da profundidade (Figura 2.5). O processo de absorção
envolve basicamente a conversão de energia eletromagnética em outras formas de energia.
As algas, as partículas de matéria orgânica e inorgânica, e a própria água são os principais
absorvedores em ambientes marítimo. Por outro lado, a troca de direções causadas pela
interação com as partículas orgânicas e inorgânicas em suspensão na água é a principal cau-
sa do processo de dispersão da energia eletromagnética.
O efeito de atenuação não acontece de forma homogênea sobre todo o espectro
eletromagnético, ele está diretamente relacionado ao comprimento de onda. A Figura 2.6
mostra o efeito da atenuação provocado pela coluna de água sobre diferentes partes do es-
pectro eletromagnético.
29
Figura 2.5 – Esquema dos processos de absorção e dispersão responsáveis pelo decréscimo
da intensidade da luz como resultado do efeito atmosférico e da coluna d’água.
Figura 2.6 Efeitos da profundidade sobre a medida dos sensores. Fonte: Mumby e Ed-
wards (2000).
30
Mumby e Edwards (2000) explicam que remover a influência da profundidade
sobre a reflectância dos diversos tipos de fundos, é tarefa muito difícil de realização, pois
exige a medida da profundidade de cada pixel da imagem e o conhecimento das caracterís-
ticas da coluna de água. Porém, como realça os autores, um bom modelo digital de terreno
para ambientes de recifes de corais é raro e na maioria das vezes não preciso. Lyzenga
(1978) propôs uma abordagem alternativa para compensar os efeitos da variável profundi-
dade a partir de imagens de sensoriamento remoto.
O procedimento, proposto pelo autor, está dividido em quatro passos: a remo-
ção da dispersão da atmosfera e da reflectância externa da superfície da água; a linearização
da relação entre profundidade e radiância; o cálculo da taxa dos coeficientes de atenuação
para cada par de bandas e a geração do índice de variância da profundidade para um
determinado tipo de fundo.
A remoção da dispersão da atmosfera e da reflectância externa da superfície da
água é realizada através da aplicação de um método relativamente simples conhecido na
literatura como “dark pixel”. Este método consiste em subtrair o valor digital mais baixo
encontrado entre os "pixels" de uma banda dos "pixels" restantes na imagem. Geralmente,
os valores de brilho mais baixos presentes em uma cena estão associados às respostas de
áreas com sombreamentos de relevo ou água limpa (lagos, rios, etc.). Desta forma conside-
ra-se que os valores encontrados nestes alvos são os provenientes da contribuição aditiva da
atmosfera e, necessariamente, devem ser subtraídos dos valores digitais dos "pixels" restan-
tes (Tso e Mather, 2001).
O processo de linearização do efeito da profundidade sobre a reflectância do
fundo, através da aplicação de logaritmos naturais proposto pelo método, com base na sele-
ção de pixels de substrato uniforme e profundidade variável transforma as três bandas em
um novo conjunto de três novas imagens. O próximo passo é a determinação da variância e
a covariância do conjunto das três imagens transformadas. A partir da variância e covariân-
cia é possível calcular dois termos intermediários que serão utilizados como parâmetros de
rotação. Ao final, o índice de profundidade é calculado, associando um valor relativo de
profundidade para cada pixel. Para cada par de bandas espectrais será produzido um único
índice de profundidade de um determinado tipo de fundo.
Para Mumby e Edwards (2000) a correção da coluna de água tem três principais
31
aplicações no mapeamento de habitat costeiro: classificação de habitat marinho com base
em imagens multiespectrais; estabelecimento quantitativo de relações empíricas e interpre-
tações visuais de dados digitais.
O dados relativos ao levantamento batimétrico são essenciais para aperfeiçoar a
acurácia do mapeamento de ambientes costeiros, tornando-se parâmetros importantes para
solução de vários problemas de engenharia litorânea (erosão, crescimento, estabilidade de
contorno da costa, construção de porto, avaliação de armazenamento relativo etc.). Porém,
os levantamentos batimétricos por ecobatímetro podem se tornar lentos e de alto custo, uma
vez que necessitam de equipamentos e de pessoal capacitado. Portanto, a obtenção de bati-
metria em áreas rasas, com a extração desta informação a partir de imagens de satélites
multiespectrais oferece uma alternativa aos métodos tradicionais. Como descrito por Green
e outros (2001), o uso de dados batimétricos derivados de sensoriamento remoto m sido
utilizados para mapeamento de risco de navegação, atualização de cartas náuticas pré-
existentes e interpretação de feições recifais dentre outros.
A obtenção da batimetria através da utilização de imagens de sensores remotos
está fundamentada no mesmo princípio da técnica de remoção da coluna de água, isto é,
diferentes comprimentos de ondas de luz penetram a coluna de água em diferentes graus.
Grenn e outros (2000) selecionam e apresentam três métodos para predição da batimetria: o
proposto por Benny e Dawson (1983), o método de Jupp (1988) e o método de Lyzenga
(1978). Este último, como explica o autor, é uma modificação do processo de correção da
coluna de água, apresentado anteriormente. Todos os métodos apresentados assumem que a
atenuação da luz é uma função exponencial da profundidade e que a qualidade da água não
varia dentro da área da imagem, portanto, a taxa dos coeficientes de atenuação para um par
de bandas é constante em toda a imagem. A imagem resultante da aplicação do método de
Lyzenga é na realidade um valor relativo da profundidade de cada pixel, onde para calcular
o valor real o resultado deve ser calibrado a partir de dados batimétricos pré-existentes.
A informação derivada da aplicação dos diferentes processos seja ela quantita-
tiva ou uma descrição qualitativa, torna-se uma ferramenta essencial para aprimoramento
da acurácia dos mapas gerados.
32
2.2.4 Métodos de classificação em sensoriamento remoto.
Nas últimas cadas, a possibilidade da utilização de computadores nos proce-
dimentos de extração de informações de imagens, particularmente, das imagens de sensori-
amento remoto, possibilitou o desenvolvimento de análises direcionadas à caracterização
dos processos ambientais.
Numericamente, uma imagem digital pode ser representada através de uma ma-
triz bidimensional, onde x linhas por y colunas definem as coordenadas espaciais dos ele-
mentos (pixels), sendo que cada elemento possui um valor z, correspondente ao valor ra-
diométrico registrado pelo sensor. Esta forma de representação torna-se adequada ao pro-
cessamento digital dos dados contidos na imagem.
Novo (1992) define, de maneira geral, sensoriamento remoto como a ciência a-
través da qual transforma-se a radiação eletromagnética em um sinal, o qual pode ser con-
vertido em informações sobre um determinado objeto. O autor classifica os métodos utili-
zados para a análise destes dados em análise visual e análise digital de imagens.
Segundo o autor, a extração de informações através da análise visual não se ca-
racteriza como uma atividade de fácil execução, exigindo conhecimento de diferentes téc-
nicas de extração de informações. Esta atividade vem sofrendo um acentuado aumento na
sua complexidade com o aprimoramento dos sensores, que hoje são capazes de adquirirem
uma grande quantidade de informação através das imagens multespectrais e hiperespectrais.
Para Matter (1999), a análise visual freqüentemente envolve avaliação do contexto no qual
o objeto está envolvido, tanto do tom quanto da textura.
Paralelamente ao aprimoramento da capacidade dos sensores orbitais e sub-
orbitais aconteceu a incorporação dos computadores no processamento de imagens de sen-
soriamento remoto. Particularmente, no que se refere à análise de dados, foram desenvolvi-
dos sistemas computacionais que viabilizaram a análise da quantidade crescente de dados
coletados. Novo (1992) esclarece que, apesar de terem surgido em épocas diferentes, a aná-
lise visual e análise digital são utilizadas atualmente de maneira complementar, isto é, po-
de-se em uma primeira etapa utilizar as técnicas de processamento digital para realçar de-
terminadas características de uma imagem e depois analisá-las visualmente.
33
Gonzalles e Woods (2000) apresentam as diversas técnicas utilizadas no pro-
cessamento digital de imagens divididas em dois grandes grupos. O primeiro grupo, deno-
minado pré-processamento, é formado pelas técnicas de realce, restauração e compressão
de imagens, no segundo grupo estão inseridas as técnicas relacionadas à análise da imagem,
que são a classificação e a segmentação de imagens, além da representação, descrição, re-
conhecimento e interpretação de imagens.
O realce de imagens, segundo os autores, tem como objetivo principal o proces-
samento de uma imagem, de modo que o resultado seja mais apropriado para uma aplicação
especifica do que a imagem original, enquanto a restauração de imagens, apesar de ter o
mesmo objetivo, está orientada para a modelagem da degradação e aplicação do processo
inverso no sentido de recuperar a imagem original.
A compressão de imagens está relacionada à busca de soluções que viabilizem
o armazenamento, processamento e comunicação de grande quantidade de dados gerada
pela manipulação das imagens. Crósta (1999) demonstra o problema de volume relacionado
com a manipulação de imagens de sensoriamento remoto mostrando que a imagem adquiri-
da pelo sensor remoto do LandSat gera uma imagem de 6.550 por 6.550 elementos, o que
significa que existem mais de 42 milhões de pixels em cada banda.
Segundo Gonzalles e Woods (2000) a segmentação subdivide a imagem em
partes ou objetos constituintes. Com base no resultado alcançado no processo de segmenta-
ção seria possível realizar a representação e a descrição dos dados. O reconhecimento e a
interpretação de imagens estão relacionados diretamente à análise automática de imagens.
Autores como Novo (1992) e Fonseca (2000), apresentam uma classificação alternativa
para as técnicas de processamento digital de imagens de sensoriamento remoto, dividindo-
as em três grupos: pré-processamento, realce e segmentação de imagens. No primeiro grupo
estão incluídas: a restauração qualitativa da imagem, no sentido de corrigir as degradações
radiométricas e as distorções geométricas inseridas pelo sensor, enquanto o segundo grupo
é composto pelas técnicas que melhoram efetivamente a qualidade visual da imagem. A
análise de imagens esdiretamente relacionada com a extração de informações das ima-
gens, neste grupo estão incluídas as técnicas de segmentação e classificação.
Ao tratar do processamento digital de imagens de sensoriamento remoto, Matter
(1999) explica, que o processo de segmentação de uma imagem em regiões com atributos
34
similares pode ser dividido em: classificação supervisionada e classificação não supervisio-
nada. Segundo o autor, em ambos os casos, dois passos são cruciais: a seleção de um con-
junto de características que melhor descreve o padrão e a escolha de um método para seg-
mentação dos dados, porém em aplicações de sensoriamento remoto normalmente é incluí-
do um terceiro passo, que corresponde a verificação da acurácia da segmentação realizada.
Na classificação supervisionada o processo de classificação é realizado em duas
etapas: a primeira é o reconhecimento de categorias relacionadas aos objetos do mundo
real, a segunda etapa se caracteriza pelo procedimento de etiquetagem das entidades
classificadas, ao passo que no processo não-supervisionado, o é necessária a definição
prévia de um conjunto de categorias, apenas durante o processamento é determinado o nú-
mero de categorias presentes. A identificação das categorias identificadas na imagem é rea-
lizada em um estágio posterior.
De acordo com Tso e Matter (2001), apesar das abordagens não-
supervisionadas se apresentarem como mais automáticas, e conseqüentemente mais elegan-
tes do que as abordagens supervisionadas, a acurácia dos métodos supervisionados é geral-
mente melhor. Ainda segundo os autores, conjuntamente com desenvolvimento do proces-
samento digital de imagens, estratégias alternativas tais como: redes neurais artificiais, ár-
vores de decisão e métodos derivados da teoria lógica nebulosa têm sido utilizadas.
Para Matter (1999) informações secundárias relativas à textura da vizinhança de
um pixel e informações relativas as características do terreno, tais como elevação do terreno
ou tipos de solo, estão sendo incorporadas ao processo de classificação para melhoria da
acurácia. Alguns estudos apresentam resultados importantes combinando informações to-
pográficas com imagens de sensores remotos no processo de classificação destas imagens.
Em seu trabalho sobre mapeamento de cobertura em uma área tropical. Mas (2003) utilizou
dados complementares de mapas temáticos bem como dados de outras fontes.
35
2.3 MAPEAMENTO
2.3.1 Informações espaciais georreferenciadas
Com o desenvolvimento da humanidade, aumentou a necessidade de informa-
ções que mostrassem a distribuição espacial de determinadas feições geográficas. A partir
do século XVII, as necessidades da guerra e da administração exigiram mapas mais deta-
lhados e de maior escala. Esse foi o início da cartografia topográfica, que se expandiu nas
grandes realizações do século XIX (Joly, 1997).
A história da evolução da tecnologia de manipulação de dados espaciais está di-
retamente relacionada com o desenvolvimento de outras tecnologias e disciplinas, dentre
elas a cartografia, a fotogrametria, o sensoriamento remoto, a estatística e as ciências com-
putacionais e matemáticas. Uma das conseqüências deste processo foi que cada disciplina
nomeou de forma pessoal esta nova tecnologia: computação gráfica, mapeamento auxiliado
por computador, cartografia informatizada, mapeamento automatizado. (Huxhold, 1991).
Apesar de existirem, na literatura, várias definições do que seja SIG, cada uma
foi desenvolvida a partir de uma perspectiva ou disciplina de origem. Uma das definições
mais aceita por vários especialistas na área, segundo Chrisman (1997), define um Sistema
de Informações Geográficas como um sistema de hardware, software, dados, pessoas, orga-
nização e instituição combinadas para coleta, armazenamento, análise e disseminação de
informações sobre áreas da terra.
A representação dos dados geográficos é tradicionalmente dividida em dois
grandes modelos. O modelo Matricial e o modelo Vetorial. Cada modelo apresenta suas
vantagens e suas desvantagens. Estas diferenças ficam mais evidentes quando são associa-
das ao tipo de trabalho que será desenvolvido com o sistema. As representações matriciais
têm uma melhor performance quando o elemento central de interesse do trabalho é a varie-
dade espacial, em contrapartida quando o foco de interesse da informação é a distribuição
36
dos objetos no espaço, o modelo vetorial se apresenta como o recomendado (Aronoff,
1995).
Como explica Câmara (1996), a utilização de Sistema de Informações Geográ-
ficas facilita a integração de dados coletados de fontes heterogêneas, de forma transparente
ao usuário. Segundo o autor, a multiplicidade de usos desta tecnologia aponta para uma
perspectiva interdisciplinar de sua utilização, sendo possível identificar duas importantes
características de SIG:
Tais sistemas possibilitam a integração, numa única base de dados, de in-
formações geográficas provenientes de fontes diversas tais como dados car-
tográficos, dados de censo e cadastro urbano e rural, imagens de satélite e
modelos numéricos de terreno.
Os SIG oferecem mecanismos para recuperar, manipular e visualizar estes
dados, através de algoritmos de manipulação e análise.
Os estudos relacionados ao gerenciamento de ambientes costeiros estão, ca-
da vez mais, incorporando as facilidades analíticas para tratar dados espaciais oferecidas
pelo SIG. O potencial do uso dessa tecnologia para o mapeamento de ambientes costeiros
está principalmente na possibilidade de realizar operações de agregação e desagregação de
dados disponíveis em múltiplas escalas; localizar pontos ou áreas ecologicamente sensíveis;
suportar análises espaciais e estatísticas de distribuições ecológicas e na capacidade de ex-
trair informações a partir de dados e técnicas de sensoriamento remoto (Galo, 2000).
As diversas áreas de aplicação de SIG podem ser divididas em cinco grupos
principais: Ocupação Humana, Uso da Terra, Uso de Recursos Naturais, Meio Ambiente e
Atividades Econômicas. Do ponto de vista de Câmara (2001) as aplicações ambientais va-
riam enormemente de área, enquadram-se em aplicações de meio ambiente, modelagem
climática e ambiental, previsão numérica do tempo, monitoração do desflorestamento e
monitoração da emissão e ação de poluentes.
No dizer de Medeiros e Câmara (2001), a utilização da tecnologia de Sistemas
de Informação Geográfica tem um grande impacto em pelo menos quatro problemas liga-
dos aos Estudos Ambientais: Mapeamento Temático, Diagnóstico Ambiental, Avaliação de
Impacto Ambiental, Ordenamento Territorial e os Prognósticos Ambientais. Os autores
reforçam o caráter interdisciplinar destes estudos, afirmando que não é possível compreen-
37
der perfeitamente os fenômenos ambientais sem analisar todos os seus componentes e as
relações entre eles.
2.3.2 Estimativa da acurácia
A estimativa da acurácia está diretamente relacionada com a qualidade do ma-
peamento. Para Matter (1999) um processo não está completo antes da acurácia ter sido
verificada. Porém, como observa Galo (2000) raramente mapas temáticos provenientes de
classificação digital ou mesmo da fotointerpretação apresentam um relatório de acurácia
das informações, apesar da maioria dos softwares de processamento digital de imagem pos-
suírem ferramentas para tal fim.
O procedimento mais comum para verificar a exatidão de classificações de i-
magens é realizado através da verificação do porcentual da área classificada quando compa-
rada com dados de referência ou "verdade de campo". Este porcentual resulta de valores
que expressam o que foi corretamente classificado. Para Mumby e Green (2000), é um
grande erro aceitar 100% de acurácia, várias fontes podem contribuir para os erros contidos
em um processo de classificação de imagens de sensoriamento remoto, dentre eles, está a
similaridade espectral entre alguns alvos, os erros relativos à correção geométrica aplicada
à imagem, bem como os erros gerados através do posicionamento pelo Sistema de Posicio-
namento Global (GPS). Particularmente, em relação à classificação de imagens de sensori-
amento remoto de ambientes coralinos, a similaridade espectral, entre os diversos tipos de
fundo, torna-se uma fonte de erro a ser considerada.
Como explica Antunes e Lingnau (1997) os erros de acurácia podem ocorrer na
fase aquisição de dados, ocasionados pelo sensor e pelas condições do meio, durante o pro-
cessamento dos dados, bem como na reprodução e na verificação dos resultados obtidos.
Mumby e Green (2000) ressaltam o fato que quando mapas de habitat são utilizados para
suprir um inventário geral de recursos dentro de um plano de gerenciamento, a acurácia
pode variar entre 60% a 80%, porém, para aplicações mais sofisticadas, tal como mapas de
habitat que revelem a perda de cobertura em ambientes coralinos, uma acurácia em torno de
38
90% é requerida.
Dentre os diversos métodos desenvolvidos para representar a exatidão de uma
classificação em sensoriamento remoto estão: a Matriz de Erro, a Análise de Kappa e os
Coeficientes Tau. Como explica Matter (2001) a matriz de erro, ou matriz de confusão, é o
método mais comumente utilizado para representação do grau de acurácia de uma classifi-
cação. A Matriz de erro é uma matriz quadrada, na qual cada linha e coluna representam
uma categoria de habitat. Cada célula contém o número de pixel associados com uma cate-
goria específica de habitat em relação ao verdadeiro tipo de habitat verificado em campo ou
interpretado a partir de fotografias aéreas. As colunas normalmente se referem aos dados de
referência e as linhas indicam as classes geradas através dos dados de sensoriamento remo-
to.
A avaliação da acurácia pode ser obtida por meio de coeficientes de concordân-
cia, sendo que estes podem ser expressos como concordância total ou para classes individu-
ais (Antunes e Lingnau,1997). Os valores de Kappa são freqüentemente utilizados para
comparar classificações referentes à utilização de diferentes procedimentos sobre o mesmo
conjunto de dados. Porém, se as classificações tiverem números diferentes de classe a com-
paração deve ser evitada (Matter, 2001). O coeficiente de Kappa é definido por
( )
( )
=
++
= =
++
=
r
i
ii
r
i
r
i
iiii
xxN
xxxN
k
1
2
1 1
(1)
onde r é o número de linhas da matriz de erro e, x
ii
é o número de observações da linha i e
da coluna i, x
i+
e x
+i
o os totais marginais da linha i e da coluna i respectivamente, e N o
número total de observações.
O terceiro método apresentado por Matter (2001) para avaliação da acurácia es-
baseado na utilização do coeficiente Tau. Segundo o autor a principal vantagem do coe-
ficiente de Tau é que o resultado pode ser facilmente interpretado. De acordo com Antunes
e Lingnau (1997) o coeficiente Kappa determina a concordância esperada a posteriori, e
esta por sua vez é obtida após a verificação dos resultados obtidos na classificação digital,
39
ao passo que o coeficiente de concordância Tau baseia-se na probabilidade a priori, permi-
tindo assim a obtenção do valor da concordância esperada mesmo antes de efetuar a checa-
gem dos resultados da classificação digital. O coeficiente de Tau é definido por
=
=
=
M
i
iir
r
r
xn
N
Ponde
P
PP
T
1
2
0
1
1
(2)
P
0
é da acurácia geral, M é o número de habitat, i é o enésimo habitat, N é o número total de
locais, n
i
é o total de linha por habitat e x
i
é o valor diagonal por habitat i.
Como descrito por Antunes e Lingnau (1997), um procedimento importante, a
ser observado nas estimativas de exatidão, refere-se ao esquema de amostragem adotado,
que pode ser entendido como sendo a distribuição espacial das amostras em uma dada área
geográfica. Nesse sentido, Fidalgo (1994) apud Antunes e Lingnau (1997), ressalta que,
uma vez que cada amostra coletada implica em um custo, o tamanho amostral deve ser mí-
nimo, porém suficientemente grande para permitir uma análise estatística adequada. Do
mesmo modo os autores realçam a importância dos levantamentos de campo com relação à
qualidade dos dados de referência, quando afirmam que apesar de fotografias aéreas, ou
mesmo fotos poderem ser utilizadas como instrumento de referência, os levantamentos de
campo fornecem maior confiabilidade ao processo.
2.3.3 Mapeamento de ambientes coralinos
Braga e Gherardi (2001) esclarecem que apesar da primeira investigação siste-
mática das construções recifais do litoral norte e nordeste brasileiro ter sido realizada por
Hartt em 1867, o primeiro levantamento sistemático da composição dos recifes de origem
orgânica, estabelecendo a distribuição das espécies que compõem a fauna de corais do Bra-
sil, foi realizado bem mais tarde, em 1961 e 1964, por Jacques Laborel a bordo do navio
oceanográfico Calypso.
40
Os autores acrescentam que o mapeamento e o estudo dos recifes de corais a-
través da utilização de imagens de sensores orbitais surgiram ao mesmo tempo em que fo-
ram lançados os primeiros satélites ambientais na década de 70.
Segundo Mumby e Green (2000) as aplicações de sensoriamento remoto para o
gerenciamento de ambientes coralinos podem ser classificadas em três grupos, o macro
mapeamento cartográfico, o mapeamento geomorfológico e o mapeamento de hábitat. Os
autores explicam que a possibilidade de mapeamento mais detalhado está diretamente rela-
cionada a técnicas e sensores mais sofisticados e uma relação custo-benefício a ser avalia-
da. Assim, através da utilização de fotos aéreas coloridas, com certeza, seria possível adqui-
rir maiores informações sobre os recifes de corais estudados, porém a utilização de imagens
atualmente adquiridas através de sensores a bordo de satélites, apesar da maioria destas
imagens não propiciarem maiores informações ecológicas sobre o hábitat dos recifes, pode
propiciar a quantidade informações necessária ao trabalho e otimizar os custos envolvidos.
Na opinião dos autores, acima citados, apesar de muitos satélites disponibiliza-
rem adequadas informações sobre a geomorfologia dos corais, isto não se verifica em rela-
ção a sua ecologia. As informações sobre a localização de corais, areia, algas e capim do
mar garantem apenas uma acurácia que varia entre 50 a 70 %. Entre os sensores remotos
que apresentam um melhor custo-benefício no mapeamento de ambientes de recifes de co-
rais, os autores, relacionam o Landsat TM e o SPOT XS. Atualmente o satélite CBERS
(Satélite Sino-Brasileiro de Recursos Terrestres) apresenta-se como uma excelente alterna-
tiva.
No Brasil, a especulação imobiliária, a pesca predatória, o desmatamento dos
mangues, a poluição dos estuários e o turismo desordenado foram algumas das causas a-
pontadas, durante o workshop Avaliação e Ações Prioritárias para Zona Costeira e Mari-
nha”, para a grave situação relativa aos ecossistemas de recifes de corais únicos no Atlânti-
co Sul e sob forte impacto da ação antrópica. Entre as ações recomendadas no workshop
para o enfrentamento desta situação crítica estão ações especificas de diagnóstico, monito-
ramento e gestão destas áreas de recifes de corais, bem como o mapeamento destas, uma
vez que se caracterizam por serem áreas de alta biodiversidade e produtividade (PROBIO,
1999).
41
2.4 MÁQUINA DE VETOR DE SUPORTE
2.4.1 Introdução
Como abordado nos capítulos anteriores, a classificação realizada através do
computador (classificação automática) pode ser considerada uma análise quantitativa, pois
envolve a análise individual dos atributos numéricos de cada pixel na imagem. A classifica-
ção automática pode ser dividida em dois grupos: supervisionada e o supervisionada. Na
classificação não supervisionada cada pixel da imagem é associado a uma classe espectral
sem que o usuário tenha um conhecimento prévio do número ou identificação das diferen-
tes classes presentes na imagem. Enquanto na classificação supervisionada o usuário sele-
ciona amostras representativas para cada uma das classes que se deseja identificar na ima-
gem. Com explica Crósta (1999), na classificação supervisionada de imagens de sensoria-
mento remoto, é necessário que o usuário conheça algum aspecto da área a ser classificada,
antes de iniciar o processo, isto é, locais específicos dentro da área a ser classificada onde
observações de campo foram efetuadas.
Segundo Mather (1999) os principais todos de classificação supervisionada
de imagens de sensoriamento remoto são implementados utilizando algoritmos estatísticos
ou redes neurais. Algoritmos estatísticos utilizam parâmetros derivados das amostras do
conjunto de treinamento, enquanto os algoritmos neurais não dependem de informações
estatísticas derivadas das amostras de treinamento, sendo treinados com base apenas nos
dados do conjunto de treinamento.
Dentre os diversos classificadores estatísticos supervisionados utilizados, os
métodos do paralelepípedo, da análise markoviana, do k-means e da máxima verossimi-
lhança podem ser considerados os mais comuns na análise de imagens de sensoriamento
remoto (Crósta, 1999). Esses métodos requerem que o número de classes seja especificado
antecipadamente e que certas características de cada classe sejam conhecidas (Mather,
42
1999).
O método do paralelepípedo considera uma área do espaço de atributos ao redor
do conjunto de treinamento, definida pela resposta espectral máxima e nima dos pixels.
Os lados do paralelepípedo são chamados limites de decisão de classe (Crósta, 1999). As-
sim, os pixels que estiverem dentro do limite que vai do valor nimo ao valor máximo
são classificados como pertencentes a uma determinada classe. Apesar da eficiência com-
provada do método, pode haver sobreposição de áreas limítrofes, ou a não inclusão em ne-
nhuma das áreas formadas, gerando ambigüidade na classificação. Neste caso, o pixel nor-
malmente é atribuído à primeira classe ou à classe para a qual possui a distância mínima em
relação à média dos níveis de cinza (Mather, 1999).
Segundo Mather (1999) o k-means é um algoritmo de agrupamento iterativo
que classifica os pixels num determinado número predefinido de classes. O algoritmo utili-
za a regra de decisão “mais perto do centróide” (centro médio). Na prática, o calculadas
as distâncias entre um determinado pixel e os pixels médios de cada uma das classes, então,
o pixel é associado à classe para a qual a distância resultou num valor mínimo. Nos casos
em que um determinado pixel encontra-se a uma mesma distância de duas ou mais classes,
é necessário o uso de parâmetros estatísticos mais sofisticados para tratar a ambigüidade
entre as classes (Crósta, 1999).
Entre os todos estatísticos apresentados, o da xima verossimilhança é o
mais utilizado em sensoriamento remoto. Esse classificador avalia as probabilidades que
um determinado pixel tem de pertencer às classes identificadas e o associa àquela cuja pro-
babilidade é maior. Como explica Fonseca (2000), apesar de ser um critério simples, tal
probabilidade é desconhecida. No entanto a partir das amostras de treinamento é possível
estimar a distribuição de probabilidade de cada classe. Mather (1999) acrescenta que é
importante compreender que esse método é baseado na suposição de que a distribuição de
probabilidade das classes pode ser aproximada através da distribuição de probabilidade
normal multivariada e que, na prática, esta suposição é geralmente aceita.
Apesar do método máxima verossimilhança ser semelhante aos outros todos
apresentados anteriormente, a partir da concepção que o conhecimento prévio das caracte-
rísticas da imagem a ser classificada é vital na definição correta das classes, Mather (1999)
afirma que esse método pode beneficiar-se da inclusão de determinadas informações na
43
equação de decisão. Por exemplo, o conhecimento prévio sobre a proporção da área de cada
classe a ser classificada, poderá ser utilizado como um atributo (peso) durante o processo
de decisão.
Nas redes neurais artificiais, a idéia básica é realizar o processamento de in-
formações através de um conjunto de unidades elementares de processamento de informa-
ções fortemente conectadas, que são denominados neurônios artificiais. Estes neurônios
através de suas conexões formam um sistema mais complexo que é capaz de aprender a
partir de um processo de treinamento (Mather, 1999). Como explica Haykin (2001), na sua
forma mais geral, uma rede neural é uma quina que é projetada para modelar a maneira
como o celebro humano realiza uma tarefa particular ou função de interesse. O uso de algo-
ritmos neurais apresenta como vantagem sobre os outros métodos a característica de que
nenhuma forma de distribuição de probabilidade necessita ser assumida para o conjunto de
dados. O processo de aprendizado realizado através de um algoritmo neural é em geral um
processo gradual e iterado, onde os pesos são modificados várias vezes, pouco a pouco,
seguindo-se uma determinada regra de aprendizado.
Segundo Haykin (2001), uma rede neural extrai seu poder da sua estrutura ma-
ciçamente paralela distribuída e da sua capacidade de aprender e conseqüentemente de ge-
neralizar. Para o autor, estas duas capacidades de processamento da informação tornam
possível para a rede neural resolver problemas complexos que o atualmente intratáveis.
Porém, como explica Tso e Mather (2001) apesar de o requerer qualquer suposição ante-
rior sobre a distribuição estatística dos dados, não existem regras claras para a determina-
ção de uma arquitetura adequada para o problema e para a definição de parâmetros, tal co-
mo taxa de aprendizagem, que afetam diretamente o tempo de treinamento, a performance e
a taxa de convergência da rede neural.
Ao apresentar os perceptrons de múltiplas camadas, as redes de função de base
radial e as máquinas de vetor de suporte (SVM), como opções para classificação de padrões
e regressão linear, Haykin (2001) destaca que um atributo único, das SVM, é a capacidade
de fornecer um bom desempenho de generalização em problemas de classificação de pa-
drão, apesar de não incorporar conhecimento do domínio do problema. Outro ponto de des-
taque é que o algoritmo de aprendizagem SVM pode ser usado para construir diversos tipos
de máquinas de aprendizagem como, por exemplo, máquinas de aprendizado polinomial,
44
RBF e MLP. Com base na complexidade do problema inerente à classificação de imagens
de sensoriamento remoto de áreas submersas, nas características do problema deste trabalho
e nas considerações feitas por Haykin (2001), Cristianini (2003), Lima (2004) e outros
autores, que descreveram os aspectos teóricos, bem como, Huang (2002), Brown (1999)
Halldorsson (2003) que apresentam aplicações práticas de SVM na classificação de ima-
gens, e tendo em vista a abordagem de classificação supervisionada pretendida, a opção por
um modelo baseado em SVM mostrou-se mais adequado para a realização deste estudo.
2.4.2 Aprendizagem de máquina
Como descrito por Gonzalez e Woods (1993), várias das abordagens utilizadas
em problemas de decisão baseiam-se na estimativa dos parâmetros estatísticos de cada clas-
se de padrões. O cálculo dos parâmetros da função de decisão é realizado com base nos
padrões de treinamento de cada classe. Porém, como explicam os autores, freqüentemente,
as propriedades estatísticas de uma classe são desconhecidas, levando a necessidade de
utilização de métodos que produzem diretamente as funções de decisão através dos dados
de treinamento.
A construção de uma função de decisão capaz de expressar as relações de en-
trada e saída, a partir da qual o deduzidas respostas ainda não observadas, torna-se uma
alternativa bastante desejada em problemas de modelagem de dados empíricos. Entretanto,
como explicam Cristianini e Taylor (2000) podem aparecer situações nas quais não existe
um método capaz de computar a saída desejada a partir de um conjunto de dados de entra-
da, ou aonde o processamento computacional se torne inviável. Uma alternativa, apresenta-
da para estas situações, seria tentar “aprender” a funcionalidade intrínseca dos exemplos de
entrada e saída disponíveis.
A definição de aprendizagem é complexa e varia de autor para autor, porém de
maneira geral o processo de aprendizagem representa uma adaptação ao meio, isto é, um
processo de alteração de conduta, seja por treinamento, experiência, ou ambos. Como des-
crito por Haykin (2001), no modelo mais simples de aprendizagem de máquina, o ambiente
45
fornece informação para máquina, que utiliza esta informação para aperfeiçoar sua base de
conhecimento e finalmente utiliza esta base para executar sua tarefa. Segundo o autor, a
aprendizagem de máquina envolve dois tipos bastante diferentes de processamento de in-
formação: o indutivo e o dedutivo. O processamento indutivo parte de observações particu-
lares para fazer generalizações. Ao passo que o processamento dedutivo parte de observa-
ções gerais e dessas generalizações chega a conclusões particulares.
Cristianini e Taylor (2003) explicam que o problema fundamental na aprendi-
zagem de máquina está na capacidade de generalização adquirida pela máquina, isto é,
quando é possível encontrar uma hipótese para solução do problema consistente com os
dados de treinamento, esta hipótese pode não ser capaz de classificar corretamente dados
não conhecidos. Para Haykin (2000) a capacidade de generalização é influenciada pelo
tamanho do conjunto de treinamento, e quão representativo ele é, pela arquitetura da má-
quina, bem como pela complexidade física do problema em questão.
A Aprendizagem de quina é um campo da Inteligência Computacional, que
objetiva imitar as habilidades humanas de aprendizagem através de máquinas. O desenvol-
vimento acelerado da ciência da computação ampliou as possibilidades de utilização das
estratégias desenvolvidas neste campo de pesquisa para solução de problemas reais e com-
plexos. Porém, apesar das significantes demonstrações da habilidade de aprendizagem das
máquinas, as fronteiras destas habilidades ainda não estão claramente definidas (Cristianini
e Taylor, 2003).
O reconhecimento de padrões, ou classificação, tornou-se uma importante tare-
fa abordada pelas máquinas de aprendizagem, com a construção de algoritmos baseados em
determinados métodos de classificação capazes de automatizar o processo de atribuir a
determinadas informações o rótulo da classe a que pertence. No contexto do sensoriamento
remoto o termo reconhecimento de padrão diz respeito aos procedimentos que relacionam
vetores de dados, que estão espacialmente referenciados através da localização do pixel, a
tipos ou categorias as quais o fenômeno de interesse está subdividido.
De uma maneira geral, os diversos métodos desenvolvidos para treinamento das
máquinas de aprendizagem podem ser agrupados em dois paradigmas principais: o aprendi-
zado supervisionado, no qual o conhecimento do ambiente, representado por um conjunto
de exemplos de entrada e saída desejadas para rede, é fornecido por um supervisor (profes-
46
sor) externo, e o aprendizado não supervisionado, onde não existe um supervisor externo.
Haykin (2001) identifica duas subdivisões para o segundo paradigma: a aprendizagem por
reforço, no qual o mapeamento de entrada-saída se realiza através da interação contínua
com o ambiente, minimizando um índice escalar de desempenho, e a aprendizagem auto-
organizada, onde na ausência de um supervisor para o processo de aprendizagem são dadas
às condições para aprendizagem.
2.4.3 Teoria estatística da aprendizagem
Como explica Haykin (2001) a diferença fundamental entre o processo estatísti-
co da aprendizagem e outras abordagens, tais como aprendizagem por correção de erro, que
focam seu interesse na evolução do vetor de pesos w durante o desenvolvimento do algo-
ritmo de aprendizagem, é que o mesmo concentra-se no desvio, expresso em termo estatís-
tico, da função alvo f(x) em relação a uma função “real” F(x, w), onde x representa o vetor
de entrada.
Assim, com base na teoria estatística da aprendizagem, busca-se estimar uma
função:
)(xfy
=
(3)
onde x R
N
, e y R, para problemas de regressão, y N para problemas de multi-classes
e y {± 1}, para problemas de reconhecimento de padrões binários. Este processo se
realizado apenas com base em um conjunto de exemplos, composto de pares ordenados (xi,
y
i
), no qual y
i
representa a classe do padrão x
i
.
Como explica Haykin (2001), basicamente, a teoria estatística da aprendizagem
trata da questão fundamental de como controlar a habilidade de generalização de uma má-
quina de aprendizagem em termos matemáticos. Em outras palavras estabelece uma estrutu-
ra matemática que permite a escolha de uma função de classificação, dentre um conjunto de
funções que o algoritmo de aprendizagem pode gerar que tenha um “bom” desempenho
47
tanto para o conjunto de treinamento como para o conjunto de teste. Evitando tanto a ocor-
rência da overfitting (“memorização” dos dados de treinamento), como a ocorrência de un-
derfitting, onde o classificador não é capaz de realizar generalizações.
Segundo o autor, a viabilidade de utilização da aprendizagem de máquina está
diretamente relacionada à quantidade de informações contidas no conjunto de treinamento,
isto é, existe ou não informação suficiente para que uma máquina de aprendizagem seja
capaz de ter um bom desempenho de generalização? A ferramenta desenvolvida por Vapi-
nik e Chervonenkis (1971) oferece uma resposta para esta questão fundamental.
Na opinião de Cristianini e Taylor (2003) a teoria estatística da aprendizagem
apresentada por Vapinik (1995) tornou-se popular na área de aprendizagem de máquina,
particularmente, por fixar limites confiáveis sobre a capacidade de generalização dos classi-
ficadores e por desenvolver mecanismos de controle da complexidade do processo. O autor
explica que todo processo de seleção de uma função particular f, que aproxima a resposta
desejada, está baseada na suposição chave de que os dados utilizados nos conjuntos de trei-
namento e teste são exemplos independentes e identicamente distribuídos (iid), e está de
acordo com uma distribuição de probabilidade fixa, porém não conhecida. Portanto, se o
conjunto de treinamento e o conjunto de teste são gerados de acordo com uma distribuição
fixa é natural considerar como medida de erro de classificação a probabilidade que um e-
xemplo gerado aleatoriamente seja classificado errado pela função h:
(
)
{
}
yxhyxDherro
=
)(:,)(
(4)
que define o erro de classificação da função h com uma distribuição D (Cristianini e Taylor
(2003).
Assim, o objetivo final do processo de aprendizagem supervisionada é a mini-
mização do erro gerado, conhecido com risco funcional. Supondo que L(d, F(x, w)) repre-
sente uma medida da perda entre a resposta desejada d, e a resposta produzida pela máquina
de aprendizagem, o valor para o funcional de risco seria definido por:
(
)
(
)
(
)
= ),(,,
,
dxdFwxFdLwR
DX
(5)
48
onde a integral é uma integral sobre todos os valores possíveis do par de exemplos (x,d).
Porém, como explica Haykin (2001) o cálculo do funcional de risco R(w) é complicado,
particularmente, porque a função de distribuição é normalmente desconhecida. Para supera-
ção desta dificuldade matemática utiliza-se o princípio indutivo da minimização do risco
empírico, que pode ser calculado com base apenas no conjunto de dados de treinamento
que são, por suposição, independentes e identicamente distribuídos (iid), e estão de acordo
com uma distribuição de probabilidade fixa, apesar de desconhecida.
( ) ( )( )
=
=
N
i
iemp
FdL
N
wR
1
,,
1
wx
(6)
A construção do funcional de risco empírico R
emp
(4), definida em termos da
função de perda L, possibilita na realidade a aplicação do princípio da minimização do ris-
co empírico, uma vez que como pode ser observado, não faz parte do funcional a distribui-
ção de probabilidade, a qual o é conhecida. Assim, o valor do risco empírico pode ser
calculado apenas com base em um número finito de conhecidos exemplos.
Entretanto, como descrito por Haykin (2001), apenas a minimização funcional
do risco empírico não necessariamente minimiza o risco funcional. Apesar disto, a maioria
dos algoritmos de aprendizagem realizam a minimização do risco empírico, acreditando
que isto leva a minimização do risco funcional. Isto é, busca-se uma função f*, dentre o
conjunto de funções f, tal que
(
)
(
)
fRfR
emp
Ff
emp
=
min*
(7)
esperando-se que a minimização do risco empírico resulte em um risco real que se desvia
do verdadeiro risco real o mínimo possível, possibilitando ao classificador uma boa capaci-
dade de generalização. Dessa forma, explica o autor, se o funcional de risco empírico apro-
xima o funcional de risco original uniformemente com uma precisão ε
εε
ε, então o mínimo do
49
funcional de risco empírico se desvia do mínimo do funcional de risco original por um va-
lor que o excede 2ε
εε
ε, e os limites na taxa de convergência uniforme são definidos através
do importante parâmetro conhecido por Dimensão Vapnik-Chervonenkis (dimensão VC).
Como explicam Smola e Schölkopf (1998), dado um conjunto de funções de
classificação F, a dimensão VC é definida como a cardinalidade do maior conjunto de e-
xemplos que pode ser realizada a partição arbitraria pelas funções contidas em F (.). No
dizer de Cristianini e Taylor (2003), a dimensão VC mede a riqueza ou a flexibilidade de
uma classe de função, e que através deste parâmetro é possível controlar a capacidade da
máquina de aprendizagem e, conseqüentemente, aperfeiçoar sua acurácia de generalização.
Como descrito por Haykin (2001) a dimensão VC é um importante parâmetro
para teoria da convergência uniforme do funcional de risco empírico para R
emp
o funcional
de risco real R, proporcionando os limites na taxa de convergência. De acordo com Smola e
Schölkopf (1998), a dimensão VC pode ser utilizada para provar o limite de probabilidade
sobre o erro de uma hipótese escolhida dentro de uma classe de funções de decisão G. O
autor apresenta em seguida, os dois teoremas abaixo, que demonstram os limites no risco
funcional R(.) de uma função, baseados na dimensão VC do espaço de hipóteses:
Teorema. Seja G um conjunto de funções de decisão mapeando R
m
a {−1, +1}
com dimensão VC h. Para qualquer distribuição de probabilidade P em R
m
x {−1, +1}, com
probabilidade de ao menos 1 − δ sobre n exemplos e para qualquer hipótese g em G o risco
funcional é limitado por
( ) ( )
++
δ
1
lnh
n
c
gRgR
emp
(8)
onde n é o numero de exemplos, c é uma constante universal e h a dimensão VC.
A partir do teorema pode ser observado que se o número de exemplos do con-
junto de treinamento “n” for suficientemente grande, o funcional de risco será minimizado.
Isto é, a minimização do risco empírico, e a convergência do mesmo para o risco real, que
pode ser alcançado pelo conjunto de funções, é diretamente proporcional à quantidade de
exemplos utilizados. Podemos ainda observar que para uma dimensão VC suficientemente
50
pequena o risco médio da função g é minimizado, aumentando a capacidade de generaliza-
ção da função. Cristianini e Taylor (2003) reforçam estas afirmações destacando que é pos-
sível verificar que o tamanho do conjunto de treinamento requerido para assegurar uma boa
generalização varia linearmente com o valor da dimensão VC, e que a dimensão VC cria as
condições para determinação dos limites de generalização de hipóteses consistentes, inde-
pendentes da distribuição de probabilidade.
Uma outra observação dos teoremas demonstra que os limites apresentados tra-
tam diretamente com classes de funções e não apenas com a escolha de funções, possibili-
tando a aplicação da idéia de estruturas sobre o conjunto de funções de decisões.
Assim como explica Haykin (2001) podemos definir uma estrutura aninhada de
um conjunto de classificadores de padrões como:
{
}
nkWwwxF
kk
,...,2,1:),(
=
=
(9)
tal que
n
K
21
(10)
correspondentemente, as dimensões VC individuais satisfazem a condição:
n
hhh
K
21
(11)
a partir disso é possível realizar a minimização dos limites sobre a escolha de estruturas.
Este princípio é denominado minimização estrutural de risco (Schölkopt e Smola, 2002).
Como descreve Haykin (2001), o princípio da minimização estrutural de risco fornece um
procedimento indutivo para resolver um problema de aprendizagem supervisionada real,
tornando a capacidade da máquina com os dados disponíveis, e utilizando a VC como pa-
râmetro de controle.
A Figura 2.7 ilustra de forma mais clara o princípio de minimização do erro es-
trutural.
51
Figura 2.7: Ilustração da relação entre erro de treinamento, intervalo de crença e risco ga-
rantido ( Haykin, 2001).
Para um número fixo N de exemplos de treinamento, as estruturas apresentadas
F
i
(i= 1,2,..,n) tem complexidade crescente, portanto, sua capacidade, ou dimensão VC, é
maior com o crescimento do índice. O aumento da complexidade do conjunto de classifica-
dores, que possibilita a minimização do risco empírico, produz ao mesmo tempo um au-
mento da dimensão VC. Como resultado os limites fornecidos pelos teoremas (9 e 10) so-
bre o risco real inicialmente decresce com o aumento de k, para depois crescer. Portanto,
existe em principio, um valor ótimo baseado na estrutura e na função de classificação, no
qual tanto o risco garantido quanto o erro de generalização é mínimo.
A dimensão VC de uma máquina de aprendizagem determina o modo como
uma estrutura aninhada de funções aproximadas deve ser usada e sua dimensão VC de um
conjunto de hiperplanos de separação em um espaço de dimensionalidade m é igual a m+1
(Haykin, 2001). Porém existem resultados em relação a estes tipos de função, relacionando
a dimensão VC ao conceito de margem do hiperplano classificador. Esta margem sendo
definida como a menor distância entre os exemplos do conjunto de treinamento e o hiper-
plano utilizado na separação dos dados em classes.
52
Como explica Haykin (2001), através de uma escolha adequada da margem de
separação p podemos exercer um controle sobre a dimensionalidade do espaço de entrada e
que existe uma relação indiretamente proporcional entre a margem do classificador linear e
a dimensão VC do espaço de hipóteses do qual é extraído. Quanto maior a margem do clas-
sificador menor será sua dimensão VC. Portanto, para aplicarmos o método de minimização
estrutural de risco, precisamos encontrar um conjunto de funções com uma dimensão VC
variável, que possa ser minimizada paralelamente com o risco empírico, buscando assim
obter uma máquina de aprendizagem com boa capacidade de generalização.
O hiperplano, que possui uma maior margem de separação e que cometa poucos
erros sobre o conjunto de treinamento e de teste é denominado hiperplano ótimo. Segundo
Schölkopf e Smola (2002) o hiperplano ótimo que procura maximizar a margem de separa-
ção entre os dados, também possui robustez em relação aos padrões e em relação aos parâ-
metros.
2.4.4 Máquina de vetor de suporte para classificação
Do ponto de vista de Haykin (2001) uma Máquina de Vetor de Suporte (Sup-
port Vector Machine SVM) é basicamente uma máquina linear de aprendizagem com
algumas propriedades muito interessantes. Como explica o autor à idéia principal por trás
de uma SVM é construir um hiperplano ótimo, seguindo uma abordagem fundamentada na
teoria da aprendizagem estatística discutida anteriormente, e que pode fornecer um bom
desempenho de generalização em problemas de classificação de padrões. Por outro lado,
Cristianini e Taylor (2003) apresentam a proposta de uma SVM como um sistema eficiente
de treinamento de uma máquina linear de aprendizagem baseado no espaço de característi-
cas, induzido pelo conceito de Kernel e na teoria de generalização, utilizando a teoria da
otimização.
As SVM são utilizadas em princípio para geração de dicotomias. A abordagem
utilizada para solução de problemas, com base nas SVM, está diretamente relacionada com
o tipo de problema que pode surgir no contexto de classificação de padrões. No contexto
53
mais simples de classificação de padrões, onde os dados são padrões linearmente separá-
veis, a idéia principal é construir um hiperplano como superfície de decisão, maximizando
a margem de separação entre os exemplos pertencentes às duas classes. Esta abordagem é
denominada SVM com margens rígidas. No nível intermediário, estão os problemas encon-
trados geralmente na realidade, onde os dados sejam pela presença de ruídos ou pela sua
própria natureza, o se configuram como padrões linearmente separáveis. Porém neste
nível de problemas ainda é possível encontrar um hiperplano linear para separação dos da-
dos, desde que seja admitida a ocorrência de uma taxa de erro no processo de classificação.
Estas máquinas são conhecidas na literatura como SVM com margens suaves. No contexto
de padrões estritamente o - linearmente separáveis a estratégia consiste no mapeamento
não - linear do vetor de entrada para um espaço de características de alta dimensionalidade
conhecido à priori, então, neste novo espaço, o hiperplano de separação é construído, como
apresentado na Figura 2.8 (Burges, 1998; Haykin, 2001).
Figure 2.8. Transformação do conjunto de dados de entrada para um espaço de característi-
cas.
As SVM seguem uma abordagem fundamentada na teoria da aprendizagem es-
tatística proposta por Vapinik (1995), implementando o Método da Minimização Estrutural
de Risco. A Minimização Estrutural de Risco que está baseada no fato de que a taxa de erro
de uma máquina de aprendizagem sobre os dados de teste é limitada pela soma da taxa de
54
erro de treinamento mais um termo que depende da dimensão VC Vapinik-Chervonenkis
(Haykin, 2001). Desta forma, para uma escolha particular de parâmetros ajustáveis α, o
erro esperado R(α), com uma probabilidade 1- η (0 η 1), pode ser definido por:
( )
(
)
(
)
(
)
+
+=
l
hlh
RempR
4log12log
)(
η
αα
(12)
onde l representa a quantidade de observações, R
emp
(α) é a medida da taxa média de erro
sobre o conjunto de treinamento, e h é um inteiro o-negativo que representa a dimensão
VC (Burges, 1998).
2.4.4.1 Determinação do hiperplano ótimo
Como explica Fritzsche (1978) problemas que procuram maximizar ou mini-
mizar uma função numérica de uma ou mais variáveis, onde as variáveis estão sujeitas a
determinadas restrições, são conhecidos como problemas de otimização. Nos últimos anos,
surgiu uma nova classe de problemas de otimização, conhecidos como problemas de pro-
gramação, os quais normalmente não podem ser resolvidos através dos métodos clássicos
de cálculo. De maneira geral, um problema de programação geral (problema de otimização
primal) pode ser formulado da seguinte maneira:
Dado as funções:
mihekigf
ii
,...,1,,...,1,,
=
=
(13)
definido em
n
, e um vetor w , determinar os valores de w que satisfaçam as de-
sigualdades:
(
)
( )
miwh
kiwg
i
i
,....1,0
,...,1,0
==
=
(14)
55
que maximize (minimize) a função
(
)
wf
(15)
onde f(w) é chamada função objetivo, g
i
(w) e h(w) são as restrições (Cristianini e Taylor,
2003).
De acordo com Haykin (2000), o problema de encontrar o hiperplano ótimo é
na realidade um problema de otimização restrito, chamado problema primordial ou primal,
que pode, do ponto de vista computacional, ser formulado do seguinte modo:
Dada a amostra de treinamento
(
)
{
}
N
i
i
d
1
,
=
i
x
, encontre os valores ótimos do vetor
peso ajustável w (w
t
o vetor transposto), e o bias b de modo que satisfaçam as restrições
(
)
Niparabd
i
t
i
,...,2,11 =+xw
(16)
e o vetor peso w minimize a função custo:
( )
ww
t
w
2
1
=Φ
(17)
Na realidade, este é um tipo de problema clássico conhecido como um proble-
ma de programação quadrática, uma vez que sua função de custo Φ
ΦΦ
Φ(w) é uma função con-
vexa de w, e quadrática, e todas as restrições o lineares (Hearts, 1898). Uma função con-
vexa de valor real f(w) é dita convexa para todo valor de w
n
se, w, u
n
, e para
qualquer
θ
(0,1) (Cristianini e Taylor (2003)):
(
)
(
)
(
)
(
)
(
)
uwuw fff
θ
θ
θ
θ
+
+
11
(18)
Como descrito por Cristianini e Taylor (2003), para os propósitos de treinamen-
to das SVM é possível estruturar o problema de tal forma que todas as restrições sejam li-
56
neares e a função objetivo seja convexa e quadrática e Є
n
, possibilitando assim a utili-
zação das ferramentas da programação quadrática para encontrar o hiperplano ótimo atra-
vés da minimização da norma do vetor peso w. Segundo Haykin (2001), uma vez que o
problema de otimização para encontrar o hiperplano ótimo seja reduzido a um problema de
maximizar uma função quadrática convexa f(x) sob restrições lineares é possível utilizar o
método dos operadores de Lagrange na sua resolução. Inicialmente partindo da função la-
grangiana:
( )
( )
[
]
=
+=
l
i
i
T
ii
t
bwdabJ
1
1
2
1
,, xwww
α
(19)
onde a solução para o problema de otimização restrito é determinado pelo ponto de sela da
função Lagrangeana J(w,b,α) que deve ser minimizada em relação a w e b, e maximizado
em relação aos multiplicadores de Lagrange α”. De acordo com Fritzche (1978) um ponto
(x
0
, y
0
) com x
0
X E
n1
e y
0
Y E
n2
chama-se um ponto de sela se satisfazer,
(
)
(
)
(
)
yxKyxKyxK ,,,
0000
(20)
para todos os x X e y Y . Isto é, α
0
maximiza K(α, y) em X e y
0
minimiza K(α,y) em Y,
onde o ponto de sela fornece, ao mesmo tempo, o mínimo em uma variável e o máximo na
outra.
Segundo o autor a garantia de existência de um ponto de sela está diretamente
relacionada às condições de concavidade (problema de maximização) e de convexidade
(problema de minimização) da função objetivo e a determinação do ponto ótimo para o
problema geral de otimização é possível a partir da aplicação das condições de Kuhn-
Tucker e da teoria da dualidade, que são os resultados mais importantes na programação
quadrática. No dizer de Haykin (2000), seguindo as condições de Kuhn-Tucker, a solução
para o problema de otimização restrito é determinado pelo ponto de sela da função lagran-
giana J(w, b, α) que deve ser minimizado em relação a w e a b e maximizado em relação a
α. Como descrito pelo autor, diferenciando a função Lagrangiana em relação a w e b e igua-
57
lando os resultados a zero, é possível obter as seguintes condições de otimização,
0
),,(
:2 Condição
),,(
:1 Condição
=
=
b
bJ
bJ
α
α
w
0
w
w
(21)
Produzindo a partir da aplicação destas condições de otimização a função loga-
ritmo e o adequado remanejamento de termos,
=
=
N
i
iii
d
1
xw
α
(22)
=
=
N
i
ii
d
1
0
α
(23)
onde o vetor solução w é definido em termos de uma expansão que envolve os N exemplos
de treinamento. O mesmo autor destaca que no ponto de sela, como resultado das proprie-
dades de Kuhn-Tucker, para cada multiplicador de Lagrange α
i
, o produto daquele multipli-
cador pela sua restrição correspondente desaparece e apenas aqueles multiplicadores que
satisfazem a equação abaixo podem assumir valores não nulos.
[
]
Nibxwd
i
T
ii
,...2,1 para 01)( ==+
α
(24)
Segundo Fritzsche (1978) as condições de Kuhn-Tucher mostram essencial-
mente que em um ponto ótimo restrito nenhuma mudança permissível pode melhorar a
função- objetivo.
O segundo ponto de grande importância na determinação do ponto ótimo está
relacionado à teoria da dualidade que na programação não-linear está intimamente relacio-
nada à função Lagrangiana. Como explica Haykin (2001), dado um problema de otimização
58
restrito primal é possível construir um outro problema, chamado dual, que tem o mesmo
valor ótimo do problema primal, formulado da seguinte forma:
Dada a amostra de treinamento
N
iii
dx
1
)},{(
=
, encontre os multiplicadores de La-
grange
N
ii 1
}{
=
α
, que maximizam a função objetivo
= ==
=
N
i
N
j
j
T
ijiji
N
i
i
xxddQ
1 11
2
1
)(
αααα
(25)
sujeita às restrições
0
1
=
=
N
i
ii
d
α
(26)
Ni
i
,...,2,1 para 0 =
α
(27)
A representação dual do problema contêm somente multiplicadores de Lagrange
α
i
(variáveis duais) e deve ser maximizado sob restrições mais simples. A partir dos valores
encontrados para α
i
é possível facilmente encontrar os valores do vetor ótimo w
o
da bias
ótimo b
o
. Os vetores x
s
,
para os quais os multiplicadores α são maiores que zero são os ve-
tores de suporte, que determinam de forma única o hiperplano. Como explica Cristianini e
Taylor (2003), a descrição do problema de forma dual freqüentemente torna o problema
mais fácil de solucionar do que o problema primal. No dizer do autor a utilização da repre-
sentação dual em SVM não viabiliza a utilizar as técnicas derivadas da teoria da otimi-
zação para solução do problema, mas permite também trabalhar no espaço de alta dimensi-
onalidade, o que é imprescindível para solução de alguns problemas separação de padrões
não – linearmente separáveis.
59
2.4.4.2 SVM com margens rígidas
Em Haykin (2001), vamos encontrar a seguinte explicação: para o caso de apli-
cação de uma SVM para construção de um hiperplano para padrões linearmente separáveis,
isto é, padrões possíveis de serem totalmente separados por pelo menos um hiperplano,
consideremos,
(
)
{
}
N
i
ii
dx
1
,
=
(28)
um conjunto de treinamento linearmente separável, fixo e finito, onde x
i
é o padrão de en-
trada para o n-ésimo exemplo e d
i
a resposta desejada (que pode ser representada por +1 e -
1). A equação de um hiperplano de decisão que separa os dados de treinamento pode ser
definida por,
0
=
+
b
w.x
(29)
onde w.x representa o produto interno entre o vetor de peso ajustável w e o vetor de entrada
x e b é um bias. Ao passo que a equação divide o espaço de entrada em duas regiões distin-
tas é possível representá-la como,
10
10
=<+
+
=
>
+
i
i
dparab
dparab
i
i
x.w
x.w
(30)
Segundo o autor, o objetivo de uma SVM é encontrar um hiperplano particular,
denominado hiperplano ótimo (figura 2.9), dentre todos os possíveis candidatos, que sepa-
ram corretamente todos os exemplos contidos no conjunto de treinamento e teste, com uma
margem de separação ρ maximizada. Como explica Cristianini e Taylor (2003) o classifi-
cador de margem maximal é um importante conceito, como ponto de partida, para análise e
construção de SVM mais sofisticadas, embora não possa ser utilizado em muitos problemas
60
da vida real, já que na maioria das vezes os dados são ruidosos e não linearmente separá-
veis.
Figure 2.9. Hiperplano Ótimo.
Como explica Muller et al. (2001), uma vez que o conjunto de treinamento é li-
nearmente separável, é possível facilitar as considerações subseqüentes realizadas na de-
terminação do hiperplano ótimo através do reescalonamento de w e b, de forma que os pon-
tos mais próximos do hiperplano separador satisfaçam a equação |w.x + b| =1. Cristianini e
Taylor (2003) acrescentam que devido ao fato de que a definição dos classificadores possu-
írem um considerável grau de liberdade é possível reescalar o hiperplano para (λw, λb), λ
R, sem afetar a função de classificação associada com o hiperplano, viabilizando traba-
lhar com a idéia de margem geométrica (função margem de um vetor de pesos normaliza-
dos) e otimizar esta margem fixando a margem funcional em 1, maximizando a norma do
vetor peso.
A partir do reescalonamento do hiperplano é possível obter uma representação
canônica do hiperplano (w
0
, b
0
) e encontrar os parâmetros ótimos do vetor peso e da bias
para o hiperplano ótimo que satisfaça a seguinte restrição,
61
11
11
0
0
=+
+
=
+
+
i
ii
dparab
dparab
i0
0
x.w
x.w
(31)
Os vetores x
i
que satisfazem as equações com o sinal igualdade são chamados
vetores de suporte, e dão nome ao método. De acordo com Haykin (2001) os vetores de
suporte desempenham um papel proeminente na operação dessas classes de máquina de
aprendizagem, pois se apresentam como os pontos mais difíceis de classificar e tem uma
influência direta na localização ótima da superfície de decisão.
A partir das considerações anteriores de que o conjunto de treinamento é line-
armente separável, e de que é possível reescalar w e b, seja x
1
e x
2
dois pontos sobre as
margens w.x+b = 1 e w.x+b = -1 respectivamente, e que os dois são interceptados por uma
reta perpendicular ao hiperplano de decisão (w.x + b = 0), satisfazendo o sistema,
1
1
02
01
=+
+
=
+
b
b
x.w
x.w
0
0
(32)
do qual podemos obter,
(
)
2
120
=
xxw
(33)
igualmente podemos deduzir que os vetores w e (x
1
x
2
) são paralelos, uma vez que são
ambos ortogonais ao hiperplano separador. O que leva a seguinte equação,
(
)
1120
x=
20
xwxxw
(34)
Substituindo a equação (33) na equação (34) podemos chegar ao seguinte resul-
tado,
w
xx
2
2
1
==
ρ
(35)
62
onde
ρ
ρρ
ρ
mede a distância entre os hiperplanos w.x+b = +1 e w.x+b = -1. A variável
ρ
ρρ
ρ
repre-
senta o valor ótimo de margem de separação entre as duas classes que constituem o conjun-
to de treinamento. A partir da equação acima é possível afirmar que maximizar a margem
de separação entre as classes é equivalente a minimizar a norma euclidiana do vetor peso w
(Haykin, 2001).
Uma vez que a margem de separação é sempre maior do que este valor, no caso
de conjunto de dados linearmente separáveis, a minimização da norma euclidiana do vetor
peso leva a maximização da margem entre as classes. Assim, o problema de encontrar o
hiperplano ótimo torna-se então um problema de otimização, denominado programação
quadrática que em sua forma geral tem como objetivo encontrar um máximo, ou mínimo,
sujeito a determinadas restrições (Fritzche, 1978), e em ultima instância viabiliza a utiliza-
ção das técnicas derivadas da teoria da otimização para solução do problema, apresentadas
anteriormente.
2.4.4.3 SVM com margens suaves
Para os casos de padrões não linearmente separáveis torna-se necessário à gene-
ralização da abordagem, de modo a admitir erros de classificação. Neste caso busca-se
construir um hiperplano de separação que minimiza a probabilidade de erro de classifica-
ção, calculada como a média sobre o conjunto de treinamento (Haykin, 2001).
Para resolver o problema Vapinik (2001) introduziu um conjunto de variáveis
{
ξ
i
}, i = 1... n, na definição da função de classificação, e uma função de penalidade que
deveria ser minimizada. Assim, o hiperplano ótimo generalizado é determinado pelo vetor
w, que minimiza a funcional,
( )
( )
ii
N
i
i
bdasujeito
cw
ξ
ξξ
+
+=Φ
=
1:
2
1
,
1
w.w
w.w
T
T
(36)
63
onde c é um parâmetro positivo especificado pelo usuário, que controla o compromisso
entre a complexidade da máquina e o número de pontos não-separáveis (Haykin, 2001).
Desta forma, a solução do problema de minimização do funcional para o caso
de padrões não-separáveis pode ser formulada como um problema de otimização dual, de
maneira similar ao descrito para o caso linearmente separável,
( )
=
=
=
= = =
i
N
i
i
i
N
i
N
i
N
j
jijii
d
NiC
asujeito
ddW
1
1 1 1
2,1,0
:
2
1
maxmax
α
α
αααα
α
K
ji
xx
(37)
Como caracteriza Haykin (2001) o problema dual para o caso de padrões não
separáveis é similar ao caso simples de padrões linearmente separáveis exceto pelo fato de
que a restrição α
i
0 é substituída pela restrição mais rigorosa 0 α
i
C.
2.4.4.4 SVM não-lineares
Quando a construção de uma superfície de separação linear para padrões não-
separáveis torna-se inapropriada, devido ao valor da função de penalidade associada ao erro
de classificação ser muito alto, é possível resolver o problema através do emprego de um
dos recursos mais poderosos das SVM, o mapeamento não-linear do vetor de entrada em
um espaço de característica de alta dimensão, e em seguida construir o hiperplano ótimo de
separação. Como descrito por Cristianini e Taylor (2003) para conseguir uma aprendizagem
de relações não lineares a partir de uma máquina linear de aprendizagem, é necessário sele-
cionar um conjunto de dados não lineares e reescrever estes dados em uma nova represen-
tação. Segundo o autor isto é equivalente a aplicação de um mapeamento não linear dos
dados para um espaço de características, no qual é possível utilizar uma máquina linear.
Portanto, a idéia básica por trás da utilização de uma função kernel é primeira-
64
mente o processamento dos dados através de um mapeamento não linear e então apli-
car o algoritmo linear anterior, porém no espaço de características. Segundo Haykin (2001)
o mais importante é que, após o mapeamento não-linear, podemos usar o núcleo do produto
interno para construir o hiperplano ótimo no espaço de características sem ter que conside-
rar o próprio espaço de características. Para Cristianini e Taylor (2003) um dos fatos curio-
sos sobre o uso da função kernel é que não é preciso conhecer a fundo o mapeamento das
características para que seja realizado o processo de aprendizagem no espaço de caracterís-
tica. Por outro lado o autor afirma que uma vez que a utilização da função kernel torna pos-
sível o mapeamento implícito dos dados no espaço de características e treinamento a partir
destes novos dados, viabiliza paralelamente o desvio dos problemas computacionais ine-
rentes da avaliação no próprio espaço de características.
Sobre núcleo do produto interno, ou função kernel, Haykin (2001) exemplifica:
seja x um vetor do espaço de entrada, e φ(x) um conjunto de transformações não lineares
do espaço de característica, podemos definir, de forma simplificada, a superfície de decisão
calculada no espaço de características,
( )
0
0
=
=
m
j
j
w x
ϕ
(38)
onde φ(x) = 1, w
0
representa o bias b, e w
j
representa um conjunto de pesos lineares conec-
tando o espaço de características com o espaço de saída. Segundo o autor, uma vez que
estamos trabalhando no espaço de características onde procuramos separabilidade “linear”
podemos definir a superfície de decisão calculada no espaço de característica como,
( ) ( )
0==
=
i
N
ii
i
T
i
xxw
ϕϕα
(39)
onde o termo φ
T
(x
i
) φ(x
i
) representa o produto interno de dois vetores induzidos no espaço
de característica pelo vetor de entrada x e ao padrão de entrada x
i
relativo ao i-ésimo exem-
plo.
Como explica Cristianini e Taylor (2003) se temos um meio de computar o
produto interno diretamente no espaço de características como uma função de dados origi-
65
nais de entrada, então é possível construir uma máquina de aprendizagem o-linear com
base em um método computacional conhecido como função kernel, definida por
A função Kernel possibilita a realização do produto interno no espaço de entra-
da no lugar do espaço de característica de alta dimensionalidade (Gunn, 1998). De onde
resulta que o hiperplano pode ser definido por,
( )
0,
1
=
=
N
i
iii
Kd xx
α
(41)
Segundo Haykin (2001) a expansão do kernel permite construir uma superfície
de decisão que é não-linear no espaço de entrada, mas cuja imagem no espaço de caracterís-
tica é linear. Com o uso da função Kernel é possível construir o problema dual substituin-
do-se o produto interno φ
T
(x) φ(x
i
) por K(x . x
i
) na construção do hiperplano ótimo no es-
paço de característica,
( )
NiparaC
d
asujeito
KddQ
i
N
i
ii
N
i
N
j
jijiji
N
i
i
,,2,10
0
:
)(max
1
1 11
K=
=
=
= ==
α
α
αααα
x,x
(42)
Como descrito pelo autor, o problema dual formulado tem a mesma forma co-
mo no caso de padrões não-separáveis, exceto pelo fato de que o produto interno usado foi
substituído pela função kernel. Por sua vez a partir dos multiplicadores de Lagrange encon-
trados é possível determinar o valor ótimo correspondente do vetor peso w
o
, onde a primei-
NiparaK
i
m
j
ijji
T
i
,,2,1)()()()()(
0
K===
=
xxxxxx,
φφφφ
(40)
66
ra componente representa o bias ótimo b
o
.
=
=
N
i
iiioo
dw
1
,
)(x
ϕα
(43)
A vantagem oferecida pela utilização da função Kernel esta relacionada a sim-
plicidade do cálculo, uma vez que na maioria das vezes a função (Eq. 36) assume formas
bastantes complexas, bem como na capacidade de representar espaços muitos abstratos.
Como explica Cristianini e Taylor (2003) o uso da função kernel é um atalho computacio-
nal atrativo, porém, antes de seguir esta rota, é prudente determinar que propriedades da
função K(x . z) são necessárias para que esta função seja um kernel para algum espaço de
característica. Segundo o autor, primeiramente, a função deve ser simétrica,
e satisfaça as seguintes inequações de Gauchy-Schwarz,
Soma-se a isto a caracterização de que quando uma função K(x . z) é um ker-
nel, dada pelas condições estabelecidas pelo teorema de Merger. Como descrito por Haykin
(2001), a expansão do núcleo do produto interno é um caso especial importante do teorema
de Merger que aparece na análise funcional que diz se um núcleo candidato é realmente um
núcleo de produto interno, e portanto admissível para uso em uma máquina de vetor de su-
porte. Dentre os mapeamentos válidos estão os mapeamentos baseados em polinômios, em
funções radiais e algumas funções sigmóides. A tabela 1 apresentada em Haykin (2001)
apresenta os núcleos de produto interno para os três tipos mais comuns de SVM:
),()(.)()(.)()( xzxzzxzx, KK ===
φφφφ
(44)
),()()(.)()(.)(
)(.)()(.)()(
2
2
2
2
zzxx,zzxx
zxzxzx,
KK
K
==
=
φφφφ
φφφφ
(45)
67
Tabela 2.2 – Resumo dos Núcleos de Produto Interno (fonte Haykin, 2001)
TIPO DE MÁQUINA DE VETOR
DE SUPORTE
NÚCLEO DE PRODUTO
INTERNO
COMENTÁRIOS
Kernel Polinomial
Máquina de aprendizagem polinomial
p
i
T
xx )1( +
A potência p é especificada
pelo usuário
RBF
Rede de função de base radial
)
2
1
exp(
2
2
i
xx
σ
A largura
2
σ
é especifica-
da pelo usuário
Perceptron de duas camadas
)tanh(
10
ββ
+
i
T
xx
O teorema de Mercer é
satisfeito apenas para al-
guns valores de
0
β
e
1
β
2.4.4.5 SVM para várias classes
Como destacado anteriormente, as SVM são utilizadas em princípio para gera-
ção de dicotomias, ao passo que muitos problemas do mundo real têm mais que duas clas-
ses. Diversas técnicas são propostas para estender esta metodologia para classificação com
múltiplas classes. Como explica Lima (2004), podemos dividir estas diversas abordagens
em duas: uma abordagem defende a construção e combinação de vários classificadores bi-
nários, enquanto a outra abordagem opta por considerar todos os dados diretamente na for-
mulação de otimização.
Como descrito por Weston (1999), as abordagens para solução de problemas de
múltiplas classes envolvem a combinação de vários classificadores binários em um esque-
ma de votação. Nas seções seguintes serão apresentadas duas abordagens usuais para reali-
zação dessa tarefa, denominadas Um Contra Todos (One-Against-the-Rest) e Um
Contra – Um (One-Against-One).
De acordo com Weston (1999), para a solução de um problema multiclasses
com base na abordagem Um Contra Todos é necessário a criação de k classificadores
68
binários, um para cada classe. No k-ésimo problema, os pontos pertencentes a uma única
classe são associados a +1 e os pontos pertencentes às outras classes são associados a -1.
Um esquema de votos é então aplicado para classificar o novo ponto. Como explica Lima
(2004), idealmente, somente um dos k classificadores deveria produzir um resultado positi-
vo, contudo, muitos classificadores produzirão valores positivos, o chamado problema do
falso positivo. Por isso, na predição final da classe é necessário utilizar o esquema conhe-
cido na literatura como o vencedor leva tudo (winner-takes-all), pelo qual o vencedor é
associado a classe com um valor de saída maior. Conforme a apresentado na equação abai-
xo,
(
)
(
)
(
)
bxf
i
ki
+
=
xΦw .maxarg
1
(46)
A outra abordagem para solução de problemas de multiclasses a partir de classi-
ficadores binários é conhecida na literatura como Um Contra Um (One-Against-One).
Neste método k(k – 1)/2 hiperplanos são construídos, separando cada classe da outra classe.
Como descrito por Ding e Dubchak (2000) existem diferentes procedimentos que permitem
combinar estes classificadores visando atribuir uma única classe a um novo exemplo. No-
vamente, na predição final da classe é utilizado um esquema de votação, neste caso o pon-
to pertencerá a classe que receber o maior número de votos (Weston, 1999). Para o caso de
duas classes receberem o mesmo número de votos, Hsu e Lin (2002) propõem simplesmen-
te a seleção da classe com menor índice como estratégia de desempate. Porém como afirma
Lima (2004) esta estratégia não é adequada, uma vez que não existe nenhuma justificativa
teórica e depende da implementação das classes.
Em Ding e Dubchak (2000), vamos encontrar uma proposta para tratar as ambi-
güidades geradas através do método Um Contra Todos. A idéia é agregar um segundo
passo ao método anterior, denominada método Um Único Contra Outros (Unique-
one-versus-others method), com o objetivo de reduzir ou eliminar os falsos positivos. No
dizer dos autores, com a inclusão do segundo passo é aplicada uma classificação discrimi-
nante sobre os pares de classificadores entre todas as classes com predição positiva.
Em Lima (2004) encontramos a seguinte descrição para o método de refina-
mento proposto: suponha que, para um exemplo x, o método Um Contra Todos aponte
69
q classificações positivas, isto é, x pode pertencer a q classes, com q K . Se o número de
classes é K, então um passo adicional envolve o treinamento de classificadores para todos
os K(K −1) /2 pares de classes. Os q(q −1) / 2 classificadores que envolvem as q classes são
então, aos pares, aplicados ao exemplo consultado x, e produzem uma predição positiva
para uma classe particular. Todos os votos dos q(q −1) / 2 classificadores são marcados e a
classe com mais votos representa a predição final. Portanto, os falsos positivos são elimina-
dos neste segundo passo.
Segundo Ding e Dubchak (2000), o método Um contra Todos Único tem alta
precisão de classificação, uma vez que a fronteira de decisão é desenhada entre duas classes
verdadeiras de treinamento, ao invés de uma classe verdadeira e todas as outras classes
complementares. Para os autores a eliminação do falso positivo é essencialmente uma téc-
nica de redução de ruído. Na opinião de Lima (2004) um problema com esta estratégia sur-
ge quando as classes recebem o mesmo número de votos, sendo que algum procedimento
de decisão precisa ser adotado para tratar o empate.
2.5 CONJUNTO DE CLASSIFICADORES
Um conjunto de classificadores é um agrupamento de classificadores cujas de-
cisões individuais são combinadas de alguma forma para classificar um novo exemplo. O
uso de vários classificadores é uma estratégia bastante utilizada para aumentar o desempe-
nho de sistemas de reconhecimento de padrões. Segundo Hirata (2007) apesar de ser uma
prática relativamente antiga a combinação de classificadores só passou a receber uma maior
atenção como um tema de estudo na área de reconhecimento de padrões e afins na década
de 1990. Esta área é referenciada na literatura com diferentes nomes Comitê de Máqui-
nas, Misturas de Especialistas, Conjunto de Classificadores, Sistema de Múltiplos Classifi-
cadores, Teoria do Consenso, etc. (Kuncheva & Whitaker, 2003).
A idéia central de um conjunto de classificadores é de que os erros sejam mi-
nimizados através do uso de múltiplos classificadores ao invés de um único classificador.
Como explica Haykin (2001), de acordo com o princípio de dividir e conquistar, uma tarefa
computacional complexa é resolvida dividindo-a em um número de tarefas computacionais
70
simples e então combinando as soluções destas tarefas. Para o autor uma combinação de
especialistas constitui um Comitê de quinas, que pode ser classificado em duas grandes
categorias: estruturas estáticas e estruturas dinâmicas. Por sua vez, as estruturas estáticas
podem ser divididas em: método da média de ensemble, onde todos os especialistas são
treinados com o mesmo conjunto de dados, e método reforço, onde os classificadores (es-
pecialistas) são treinados com conjuntos de dados com distribuição inteiramente diferentes.
Em relação às estruturas dinâmicas o autor apresenta dois tipos de estruturas: a mistura de
especialistas, na qual as respostas individuais dos classificadores são combinadas por uma
rede de passagem, e a mistura hierárquica de especialistas, onde a as respostas individuais
dos classificadores são combinadas por várias redes de passagem arranjadas em uma forma
hierárquica.
Ao analisar os pontos que tornariam convenientes a combinação de classifica-
dores para resolver um problema de reconhecimento de padrão, Jain e outros (2000) expli-
cam que sua utilização é justificada quando: é possível o acesso a diferentes classificadores
aplicados em diferentes contextos de um mesmo problema; existe disponibilidade de mais
de um conjunto de treinamento, coletados em tempo ou ambientes diversos; e diferentes
classificadores treinados em um mesmo conjunto de dados em diferentes regiões do espaço.
A complexidade do problema, a dimensionalidade e a presença de ruídos em relação ao
conjunto de dados, são alguns dos fatores que justificariam a utilização de uma combinação
de classificadores como alternativa da aplicação de um único classificador. Segundo
Hansen e Salamon (1990) uma condição para que a performance de um conjunto de classi-
ficadores seja melhor do que a performance de seus componentes individualmente é que os
classificadores que compõem o conjunto sejam distintos, isto é, os classificadores devem
cometer erros diferentes em novos conjuntos de exemplos.
Ao tratar das razões que levam a construir conjuntos de classificadores com o
objetivo de melhorar o poder de predição dos algoritmos de aprendizagem de máquinas
Dietterich (2000) apresenta três delas como fundamentais: a estatística, a computacional e a
representacional. O motivo estatístico está diretamente relacionado com a possibilidade de
trabalhar com a média calculada a partir dos votos dos classificadores pertencentes ao con-
junto, reduzindo o risco de escolher o classificador errado. O motivo computacional parte
do fato de que muitos dos problemas, tais como encontrar a menor arvore de decisão ou os
71
melhores pesos para rede neural, são problemas NP-hard. Com a construção de um conjun-
to de classificadores seria possível executar várias vezes um algoritmo de busca local, par-
tindo de pontos diferentes e obter uma melhor aproximação da solução, quando comparada
às soluções individuais. A motivação representacional está relacionada à não possibilidade,
algumas vezes, da representação da verdadeira função de classificação a partir do conjunto
de hipóteses, com a utilização de um conjunto de classificadores seria possível através da
união, ponderada ou não, das diversas hipóteses expandir o espaço de funções, representar a
verdadeira função.
Em uma situação em que múltiplos classificadores são projetados para um
mesmo problema de classificação, podemos simplesmente escolher o melhor deles, ou en-
tão, combinar as classificações dadas por cada um deles de forma a se determinar a classifi-
cação final. Atualmente existem diferentes estratégias para combinar os resultados de clas-
sificação alcançados por cada um desses classificadores em um único resultado. Dentre as
técnicas encontradas na literatura estão: Stacking (Wolpert, 1992), Bagging (Breiman,
1996) e Boosting (Schapire, 1990).
Um exemplo muito simples e intuitivo para combinação de classificadores con-
siste em projetar um conjunto de classificadores base a partir de um mesmo conjunto de
treinamento, eventualmente variando-se a quantidade de dados de treinamento utilizado ou
algum parâmetro do algoritmo de treinamento, ou ainda o próprio algoritmo de classifica-
ção, e então associar a cada exemplo a classe que recebeu mais votos. Esta técnica, conhe-
cida como Max Wins, é utilizada como estratégia de desempate, quando da utilização de
um conjunto de classificadores binários SVM / UM contra Um. Gama (1999), explica
que a predição com base na combinação de classificadores pode ser dividida em métodos
baseados e não baseados em votação, bem como em todos estáticos e dinâmicos. Os
métodos baseados em votação utilizam quantidades ou pesos na decisão. Nos métodos está-
ticos todos os classificadores são consultados para classificar uma determinada amostra,
enquanto os métodos dinâmicos os classificadores são especialistas em determinado espaço
de busca.
Atualmente existem diferentes estratégias de combinar os resultados de classifi-
cação alcançados por cada um desses classificadores em um único resultado (Hirata, 2007).
Votação é um dos métodos mais utilizados para combinar classificadores. Os métodos de
72
votação utilizam contagem ou contagem ponderada para classificar uma determinada amos-
tra. Seja {D1, D2, ..., DL} uma coleção com L classificadores e seja [d
i,1
, d
i,2
,..., d
i,c
,]
t
um
vetor tal que d
i,j
{0, 1} indica a saída do classificador D
i
, i = 1; 2,...,L, com relação à a-
mostra x pertencer ou não à classe w
j
, j = 1, 2,..., c. O voto majoritário (plurality/majority
vote) escolhe a classe w
k
onde
( ) ( )
===
==
=
L
i
jij
L
i
c
j
kik
dxgdxg
1
,
1
1
,
max
(47)
Diferente da votação uniforme onde a opinião de cada classificador que compõe
da base contribui para a classificação com o mesmo peso, na votação ponderada cada um
dos classificadores da base tem um peso associado. Na votação majoritária ponderada a
equação 1 é modificada para
( ) ( )
===
==
=
L
i
jiij
L
i
c
j
kik
dbxgdxg
1
,
1
1
,
max
(48)
onde b
i
é o peso do classificador D
i
. Por conveniência, a
=
=
L
i
i
b
1
1
e b
i
p
i
, onde p
i
é proba-
bilidade de acerto do classificador D
i
. (Kuncheva & Whitaker, 2003).
Em relação ao arranjo, os classificadores podem ser combinados paralelamente
ou em série (Figure 2.10). Quando combinados em paralelo, os classificadores produzem
decisões sobre um padrão desconhecido, todas essas decisões são então enviadas para um
método de fusão que produzirá o resultado final. Uma alternativa para a combinação parale-
la é a combinação em série, neste arranjo, a cada estágio do sistema, existe somente um
classificador atuando no sistema. A combinação em série pode ser dividida em duas abor-
dagens distintas: a Redução das classes e a Re-avaliação. Na Redução de classes a cada
estágio do sistema os números de classes candidatas são reduzidos , enquanto que na re-
avaliação os padrões rejeitados em níveis anteriores são re-avaliados. Assim o nível de con-
fiança do classificador é baixo e o padrão deverá ser avaliado no nível seguinte.
73
Figure 2.10. Esquemas básicos da combinação de classificadores
Ao analisar a área de pesquisa relacionada à combinação de classificadores
Kuncheva (2004), esclarece que não existe uma padronização na área, e admite que não
consenso sobre as diferentes técnicas de combinação propostas. Apesar das críticas sobre o
atual estágio de desenvolvimento da área, existe uma grande quantidade de trabalhos sendo
publicados.
74
3 MATERIAIS E MÉTODOS
3.1 MATERIAIS E EQUIPAMENTOS
Tendo em vista os aspectos que foram enfatizados sobre a necessidade de ma-
peamento das áreas de ocorrência dos recifes de corais presentes no Projeto de Conserva-
ção e Utilização Sustentável da Diversidade Biológica Brasileira – PROBIO/MMA (Castro,
1999). E por outro lado, as questões relativas ao desafio específico de classificação de am-
bientes costeiros subaquáticos, a partir de imagens de sensores remotos orbitais, devido aos
efeitos atmosféricos e da coluna de água, que degradam o sinal recebido pelo sensor orbital
e criam o problema das interclasses, o qual interfere diretamente no resultado final do pro-
cesso de classificação. Somando-se a isto o fato de que os mapas, com localização e com a
área de cobertura, destas formações recifais estudadas são raros (Reno e outros, 2003), o
desenvolvimento do trabalho foi realizado em três etapas distintas, porém complementares.
Na primeira etapa, foi tratada a questão do processamento e análise dos dados
de sensoriamento remoto relativas à formação recifal de Maracajaú, em conjunto com as
informações espaciais disponibilizadas por Amaral (2003), as quais são espacialmente res-
tritas ao limite territorial da formação recifal de Maracajaú. Em relação à área de Maracajaú
existia uma disponibilidade de diferentes tipos de informações geoambientais, representa-
das pelos mapas temáticos gerados por Amaral (2003), levantamento batimétrico realizado
por Lima (2002) e as fotografias de pequeno formato.
Na segunda etapa, foram processadas as imagens multiespectrais, e os mapas
batimétricos das formações Rio do Fogo e Cioba, o que possibilitou a classificação destas
formações a partir do conjunto de classificadores validado na fase anterior. Na terceira eta-
75
pa, as imagens classificadas das três formações recifais foram concatenadas às imagens
multiespectrais relativas a toda área da APARC, possibilitando a criação de mapas com
uma abrangência geográfica maior, que permitam avaliar as diversas formações recifais no
contexto da própria Unidade de Conservação (APARC), possibilitando um posterior estudo
sobre as relações entre regiões distintas da Unidade de Conservação.
Ao final, o que se pretende com essa estratégia é conceber e aplicar um conjun-
to de classificadores, baseados em SVM, que seja adequado para representar os diversos
tipos de fundos presentes nas formações recifais da área de abrangência da APARC, com
base no mapeamento da área realizado por Amaral (2003), identificando as variáveis mais
adequadas. Nesse processo, foi definida e utilizada uma arquitetura de combinação de clas-
sificadores série-paralela, para classificação dos diversos tipos de fundos presentes nas i-
magens relativas às formações recifais.
3.1.1 Imagens multiespectrais e fotografias de pequeno formato
No desenvolvimento da pesquisa foram utilizados dados multiespectrais de sen-
soriamento remoto, em formato digital, dados espaciais de natureza não-espectral, em for-
ma analógica ou digital resultantes de levantamentos anteriores realizados na área, como
também fotografias de pequeno formato. O processamento e análise dos dados foram reali-
zados em aplicativos já disponíveis, porém, em vários momentos foi necessário o desenvol-
vimento de rotinas computacionais específicas para a tarefa. Estas rotinas, detalhadas nos
capítulos posteriores, foram utilizadas na fase de preparação dos conjuntos de treinamento,
na adequação das funções utilizadas na construção e execução das SVM e na fase de de-
terminação de acurácia.
Os dados de sensoriamento remoto usados referem-se às imagens orbitais
ETM+ / Landsat-7, bandas espectrais ETM1, ETM2 e ETM3 (região espectral do visível),
adquiridas em 19 de Novembro de 1999. O conjunto de imagens multiespectrais, foi obtido
junto ao Departamento de Geologia da UFRN. A opção pelas bandas ETM1, ETM2 e
ETM3 entre as seis imagens disponíveis, levou em consideração o objeto de estudo, no caso
76
as áreas submersas, particularmente os recifes de corais, que é espectralmente melhor ca-
racterizada nos intervalos de comprimento de onda definidos para essas três bandas (Tabela
3.1).
As imagens espectrais utilizadas abrangem toda Área de Proteção Ambiental
dos Recifes de Corais do Rio Grande do Norte, porém, as subáreas utilizadas para coleta de
dados de treinamento e classificação encontram-se na porção meridional da APARC, cor-
respondentemente às áreas do Baixo de Maracajaú, Rio do Fogo e Cioba .
Tabela 3.1 – Principais aplicações bandas do sensor ETM - Fonte: Novo (1992).
BANDAS
ESPECTRAIS
INTERVALO
ESPECTRAL
PRINCIPAIS APLICAÇÕES
ETM+ 1 0,45 – 0,52 Mapeamento de águas costeiras
Diferenciação entre solo e vegetação
Diferenciação entre coníferas e folhosas
ETM+ 2
0,52 – 0,60 Reflectância da vegetação verde sadia
ETM+ 3
0,63 – 0,69 Absorção pela clorofila
Diferenciação entre espécies vegetais
ETM+ 4 0,76 – 0,90 Levantamento de biomassa vegetal
Delineamento de corpos d’água
ETM+ 5 1,55 – 1,75 Medidas de umidade da vegetação
Diferenciação entre nuvens e neve
ETM+ 6 10,4 – 12,5 Mapeamento de estresse térmico em plantas
Outros mapeamentos térmicos
As Fotografias Aéreas de Pequeno Formato - FAPEF utilizadas foram adquiri-
das no dia 8 de fevereiro de 2001, entre 10:30 e 12:00, a partir de 6 sobrevôos a altitude
aproximada de 2100 e 800 metros. O material foi digitalizado e melhorado digitalmente,
balanceando seu contraste e brilho, e em seguida georreferenciado com base na localização,
adquirida com a utilização de GPS (checagem em campo) dos flutuantes e com outros pon-
tos de controle. Estas fotografias referem-se particularmente a região dos recifes de corais
77
do Baixo de Maracajaú. Como explica Amaral (2003), as FAPEFs foram tratadas digital-
mente de forma a melhorar o brilho e contraste e posteriormente submetidas a tratamento
especial para ressaltar feições existentes. Com relação ao georreferenciamento dos dados
espaciais, este foi feito com o uso de GPS de mão, o que proporciona uma acurácia de a-
proximadamente 10m.
3.1.2 Dados espaciais e descritivos de levantamentos anteriores
Foram utilizados os dados (mapa temático, perfil batimétrico, dados coletados
em campo), resultantes dos levantamentos anteriores realizados por Amaral (2002). Os ma-
pas temáticos referentes aos diferentes tipos de fundos, foram disponibilizados em meio
magnético. Foram utilizados também os dados relativos aos levantamentos batimétricos
realizados por Amaral (2002) e Lima (2002), da área relativa à formação recifal de Maraca-
jaú, adquiridos a partir de perfilagem com ecobatímetro e análise de imagens do satélite
LANDSAT 7. A coleta de dados batimétricos complementares foi realizada no dia 16 de
abril de 2005. A malha traçada foi composta por 9 rotas, com direção aproximadamente
NE/SW e uma rota com direção aproximada NW/SE. Para facilitar a realização do trabalho,
a área foi dividida em três setores: ao Norte da área de estudo, onde foram obtidos três per-
fis Rota 5, 6 e 8; ao Leste, área após a arrebentação das ondas sobre os recifes de corais,
onde também foram realizados três perfis Rota 2, 3 e 4; e a área mais próxima ao conti-
nente atravessando os parachos (recifes) de Maracajaú, onde foram realizados quatro perfis
– Rota 1, 7 e 9 (Figura 3.1).
O Modelo Digital da batimetria da área foi gerado com dados digitalizados di-
retamente da Carta Náutica 803 da Diretoria de Hidrografia e Navegação de 1971, com
escala aproximada de 1:50.000. O datum horizontal da carta foi modificado para o datum
SAD 69 no sentido da uniformização dos dados utilizados.
Os dados espaciais e descritivos de levantamentos anteriores utilizados foram
resultantes do trabalho realizado por Amaral (2001), ao longo do ano de 2000, no setor sul
da Área de Proteção Ambiental dos Recifes de Corais, no corpo recifal denominado Baixo
78
do Maracajaú, a partir de uma parceria entre o Instituto de Desenvolvimento do Rio Grande
do Norte (IDEMA), através da Subcoordenadoria de Desenvolvimento Costeiro, e a Uni-
versidade Federal do Rio Grande do Norte
Figura 3.1: Perfis batimétricos do Parrachos de Maracajaú (Amaral, 2003)
3.1.3 Ferramentas computacionais utilizadas
Para o processamento e análise digital dos dados espaciais foram usados soft-
wares aplicativos instalados em microcomputador Processador Intel CELERON 1.4GHz,
512MB, funcionando em sistema operacional Windows XP. Os softwares aplicativos dis-
poníveis para o projeto são:
79
ERDAS IMAGINE: Sistema de mapeamento, visualização, retificação e pro-
jeção de imagens, e integração direta com sistema de GPS. Desenvolvido por Leica Ge-
osystems.
MATLAB: ambiente de programação integrado de alta performance para com-
putação, visualização, simulação, modelagem e análise de dados, desenvolvido através dos
projetos LINPACK e EISPACK pela MathWorks.
ArcGIS for Windows: A arquitetura ArcGIS traduz-se em um sistema de in-
formações geográficas (GIS), integrado, constando de três componentes fundamentais:
ArcView, ArcEditor e ArcInfo, desenvolvido pela ESRI.
Nas atividades de reconhecimento do local, realizadas através de visitas à
área da APARC, sua vegetação natural, acessada por trilhas internas, assim como locais de
destaque do PEMD e arredores, foram fotografados usando uma câmara digital Sony.
Com relação ao georreferenciamento dos dados espaciais, este foi feito com o
uso misto de GPS geodésico e GPS de mão, o que proporcionou trabalhar com uma acurá-
cia de aproximadamente 10m.
3.2 DESENVOLVIMENTO METODOLÓGICO
Neste estudo, é descrita uma nova metodologia para classificar imagens de sen-
soriamento remoto de áreas submersas, baseada na combinação serial de classificadores. A
metodologia proposta consiste no progressivo refinamento do processo de classificação. Na
primeira fase do processo de classificação foi utilizado um conjunto de cinco SVM, basea-
do no método Um – contra Todos. Em seguida foi realizado um refinamento do processo
de classificação, utilizando um novo conjunto de dez SVM, baseado no método Um con-
tra Um. Na terceira fase do processo foi utilizado um classificador distinto dos anterio-
res, baseado no classificador de Distância Mínima para a finalização do processo de refi-
namento. Ao final do processo de refinamento foi criada uma unidade combinatória que
concatena as diversas classificações parciais geradas nas fases anteriores e avalia o índice
de acurácia alcançado.
80
3.2.1 Introdução
Tendo em vista o mapeamento da distribuição dos recifes de corais que caracte-
rizem a área da APARC-RN, a metodologia adotada foi a divisão do trabalho em três fases
distintas, porém complementares. O esquema geral das etapas do sistema, relativo ao pro-
cessamento dos dados relativos a formação de Maracajaú é apresentado na Figura 3.2. Na
primeira fase foi tratada a questão do pré-processamento dos dados disponíveis (figura 3.2
a, b), tanto os multiespectrais de sensoriamento remoto como as informações espaciais le-
vantadas ao longo do tempo na área da APARC-RN, as quais, devido à distribuição o
uniforme das informações geoambientais, estão em sua maioria espacialmente restritas ao
limite territorial da formação recifal do Baixo de Maracajaú.
Na segunda fase foi realizada a classificação dos dados através do sistema com-
posto por múltiplos classificadores, que teve como objetivo o refinamento progressivo do
processo de classificação. Inicialmente foi classificada a formação de Maracajaú (figura 3.2
c, d, e), e em seguida as imagens de Rio do Fogo e Cioba. A combinação de diferentes pro-
cedimentos para refinamento do processo de classificação possibilitou a eliminação ou má-
xima redução das predições ambíguas realizadas pela aplicação de cada método isolada-
mente. A predição não ambígua para todos os dados aconteceu através da redução ou eli-
minação dos falsos positivos durante as várias fases do processamento de classificação.
Durante todo o processamento as informações relativas às classificações ambíguas adquiri-
das em uma fase foram repassadas para fase posterior.
Na fase final foram criados os mapas temáticos da distribuição dos recifes de
corais com relação a toda área da APARC. Nesta fase as imagens classificadas foram con-
catenadas com dados relativos à totalidade da área da APARC-RN para criação de diversos
mapas temáticos. Além das diversas classificações alcançadas pelo sistema SVM, duas ou-
tras abordagens de classificação de padrões foram utilizadas: Redes Neurais e K-means.
Possibilitando uma comparação dos resultados do sistema proposto com o desempenho
alcançado pela utilização direta das ferramentas para segmentação de imagens disponíveis
em um software da área de geoprocessamento.
81
Figura 3.2 – Esquema geral das diversas etapas do processo de classificação. (c) Aplicação
das 5 máquinas SVM. (d) Aplicação das 10 máquinas SVM. (c e d) LISTA 01/ LISTA 02
lista de classes recebidas por cada pixel com classificação ambíguo na respectiva fase. (e)
Aplicação do Classificador de Distancia Mínima (CDM).
3.2.2 Pré-processamento dos dados
Pelo fato das imagens adquiridas através de sensores remotos, geralmente, a-
presentarem baixo contraste foi realizado um aumento de contraste sobre o subconjunto de
82
imagens de trabalho, redistribuindo os valores de pixel de forma a ocupar toda a escala de
valores digitais possíveis. Segundo Crosta (1999) o aumento do contraste é provavelmente
uma das mais poderosas e sem dúvida a mais utilizada técnica de processamento para ex-
tração de informações de imagens de sensoriamento remoto. Além do aumento de contraste
foi aplicado sobre o conjunto de imagem o método para redução do efeito atmosférico (dark
pixel). Em seguida, com a aplicação de procedimentos de aumento de contraste, correção
atmosférica, foi produzido um conjunto de três bandas espectrais (banda 1,2 e 3), compatí-
veis e adequadas para utilização como dados de entrada.
O mapa digital contendo os tipos de fundo foi produzido a partir do arquivo dos
mapas temáticos produzidos por Amaral (2003), no sistema de referência UTM, estes
dados foram disponibilizados em meio magnético e em formato vetorial e matricial. Como
nos arquivos resultantes desse trabalho as classes de interesse representavam polígonos
fechados, sua edição no ArcView constou apenas da retirada das áreas de incertezas sobre
os tipos de fundo. O arquivo editado foi convertido do formato vetorial para matricial e, em
seguida, a imagem resultante foi suavizada usando um operador que desenvolve uma filtra-
gem pela média, como uma tentativa de melhorar o ajuste das poucas feições de apoio re-
presentadas nesses mapas, em relação às imagens georreferenciadas. O mapa final foi defi-
nido com uma abrangência geográfica limitada à área de trabalho das imagens multiespec-
trais. A utilização de um único sistema de georreferenciamento possibilitou a compatibili-
dade espacial das diversas fontes de dados.
A primeira etapa do registro geométrico constou do refinamento do georrefe-
renciamento anterior, realizado pelo fornecedor das imagens multiespectrais, a partir de
pontos de controle obtidos diretamente da carta topográfica da SUDENE em escala
1:100.000 e de medidas de campo com GPS, com previsão suposta do erro sendo menor
que 10 metros, com base no datum SAD 69 e o sistema de projeção UTM.
Para que os dados multiespectrais ficassem compatíveis, em termos de abran-
gência geográfica, com os dados espaciais de natureza não-espectral foram extraídos seg-
mentos com as mesmas dimensões (256 x 256 pixels), a partir das três imagens multiespec-
trais, utilizando um único arquivo vetorial (polígono). Assim, foram gerados três subcon-
juntos de três imagens, correspondente à área de trabalho de Maracajaú, Cioba e Rio do
Fogo (banda ETM+ 1, 2 e 3). Os conjuntos de dados espaciais resultantes foram considera-
83
dos compatibilizados e aptos para serem usados como dados de entrada para classificado-
res.
Figura 3.3 Mapa dos principais tipos de fundo observados no Parracho de Maracajaú e
feições vizinhas elaborada por Amaral (2003).
Em seguida, foi realizada a etapa de ajuste do georreferenciamento do mapa
temático, produzido a partir dos resultados apresentados por Amaral (2003). O ajuste geo-
métrico do mapa foi realizado através da interpretação visual das feições espacialmente
bem definidas presentes na imagem, as quais foram utilizadas como pontos de controle. O
ajuste geométrico teve como objetivo viabilizar a compatibilização espacial das classes
representadas nestes mapas com os demais dados espaciais. O mapa temático de tipos de
fundo, apesar de não constar como um dado de entrada para a classificação, foi usado como
referência para a aquisição dos dados de treinamento da rede neural e, portanto, importante
para visualizar a distribuição espacial das classes de vegetação na área. O mapa temático
dos tipos de fundo da área de trabalho de Maracajaú (Amaral (2003)), é mostrado na figura
3.3.
84
3.2.3 Determinação da batimetria
Quando da elaboração do mapa temático, contendo os tipos de fundo de refe-
rência, a partir do mapa original produzido por Amaral (2003), verificou-se que a batime-
tria foi um elemento de discriminação quando da análise visual. A fim de incorporar tam-
bém esse elemento de discriminação ao processo de classificação, e respaldado pelo fato de
ser possível a obtenção da batimetria em áreas rasas a partir de imagens obtidas por senso-
res remotos e que o procedimento de extração desta informação tem se mostrado eficaz,
especialmente quando são utilizadas imagens de satélites multiespectrais, foi realizada a
aplicação de um método de extração de batimetria baseado no algoritmo desenvolvido por
Lyzenga (1978).
O algoritmo aqui utilizado, para calcular a batimetria, é resultado da modifica-
ção realizada por Van Helgel e Spitzer do método desenvolvido por Lyzenga (1978) apre-
sentada em Mumby et al.(2000). O primeiro passo para o mapeamento batimétrico com
base nas imagens multiespectrais da área, foi a aplicação do todo para redução do efeito
atmosférico, conhecido como subtração de pixel escuro (dark pixel subtraction). Este mé-
todo está baseado na determinação do valor médio do nível de cinza, de um grupo de pixels
(neste trabalho uma janela 30x30) de uma região de águas profundas (maior do que 40 me-
tros). O valor encontrado é subtraído de todos os outros pixels da respectiva banda:
sii
LLAC =
(49)
onde L
i
é o valor do pixel da banda ie L
si
é o valor médio da janela de águas profundas
da banda “i”.
Para operacionalizar o processo de linearização do efeito da profundidade sobre
a reflectância do fundo, através da aplicação de logaritmos naturais proposto pelo método,
o primeiro passo foi à seleção de pixels de substrato uniforme e profundidade variável. Lo-
go após, processo de transformação das três bandas foi realizado, gerando um conjunto de
três novas imagens através de:
)ln(
siii
LLX =
(50)
85
O próximo passo foi a determinação da variância e a covariância do conjunto
das três imagens transformadas. A partir da variância e covariâncias, foi possível calcular
dois termos intermediários, u
r
e u
s
, que serão utilizados para os dois parâmetros de rotação:
(
)
12
12
2 XXVar
XVarXVar
u
r
+
=
(51)
(
)
13
13
2 XXVar
XVarXVar
u
s
+
=
(52)
onde Var X
i
é a variância da imagem transformada X
i
e Var X
i
X
j
a covariância das imagens
X
i
e X
j
.
A partir da obtenção dos valores dos valores de u
r
e u
s
tornou-se possível en-
contrar os dois eixos de rotação utilizando:
(
)
(
)
1arctan
2
++=
rr
uur
(53)
(
)
(
)
1arctan
2
++=
ss
uus
(54)
Para a elaboração do índice de profundidade (IP), que associa um valor relativo
de profundidade para cada pixel, as imagens transformadas são multiplicadas pelos parâme-
tros de rotação, seguindo a seguinte formula:
(
)
(
)
(
)
[
]
(
)
(
)
(
)
[
]
(
)
(
)
[
]
321
coscos XssenXsrsenXssenrIP
×
+
×
×
+
×
×
=
(55)
Por representar apenas um valor relativo de cada pixel em relação à profundi-
dade real da área, foi realizado um processamento posterior de calibragem em relação a
dados batimétricos da área. Para posterior calibragem do mapa batimétrico foi gerado um
conjunto de dados da área com pontos diretamente digitalizados a partir da Carta Náutica
803 da Diretoria de Hidrografia e Navegação de 1971, com escala aproximada de 1:50.000.
O datum horizontal da carta foi modificado para o datum SAD 69 no sentido da uniformi-
86
zação dos dados utilizados.
Figura 3.4 – Recorte da Carta Náutica 803, referente à área da formação recifal de Maraca-
jaú.
O conjunto de dados utilizados na calibragem do mapa batimétrico foi ampliado
com a incorporação de um subconjunto de dados retirados das rotas traçadas para obtenção
dos perfis batimétricos realizado por Lima (2002) a partir de perfilagem com ecobatímetro.
Os dados batimétricos foram obtidos através de levantamento batimétrico realizado com
auxílio de ecobatímetro e os dados adquiridos a partir da carta náutica. A Figura 3.4 mostra
um recorte da carta náutica 803 referente à área de Maracajaú utilizada para dizitalização
dos pontos batimétricos e posterior calibragem do mapa batimétrico da área de trabalho.
A partir do conjunto ampliado de dados batimétricos, foram determinados os
87
parâmetros de correlação entre os níveis de cinza e as profundidades para alguns pontos de
apoio. A equação de correlação pode então ser aplicada para toda a cena da imagem para
estimativa das profundidades e geração de mapas batimétricos. A inclusão de um novo ní-
vel de informação a partir dos mapas batimétricos ao conjunto de treinamento foi feita co-
mo uma tentativa de melhorar a discriminação entre classes espectralmente similares. A
Figura 3.5 mostra o mapa batimétrico, da área de trabalho relativa à formação recifal do
Baixo de Maracajaú, produzido pela aplicação do algoritmo de Lyzanga com base nas ima-
gens multiespectrais (banda ETM+1, ETM+2 e ETM+3) e nos conjunto de dados batimétri-
cos digitalizados.
(a) Mapa Batimétrico (b) Representação em 3D
Figura 3.5 Mapa batimétrico, da área de trabalho relativa à formação recifal do
Baixo de Maracajaú.
3.2.4 Conjuntos de dados de treinamento e validação
O mapa temático georreferenciado, relativo aos tipos de fundos dos recifes de
Maracajaú, gerado a partir do material resultante do trabalho realizado por Amaral (2003),
88
foi utilizado como base para geração do conjunto de treinamento. O mapa temático gerado
foi constituído por cinco classes diferentes: águas profundas, recifes submersos, recifes
intermarés, algas e fundo arenoso.
Para atualizar a informação contida nesse mapa foram realizadas verificações
de campo na área. As áreas de discrepância observadas no mapeamento, em relação à ocor-
rência no campo, foram redefinidas através da re-digitalização do mapa temático, e consi-
deradas nas atividades posteriores de definição da acurácia em relação aos tipos de fundo.
Para validação, com um controle maior da informação representada neste mapeamento,
foram utilizadas Fotografias Aéreas de Pequeno Formato (35 mm) associada aos trabalhos
de checagem em campo.
O treinamento e a validação do processo de aprendizagem supervisionado foi
realizado a partir da apresentação de padrões de entrada / saída espacialmente correspon-
dentes. A estrutura dos arquivos de treinamento e validação foi definida de modo que cada
padrão contempla-se os vetores de entrada e saída. Assim, cada conjunto particular de pixel
da imagem formava um padrão definido por um vetor de atributos, cujos elementos eram os
valores de reflectância em cada banda espectral (banda 1, 2 e 3), o identificador numérico
da batimetria e um valor de saída, que era representado por valores diferentes atribuídos a
cada uma das classes de interesse.
Para operacionalizar este processo foi selecionado de forma aleatória um con-
junto de treinamento e um de validação, cada qual posicionado espacialmente de modo a
englobar todas as possíveis classes de saída. Usando o mapa temático, produzido a partir do
trabalho de Amaral (2003), como referência e levando em conta a distribuição espacial a-
proximada de cada classe, em cada segmento, foram adquiridas as amostras/classe e gera-
dos arquivos individuais para cada classe. Esses arquivos contendo as amostras representa-
tivas das classes, foram convertidos em imagens com as mesmas dimensões das áreas de
treinamento e validação, sendo que cada imagem continha apenas às amostras representan-
do a classe em questão (associada a um atributo identificador diferente de zero) e fundo
(identificador igual a zero).
Para geração dos dados de treinamento, de forma aleatória, porém com um sa-
tisfatório grau de certeza, foi criada uma rotina no Matlab, que a partir destes dados de en-
trada gerou, de forma automática, uma matriz (5 x 65546), na qual a última linha representa
89
a classe correspondente a um vetor de pixel com a mesma posição espacial definida para as
imagens das bandas espectrais ETM1, ETM2 e ETM3 e da imagem de batimetria, além dos
dados representando os tipos de fundo
No final desse processo, dispunha-se de dois conjuntos de dados (um de trei-
namento e um de validação), cada qual constituído pelas bandas multiespectrais e batime-
tria e pelas imagens representando cada uma das classes de saída amostradas. Na Figura 3.6
está esquematizada a configuração final dos dados usados para treinamento e validação,
extraídos a partir da imagem contendo as classes de referência.
Figura 3.6- Esquema dos dados de treinamento e validação constituídos por níveis de in-
formações e o mapa dos tipos de fundo utilizado como referência.
3.2.5 Procedimento adotado na classificação dos dados
Por se tratar de um problema complexo com a presença de dados ruidosos, o que
poderia limitar a performance de um único classificador, foi proposto neste trabalho um
esquema de combinação de classificadores. Uma vez que, como afirma Duin (2000), fre-
qüentemente uma combinação de classificadores oferece resultados melhores do que classi-
ficadores individuais, por combinar as vantagens dos classificadores individuais na solução.
A distribuição não uniforme das informações geoambientais sobre a totalidade
da área da APARC determinou a divisão do processo de classificação em três etapas. Na
90
primeira etapa foi realizado o pré-processamento dos dados, na segunda etapa foram reali-
zados a construção, o treinamento e a validação das várias Máquinas de Vetor de Suporte
com base no conjunto de dados de treinamento relacionado com a formação recifal de Ma-
racajaú, da qual se tinha maior disponibilidade de informações geoambientais complemen-
tares. Nesta fase também foi gerado um vetor protótipo (ou dio), que representava as
possíveis classes que cada pixel poderia ser incorporado através da análise da medida de
similaridade de distância Euclidiana utilizado na última fase de refinamento do processo de
classificação. Na terceira etapa, foram classificados os conjuntos de imagens relativos aos
ambientes coralinos de Maracajaú, Cioba e Rio do Fogo.
A combinação de classificadores proposta tem como objetivo o refinamento
progressivo do processo de classificação. A predição não ambígua para todos os dados a-
conteceu através da redução ou eliminação os falsos positivos com base nas duas Unidades
Decisórias e uma Combinatória (Figura 3.7).
Os classificadores foram combinados de forma híbrida, ora em paralelo, quando
do processamento dos classificadores binários SVM (Figura 3.7 b e c), ora em série, quan-
do do processamento entre os diversos níveis de refinamento do processo (Fase Inicial, Fa-
se de Refinamento Intermediário, Fase de Refinamento Final). Em cada estágio do proces-
samento existe somente um classificador, ou um grupo de classificadores paralelos, atuando
no sistema. A cada nível de processamento foram geradas classificações parciais da ima-
gem, que eram armazenadas e combinadas posteriormente, através do mecanismo combina-
tório do sistema.
Durante todo o processamento, os padrões rejeitados em um determinado nível
foram enviados para serem reavaliados no estágio posterior, juntamente com a lista de clas-
ses recebidas. Isto é, no caso de um conjunto de pixels receber uma classificação ambígua
(ex: recifes imersos e recifes intermarés) com a aplicação método Um-contra-Todos, foi
aplicada uma classificação descriminante durante o segundo estágio. A cada estágio do
sistema o número de classes associado a um determinado pixel foi reduzido.
Após o pré-processamento (figura 3.7 (a)) os dados o enviados ao primeiro
conjunto de quinas de Vetor de Suporte que utilizam o método “Um – contra Todos”
(figura 3.7 (b)). Neste nível do processamento foram construídos “k” modelos de SVM,
onde k é o número de classes (5 classes). Cada modelo de SVM foi treinado utilizando e-
91
xemplos da k-ésima classe (rótulo positivo) contra exemplos pertencentes a todas as outras
classes (rótulo negativo).
Os resultados são enviados a primeira Unidade de Decisória (“Decisor”) que
separa os resultados em dois subconjuntos de dados: um subconjunto com os resultados
positivos somente um classificador produziu valor positivo, e um com os resultados am-
bíguos mais de um classificador produziram valores positivos. Neste estágio, para cada
elemento do segundo subconjunto, é associada uma lista das classes recebidas. Os dados
positivos são enviados á unidade de Combinação, enquanto a informação sobre os dados
com classificação ambígua, e a lista das classes recebidas o enviadas a próxima unidade
de processamento, para que a primeira fase de refinamento do processo de classificação
possa ser realizada apenas sobre o conjunto dos dados ainda não classificados positivamen-
te. Os dados com classificação ambígua recebem o refinamento da classificação através da
aplicação do método Um – contra – Um.
O refinamento do processo de classificação acontece através da aplicação das
dez quinas Um contra Todos (figura 3.7 (c)), que gera uma classificação discrimi-
nante entre as classes com classificação positiva contidas na lista das classes recebida. Nes-
ta fase a classificação discriminante foi realizada através do método Um contra Um.
Foram criadas q(q-1)/2 máquinas SVM, onde q representa o número total de classes que foi
associado aos dados de entrada de maneira ambígua, q k. Assim, a aplicação das novas
SVM, classe versus classe, sobre os padrões de entrada com mais de uma classe, produzem
uma predição positiva para uma classe em particular, os dados que receberam apenas duas
classes na predição anterior, são classificadas de forma não-ambígua nesta fase, enquanto
as que receberam uma classificação ambígua para mais de duas classes poderão sofrer uma
redução no número de classes associadas. A abordagem utilizada está de acordo com o pro-
cedimento proposto por Dink e Dubchak (2001) para melhorar o método um contra todos.
Figua 3.7 – Esquema da combinação dos classificadores; (b) Classificação Inicial - Cinco máquinas SVM (Um-contra-Todos) em pa-
ralelo; (c) Classificação discriminante Dez máquinas SVM (Um-contra-Um) em paralelo; (d) Segunda Fase de Refinamento - Apli-
cação do Classificador de Distância Mínima.
O resultado da aplicação do todo “Um contra Um” é processado através da
segunda unidade decisória (Arbitro). Novamente, dois subconjuntos de dados são gerados:
um subconjunto com os resultados positivos todos os classificadores geraram valores po-
sitivos para uma única classe, e um com os resultados ambíguos os classificadores gera-
ram valores positivos para mais de uma única classe. Para cada elemento do segundo sub-
conjunto de dados, é associada uma nova lista das classes recebidas.
A segunda unidade decisória (Arbitro) envia os dados não-ambíguos diretamen-
te a unidade Combinatória, enquanto a informação, sobre os dados que permaneceram com
classificação ambígua, e a lista das classes recebidas o enviadas à próxima unidade de
refinamento do processo de classificação, para que a segunda fase de refinamento do pro-
cesso possa ser realizada apenas sobre os dados ainda não classificados de forma não ambí-
gua.
Na segunda fase de refinamento (figura 3.7 (d)), foi aplicado o algoritmo no
classificador de Distância Mínima apresentada em Gonzales (2000), que considera o cen-
tróide das classes a partir da média definida nas amostras de treinamento e classifica cada
pixel não contido nas amostras para a classe cuja distância ao centróide for a menor (eq.
56). Cada classe de padrão foi representada por um vetor protótipo, gerado a partir do mapa
temático, das três bandas espectrais e da batimetria. Antes da aplicação do algoritmo da
distância mínima, cada pixel foi mapeado de volta para o espaço de entrada. A possibilida-
de de utilização das informações geradas na fase precedente para o aprimoramento do pro-
cesso decisório viabilizou uma pequena modificação no algoritmo original, no sentido de
verificar a pertinência do vetor de padrões ambíguo apenas sobre as classes pertencentes à
lista gerada na fase anterior. Os resultados deste estágio foram enviados diretamente à uni-
dade combinatória
( )
MjD
Mj
N
j
wx
j
j
K
K
,2,1
,2,1
1
==
==
j
j
mxx
xm
(56)
onde Nj é o número de vetores de padrão da classe wj.
94
Uma questão importante, da aplicação de uma SVM, é que o desempenho de
generalização de uma SVM está diretamente relacionado com escolha do parâmetro C (que
controla o compromisso entre a complexidade da máquina e o número de pontos não sepa-
ráveis), e do kernel (que é a função utilizada no SVM não linear, para o cálculo de produtos
escalares entre os dados do espaço de característica). Essa questão define a maneira como a
SVM aprende que uma entrada específica corresponde a uma dada classe de saída. Para
Lima (2004) o problema de seleção dos parâmetros ótimos é bastante complexo pelo fato
de que a complexidade do modelo SVM (portanto, o desempenho de generalização) depen-
de de todos os parâmetros simultaneamente. A seleção de um tipo particular de kernel, e a
determinação dos parâmetros da função kernel, são usualmente baseadas no conhecimento
do usuário sobre o domínio da aplicação (Vapnik, 1998).
Existem diversas abordagens práticas para escolha de C (Lima, 2004). As im-
plementações de software existentes para regressão e classificação usualmente tratam os
parâmetros da SVM como entradas definidas pelo usuário. Gunn (1998) propõe a utilização
do valor C = 5, porém a escolha deste valor deve refletir o conhecimento do usuário sobre o
grau de ruído do conjunto de dados. Neste trabalho foi utilizada uma validação cruzada
para selecionar o melhor parâmetro C e o parâmetro do kernel, dentro de um intervalo es-
pecificado a priori. Desse modo, as diversas simulações foram realizadas com a finalidade
de se identificar à configuração mais adequada para trabalhar os dados disponíveis. Foi
verificado o melhor parâmetro C e o parâmetro do kernel dentro de um intervalo especifi-
cado a priori, tanto do parâmetro do kernel quanto do parâmetro C. Para cada conjunto de
parâmetros foi utilizado um método de validação cruzada. Os melhores resultados, em ter-
mos de classificação da área de validação, para os diferentes tipos de kernel empregados,
com o respectivo parâmetro C foram utilizados para o treinamento das diversas máquinas.
Portanto, através das simulações, realizadas durante a etapa de treinamento,
que constaram da aplicação de diferentes SVM aos dados de validação foi possível selecio-
nar a arquitetura da SVM mais adequada para classificar as imagens relativas as 3 áreas de
trabalho. Isso significa que, durante essa fase, além do modelo de SVM, foram estabeleci-
dos os parâmetros C e o kernel, para um conjunto específico de dados de entrada.
O processo de refinamento produz um arquivo de saída que indica os valores
de saída calculados para cada elemento de processamento de refinamento da classificação,
95
arranjados em uma estrutura seqüencial para cada um dos vetores de entrada. Assim, os
arquivos de saída resultantes da aplicação do processo de refinamento produziram três con-
juntos de dados de saída que foram convertidos para um formato matricial, de modo a cons-
tituírem uma imagem da cena classificada, referente a cada uma das datas de aquisição da
cena.
Para essa tarefa de produzir uma cena classificada a partir dos valores de saída
das diversas unidades decisórias foi utilizada a unidade combinatória (figura 3.8 (f)). Atra-
vés da unidade combinatória os arquivos de saída resultantes das classificações parciais
positivas, geradas em cada fase do sistema, são combinados através de rotina computacio-
nal, que tem a finalidade estabelecer a posição de cada pixel na matriz bidimensional que
representa a imagem classificada. Isto é, para um dado vetor de entrada, é identificada a
unidade de processamento que forneceu o valor e a classe correspondente e estabelecida a
posição desse pixel na matriz bidimensional que representa a imagem classificada. Ao final
do processo foram gerados 3 conjuntos de imagens classificadas relativas as três formações
recifais da APARC.
Uma vez que a estimativa da exatidão de mapas temáticos implicam na sua
comparação com uma referência, e diante da dificuldade em adquirir uma grande quantida-
de dados de campo, que apresentassem um grau de confiabilidade adequado para cumprir
essa finalidade, o desempenho das SVM e do sistema como um todo na classificação dos
dados espaciais foi analisado com base em conjunto de dados que levou em consideração as
imagens multiespectrais, as fotografias de pequeno formato e os dados coletados em cam-
pos. Inicialmente, as classificações resultantes da aplicação do sistema foram comparadas
visualmente com a imagem resultante da aplicação de dois classificadores únicos SVM para
classificação com múltiplas classes: o método Um contra Todos e o método Um con-
tra Um. Quando da utilização do método Um contra Todos, para solucionar o pro-
blema relacionado a classificação ambígua, foi utilizado o critério de associação a classe
que apresentou o valor mais alto da função de decisão, quando da utilização do método Um
contra Um, o problema relacionado a classificação ambígua, foi resolvido através do
estratégia de votação, apresentada anteriormente no item 2.5, conhecida como “Max Wins”,
isto é, as classes com maior número de votos vence. Para o caso das classes que receberam
o mesmo número de votos, ou apresentaram o mesmo valor da função de decisão, foi utili-
96
zada a estratégia de selecionar aquela classe com menor índice. O desempenho do sistema
também foi analisado com base nas similaridades visuais apresentadas quando comparadas
com a imagem resultante da utilização de um classificador estatístico k-means e de uma
rede neural Perceptron Multicamada. Para todos os algoritmos foram utilizados os mesmos
conjuntos de amostras adquiridas para o treinamento do sistema proposto neste trabalho.
Em seguida, o desempenho do sistema foi analisado com base na similaridade
estatística calculada em relação ao conjunto de validação. Nesse sentido, para que pudes-
sem ser usados como referência, os dados representados no mapa de tipos de fundo foram
atualizados com base na informação verificadas em trabalho de campo. Nesta fase foram
desconsiderados eventuais erros cometidos na coleta, análise e processamento dos dados.
Estes pontos amostrais, foram devidamente associados a classe que pertence, e comparados
com as classificações geradas a partir dos dados multiespectrais e da batimetria e processa-
dos pelo sistema, posteriormente.
A análise estatística decorrente da comparação das classificações, com os dados
de referência, foi feita também no Matlab através matriz de erros resultante da comparação
da exatidão global das classificações.
3.2.6 Procedimento para geração dos mapas
Uma vez produzidas as cenas classificadas no formato imagem foi aplicado um
filtro majoritário que substitui a classe atribuída ao pixel central pela classe mais freqüente
presente em uma janela de tamanho especificado, caso ele represente uma categoria dife-
rente da classe majoritária, no sentido de homogeneizar a representação das classes na ima-
gem. Tal procedimento tende a substituir os resultados pouco prováveis que foram inseri-
dos. Para isto foi realizado uma filtragem pela moda estatística, operação implementada no
Matlab.
Concluído o procedimento de homogeneização da representação das classes na
imagem, dispunha-se de três conjuntos de cenas classificadas mediante a aplicação da
97
mesma combinação de classificadores. Estas imagens foram transferidas para Arcview 8.1
e submetidas a alguns processamentos de georreferenciamento desses segmentos de ima-
gens baseado em coordenadas UTM. Para isso, foram utilizados os pontos de controle, os
quais tiveram suas coordenadas UTM armazenadas, durante o processo de criação das ima-
gens de trabalho a partir das imagens multiespectrais.
A elaboração do mapa digital, contendo toda área limitada pela APARC, foi re-
alizada através da concatenação das imagens classificadas com a imagem relativa a toda a
área da APARC. De acordo com Galo (2000), a elaboração dos mapas que englobam, não
apenas a área de estudo, mais sim toda a área circundante a esta área, possibilita uma abor-
dagem direcionada para a manutenção da biodiversidade ecológica em longo prazo, consi-
derando a biodiversidade regional e não apenas as relações locais, o que poderá contribuir
para subsidiar uma nova visão estratégica de manejo de Unidade de Conservação integrada
com relação ao potencial de impacto representado pela atividade, hoje realizado, na vizi-
nhança das áreas trabalhadas.
98
4 RESULTADOS: APRESENTAÇÃO E ANÁLISE
Os resultados apresentados e discutidos neste capítulo caracterizam cada uma
das abordagens descritas quando da apresentação da metodologia utilizada. Foi realizada
uma análise comparativa entre as abordagens, ressaltando suas contribuições e limitações.
Neste contexto, são analisadas as questões relacionadas com a aquisição de amostras de
treinamento e validação e a identificação de uma configuração única para as diversas SVM
utilizadas, assim como de parâmetros de treinamento, adequados para classificar os dados.
Além disso foi realizada uma avaliação das classificações resultantes, em termos de simila-
ridade com uma referência elaborada a partir de dados disponíveis resultantes do trabalho
realizado em Amaral (2003).
Como o sistema foi projetado e treinado para classificação a partir dos dados re-
ferentes à formação recifal de Maracajaú (imagens multiespectrais, batimetria e mapa temá-
tico dos tipos de fundo), e depois de validado, aplicado aos outros conjuntos distintos de
dados relativos às formações recifais de Cioba e Rio do Fogo, os resultados alcançados
forneceram os elementos que subsidiaram a criação de um mapa geral para toda área da
APARC. Uma vez que a qualidade do mapeamento deriva, em grande parte, dos dados e
classificadores utilizados, foi possível representar de forma satisfatória os diversos tipos de
fundos presentes nas três formações existentes na área da APARC.
4.1 DADOS DE ENTRADA GERADOS
Os dados gerados para o treinamento do sistema constituíram um conjunto de
amostras representativas para cada uma das classes definidas no mapeamento de Amaral
(2003). A quantidade média de pixels amostrados em cada classe, gerados pelas rotinas de
99
construção dos dados de entrada do sistema, é apresentada na Tabela 4.1, assim como o
número usado para sua identificação posterior. Apesar do processo de classificação não
apresentar maiores restrições na aquisição dos dados de treinamento com relação ao posi-
cionamento das amostras nas classes foi evitado, durante o processamento, a coleta de pixel
localizados na área de transição entre as classes. O objetivo durante a fase de geração dos
dados de entrada era coletar mais de 500 pixels por classe. Porém a quantidade de pixels
geradas pelas rotinas automáticas implementadas foi, muitas vezes, limitada numericamen-
te pela representatividade espacial da classe nas imagens multiespectrais e pelo nível de
confiança da amostra.
Tabela 4.1 – Número de pixels adquiridos em cada amostra de treinamento automático, por
cada classe.
CLASSES DE TREINAMENTO NÚMERO DE PIXELS DE TREINAMENTO
Designação Identificador Imagem Amaral Imagem 35 mm
Água 1 24532
24519
24471
174
174
177
Corais Submersos 2 1822
1828
1808
231
204
231
Corais Intermares 3 1397
1385
1380
26
31
33
Algas 4 2547
2591
2576
117
114
103
Fundo Arenoso 5 866
847
867
286
297
285
A proposta inicial de usar o mapa de tipos de fundo original, elaborado em
2003 por Amaral, e as fotografias aéreas 35 mm, obtidas de uma pequena área circunvizi-
nha dos flutuantes, como referência para avaliar o desempenho das diversas classificações
dos dados revelou duas dificuldades básicas. A primeira envolveu a questão de se conside-
rar como verdade terrestre, os tipos de fundos mapeados a partir de fotografias aéreas 35
mm. A área coberta apresentava uma boa resposta espectral e estava circunscrita na área do
mapa temático. Porém, a área coberta pelas fotografias de 35 mm, por ser uma área relati-
vamente pequena (Figura 4.1 (b)), limitava tanto espacialmente como quantitativamente o
conjunto de dados de treinamento e teste.
A segunda dificuldade, quando da utilização direta do mapa temático, estava re-
100
lacionada com a baixa qualidade do ajuste do registro geométrico entre as imagens orbitais
e o mapa de tipos de fundos, e da existência de subáreas não classificadas. Para minimizar
os erros cometidos durante a coleta de dados, utilizando o mapa original, foi criado uma
segunda imagem de referência a partir do mapa apresentado por Amaral (2003). Na criação
da nova imagem de referência, foram utilizadas apenas as áreas classificadas com nível de
certeza considerado satisfatório para o projeto. A Figura 4.1 (a) apresenta a imagem final
criada e utilizada como referência na coleta dos dados dos conjuntos de treinamento e teste.
A imagem foi classificada em cinco tipos de fundos: Águas, Corais Submersos, Corais In-
termarés, Algas e Fundo Arenoso. A classe água foi associada aos pixels que estão fora da
área da formação coralina e do continente, representada pela cor azul no mapa temático de
Amaral (2003) (figura 3.3). Para criação da nova imagem de referência, foram utilizadas as
ferramentas do Arcview, e depois exportada no formato tiff.
Para avaliar o comportamento espectral das amostras de treinamento que defini-
ram as classes, e facilitar as análises subseqüentes dos resultados, foi elaborado pelo siste-
ma, durante a fase de criação dos dados de treinamento, um gráfico de dispersão 3D dos
dados multiespectrais de treinamento que apresenta os valores amostrais obtidos para cada
classe, nas três bandas espectrais, indicando a variabilidade espectral das amostras de trei-
namento (figura 4.2). A observação do gráfico de dispersão, indica as classes 1 (água) e 5
(fundo arenoso) como as amostras que apresentam uma resposta espectral diferenciada em
relação às demais. A dispersão apresentada pela classe 4 (algas), indica a dificuldade na
diferenciação entre esta classe e as demais, particularmente em relação às amostras relati-
vas às classes 2 (corais submersos) e 3 (corais intermares). No que se refere à dispersão das
classes 2 e 3, é possível verificar que um nível médio de dificuldade na diferenciação entre
as classes será encontrado quando do processo de classificação.
101
(a) Mapa de tipos de fundos – Amaral 2003 (b) Mapa de tipos de fundos – 35 mm
1 2 3 4 5
Figura 4.1 Mapa dos principais tipos de fundo observados no Parracho de Maracajaú ((1)
Água, (2) Corais Submersos, (3) Corais Intermares, (4) Algas , (5) Fundo Arenoso).
Figura 4.2 Gráfico de dispersão, dos dados de treinamento, com base nos dados relativos
as bandas espectrais 1,2 e 3.
102
Quando da geração de um conjunto que pudesse ser usado como referência, pa-
ra treinamento dos conjuntos de máquinas utilizados, foram implementadas duas rotinas de
coleta dos pontos amostrais, que geraram dois conjuntos de treinamento que se diferencia-
vam quanto à forma de coleta dos dados. A primeira coleta das amostras foi realizada de
forma manual, através de uma rotina semi-automática implementada no Matlab. Assim foi
possível coletar cinco conjuntos de pixel, um para cada classe, armazenando sua localiza-
ção, suas respostas espectrais em relação as três bandas e ao valor batimétrico. A cardinali-
dade dos conjuntos de dados coletados variou entre 30 e 100 amostras para cada classe.
Para geração da imagem de referência utilizada para a coleta dos dados foi realizada uma
fusão entre a composição colorida da área de trabalho e uma imagem vetorial com localiza-
ção dos diversos tipos de fundo (figura 4.3). A coleta de dados de treinamento e teste foi
realizada de forma a evitar as áreas de fronteiras, com o objetivo de aumentar o grau de
certeza das amostras coletadas.
Figura 4.3 – Imagem resultante da sobreposição da composição colorida e da imagem veto-
rial dos diversos tipos de fundos com um maior índice de confiança.
103
Quando possível, devido à limitada área coberta pelas imagens de pequeno
formato e a pequena quantidade de dados adquiridas com trabalhos de campo, as informa-
ções oriundas destas fontes foram utilizadas também para verificar se a classe associada
àquele determinado pixel era a mais adequada para representar aquela posição. Tendo sido
estabelecido os pontos amostrais, cada ponto foi cuidadosamente avaliado em confronto
com sua localização nas imagens multiespectrais
A segunda coleta do conjunto de amostras foi realizada de forma automática, as
áreas utilizadas como referência foram as que apresentaram um maior índice de certeza em
relação à verdade de campo (Figura 4.1(a)). A primeira providência para realizar uma cole-
ta aleatória das amostras foi a criação de uma imagem aleatória, com valores binários 0 e 1,
com as mesmas dimensões das outras imagens utilizadas. Efetuada a criação da imagem
aleatória foram criados 5 conjuntos de dados através do cruzamento entre os pixels que
receberam um valor positivo (valor 1), durante a criação da imagem aleatória e do mapa
temático relativo aos tipos de fundo. No arquivo gerado, foram armazenadas a classe e a
localização espacial de cada pixel selecionado. Posteriormente foram acrescentados ao ar-
quivo dos pixels selecionados os valores espectrais, correspondentes espacialmente, as 3
bandas espectrais e o valor contido no mapa batimétrico (Figura 4.4).
Durante o processo de coleta dos dados de treinamento e teste, a questão relati-
va ao nível de acurácia do georreferenciamento se fez presente, gerando um certo nível de
incerteza quando da seleção de um determinado pixel da imagem e sua associação a um
determinado tipo de fundo. Porém, através da avaliação individual de cada ponto amostral,
bem como a análise dos pixels circundantes (todos os pixel vizinhos horizontais, verticais e
diagonais superiores foram avalizados em reação ao tipo de fundo), foi possível reduzir a
probabilidade de associação ambígua durante a formulação dos conjuntos.
Por se tratar de um conjunto de dados de cardinalidade pequena, quando da co-
leta das amostras para o conjunto de dados utilizados para determinação da acurácia, e va-
lidação do conjunto de máquinas, utilizado na classificação final dos três conjuntos de ima-
gens das formações recifais da APARC, foi realizado para cada ponto amostral coletado
uma minuciosa avaliação visual, antes de sua associação a um determinado tipo de fundo.
104
Figura 4.4 Esquema demonstrativo do processo de coleta automática de dados de treina-
mento. Por coluna os dados relativos ao vetor descritor de cada pixel (Classe associada ao
pixel, Batimetria, Banda 1,2 e 3, normalizados no intervalo (0, 1), coordenadas X e Y do
pixel).
Esta fase do processo de avaliação foi apoiada na ferramenta de “zoom” do Ma-
tlab. Com a utilização interativa desta ferramenta, foi possível analisar não apenas o pixel
em si, mas a área circundante. Assim, a aceitação daquele pixel em particular dependia di-
Vetor 1 Vetor 2 Vetor 3 Vetor 4 .......
Classe 1 3 2 3
Batimetria 0,58273 0,52875 0,5139 0,58878
Banda 1 0,25323 0,31525 0,4186 0,34884 .......
Banda 2 0,28655 0,17544 0,19006 0,25146 ......
Banda 3 0,26337 0,22634 0,19342 0,26337 ......
Valor X 42 153 232 237 .......
Valor Y 193 29 119 223 .......
Imagem Randômica
Mapa Temático
Mapa Batimétrico
Composição Colorida
(Banda 1, 2 e 3)
105
retamente da avaliação dos seus oito vizinhos. a partir da análise realizada para cada
pixel individualmente, o grupo de teste foi considerado como uma representação verdadeira
em relação aos tipos de fundo associados. O conjunto de dados avaliados e validados, foi
utilizado como arquivo de referência para avaliar o desempenho das diversas classificações
realizadas.
4.2 RESULTADOS APRESENTADOS
4.2.1 Quantidade de pixels classificados
Para avaliar o comportamento das diversas fases do processo de classificação,
foram desenvolvidas rotinas, que disponibilizam em forma de relatório informações sobre o
tempo de execução de cada máquina e o número de vetores de suporte gerados, bem como
informações quantitativas sobre as classes associadas as pixels classificados durantes as
diversas fases do sistema proposto. Através das informações disponibilizadas sobre a quan-
tidade de pixel classificada de forma não ambígua na primeira fase do processamento, foi
possível levantar hipóteses sobre o grau de conformidade do conjunto de treinamento utili-
zado. As simulações realizadas demonstraram que a performance demonstrada na primeira
fase do processo de refinamento reflete-se diretamente no resultado final do processo de
classificação. Quando a quantidade de dados classificados na primeira fase é muito pequena
(menor que 20%), o resultado final da classificação não apresenta um bom nível de acurá-
cia. Com base nestes resultados foi criada uma rotina, que tornou possível reinicializar o
sistema, gerando um conjunto de dados de treinamento mais consistente.
Através do relatório apresentado na figura 4.5 é possível verificar que aquelas
pixels que foram associadas a apenas duas classes, durante a primeira fase de refinamento
do processo de classificação, foram classificadas de forma não ambígua na fase seguinte do
106
processo de classificação. Quando se observa os dados referentes as classes que foram as-
sociadas a 3 ou mais classes na primeira fase, constata-se que aconteceu de forma geral
uma redução no número de classes associadas aqueles pixels com classificação ambígua.
Esta redução no número de classes se mostrou de grande importância quando da aplicação
da terceira fase do processo, fase final de refinamento através do algoritmo da Distância
Mínima utilizado, uma vez que o conjunto de verificação do algoritmo pode ser limitado às
classes recebidas na fase anterior.
Figura 4.5 Parte do relatório sobre as diversas fases do processo de refinamento de
classificação.
Para uma melhor visualização do comportamento do sistema de classificação
proposto em relação ao nível de ambigüidade gerado durante as diversas fases de refina-
mento da classificação foram gerados indicadores numéricos quantitativos sobre o número
de classes associadas a pixel que apresentaram classificação ambígua (Figura 4.5). Quando
da comparação entre os relatórios relativos à primeira fase do processo de refinamento,
107
ficou demonstrado que todos os pixels que receberam classificação ambígua em relação a
apenas 2 classes, foram classificados positivamente em relação a uma das classes durante a
primeira fase de refinamento. Os pixels que receberam uma classificação ambígua em rela-
ção a mais de duas classes, sofreram uma redução em relação ao número de classes falso-
positivo. Esta redução do número de falso-positivos recebido foi fundamental para o pro-
cessamento dos dados na fase final da classificação através do algoritmo da distância mí-
nima.
4.2.2 Desempenho do sistema quanto aos dados de treinamento
Para estabelecer os valores ótimos em que seria desenvolvido o processo final
de classificação, em termos de quantidade de amostras do conjunto de dados de entrada, o
sistema foi testado para diferentes configurações de entrada. Deste modo, pode ser determi-
nado de forma empírica o número de elementos de entrada adequado para um melhor de-
sempenho do sistema. A cardinalidade do conjunto de treinamento variou entre 20 e 100
elementos, implicando na realização de uma série de simulações, a quantidade de elementos
coletados foi sistematicamente modificada e teve seu desempenho avaliado em relação aos
resultados apresentados. Para cada fase do teste, foram gerados 3 conjuntos de dados com a
mesma cardinalidade.
A partir das avaliações realizadas, foi possível observar que quando a cardinali-
dade do conjunto de treinamento era menor do que 30 elementos, as classes que apresenta-
vam grande similaridade espectral não foram separadas claramente, em alguns casos a clas-
se “algas” não apareceu na imagem final. Quando a quantidade de amostras de treinamento
foi fixada acima de 30 elementos, as classes não mapeadas anteriormente foram classifica-
das. A primeira impressão foi que, quando a cardinalidade do conjunto de treinamento era
menor do que de 30 elementos, o conjunto se mostrou deficiente no sentido de representar
adequadamente as diversas classes. Os resultados alcançados apresentaram um melhor de-
sempenho quando da utilização de conjuntos de treinamento entre 30 e 80 elementos. A
partir de 80 elementos os resultados não apresentaram significativas melhorias.
108
As diversas simulações realizadas mostraram que um baixo desempenho na
primeira fase, influenciava de forma negativa o desempenho final da classificação. Uma
explicação possível para o mau desempenho demonstrado na primeira fase está diretamente
relacionado à seleção aleatória dos dados de treinamento, que possivelmente não apresen-
tavam de forma completa as características das diversas classes. A performance na primeira
fase do refinamento também influencia diretamente o tempo de processamento necessário
para realizar a classificação final. Isto é, foi observado durante as simulações que quando o
número de pixels que receberam uma classificação ambígua ultrapassa os 75%, ocorre um
aumento no tempo de processamento dos dados nas fases seguintes quando da aplicação do
procedimento de refinamento progressivo do processo de classificação.
A verificação do tempo de execução das diversas rotinas do programa, quando
analisadas em relação ao acréscimo da cardinalidade do conjunto de treinamento, mostrou
que aconteceu um crescimento acentuado no tempo de processamento quando o numero de
amostras foi maior que 50 elementos. A análise da relação custo de processamento versus
cardinalidade do conjunto de treinamento justificou a escolha de um cardinalidade igual a
80 amostras como padrão para seleção dos demais parâmetros de ajuste do sistema.
4.2.3 Desempenho do sistema quanto ao parâmetro C e ao Kernel
Para a determinação do parâmetro C, coeficiente de penalidade (Lima, 2004), e
da escolha do kernel (núcleo do produto interno), uma vez que o desempenho de generali-
zação de uma SVM depende diretamente destes parâmetros, foi realizada uma série de si-
mulação onde foram avaliadas as diversas configurações. Durante os testes para seleção do
parâmetro C, foram realizadas avaliações de desempenho com os valores de C variando
entre 0 e 100. Ao final dos testes o valor para C = 6 apresentou melhor desempenho, fican-
do muito próximo ao valor proposto por Gunn (1998) para problemas de classificação.
109
Tabela 4.2 – Número de pixels classificados em cada fase do treinamento manual e automá-
tico, por tipo de kernel (Linear, Polinomial, Rede de Base Radial RBF), quantidade de
dados de entrada, parâmetros associados ao kernel (sigma e grau do polinômio) e coeficien-
te de penalidade C.
Parâmetros Pixels Classificados Coleta
de
Dados
Kernel Num
Grau
Sgm
C
Tempo
execu-
ção
(H:M:S)
Fase
1
Fase
2
Fase
3
Acu-
rácia
Geral
(%)
30
1
-
6
00:06:40
17231
31238
17067
83
50
1
-
6
00:10:11
17339
35274
12923
86
Linear
80
1
-
6
00:16:23
11654
37841
16041
91
30
2
-
6
00:06:11
16683
40083
8770
81
50
2
-
6
00:10:06
18374
39180
7982
88
Polinomial
80
2
-
6
00:15:49
6852
45294
13390
89
30
-
0.15
6
00:31:35
20316
37610
7610
75
50
-
0.15
6
00:47:54
21475
33871
10190
89
Manual
RBF
80
-
0.15
6
01:03:48
18128
28959
18449
90
30
1
-
6
00:13:07
4635
36405
24496
71
50
1
-
6
00:21:35
6272
40065
19199
74
Linear
80
-
6
00:36:43
3917
13182
48437
79
30
2
-
6
00:13:01
3145
16989
45402
78
50
2
-
6
00:23:35
6255
26289
32992
76
Polinomial
80
2
-
6
00:32:54
9535
29354
26647
79
30
-
0.15
6
00:32:45
11801
29434
24301
76
50
-
0.15
6
00:44:46
6384
35356
23796
80
Auto
RBF
80
-
0.15
6
01:02:06
13329
30087
22120
80
110
Quando da seleção de um tipo particular de kernel para o problema, foi realiza-
da uma avaliação entre os três principais tipos de kernel (linear, polinomial e RBF). Duran-
te a fase de análise foi possível verificar que apesar do desempenho entre os resultados al-
cançados quando da escolha do kernel polinomial e RBF apresentarem performances bas-
tante similares, a escolha do kernel polinomial seria a mais adequada quando da análise do
tempo computacional necessário para aplicação dos dois conjuntos de SVM necessários
para processo de refinamento da classificação (Tabela 4.2).
Quando da comparação entre os resultados apresentados com a utilização do
kernel Linear e Polinomial, levando em consideração apenas o tempo computacional, veri-
fica-se uma similaridade entre os tempos necessários para processamento dos dados relati-
vos aos três conjuntos de treinamento (Tabela 4.2). Porém quando da aplicação do conjunto
de classificadores utilizando os três tipos de kernel (linear, polinomial e RBF), verificou-se
que quando avaliados com relação à capacidade de generalização, em relação à classifica-
ção dos outros conjuntos de imagens (formações recifais de Rio do Fogo e Cioba), as má-
quinas treinadas a partir do kernel polinomial apresentaram resultados superiores aos das
máquinas treinadas com o kernel linear. O que pode ser atribuído à capacidade superior do
kernel Polinomial, em relação à capacidade de generalização.
4.2.4 Resultados apresentados pelos módulos
Tendo sido selecionada a cardinalidade do conjunto de treinamento e teste (50,
exemplos - 35 de treinamento e 15 de teste), bem como os parâmetros C (6) e o kernel (po-
linomial) que proporcionaram a melhor classificação, em relação a acurácia (verificada
através do conjunto de teste), e a capacidade de generalização, foi possível aplicar o con-
junto de classificadores validado na classificação das imagens das três formações recifais.
A partir dos resultados alcançados em cada fase do processo de refinamento, foi realizada a
análise visual da performance individual das diversas máquinas.
Por se tratar da aplicação de SVM individuais (classificadores binários), a pri-
meira fase da classificação gerou 5 imagens binárias resultantes da aplicação do método
111
Um – contra – Todos. A análise visual das imagens binárias da primeira fase mostrou que a
maior separabilidade aconteceu exatamente entre a classe 5 (fundo arenoso) e as outras
(Figura 4.6(e)). O que pode ser explicado pela grande diferença em relação à resposta es-
pectral, anteriormente avaliada quando da análise das amostras de treinamento através do
gráfico de dispersão de dados. Porém quando é analisada a imagem resultante da aplicação
da SVM para separação da classe 4 (alga) das outras classes, ficou evidenciada uma sobre-
posição dos resultados positivos quando da separação da classe 1 (água) das outras classes.
A ambigüidade mostrada em relação à pertinência destas duas classes foi solu-
cionada através do refinamento do processo durante a segunda fase de classificação. Este
fato pode ser verificado adiante na apresentação do resultado parcial produzido através da
classificação discriminante realizado pelo segundo conjunto de máquina SVM (Figura
4.7f).
Em relação ao fundo arenoso, a análise das imagens binárias, bem como a aná-
lise da classificação parcial gerada a partir da aplicação do mecanismo “decisor” 01(Figura
4.6 (f)), apresentou também um excelente resultado em relação a sua separabilidade em
relação às outras classes, compatível com o esperado quanto ao perfil apresentado no gráfi-
co de dispersão (Figura 4.2).
Ao se analisar os resultados relativos à classe 2 podemos verificar uma grande
similaridade com a área representada no mapa temático de tipos de fundo (Figura 4.1a). O
resultado da classificação binária, apresentado nas imagens da Figura 4.6 (c e d), respecti-
vamente relacionada a classes 3 e 4, sugerem um certo grau de confusão entre essas classes
e, conseqüentemente, uma dificuldade em discriminá-las. De um modo geral, a ambigüida-
de apresentada nos resultados apresentados está de acordo com o que demonstra o gráfico
de dispersão de dados.
As considerações anteriores foram validadas a partir da análise visual da classi-
ficação parcial (pixels com classificação não-ambígua), resultante da concatenação dos
diversos resultados positivos gerados na primeira fase de classificação, quando da aplicação
do mecanismo de decisão 01 (árbitro) sobre um conjunto de dados de saída, os resultados
são apresentados na Figura 4.6 (f). Em relação às classes não ambíguas, quando da avalia-
ção visual, o resultado apresentado é espacialmente muito semelhante às classes mapeadas
por Amaral (2003). Quando se analisa os pixels que receberam uma classificação ambígua
112
(cor preta) verifica-se uma concentração na área em que se esperava a apresentação da clas-
se 4 (algas), bem como nas áreas de fronteira entre as diversas classes.
Figura 4.6 Aplicação das 5 SVM individuais Um contra Todas durante a primeira
fase da classificação. Imagens Binárias (Branco Positivo para classe X / Preto – Negativo
para OUTRAS). “Decisor” 01 ((1) Água, (2) Corais Submersos, (3) Corais Intermares,
(4) Algas , (5) Fundo Arenoso, (6) Não Classificado).
A partir da aplicação do segundo conjunto de máquinas SVM sobre os dados
que apresentaram ambigüidade em relação à pertinência a uma determinada classe, foi pos-
(a) CLASSE 1 x OUTRAS (b) CLASSE 2 x OUTRAS (c) CLASSE 3 x OUTRAS
(d) CLASSE 4 x OUTRAS (e) CLASSE 5 x OUTRAS (f) “DECISOR” 01 – POSITI-
VOS
113
sível, com base nos resultados gerados através do mecanismo “decisor” 02, verificar a per-
formance do sistema em relação ao processo de refinamento da classificação. A partir da
análise das imagens binárias apresentadas na Figura 4.7 é possível verificar que uma consi-
derável quantidade de pixels que foi associada a mais de uma classe durante a aplicação do
conjunto de máquinas Um-contra-Todos pode ser classificado de forma não ambígua a par-
tir da aplicação do segundo conjunto de máquinas, o que está de acordo com a análise reali-
zada anteriormente a partir do relatório gerado pelo sistema.
(a) CLASSE 1 (b) CLASSE 2 (c) CLASSE 3
(d) CLASSE 4 (e) CLASSE 5 (f) “DECISOR” 02– POSITI-
VOS
Figura 4.7 Resultados da aplicação de SVM individuais durante a segunda fase do pro-
cesso de classificação. Imagens Binárias (Branco Positivo para classe X / Preto Negati-
vo para classe X). “Decisor” 02 ((1) Água, (2) Corais Submersos, (3) Corais Intermares,
(4) Algas , (5) Fundo Arenoso, (6) Não Classificado).
114
Particularmente. em relação às classes 01 e 04 que apresentaram um alto grau
de confusão na primeira fase do processo, foi possível verificar que, através do processo de
refinamento aplicado, foi eliminada uma grande quantidade dos falsos positivos recebidos
pelos respectivos pixels, a análise visual da Figuras 4.7(a) e (d) mostra que a aplicação do
segundo conjunto de máquinas (UM-contra-UM) foi capaz de associar grande parte dos
pixels com classificação ambígua a classe 1 (água). O resultado apresentado da figura 4.7
(c) mostra que alguns pixels pertencentes à classe 3 (corais intermares) foram classificados
sem ambigüidade (área central da imagem). Quando avaliados os resultados positivos, refe-
rentes à classe fundo arenoso (figura 4.7 (e)), verifica-se que a segunda fase do sistema
classificou de forma positiva os pixels situados nas áreas de fronteira entre as diversas clas-
ses. Estes pixels, apesar de receberem uma classificação positiva para a classe 5 na primeira
fase (Fig 4.7(f)), receberam também uma classificação falsa positivo em relação a uma ou-
tra classe.
Em relação à classe algas (classe 4), a segunda fase não apresentou resultado
satisfatório. O resultado demonstrou claramente que nesta fase do processo de refinamento
não foi possível dirimir as dúvidas relacionadas às classes recebidas pelos pixels corres-
pondentes, através da aplicação do primeiro (Um – contra – Todos) e segundo (Um – contra
– Um) conjunto de máquinas.
Na figura 4.8 o apresentados os resultados individuais da aplicação das 10
máquinas Um contra Um sobre todos os pixels da imagem. Através da análise visual
das diversas imagens binárias apresentadas é possível verificar que tal como verificado nos
resultados apresentados quando da aplicação das 5 máquinas Um contra – Todos, as clas-
ses que apresentaram um maior índice de confusão em relação a pertinência a uma determi-
nada classe foram as classes 2, 3 e 4. Essa estratégia permite verificar que o conjunto de
dados referente as classe 1 apresentou uma uniformidade quando comparada as outras clas-
ses ( figura 4.8 (a,b c e d)).
115
(a) CLASSE 1 x CLASSE 2 (b) CLASSE 1 x CLASSE 3 (c) CLASSE 1 x CLASSE 4 (d) CLASSE 1 x CLASSE 5 (e) CLASSE 2 x CLASSE 3
(f) CLASSE 2 x CLASSE 4 (g) CLASSE 2 x CLASSE 5 (h) CLASSE 3 x CLASSE 4 (i) CLASSE 3 x CLASSE 5 (j) CLASSE 4 x CLASSE 5
Figura 4.8 – Imagens Binárias resultante da aplicação de SVM individuais (Um – Contra – Um) durante a segunda fase do processo de
classificação (Branco – Positivo para primeira classe / Preto – Negativo para segunda classe).
116
Na última etapa do processo de refinamento foi utilizado o algoritmo da dis-
tância mínima. Porém, como explanado anteriormente, as informações oriundas da fase
anterior, relacionadas às classes recebidas pelos pixels com classificação ambígua, serviram
como ponteiro para aplicação do algoritmo. O algoritmo é aplicado diretamente sobre os
dados no espaço de entrada, levando em consideração as informações sobre as classes rece-
bidas, que foram geradas quando do processamento no espaço de características na fase
anterior. Esta abordagem de utilização de um novo algoritmo para o refinamento do proces-
so de classificação, aqui apresentada, é uma alternativa a solução clássica que associa o
pixel a classe com maior número de votos seguido da solução aplicado por Hsu e Lin
(2002), que no caso de duas classes receberem o mesmo número de votos seleciona aquela
de menor índice. As classificações parciais realizadas nesta fase de refinamento são mos-
tradas na Figura 4.9.
Ao se analisar a classificação parcial resultante da aplicação do algoritmo da
distância mínima modificado, verifica-se, como era esperado, que a proporção de pixels
atribuídos a cada classe mantém uma semelhança na distribuição visual, quando comparado
com os resultados da classificação visual realizada por Amaral (2003).
É possível, através da análise da imagem (Figura 4.6 a e d), verificar que uma
grande quantidade de pixels correspondentes à classe 4 (algas), que apresentava uma res-
posta espectral muito semelhante à classe 1 (água), particularmente na área compreendida
entre a formação recifal e o continente, foi associado no final do processo à classe 1 (água),
na primeira fase de refinamento (Figura 4.7 a). Através da imagem é possível observar
também que alguns pixels da classe 3 (corais intermares) que se encontravam em uma área
próxima a fronteira com a classe 2 (corais submersos) foram classificados positivamente
para classe 3, reforçando o arranjo espacial das classes proposto no mapa temático apresen-
tado por Amaral (2003).
117
Figura 4.9 Classificação Parcial resultante da terceira fase do processo da classificação.
Aplicação do Algoritmo de Distância Mínima. ((1) Água, (2) Corais Submersos, (3) Co-
rais Intermares, (4) Algas , (5) Fundo Arenoso, (6) Não Classificado).
4.2.5 Proporção de pixels associados às classes
Os diversos conjuntos de máquinas treinadas e validadas durante o processo de
treinamento a partir de dados amostrais referentes às bandas espectrais ETM1, ETM2 e
ETM3 de 1991 e os dados batimétricos derivados da aplicação do algoritmo de Lyzenga
118
(1987) foram aplicados individualmente aos dados de entrada relativos às formações de
Maracajaú, Rio do Fogo e Cioba. Os indicadores estatísticos referentes à formação recifal
de Maracajaú são apresentados em forma quantitativa nas tabelas seguintes, nas quais estão
indicadas as proporções de pixels associados às classes de treinamento. A acurácia especi-
fica por classe e acurácia global do processo de classificação, calculados através da matriz
de erros resultante da comparação entre os dados amostrais de referência e as classificações
apresentadas pelas diversas estratégias testadas, são apresentados e analisados em seguida.
Para efeito da quantificação dos pixels atribuídos a cada classe, os resultados da
aplicação das diversas configurações propostas foram convertidos, respectivamente, em
uma imagem da cena classificada, considerando inicialmente que, independente do grau de
confusão entre as classes, apresentados durante o processo, todos os pixels foram classifi-
cados ao final de forma positiva, ou seja, as classes recebidas foram consideradas não am-
bíguas. Assim, a partir das coordenadas das amostras de referência armazenadas anterior-
mente, foi possível realizar a comparação entre os dois conjuntos de dados.
Os resultados obtidos pela comparação entre os resultados da aplicação do con-
junto de classificadores e as amostras de referências, são apresentados, de uma forma quan-
titativa na Tabela 4.3, na qual estão indicadas as proporções de pixels associados às classes
de treinamento. Uma análise dos resultados, mesmo preliminar, tanto da Tabela 4.3 quanto
da Figura 4.10, mostra que a combinação linear de classificadores utilizada tem uma relati-
va facilidade em identificar classes com assinatura espectral bem definida, como ocorre
com a água e o fundo arenoso. Esta capacidade não foi substancialmente alterada quando
da variação da configuração do conjunto de máquinas em relação ao kernel e a cardinalida-
de do número de amostras de treinamento.
Entretanto, se a classe não estiver adequadamente caracterizada nas amostras
coletadas para geração do conjunto de treinamento, torna-se impossível discriminá-la das
demais de forma satisfatória, assim, como ocorre nas classificações supervisionadas, difi-
cilmente esta classe estará corretamente representada na classificação final. A ambigüidade
comparativamente maior que caracteriza as classes 2, 3 e 4 pode também ser percebida tan-
to através dos dados de acurácia apresentados na Tabela 4.3 como através da representação
espacial das classes na imagem gerada com a aplicação de diferentes conjuntos de treina-
mento.
119
Além de mostrar explicitamente que as classes 3 (corais intermares) e 4 (algas)
têm uma representação mais dispersa em relação às demais, aponta também quais são e
como ocorre a dispersão espacial destas classes. Assim, quando se verifica que os pixels
não classificados durante a segunda fase de refinamento estão concentrados preferencial-
mente nos locais de transição entre estas classes, é razoável supor que os pixels nesta situa-
ção apresentam características das duas classes.
Tabela 4.3 Matriz de erro de classificação resultante da aplicação do sistema sobre as
imagens relativas a formação recifal de Maracajaú.
Em uma análise visual das classificações apresentadas na Figura 4.10 e as in-
formações contidas na Tabela 4.3, verifica-se que a performance apresentada pela aplicação
do processo de refinamento progressivo da classificação sobre o conjunto de dados referen-
tes a formação de Maracajaú, está de acordo com o esperado, uma vez que a semelhança
entre as respostas espectrais apresentadas pelas classes 3 (corais intermares) e 4 (algas)
haviam sido confirmada anteriormente através do gráfico de dispersão (figura 4.2). As con-
siderações anteriores são também válidas para as classificações geradas quando se obser-
vam os resultados da classe 2 (corais submersos), porém verifica-se uma melhor perfor-
mance do sistema em relação a esta classe.
MARACAJAÚ
AGU CSU CIM ALG ARE Total Acurácia %
Água - AGU
15 0 0 0 0 15 100
C. Submersos - CSU
0 14 0 1 0 15 93
C. Inter-Mares - CIM
0 1 12 2 0 15 80
Algas - ALG
0 1 3 11 0 15 73
Fundo Arenoso - ARE
0 0 0 0 15 15 100
Total
15 16 15 14 15 75
Acurácia %
100 87 80 78 100 89
120
Figura 4.10 – Mapa resultante da classificação da formação de Maracajaú, utilizando o re-
finamento do processo de classificação, através da aplicação do conjunto de classificadores.
Entretanto, quando se trata das diferenças apresentadas nas proporções de pixels
associados a uma mesma classe mediante a aplicação do processo de classificação, observa-
se uma certa tendência do mesmo em privilegiar algumas classes em detrimento de outras.
Isso ocorre com a classe 4 (algas) que resulta em um aparecimento em maior proporção de
pixels, em substituição a outros tipos de fundo.
Na tentativa de elaborar uma referência que pudesse ser usada para avaliar o
desempenho alcançado pela aplicação do algoritmo de distância mínima com base nas in-
formações, relacionadas às classes associadas a um determinado pixel, oriunda da segunda
fase de refinamento, foi realizada uma classificação na qual o algoritmo de Distância Mí-
nima não utiliza as informações sobre os falsos positivos recebidos pelos pixel quando da
aplicação do conjunto de máquinas Um contra Um. Os resultados da classificação e
121
dados sobre a acurácia, referentes aplicação do algoritmo das Mínimas Distâncias sobre o
conjunto de pixels, que não foram classificados de forma não ambígua anteriormente, sem
levar em consideração as informações anteriores são apresentados na Figura 4.11 e na Ta-
bela 4.4.
Figura 4.11 Mapa resultante da classificação da formação de Maracajaú, utilizando o re-
finamento do processo de classificação, através da aplicação do conjunto de classificadores,
SEM o repasse de informação na terceira fase.
De um modo geral, ao se comparar as classificações produzidas usando as duas
estratégias implementadas (com ou sem informações sobre as classes) percebe-se que o
resultado encontrado quando da não utilização da informação apresentou uma considerável
redução na acurácia final. A análise da distribuição espacial dos tipos de fundo apresentado
na figura 4.11 mostra que em algumas áreas da imagem que foram associadas à classe 3
foram substituídas pela classe 4, que estava de acordo com o mapa temático apresentado
122
por Amaral (2003). Mudança semelhante aconteceu na área na qual se espera uma classifi-
cação positiva para a classe algas. Nesta área os pixels que foram associados acertadamente
em relação a esta classe quando da utilização da informação sobre as classes recebidas na
fase anterior, foram associadas a classe 2 (corais submersos).
Tabela 4.4 Matriz de erro de classificação resultante da aplicação do sistema SEM o re-
passe de informação sobre as imagens relativas à formação recifal de Maracajaú.
As correspondências mostradas na Tabela 4.4 indicam claramente a dificuldade
em classificar de forma correta as classes 4 e 3. Na avaliação dos resultados da acurácia,
considerando apenas os resultados relativos a classe 4 (algas), é possível verificar explici-
tamente um baixo valor alcançado, apesar da considerável quantidade de pixel associado a
esta classe na imagem classificada.
A observação, e comparação, entre as Figuras 4.10 e 4.11 permite verificar que
a utilização das informações relativas as classes recebidas na fase 2 do processo de refina-
mento têm uma influência positiva na classificação correta das diversos tipos de fundo pre-
sentes. Além de mostrar explicitamente que a classe 4 tem uma representação menos ambí-
gua em relação às demais, quando é agregado ao algoritmo um indicador do grau de confu-
são entre duas classes, através de um vetor que associa a cada pixel ambíguo as respectivas
classes recebidas, a imagem classificada apresenta uma distribuição espacial das diversas
classes uma similaridade geral bem mais próxima do modelo de distribuição de tipos de
MARACAJAÚ
AGU CSU CIM ALG ARE Total Acurácia %
Água - AGU 15
0
0
0
0
15
100
C. Submersos - CSU 0
13
2
0
0
15
86
C. Inter-Mares - CIM 0
1
10
4
0
15
66
Algas - ALG 0
8
3
4
0
15
26
Fundo Arenoso - ARE 0
0
0
0
15
15
100
Total 15
22
15
8
15
75
Acurácia % 100
59
66
50
100
76
123
fundo realizado anteriormente por Amaral (2003).
Para facilitar a avaliação qualitativa entre os resultado alcançados na classifica-
ção das imagens, considerando a repasse de informações entre as diversas fases do proces-
so, e os resultados alcançados a partir da aplicação de outras estratégias clássicas utilizadas
para solução de problemas de multiclasses, foram implementados em Matlab os métodos
Um – Contra Todos e Um Contra Um, com estratégias de decisão para os falsos posi-
tivos Maior – Vence e Mais – Votado respectivamente.
(a) Um – Contra – Todos + Maior Vence (b) Um – Contra – Um + Mais Votado
Figura 4.12– Imagem Classificada utilizando os métodos clássicos Um – Contra – Todos e
Um Contra Um. ((1) Água, (2) Corais Submersos, (3) Corais Intermares, (4) Algas ,
(5) Fundo Arenoso, (6) Não Classificado).
Para aplicação da estratégia de decisão Maior Vence para classificação final
dos pixels que apresentaram ambigüidade em relação à pertinência a uma determinada clas-
se após a aplicação do conjunto de 5 máquinas (método Um – Contra – Todos), foi aplica-
da a estratégia de escolher a saída com maior valor da função de decisão entre as 5 SVM
aplicadas (Maior Vence). Quando da aplicação da estratégia de decisão Mais Votado,
foi aplicado o conjunto de 10 máquinas (método Um – Contra Um) sobre todos os pixels,
124
e em seguida, cada pixel foi associado a classe com maior número de votos. Nos casos,
onde aconteceu empate entre o número classes recebidas, o algoritmo fez opção pela classe
com um menor índice. Na Figura 4.12 são mostradas as imagens classificadas resultantes
da aplicação das duas estratégias, e nas tabelas 4.5 e 4.6 são mostradas as matrizes de erros
correspondentes.
Tabela 4.5 – Matriz de erro de classificação resultante da aplicação do Método Um – contra
– Todos (Maior Vence) sobre as imagens relativas à formação recifal de Maracajaú.
Tabela 4.6 – Matriz de erro de classificação resultante da aplicação do Método Um – contra
– Um (Mais Votado) sobre as imagens relativas à formação recifal de Maracajaú.
MARACAJAÚ
AGU CSU CIM ALG ARE Total Acurácia %
Água - AGU
12 0 0 3 0 15 80
C. Submersos - CSU
0 14 1 0 0 15 93
C. Inter-Mares - CIM
0 3 10 4 0 15 66
Algas - ALG
2 4 0 9 0 15 60
Fundo Arenoso - ARE
1 0 0 0 14 15 93
Total
15 21 11 16 14 75
Acurácia %
80 66 90 56 100 78
MARACAJAÚ
AGU CSU CIM ALG ARE Total Acurácia %
Água - AGU 12
0
3
0
1
15
100
C. Submersos - CSU 0
12
1
0
2
15
86
C. Inter-Mares - CIM 0
0
14
1
0
15
66
Algas - ALG 2
2
9
2
0
15
26
Fundo Arenoso - ARE 0
2
0
0
13
15
100
Total 14
16
27
3
16
75
Acurácia % 85
75
51
66
81
70
125
Através da analise visual da distribuição espacial dos tipos de fundo na ima-
gem, resultante do processo de classificação, foi possível verificar que as imagens classifi-
cadas, resultantes das aplicações diretas das estratégias dos métodos Maior Vence e Mais
Votado, apresentaram uma menor similaridade com os resultados dos estudos realizados
por Amaral (2003), quando comparados com o resultado da classificação apresentada atra-
vés da aplicação do conjunto de classificadores, validando a utilização o processo de classi-
ficação por etapas de refinamento utilização um conjunto de classificadores baseados em
Máquinas de Vetor de Suporte.
Quando da análise visual da imagem classificada relativa a método Um Con-
tra – Todos é possível verificar que as classes 1(águas) e 4(algas) apresentaram um conside-
rável grau de ambigüidade entre si. Em relação à mesma imagem ficou perceptível uma
sobreposição da classe 2 (Corais Submersos) sobre a classe 3 (Corais Intermares), princi-
palmente na área de fronteira entre as classes. Ao analisarmos os resultados, conjuntamente
com as imagens binárias resultantes da aplicação do método Um Contra Todos (figura
4.6), é possível deduzir que quando da aplicação dos diversos hiperplanos de separação
uma grande quantidade de pixel foi associada à classe 2 (Corais Submersos) dentre outras
classes (figura 4.6 b), e que na segunda fase de decisão, por apresentar um elevado valor
para função, prevaleceu na disputa.
Em relação à imagem classificada (figura 4.12 b), resultante da aplicação do
método Um Contra Um, destaca-se a sobreposição da classe 03 (corais intermares) so-
bre outras classes. Outra característica facilmente percebida, é a mínima quantidade de pi-
xels que foi associada à classe algas, algumas áreas da imagem que se apresentaram de
forma uniforme logo após o segundo estágio de refinamento (conjunto de classificadores),
não foram associadas a esta classe (figura 4.8), quando da utilização direta do método Um –
Contra – Um / Mais Votado (figura 4.12 b).
126
(a) Rede Neural _ Perceptron (b) K-MEANS5 centros
Figura 4.13 Imagem Classificada utilizando os métodos clássicos Rede Neural _ Percep-
tron e K-means. ((1) Água, (2) Corais Submersos, (3) Corais Intermares, (4) Algas, (5)
Fundo Arenoso, (6) Não Classificado).
Finalmente, pode-se avaliar o comportamento da estratégia de classificação
proposta comparando com os resultados apresentados pela aplicação de classificadores su-
pervisionados mais tradicionais, neste trabalho, Perceptron Multicamada e K-means (figura
4.13). As condições em que foram desenvolvidas as classificações, mediante as aplicações
das Redes Neurais Perceptron e do algoritmo K-means, foram determinadas em termos dos
mesmos conjuntos de dados de treinamento e testes, conjunto dados de entrada e tipos de
fundo a serem classificadas de forma semelhante aos utilizados no processamento de classi-
ficação por refinamento proposto. Em relação à Rede Neural a definição do número de ca-
madas escondidas e de elementos de processamento em cada uma delas implicou na reali-
zação de uma série de simulações nas quais a configuração destas camadas intermediárias,
assim como dos demais parâmetros do treinamento, foram sistematicamente modificados e
tiveram seu desempenho avaliado em relação a um conjunto de dados de validação. Nas
127
tabelas 4.7 e 4.8 são mostradas as matrizes de erros relativas as aplicações da Rede Neurais
Perceptron e do algoritmo K-means, respectivamente.
Tabela 4.7 Matriz de erro de classificação resultante da aplicação da Rede Neural Artifi-
cial sobre as imagens relativas à formação recifal de Maracajaú
Tabela 4.8 – Matriz de erro de classificação resultante da aplicação do Algoritmo K-means
sobre as imagens relativas à formação recifal de Maracajaú.
A partir da verificação da convergência, para uma classificação adequada, tendo
como base uma avaliação visual da distribuição espacial dos tipos de fundo e a acurácia em
MARACAJAÚ
AGU CSU CIM ALG ARE Total Acurácia %
Água - AGU
15
0
7
3
0
15
100
C. Submersos - CSU
0
14
0
1
0
15
68
C. Inter-Mares - CIM
0
0
14
1
0
15
93
Algas - ALG
1
4
9
1
0
15
6
Fundo Arenoso - ARE
0
0
0
0
15
15
100
Total
16
17
23
4
16
75
Acurácia %
93
76
60
25
93
77
MARACAJAÚ
AGU CSU CIM ALG ARE Total Acurácia %
Água - AGU
5
0
7
3
0
15
33
C. Submersos - CSU
0
13
0
1
1
15
86
C. Inter-Mares - CIM
0
0
6
9
0
15
40
Algas - ALG
0
4
2
9
0
15
60
Fundo Arenoso - ARE
0
0
0
0
15
15
100
Total
5
18
15
19
15
75
Acurácia %
100
77
40
47
100
65
128
relação às amostras de validação, foi fixada uma arquitetura [4-10-5], com 4 elementos de
processamento da camada de entrada (três bandas espectrais e a batimetria da área) e 5
unidades de processamento de saída, um para cada tipo de fundo. Foi definida uma taxa de
aprendizagem 0.2, pesos iniciais definidos no intervalo entre 0,1 e -0,1 e o número de épo-
cas igual a 10.000. Na maioria das vezes em que foram realizadas as simulações relativas às
redes neurais não foi possível alcançar uma convergência adequada (taxa de erro = 0.1),
mesmo elevando o número de épocas (apresentações completas do conjunto de treinamen-
to) para 50.000. Por outro lado, os algoritmos foram implementados com base em uma con-
figuração padrão, nenhuma modificação especial nos seus parâmetros foi realizada e avali-
ada, o que poderia levar a uma melhoria quando ao desempenho apresentado.
A análise visual da proporção de pixels atribuídos às diferentes classes, apre-
sentadas na imagem classificada da Figura 4.13 (a) pode-se verificar a predominância de
classe 4 (algas) sobre as demais classes. Isso é especialmente observado na área localizada
no terceiro quadrante da imagem (área do canal entre a formação recifal e o continente),
onde era esperado serem observados pixels associados à classe água. A sobreposição, em
menor proporção, também pode ser observada nas áreas de interface entre a classe 1 (á-
guas), 3 (corais intermares) e 5 (fundo arenoso). Quando comparados visualmente com os
resultados apresentados pela classificação por estágios de refinamento verifica-se uma me-
nor similaridade com o mapa temático de referência , disponível em Amaral (2003).
Durante a implementação do método K-means várias simulações foram realiza-
das e tiveram seu desempenho avaliado em relação a um conjunto de dados de validação.
Durante as simulações os pixels foram agrupados em 5 classes distintas (clusters) sendo
estas determinadas automaticamente, correspondentes aos tipos de fundos presentes na i-
magem. Uma análise da Figura 4.13 (b), na qual é apresentado um resultado da aplicação
do algoritmo K-means, mostra um resultado bastante distante da distribuição espacial espe-
rada. A análise dos resultados quando comparada individualmente com a distribuição indi-
vidual esperada por classe, demonstra que durante o processo de decisão a maioria dos pi-
xels foi associado erroneamente em relação a estas classes. De um modo geral, ao se com-
parar às classificações produzidas percebe-se que, em ambos os casos, o resultado é espaci-
almente diferente das classes mapeadas por Amaral (2003).
A segunda etapa do processo de classificação foi caracterizada pelo processa-
129
mento, com base no processo de classificação por estágios de refinamento, dos dois conjun-
tos de dados de entrada (bandas espectrais e batimetria). Nesta etapa, os dados referentes às
formações recifais de Rio do Fogo e Cioba (Figura 4.14 (a) (b)) foram classificados com
base nos conjuntos de máquinas treinadas e validadas na primeira etapa que apresentaram
melhores desempenhos quando da classificação recifal de Maracajaú.
(a) Imagem classificada – Rio do Fogo (b) Imagem classificada – Cioba
Figura 4.14– Imagem Classificada da formação recifais de Rio do Fogo e Cioba, com a
utilização do Kernel linear ((1) Água, (2) Corais Submersos, (3) Corais Intermares, (4)
Algas , (5) Fundo Arenoso, (6) Não Classificado).
Devido ao fato de que o que se desejava do sistema não se limitava apenas a um
alto índice de acurácia geral e por classe em relação à formação recital de Maracajaú, e sim,
uma alta capacidade do sistema de generalização quando aplicado aos outros conjuntos de
dados relativos as formações recifais de Rio do Fogo e Cioba, tornou-se necessário à reali-
zação de simulações baseadas nos resultados anteriores que apresentaram um alto índice de
acurácia. A capacidade de generalização era fundamental no sentido de extrapolar o bom
desempenho alcançado na classificação da área de trabalho (baixo de Maracajaú), de onde
se tinham informações adicionais (imagens de 35 mm e perfis batimétricos e mapas temáti-
cos), para a classificação das outras formações recifais e posterior construção de um mapa
130
para toda a área da APARC.
Figura 4.15 Imagem Classificada das formações recifal formação recifal de Cioba, com
a utilização do Kernel Polinomial
No decorrer das simulações para selecionar o melhor conjunto de máquinas que
apresentou a melhor performance, com base em uma avaliação visual dos resultados, foi
possível verificar que apesar de apresentar um melhor resultado em relação aos índices de
acurácia quando da classificação da formação recifal de Maracajaú, o conjunto de máquinas
treinado com o kernel linear não apresentou um adequado grau de generalização, quando
aplicado nas imagens relativas às formações recifais de Cioba e Rio do Fogo. Pode-se veri-
ficar, através da observação dos resultados mostrados na pela Figura 4.14 (a e b) que nas
imagens classificadas, em ambos os casos, existe uma certa tendência da arquitetura esco-
lhida em privilegiar algumas classes (particularmente em relação com classe 4 (algas)), em
131
detrimento de outras, além de classificar os pixels como água e areia de forma intercalada,
o que difere do esperado (análise visual das imagens multiespectrais da área).
Figura 4.16 Imagem Classificada das formações recifal de Rio do Fogo, com a utilização
do Kernel Polinomial
Analisando, em seguida, os resultados mostrados nas Figuras 4.15 e 4.16, que
foram alcançados pela utilização do kernel polinomial, é possível verificar que a proporção
de pixels atribuídos às diferentes classes está mais de acordo com o esperado, pode-se veri-
ficar que não aconteceu uma predominância da classe algas sobre as demais classes. Isso é
especialmente observado quando na classificação da formação recifal de Rio do Fogo. A
análise desse comportamento sugere que as máquinas treinadas a partir de um kernel poli-
nomial, apesar de terem alcançado um menor grau de acurácia dos que os apresentados
quando da utilização do kernel linear na classificação das imagens relativas a formação
recifal de Maracajaú, demonstraram um maior poder de generalização quando aplicadas em
132
outras áreas que, apesar de estarem contidas na área da APARC, apresentam consideráveis
diferenças relativas as suas respostas espectrais.
De um modo geral, ao se comparar às classificações produzidas, verifica-se que
com a utilização do kernel polinomial é possível criar hiperplanos de separação mais com-
plexos entre as diversas classes, o que influencia diretamente na capacidade de generaliza-
ção do sistema. O comportamento diferenciado, porém similar em termos de performance,
foi observado também quando da utilização do conjunto de máquinas treinadas a partir do
kernel RBF. Entretanto, aconteceu paralelamente um considerável aumento em relação ao
tempo de processamento dos dados. As conclusões em relação ao melhor desempenho ge-
ral (Acurácia + Capacidade de generalização), foi determinante na escolha das imagens
classificadas que foram utilizadas na confecção do mapa relativo a totalidade da APARC
(Figura 4.17).
A partir da integração das diferentes imagens classificadas com a composição
colorida correspondente a área oficial da APARC, permitiu a obtenção de um produto de
boa qualidade para a interpretação visual dos resultados resultantes da aplicação do proce-
dimento proposto de classificação por refinamento linear sucessivo do processo de uma
forma integrada. De um modo geral, ao se realizar uma análise visual das três classificações
produzidas a partir dados referentes as três formações recifais (Figura 4.17), percebe-se
que a distribuição espacial dos tipos de fundo não é muito diferente do apresentado no ma-
pa geral de classes produzido por Amaral (2003), da toda área da APARC (Figura 3.3). Por
outro lado, quando se analisa individualmente, e em detalhe cada área classificada, percebe-
se que, em relação à formação recifal de Rio do Fogo, as áreas relacionadas com a classe 3
(corais submersos) e 2 (corais intermares) foram adequadamente representada na cena, re-
forçando a capacidade de generalização do conjunto de classificadores proposto.
133
Figura 4.17 Mapa da área da APARC, apresentado as imagens classificadas a partir do
sistema proposto, utilizando o kernel polinomial.
134
Figura 4.18 Imagem Classificada relativa à formação recifal de Cioba sobreposta a com-
posição colorida da área.
Uma análise das classificações finais, mostra que o sistema treinado tem uma
relativa facilidade em identificar classes espectralmente bem definidas, como ocorre com a
água e fundo arenoso, em qualquer das áreas consideradas, bem como uma adequada capa-
cidade de identificar as demais classes. A distribuição espacial dos 5 diferentes tipos de
135
fundo pode ser identificada na interpretação visual das imagens relativas as formações re-
cifais Maracajaú e Rio do Fogo. As observações relacionadas a Maracajaú puderam ser
validadas a partir da comparação dos mapas temáticos resultantes de trabalhos anteriores
(Amaral (2003), Silva (2002)), e através de dados relativos aos trabalhos de campo realiza-
dos na área.
A validação dos resultados, relativa à proporção e a distribuição dos tipos de
fundo presentes na região de Rio do Fogo, foi realizada apenas a partir da comparação entre
os resultados apresentados e uma avaliação visual das diversas feições distinguíveis nas
imagens multiespectrais da área. Porém, quando se considera que, o resultado apresentado
nas imagens classificadas em relação à distribuição espacial, corresponde em grande parte
aos resultados esperados, é válido supor que, através da capacidade de aprendizagem e ge-
neralização da solução baseada nos dois conjuntos de máquinas SVM , aconteceu uma clas-
sificação adequada para formações recifais de Rio do Fogo.
Apesar de não ter sido possível determinar o potencial dos resultados das classi-
ficações das imagens referentes às formações recifais de Rio do Fogo e Cioba, através de
um conjunto de referência que pudesse ser usado como verdade terrestre para analisar a
exatidão das classificações através procedimentos estatísticos adequados, ficou explícito
nas representações da Figura 4.18, uma distribuição espacial das classes que sugere a pos-
sibilidade de um aceitável índice de concordância entre a verdade de campo e os resultados
apresentados pela classificação das imagens.
136
5 CONCLUSÕES E PERSPECTIVAS
5.1 CONCLUSÕES
Os resultados obtidos através do conjunto de classificadores na classificação de
dados geográficos, de natureza multiespectrais e batimétricos, resultaram em 3 mapas te-
máticos diferenciados representando os diversos tipos de fundos de interesse para cada uma
das estruturas recifais analisadas. A verificação do índice de acurácia e a distribuição espa-
cial dos resultados confirmaram que quando os dados de entrada são amostras representati-
vas das classes, e os sistemas inteligentes são devidamente treinados para reconhecer as
categorias de interesse, essas estruturas constituem um modelo computacional robusto que
pode ser aplicado em diferentes situações de classificação.
Para definir os tipos de fundos presentes nas diversas estruturas recifais a partir
de um conjunto de dados geográficos, os dados foram pré- processados visando sua compa-
tibilização espacial e espectrais. Para isto, os dados batimétricos, as imagens multiespec-
trais (Banda ETM+ 1, 2 e 3) e os mapas temáticos da área da APARC necessitaram passar
por um refinamento do seu georreferenciamento, através dos dados de campo colhidos a-
través de sistema GPS. Em adição, para uma maior compatibilidade dos dados espaciais, foi
utilizado um único sistema de projeção, porém, além disso, nenhum outro pressuposto so-
bre as propriedades paramétricas dos dados de entrada foi requerido.
137
O treinamento e validação dos dois conjuntos de SVM usando dados multies-
pectrais e batimétricos adquiridos de uma determinada área de trabalho, da qual se tinha
uma maior quantidade de dados complementares, e a aplicação posterior destes conjuntos
de máquinas aos dados das outras formações recifais, é perfeitamente factível desde que os
dados de entrada tenham sido submetidos a um rigoroso procedimento de uniformização.
Uma vez que a idéia inicial era identificar a configuração do conjunto de classi-
ficadores, que apresentasse os melhores resultados tanto em relação a acurácia, quanto a
uma capacidade de generalização. Os conjuntos de máquinas que produziram os melhores
resultados, em relação a acurácia geral alcançada quando da classificação da área de traba-
lho (Maracajaú), foram avaliados em relação a sua capacidade de classificação das outras
áreas de trabalho (Rio do Fogo e Cioba).
As avaliações realizadas, levaram à conclusão de que apesar das máquinas trei-
nadas com base no kernel linear apresentarem os melhores resultados quanto aos índices de
acurácia, bem como a melhor performance em relação ao tempo computacional, o mesmo
desempenho não foi verificado quando da classificação das formações recifais de Rio do
Fogo e Cioba. Uma das razões para que este resultado seja diretamente relacionado à
característica dos hiperplanos de separação gerados, quando da utilização do kernel linear
no treinamento das SVM. Uma análise final, com base nos diversos resultados apresenta
nas duas fases do processamento das imagens, onde foram classificadas as imagens relati-
vas às formações recifais de Rio do Fogo e Cioba, demonstrou que a utilização do kernel
polinomial apresentou um melhor desempenho quando da análise conjunta do índice acurá-
cia e a capacidade de generalização dos resultados em relação às áreas de trabalho de Rio
do Fogo e Cioba.
Um ponto importante observado com o desenvolvimento do processo de classi-
ficação por etapas de refinamento do processo de classificação dos diferentes tipos de fun-
do da APARC, foi a possibilidade de se realizar uma análise da ambigüidade entre as clas-
ses, no decorrer das várias etapas do processo de geração da imagem classificada final. O
simples procedimento de incorporar as informações, relativas aos falsos positivos associa-
dos aos pixels que receberam classificação ambígua, desempenhou um papel importante na
discriminação final entre as classes. A partir do conjunto de informações recebidas, que
representou um nível de detalhamento significativamente maior em relação à ambigüidade
138
gerada durante a fase anterior, foi possível aumentar a chance de diferenciar as classes de
forma correta, e paralelamente diminuir o tempo de processamento geral, uma vez que se
tornou possível processar os pixels ambíguos apenas sobre os falsos positivos recebidos.
A utilização do mapa batimétrico, como mais uma camada de informação de
entrada, foi fundamental para caracterizar de maneira mais precisa os diversos tipos de fun-
do presentes, indicando os locais onde haveria uma maior probabilidade da existência de
determinadas classes, bem como, aquelas áreas onde se poderia esperar um maior índice de
confusão.
A possibilidade de utilização do mapa temático da área da formação recifal de
Maracajaú (elaborado por Amaral (2003)), desconsiderando as possíveis discrepâncias de-
correntes do georreferenciamento em imagens multiespectrais, possibilitou estabelecer um
critério quantitativo, e qualitativo, para avaliar o desempenho e validar o conjunto de má-
quinas utilizadas nas classificações.
A concepção diferenciada da combinação de vários classificadores, ao invés de
um único classificador, no processamento de dados de sensoriamento remoto de ambientes
costeiros, surgiu com a perspectiva de se desenvolver um arranjo de classificadores no qual
a idéia central era que os erros fossem minimizados através das várias etapas lineares de
classificação parciais. Durante os diferentes momentos de processamento, os classificado-
res estavam habilitados a utilizar as informações relativas à ambigüidade, encontradas du-
rante o processamento dos dados na fase anterior, para aprimorar o seu próprio desempe-
nho, criando assim um refinamento sucessivo do processo de classificação, otimizado pela
troca de informações.
A escolha do arranjo de classificadores foi inspirada na técnica de análise gra-
nulométrica dos solos, que permite identificar o tamanho e a distribuição dos grãos. O pro-
cesso é realizado através do peneiramento do material de diferentes aberturas. A idéia cen-
tral era que, como acontece na análise granulométrica, a cada etapa do processo uma certa
quantidade de pixel pudesse ser identificada de forma não ambígua por um determinado
classificador. Assim sucessivamente, como acontece no peneiramento das amostras de so-
los, ao final as amostras pudessem ser classificadas sem ambigüidades.
A metodologia empregada neste trabalho, com o uso de múltiplos classificado-
res ao invés de um único classificador, e da utilização de máquinas SVM, mostrou-se par-
139
ticularmente adequada. Os resultados apresentados, quando da avaliação da acurácia, atra-
vés da matriz de erro, e da análise visual da distribuição espacial apresentada nas imagens
classificadas, corresponderam ao esperado. A comparação dos resultados alcançados com
os resultados apresentados pela aplicação de outros classificadores, demonstrou o potencial
a ser explorado com a utilização de um conjunto de classificadores e da combinação de
classificados binários (SVM) como instrumento de análise de imagens orbitais, particular-
mente, para classificação das imagens de áreas submersas, sujeitas aos ruídos provocados
pelo efeito atmosférico e da coluna d’água.
5.2 PERSPECTIVAS
Por sua natureza multidisciplinar, várias perspectivas de aplicações podem ser
visualizadas a partir deste trabalho. Em relação às questões relacionadas à aplicação de
múltiplos classificadores no processamento de dados multiespectrais e geográficos, existem
muitos aspectos técnicos que precisam ser mais bem avaliados, dentre eles, podemos citar
as diferentes estratégias de combinar os resultados de classificação alcançados por cada um
desses classificadores em um único resultado. Questões específicas relacionadas com os
procedimentos de correção atmosférica e correção da coluna d’água e sua influência direta
na performance dos algoritmos de classificação, quando aplicados em ambientes costeiros,
podem ser avaliadas em trabalhos futuros.
Uma outra sugestão, agora relacionado à aquisição de amostras de treinamento
representativas, seria a realização de estudo sobre as vantagens de realizar um processa-
mento dos dados de entrada no contexto de uma janela (e não apenas pixel a pixel), bem
como o tamanho adequado de janela para a extração de características importantes, ques-
tões que não foram abordadas nesse trabalho. Em uma outra vertente, a aplicação da Lógica
Nebulosa mostra-se como uma vertente a ser explorada para o tratamento das incertezas e
ambigüidades enfrentadas durante o processo de classificação, particularmente em relação
ao problema das interclasses e as áreas de fronteiras entre os diversos tipos de fundo.
140
Mesmo aspectos mais básicos relacionados com a definição dos diversos parâ-
metros usados no treinamento das SVM, merecem uma avaliação mais aprofundada, inves-
tigar o comportamento de misturas de classificadores baseadas em SVM, concebidos com
aspectos estruturais e paramétricos diferentes, tais como tipos de kernel estratégias diferen-
tes de treinamento e além da possibilidade de utilização de diferentes especialistas em regi-
ões diferentes do espaço de entrada constitui em uma perspectiva atraente para a aplicação
dessas estruturas, em propostas de classificação de imagens de sensoriamento de áreas cos-
teiras. O estudo da utilização da informação de textura, principalmente aquela derivada do
índice de fragmentação, pode ter uma contribuição significativa na discriminação das clas-
ses com elevado grau de ambigüidade.
Os resultados da aplicação de múltiplos classificadores indicam que esta nova
abordagem conduz a ganhos de desempenho e acurácia da classificação e em termos de
generalização, quando comparada com a utilização de classificadores e abordagens padrões
de SVM, quanto ao tratamento dos falsos positivos recebidos. Em relação aos classificado-
res baseados em SVM, devido à grande possibilidade de variar, além do arranjo dos diver-
sos classificadores, os parâmetros estruturais e paramétricos da SVM, somadas ao fato de
que as SVM apresentam tempos de treinamento consideravelmente menores que vários
algoritmos de AM e da vantagem de uma alta capacidade de generalização faz com que as
técnicas baseadas em SVM possam ser exploradas em trabalhos futuros.
141
6 REFERÊNCIAS BIBLIOGRÁFICAS
ABILEAH, R. High-resolution imagery applications in the littorals. SRI international.
2001.
AMARAL, R. F. Mapeamento da Área de Proteção Ambiental dos Recifes de Corais.
UFRN, Departamento de Geologia /IDEMA, SUGERCO. Relatório Interno. Ilustrado.
Natal, 2003
ANTUNES, A.F.; LINGNAU, C. Uso de índices de acurácia para avaliação de mapas
temáticos obtidos por meio de classificação digital. Anais GIS Brasil, Curitiba. CD-ROM.
1997.
ARONOFF, S. Geographic information systems : a management perspective. Ottawa, Ca-
nada,WDL Publications,1995. 293 p.
ASMUS, M.L.; REIS, E.G; CASTELLO, J.P.; CALLIARI, L.J. Gerenciamento Costeiro
Integrado: Trocas e inter-relações entre os sistemas continental e oceânico adjacente. 22
de novembro 02 de dezembro de 1999; Natal RN, FURG, CIRM, DOALOS/ONU.
ED., 1999.
BRAGA, C.Z.F.; GHERARDI, D.F.M. Mapeamento de recifes costeiros utilizando ima-
gens orbitais. PROGRAMA HIDRO/INPE Instituto Nacional de Pesquisas Espaciais,
2001.
BREIMAN, L. Bagging Predictors, Machine Learning, v. 24, n. 2, 1996. p. 123 – 140.
142
BROWN, M.; GUNN S. R; LEWIS H. G. Support vector machines for optimal class fica-
tion and spectral unmixing. Ecol. Mod., vol. 120, 1999. p. 167–179.
BURCHETTE, T.P.; WRIGHT, V.P. Carbonate ramp depositional systems: Sedimentary
Geology, v. 79, 1992. p. 3-57.
BURGES, C. J. C. A Tutorial on Support Vector Machines for Pattern Recognition.
Kluwer Academic Publishers, Boston. 1998.
CÂMARA, G.; CASANOVA M.A.; HEMERLY A.S.;. MAGALHÃES G.C.; MEDEI-
ROS C. M. B. Anatomia de Sistemas de Informação Geográfica, 10ª. Escola de Computa-
ção, Campinas, 1996.
CÂMARA, G.; MEDEIROS J. S. GIS para Estudos Ambientais. In: CÂMARA G.; DA-
VIS, C.; MONTEIRO, A.M.V. Introdução à ciência da geoinformação. [acessado 2005
Out 19]. Disponível em: http://www.dpi.inpe.br/
ilberto/livro/introd
CASTRO, C. B. Corals of Southern Bahia. Pages 160-176 in B. Hetzel and C. B. Castro.
Corals of Southern Bahia. Nova Fronteira, Rio de Janeiro. 1994.
CHAVES, H. A. F. Geomorfologia da margem continental brasileira e das áreas oceâni-
cas adjacentes: relatório final. Rio de Janeiro, PETROBRÁS, CENPES, DINTEP, 1979.
177p.
CHRISMAN, N. Exploring geographic information systems. New Caledonia, John Wiley
e Sons, 1997. 298 p.
CHRISTOFOLETTI, A. Geomorfologia. São Paulo, Edgard Blücher, 1980. 189 p.
COMON, P. Independent component analysis: A new concept?. Sinal processing, vol. 36,
1999. pp. 287-314.
143
CRISTIANINI, N., Taylor, S. J., An Introduction to Support Vector Machines and other
kernel-based learning methods, Cambridge University Press, Cambridge, 2003.
CRÓSTA, A. P. Processamento digital de imagens de sensoriamento remoto. Campinas,
UNICAMP, 1999. 170 p.
CUNHA, S.B. ; GUERRA, A.J.T. Geomorfologia do Brasil. Rio de Janeiro, Bertrand Bra-
sil, 2001. 392 p.
DAVIS C, L.S.; TOWNSHEND, J.R.G., An assessment of supportvector machines for
land cover classification. Int. J. Remote Sens.,vol. 23, 2002. p. 725–749.
DIETTERICH, T.G. Ensemble Methods in Machine Learning. In J. Kittler and F. Roli
(Ed.) First International Workshop on Multiple Classifier Systems, Lecture Notes in Com-
puter Science. New York: Springer Verlag, 2000.
DING, C.H.; DUBCHAK, Q.I. Multi-class protein fold recognition using support vector
machines and neural networks. Bioinformatics, 2002. p. 349-358.
DUIN, R. P. W. The Combining Classifier: to Train or Not to Train, 16th International
Conference on Pattern Recognition, Vol. 2, 2002, pp. 765
EASTMAN J. R. Idrisi32 for windows: Guide to GIS and Image Processing. Worcester-
MA, Graduate School of Geography, Clack University. 2001, 236 p.
EDWARDS, A. Introduction on remote sensing of coastal environments. In: GREEN,
E.P.; MUMBY, P.; EDWARDS, A.J.; CLARK, C.D. Remote Sensing Handbook for Tro-
pical Coastal Management, Costal Management Sourcebooks 3, UNESCO Publishing,
France, 2000. 25-30 p.
FRITZSCHE, H. Programação Não Linear: análise e métodos. São Paulo, Edgar Blü-
cher/USP, 1978. 170p
144
FONSECA, L. G. F. Processamento digital de imagens.São Paulo, INPE, 2000. 110 p.
GALO, M. L. B. T. Caracterização ambiental do Parque Estadual Morro do Diabo atra-
vés de dados e técnicas de sensoriamento remoto: abordagens usando redes neurais artifi-
ciais. 2000. 205 p. Tese (Doutorado), São Carlos.
GAMA, J. M. P. Combining Classification Algorithms. FCUP, 2000.
GOMES, A. S.; VILLAÇA, R.; PEZZELLA, C.C.A. Atol das rocas: ecossistema único no
atlântico sul. In: Revista Ciência Hoje, Junho, 2001.
GONZALES R. C.; WOODS R. E. Processamento de imagens digitais. São Paulo, Edgard
Blücher, 2000. 509 p.
GREEN, E. Satellite and airborne sensors useful in coastal applications. In: GREEN,
E.P.; MUMBY, P.J.; EDWARDS, A.J; CLARK, C.D. Remote Sensing Handbook for Tro-
pical Coastal Management, Costal Management Sourcebooks 3, UNESCO Publishing,
France, 2000. 41-56 p.
GUILCHER, A. Coral reef geomorphology. New York, John Wiley & Sons, 1988. 228 p.
GUNN S. Support vector machine for classification and regression. Technical Report I-
SIS-1-98, Image Speech & Intelligent Systems Group, University of Southampton, 1998.
HALLDORSSON G. H., J. A. Benediktsson, and J. R. Sveinsson, Support vector machi-
nes in multisource classification. IGARSS, Toulouse, France, July, 2003. p. 21–25.
HANSEN L. K.; SALAMON P. Neural Network Ensembles. IEEE Trans. Pattern Anal.
Mach. Intell. 12(10): 993, 1990.
HAYKIN, S. Redes neurais: princípios e prática. Porto Alegre, Bookman. 2001, 899 p.
145
HIRATA, R.J.; HIRATA N.S.T. Combinação de Classificadores: Aplicação em projeto
multiníveis de operadores morfológicos binários. Relatório, Departamento de Ciência da
Computação Instituto de Matemática e Estatística, USP, 2007.
HUXHOLD, W.E. An introduction to urban geographic information systems. New York,
Oxford University Press, 1991. 337 p.
HYVÄRINEN, A. e OJA, E. Independent component analysis: a tutorial. 1999.
HYVÄRINEN, A. Survey on independent component analysis. Neural computing Surveys,
v 2, 1999. p. 94-128
JAIN, A. K.; DUIN, R. P. W.; MAO, J. Statistical Pattern Recognition: a review, IEEE
Transaction on Pattern Analysis and Machine Intellligente. v 22, n. 1, 2000.
JENSSEN, R. Image Denoising basead on independent component analysis. Master The-
sis, University of Tromso, December, 2001.
JOLY, F. A cartografia. Campinas, Papirus Editora, 1997. 136 p.
JUNG, A. An introduction to a new data analysis tool: Independent component analysis.
Proceedings of Workshop GK "Nonlinearity". 2002.
KUNCHEVA, L. I. Combining Pattern Classifiers: methods and Algorithms. New York:
wiley-Interscience, 2004.
KUNCHEVA, L., WHITAKER, C. Measures of diversity in classifier ensembles and their
relationship with ensemble accuracy. Machine Learning, (2003). p. 181–207.
LEÃO Z. The coral reef of southern Bahia. In: Corals of Southern Bahia. HETZEL, B.;
CASTRO, C.B. (eds.) Editora Nova Fronteira, Rio de Janeiro, 1994. 151 p.
146
LEÃO, Z. M.A.N. The coral reefs of Bahia: morphology, distribution and the major envi-
ronmental impacts. An. Acad. Brás, 1996. p 339-452.
LENNON M.; MERCIER G.; MOUCHOT M.C.; L. HUBERT-MOY. Independent com-
ponent analysis as a tool for the dimensionality eduction and the representation of hypers-
pectral images. France, 2001.
LIMA, C. A. M. Comitê de Máquinas: Uma Abordagem Unificada Empregando Máqui-
nas de Vetores-Suporte. São Paulo, 2004, 314 p. Tese de Doutorado, UNICAMP.
LIMA, W. S. G. Geologia e Geomorfologia dos Recifes de Maracajaú - RN e Plataforma
Rasa Adjacente. Universidade Federal do Rio Grande do Norte. Dissertação de Mestrado,
2002.
LYZENGA, D. R. Passive Remote Sensing Techniques for Mapping Water Depth and
Bottom Features. Applied Optics, Vol. 17, 3, 1978. p. 379-383.
MAIDA, M., Ferreira, B. P. Coral Reefs of Brazil: Overview e field guide. International
Coral Reef Symposium 8th. Panamá: , v.1, p.263 - 274, 1997.
MAS, J. F., Mapping land use/cover in a tropical coastal area using satellite sensor data,
GIS and artificial neural networks. Estuarine, Coastal and Shelf Science, 59 (2), 219-230,
2003.
MATHER, P. M., Computer Processing of Remotely Sensed Images. Wiley, New York,
(1999)
MULLER K.; Smola, A.; Ratsh, G.; Scholköpf, B.; Kohlmorgen, J.; Vapnik, V. Predic-
tingtime series with support vector machines, in: Proceedings International Conference on
Artificial Neural Networks ICANN, LNCS 1327, pp. 999-1004, Springer, 1997.
147
MUMBY, P.; EDWARDS, A. Remote sensing objectives of coastal managers. In: GRE-
EM, E.P., MUMBY, P.J., EDWARDS, A.J. AND CLARK, C.D. (ED. EDWARDS, A.J.).
Remote Sensing Handbook for Tropical Coastal Management, Costal Management Sour-
cebooks 3, UNESCO Publishing, France, 2000. 31-40 p.
MUMBY, P.; EDWARDS, A. Water column correction techniques. In: GREEN, E.P.,
MUMBY, P.J., EDWARDS, A.J. AND CLARK, C.D. (ED. EDWARDS, A.J.). Remote
Sensing Handbook for Tropical Coastal Management, Costal Management Sourcebooks 3,
UNESCO Publishing, France, 2000. 121-128 p.
MUMBY, P.; EDWARDS, A. Remote sensing objectives of coastal managers . In: GRE-
EM, E.P., MUMBY, P.J., EDWARDS, A.J. AND CLARK, C.D. (ED. EDWARDS, A.J.).
Remote Sensing Handbook for Tropical Coastal Management, Costal Management Sour-
cebooks 3, UNESCO Publishing, France, 2000. 41-56 p.
MUMBY, P.; GREEN, E.Mapping coral reefs and macroalgae. In: GREEN, E.P.,
MUMBY, P.J., EDWARDS, A.J. AND CLARK, C.D. (ED. EDWARDS, A.J.). Remote
Sensing Handbook for Tropical Coastal Management, Costal Management Sourcebooks 3,
UNESCO Publishing, France, 2000. 121-128 p.
NOTTINGHAM, M.C. Relatório da visita realizada nos Recifes de Maracajaú, Rio Gran-
de do Norte, entre 27 de dezembro de 1999 e 09 de janeiro de 2000. IDEMA, Relatório
interno, 2000.
NOVO, E.M.L.M. Sensoriamento Remoto: Princípios e Aplicações. São Paulo, Edgard
Blücher, 1992. 308 p.
PAPOULIS, A. Probability, random variables, and stochastic processes. London, Mc-
Graw-Hill, 1991.
PENTEADO, M.M. Fundamentos de geomorfologia. Rio de Janeiro. IBGE, 1978. 180 p.
148
PROBIO Projeto de conservação e utilização sustentável da diversidade biológica bra-
sileira. http://www.bdt.org.br/workshop/costa Diagnósticos e resultados do Workshop
realizado em Porto Seguro – BA, 1999.
PROJETO REMAC. Geomorfologia da margem continental brasileira a das áreas oceâ-
nicas adjacentes (relatório final). Rio de Janeiro. CENPES/DINTEP, 1979.
RENO, V. F. BRAGA, C. Z. F. GHERARDI, D. F. M. Utilização de imagens tm landsat-5
para o mapeamento dos recifes da área de proteção ambiental costa dos corais (al/pe).
PROGRAMA HIDRO/INPE – Instituto Nacional de Pesquisas Espaciais, 2003.
ROBILA, S.; HAALAND, P.; ACHALAKUL, T.; TAYLOR, S. Exploring Independent
Component Analysis for Remote Sensing. New York, 2001.
SCHAPIRE, R E. The Strenght of weak learnability. Machine Learning. v. 5, 1990. p 197
– 227.
SCHÖLKOPF, B., SMOLA, A. Learning with Kernels, MIT Press, Cambridge, MA, 2002.
SMOLA, A; SCHÖLKOPF, B. A tutorial on support vector regression. Neural Networks
TR 1998-03, 1998.
TESSLER, M. G.; MAHIQUES, M. M. Processos oceânicos e a fisiografia dos fundos
marinhos. In: TECHEIRA, W.; TOLEDO, M. C.; FAIRCHILD, T.; TAIOLI, F. Decifran-
do a terra. São Paulo, Oficina de Textos, 2001. 568 p.
TRECHERA, L. M. M.
onzáles, F.A. Hinojosa, J. O. Análisis de componentes indepen-
dientes y análisis de componentes principales: relação y diferencias. Congreso Nacional
de Estatística e Investigacion Operativa, Lleida, 2003.
149
TSO, B.; MATHER, P.M., Classification Methods for Remotely Sensed Data. Taylor and
Francis, 2001
VAPNIK V. N. Statistical Learning Theory, John Willey & Sons, 1995.
WESTON, J.; MUKHERJEE, S.; CHAPELLE, O.; PONTIL, M.; POGGIO T.; VAPNIK,
V. Feature Selection for SVM. Advances in Neural Information Processing Systems. vol.
13, 1999.
WOLPERT, D. Stacked Generalization. Neural Networks. V. 5, 1992. p. 241-259.
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo