Visão Computacional
1.  Representação de 
     imagens
2.  Filtragem de imagens
3.  Detecção de Bordas
4.  Segmentação Simples
5.  Crescimento de Regiões
6.  Segmentação com
     Filtros
7.  Segmentação a Cores
8.  Análise de Texturas
9.  Análise de Texturas
     Multiescalar 
10. Redes Neurais
11. Morfologia Matemática
12. Convolução
13. Esqueletonização
14. Técnicas Estatísticas
15. Fractais
16. Reconhecimento de
      Formas
17. Representação de 
      Objetos
18. Quadtrees e Octrees
19. Visão Estereo
20. Inteligência Artificial
21. Controle de qualidade
22. Robótica
23. Medicina
24. Sensoriamento remoto

Prof. Aldo von Wangenheim 
Currículo...
Publicações
Pesquisa
Projetos
Ensino de Graduação
Ensino de Pós Graduação 
Cursos

Você lê?

Seminário Visão Computacional - CPGCC/UFSC - 2001.2

ROBÓTICA

Eliane Pozzebon
eliane@inf.ufsc.br
epozzebon@bol.com.br

1. Introdução :

Muitos pesquisadores descrevem os robôs como máquinas semelhantes à imagem do homem e que podem executar todas as suas tarefas. Entretanto, se robôs jamais poderão substituir o homem, devemos levar em conta os possíveis avanços em duas áreas que podem ser comparadas às habilidades humanas: 

  • Desenvolvimento de inteligência artificial - isto é, aumentar a capacidade do robô compreender, entender e tomar decisões à partir das informações colhidas por sensores.
  • Desenvolvimento de sensores - isto é, o aumento da habilidade do robô em obter informações sobre o ambiente em que se encontra, bem como de suas próprias características. 


Na inteligência Artificial : A inteligência é a capacidade de entender, conhecer e aprender. Esta capacidade, no homem, tornou possível a construção e o controle do mundo, enquanto animais com menor inteligência continuam vivendo como há milhões de anos. Robôs com flexibilidade limitada não tem inteligência, mas alguns robôs podem fazer escolhas à partir de dados colhidos de seu ambiente por sensores. Estes são chamados de inteligentes. 

Através de sensores e de um processador integrado dentro do sistema do robô é feita a sua adaptação ao ambiente. Alguns sensores artificiais apresentam um paralelo com os sentidos humanos, particularmente, visão, tato e ouvido. Outros, significamente importantes, não apresentam nenhum paralelo: 

  • Sensor de luz infravermelha : identifica fontes de calor. 
  • Sensor de proximidade : detectam a aproximação de algo à área do sensor. 
  • Sensor acústico : determinam a localização e o movimento, como os morcegos e golfinhos. 
  • Dos cinco sentidos humanos - visão, tato, ouvido, olfato e gosto - aqueles cujo paralelo artificial tem sido mais extensamente desenvolvidos são a visão e o tato. A visão do homem é o principal método de entrada de dados. A quantidade de informações coletadas é enorme. Muita pesquisa e desenvolvimento industrial tem sido gasto na tentativa de duplicar esta capacidade. Grandes esforços também tem sido investido no desenvolvimento de sensores de toque. Além disso, alguns avanços tem sido feitos na área dos sensores de escuta, como por exemplo a identificação de vozes. 
  • O sensor artificial comparado aos olhos humanos é a câmera. Assim como o olho, câmera inclui uma lente, um obturador, e um sistema de detecção capaz de transmitir dados sobre a quantidade de luz incidente. 
  • O sensor artificial de toque consiste de uma "pele" que pode, assim como a pele humana, enviar sinais sobre pressão exercida sobre algum ponto. Os sensores podem também medir forças e momentos para os pontos de contato, 
  • Os sensores de escuta artificial são os microfones, que traduzem as vibrações criadas no ar pela fala, em sinais elétricos. Em todos esses casos o computador decodifica a informação fornecida pêlos sensores. 
2. Robótica 

Na primeira geração existia uma ausência total de sensor ou elemento de visão . Também chamados de robôs de transferência, adaptados a operações simples e repetitivas, como um Automatizador de Prensas;

Já na segunda geração o sistema sensorial relativamente desenvolvido e uma programação simples . Também chamados de trajetória contínua, são empregados na indústria automobilística, como um pintor de automóveis por  spray;

E na terceira geração o sistema sensorial avançado, tem autonomia e agilidade. São empregados em áreas que envolvam  inteligência.

O “Robotic Institute of America(R.I.A)” define robô como: manipulador programável multi-funcional capaz de mover materiais, partes, ferramentas ou dispositivos especializados através de movimentos variáveis programados para realizar uma variedade de tarefas.   Seguindo a divisão preconizada pelo projeto MUCON (“Multisensory Control of Movement”), pode-se dividir as ações inteligentes de um robô como: ação,  orientação  e locomoção.

Ação
Para agir num determinado ambiente um robô  tem antes de tudo que planejar suas ações. Estabelecido um objetivo ele tem de planejar para atingí-lo. Assim, se seu objetivo é mudar de posição um objeto, ele terá inicialmente de pegar o objeto, locomover-se e saber onde colocá-lo, isto é se orientar. 

Orientação
A orientação compreende reconhecer o ambiente e saber usar este conhecimento para se locomover de um ponto para o outro. Esta ação combinada a neurofisiologia comenta a integração multisensórea orientando movimentos. Através de posições serão classificados movimentos de braço em relação às atividades subjacentes e em outras estruturas envolvidas.

Locomoção
A locomoção de um robô implica que ele tenha conhecimento do ambiente que o cerca e que possa se orientar nele, assim, na navegação será citado estudos em estruturas de cérebro envolvidos no espaço de memória e por experiências em humanos.  Para um robô, agir, orientar e locomover basea-se principalmente na percepção visual para atingir seus objetivos,  pondendo ser com contato e sem contato.

3. Tipos de Sensores 

Os sensores atualmente podem ser classificados de acordo com os princípios físicos sobre os quais eles estão baseados (ótico, acústico, e assim por diante) ou de acordo com as quantidades medidas (distância, força, e assim por diante). Entretanto, eles são habitualmente divididos em dois tipos principais: sensores de contato e sensores sem contato. 

3.1Sensores de contato

Os sensores de contato são aqueles que requerem um contato físico com os objetos em seu ambiente, além de produzir um sinal de medida. Existem sensores de contato para vários níveis de sofisticação. Desde sensores simples como microchaves (que são usadas para identificar a presença ou ausência de um objeto) até sensores complexos como "pele" artificial contendo centenas de elementos sensitivos que transmitem informações sobre orientação, dimensão, pressão exercida, e assim por diante. 
Os sensores de contato, por natureza, iniciam a alimentação de dados somente após o contato físico ter sido feito entre o robô e o seu ambiente. O contato deve ser feito de um modo controlado; o braço do robô deve ser movido para a zona de contato devagar e cuidadosamente para evitar a danificação do sensor. 
A principal vantagem deste tipo de sensor é a precisão de suas medidas. Os sensores de contato podem ser divididos em duas categorias, de acordo com a sua posição em relação ao braço do robô : 

  • Sensores posicionados para os seus próprios pontos de contato. Eles permitem a medição da pressão, presença de um objeto, identificação de chapas, e assim por diante. 
  •  Sensores posicionados para o pulso ou dedos do robô. Eles permitem a medição da direção de processos ocupando lugar para os pontos de contato. 
  • Os sensores de contato podem ser classificados em: sensores de contato simples, superfícies sensoras de múltiplo contato, lâminas de contato, sensores de escorregamento, sensor de pelo e sensores de força e momento.
  • 3.2 Sensores sem contato

    Nestes tipos de sensores não se tem o contato físico com o objeto a ser medido. As informações são colhidas à distância, logo são menos expostos a danos físicos que os sensores de contato. 

    Usa-se nestes tipos de sensores um princípio de transferência de ondas, que são aplicadas à distância do objeto.

    Os métodos de identificação utilizados nos sensores sem contato são: 

    • Identificação de um sensor simples, por meio de um sensor simples ; 
    • Identificação ao longo de uma linha, por meio de um vetor de sensores; 
    • Identificação por toda área, por meio de uma câmera ou matriz sensitiva. 
    3.2.1 Identificação de uma peça com um sensor simples :
    Feito por meio de um sensor ótico, cujo princípio de operação é baseado na identificação da fonte de luz por meio de um sensor simples, ilustrado na figura 1.

    Fig. 1: Um sensor simples
    Observando a figura 1, temos que a fonte de luz e o detector são fixados em lados opostos à esteira. Quando a caixa passa pelo ponto onde a fonte de luz é bloqueada, o sensor sinaliza ao controlador a presença da caixa e ativa o braço do robô para pegar a caixa e movê-la. 

    O princípio do sensor de proximidade ótica é ilustrado na figura 2. 


    Fig. 2: Sensor de proximidade ótico
    A distância entre o sensor e a superfície próxima é: 
    X = L1 x XD / ( L - L1 )  sendo: 
    X = distância entre o sensor e a superfície do objeto; 
    L = distância entre a fonte de luz e o sensor; 
    L1 = distância entre a fonte de luz e a cavidade do pino; 
    XD = distância entre o sensor e a cavidade do pino ao longo de X. 


    Estas variáveis possibilitam uma identificação eficiente da proximidade entre o braço e o objeto. Uma recepção do sensor faz com que o controlador chaveie na distância X do objeto. Esta aplicação, identifica a proximidade do braço do robô evitando colisões com o objeto. 

    3.2.2  Identificação ao longo de uma linha, por vetor de sensoreamento:

    Um vetor de detecção é capaz de fornecer ao controlador um grande número de informações, muito maior do que o fornecido pelo sensor. Um vetor de sensoreamento é composto de um número de sensores, com 1000 sensores ou mais, com distância na ordem de 10 microns (0.0004"). 
    O controlador de robô procura o sensor na ordem na qual eles são instalados, e um sinal é transmitido por cada sensor, identificando a presença de um objeto. O vetor de sensoreamento fornece outras informações, como o tamanho do objeto, como mostra a figura 3. 

    Fig. 3: Usando um vetor sensitivo para detectar objetos

    Outro método, um feixe de luz é projetado de uma fonte de luz. Quando nenhum objeto está presente, todos os sensores são iluminados, como mostra a figura 4. Quando um objeto está presente, a luz não é refletida para o mesmo lugar. Em adição da identificação de presença de objeto, o vetor de sensoreamento fornece outras informações vitais, como o tamanho e a locação do objeto. 
     

    Fig. 4: Usando um vetor sensitivo para medir objetos

    O feixe de luz fornece outras informações importantes sobre a orientação dos objetos,variando-se a orientação em relação a fonte de luz, como mostra a figura 5. 
     

    Fig. 5 Vetor sensitivo para verificar a orientação de objetos

    Cada objeto ilumina um diferente número sensores pela contagem dos sensores não iluminados, a orientação do objeto pode ser critica quando o objeto deve ser manuseado pelo robô. 
    Outra aplicação dos vetores d sensoreamento é a distância medida. Este método é parecido com o método de medida com o sinal de sensor. A luz transmitida pela fonte de luz é refletida para os sensores do vetor de sensoreamento. Somente um sensor será iluminado pela reflexão da luz em um dado instante. A mudança da distância do objeto do vetor de sensoreamento causa mudança na luz refletida para um sensor. A distância pode ser calculada por: 
    X = L1 x XD / ( L - L1 )
    O valor de L - distância entre a fonte de luz e o sensor - mudanças no sensor iluminado é portanto medido. 

    Este tipo de sensoreamento é usado para controle de qualidade de produtos finalizados. O sensor é montado no braço do robô e movido sobre determinados pontos da peça, medindo a distância, comparando-a com padrões preestabelecidos. Os robôs são capazes de medir centenas d pontos por hora. 

    Limitações do uso de vetores de sensoreamento: 

    •  Imprecisão na orientação do braço. Isto causa erro na medida da distância, pois o desvio de algumas ângulos causa a iluminação de sensores diferentes, produzindo assim um cálculo errado da distância; 
    •  Imprecisão na medida. Este tipo de sensor é capaz de medir somente curtas distâncias. Grandes distâncias não podem ser medidas com precisão, pois a intensidade da luz decresce proporcionalmente ao quadrado do aumento da distância. 
    As informações fornecidas pelo vetor de sensoreamento não dão noção da superfície ou a dimensão de um objeto, isto pode ser resolvido por dois meios: 
    •  Movendo o objeto, mantendo fixo o vetor; 
    •  Movendo o vetor, mantendo fixo o objeto. 
    Para obter informações sobre a estrutura do objeto usamos geralmente uma câmera. 

    3.2.3 Identificação em toda uma área, por sensoreamento com matriz sensitiva

    Um grande número de pesquisas tem sido feita na cerca de desenvolvimento de cameras para identificação de objetos. Muitos procuram criar uma similaridade entre a câmera e o olho humano, fazendo que possamos perceber os objetos como o olho humano. 
    Entretanto existe muita diferença entre o olho humano e uma câmera, na área de processamento de informação, e certamente não podem ser imitados por nós
     

    Matriz de câmeras sensoras são construídas de matrizes sensoras de duas dimensões com uma superfície comum. O número de sensores por matriz varia de 32x32 em baixa resolução até 512x512 em alta resoluções. A distância entre os sensores é medida em dezenas de microns. 

    A imagem do objeto observado é projetado na matriz sensores por meio de lentes. O sensores são eletricamente varridos, e o sinal obtido, é proporcional o quantidade de luz emitida. A quantidade de dados, é imensa; uma matriz de 512x512 contém 250000 detectores, cada ciclo de varredeira proporciona 250000 bits de dados. 
    A figura 6mostra o esquema de processamento de informações por uma câmera. 
     


    Fig. 6: Processamento de informações em uma câmera
    O robô não pode operar objetos maiores que os vistos pela câmera, para identificar a natureza, o locação precisa e o orientação do mesmo. O número de dados que podem ser transmitidos para o robô definir a localização e orientação é menor que 250000 bits. A informação é gerada pela câmera e transmitida para o robô. Este tipo de processamento é chamado de patterm recognition. 
    Suponhamos que o objeto amostrado seja um cilindro, o sistema requer somente a localização do centro de gravidade, portanto o objeto é iluminado por uma fonte de luz. Ao ser observado através de uma câmera, os sensores não formam um circulo, portanto, estes dados devem ser comparados com uma tabela guardada na minoria. 
    A figura 7 representa a situação de identificação de um objeto através de sua silhueta e a figura 8 representa a identificação de um objeto por comparação de informações. 

    Fig. 7 Silhueta de um objeto identificado pelos sensores de luz.
    Pela comparação da área do objeto com a tabela de áreas familiares, o computador identifica o objeto cilíndrico. 

    Fig. 8: Identificação do objeto por comparação.
    Neste ponto, o robô "sabe" a identificação do objeto. A identificação da localização do seu centro de gravidade na matriz sensora. 

    O centro de gravidade da imagem do objeto é dado pelas seguintes equações: 

    Xcg = 1 Z n=1 Xi
    Ycg= 1 Zn=1 Yi
    sendo:
    Xcg coordenada-x do centro de gravidade 
    Ycg coordenada-y d centro de gravidade 
    N nº de sensores que formam a imagem 
    Xi coordenada-x do sensor i 
    Yi coordenada-y do sensor i 
    Uma vez tendo localizado o centro de gravidade da imagem do objeto localizado na matriz sensora, esta informação pode ser transformada em ordem para encontrar o centro de gravidade do objeto atual. Esta pode ser um meio simplificado, baseado na proporção da área da matriz sensora. 
    A figura 9 representa o desenvolvimento de "visão" usando-se um sensor de luz. 
     

    Figura 9 : Visão com um sensor de luz.
    Com o centro de gravidade encontrado, o robô pode desenvolver as atividades que foi programado. 
    Neste exemplo, o objeto é perfeitamente simétrico, e a sua orientação não foi considerada. Entretanto em casos mais complexos, alguns detalhes devem ser observados: 

    1. O comprimento e a largura do objeto. 
    2. A orientação do objeto. 
    3. A existência e localização de cavidades. 
    4. Momento de inércia. 
    5. Muitas outras variedades. 

    Para identificar estas variáveis para um dado objeto, o contorno deve ser identificado primeiramente. Um número de algoritmos tem sido desenvolvidos para uso de identificação do contorno de objetos. Estes algoritmos, são definidos como sensores de margem, são complicados e geralmente necessita de grandes softwares como computadores com um bom processamento no tempo. 

    Como as câmeras podem ser usadas para identificações de objetos em três dimensões? 

    Um método, para objetos simples, é pela projeção de um número de faixas de luz nos objetos e medindo as lacunas refletidas pela luz. O ângulo das fraturas e as fraturas externas indicam o tamanho do objeto. 

    Outro método, para objetos mais complexos, envolve câmeras em duas localizações diferentes. Eles olham o objeto, esteroscopicamente, como muitos olhos humanos. Esta forma de identificação é complexa, necessitando de coordenadas entres as câmeras e uma complicado processo de informação, que são gerados pelas câmeras. 

    Na identificação do cilindro, necessitamos de sinais binários da câmera. Neste modo, o computador identifica o contorno do objeto. Entretanto este método somente fornece o contorno do objeto, não tendo informações internas do mesmo. 
    Para resolver não identificaremos o objeto somente em branco e preto, mas por outros meios. Este método, chamado de escala cinza, é baseado no fato de que diferentes superfícies refletem diferentes intensidades de luz, de acordo com o ângulo da fonte de luz. O sensor da câmera e o processo são destinados para diferenciar diferentes níveis de cinza. Analisados vários tons de cinza habilita o sistema para determinar as linhas de intersecção de duas superfícies. Estas informações são sobre a estrutura ao objeto e não somente de seu contorno.

    O número de sensores aplicados na indústria é pequeno. Muitas razões são dados para esta situação: 

    • A visão dos sensores identificam somente o contorno. 
    • A iluminação de objetos e a recepção da luz refletida causa muitos problemas. 
    4. Visão em ser humano X  Rôbo

    Utilizando-se da biologia para inspirar sensores de visão num ambiente expectativo, o que olhar? Continuidade temporal e consistência hipotética podem ser  um sistema para restringir as possíveis localizações de um objeto de um ponto no tempo para outro, assim passamos por duas fases, sendo a primeira chamada Reconhecimento, onde é baseada na antecipação de como possa vir a olhar o objeto em questão. Esta característica pode ser restaurada da memória ou pode ser ligada fisicamente em um comportamento de reconhecimento de um objeto específico; contudo o Rastreamento é o segundo passo depois do reconhecimento alcançado, pois esta fase é computacionalmente menos exigente que a descoberta porque as expectativas derivadas da percepção são mais imediatas e então mais confiáveis. 

    O sistema visual é constituído pelos olhos, pelos nervos associados aos mesmos, ao colículo e ao córtex visual como mostrado na Figura 10. O colículo é uma estrutura cerebral que recebe neurônios sensitivos vindo da retina e do ouvido e integra estas informações. Possue seis camadas de neurônios, nos quais se observa grande numero de ligações na mesma camada. Estas ligações fazem supor que esteja materializando um tipo de camada de Kohonen complexa, envolvendo inibições e excitações. Como saída do colículo têm-se nervos constituídos de motoneurônios dos quais os mais notáveis são os que comandam os movimentos do globo ocular, feitos pelos seis músculos de cada olho. Além destes motoneurônios saem ainda os que comandam os músculos do pescoço e também se atribui ao colículo responsabilidade pelo equilíbrio do corpo. Continuando mais além do colículo, outros neurônios projetam a imagem da retina na parte ocipital do cérebro onde se situa o córtex visual.
     


    Figura 10. Sistema visual dos olhos ao córtex. Extraído de [Barreto]
    Já a Atenção Enfocada firma-se na pergunta, para onde olhar? Através de percepção, saber onde guiar para apontar os sensores dentro da imagem. Utilizando-se de uma base comportamental visual humana, foi destacado três pontos importantes onde:
    a) o primeiro se justifica na Metáfora do Refletor, onde [Arkin] comenta que esta foca-se no centro do  campo de visão, não desfazendo, mas ignorando as imagens ao redor do foco, como um refletor de luz faz num palco de teatro e que nós focalizamos a pessoa no foco, estamos desprezando temporariamente o que esta ao redor dela, pois o ambiente natural confronta o observador com um largo número de estímulos potenciais dentro do campo de visão;

    b) o segundo ponto sendo com uma Troca Visual onde de uma região para outra não precisa movimentos dos olhos e assim pode ser feito uma varredura na imagem com um velocidade muito maior; 

    c) o terceiro ponto como Troca da Atenção que provê a habilidade para cor e figura. Esta serialização tem vantagens computacionais como conseqüência da mais alta maneira de como a cena é explorada. Partindo-se daí para os métodos de hardware, a citação sensórea se faz necessária, todavia este artigo referencia à sensores ópticos, pois prometem ter a melhor combinação global de velocidade, precisão, e alcance, embora os métodos podem ser aplicados a outros sensores, pois ela deve imitar habilidades sensoriais às do homem. 

    5. Exemplo de visão em um rôbo

    Sendo um ambicioso projeto e desejado por todos que trabalham com sensores visuais, uma típica cabeça robótica, ver figura 11.
     

    Figura 11: Cog(MIT) 


    Onde [Hoff] comenta que é de suma importância saber posição relativa e orientação entre objeto e a cabeça, pois influencia na ordem em exibir um objeto virtua que é alinhado com o real objeto sendo um tanto difícil como assim explana[Azuma], todavia Cog, um robô construído por Brooks e Stein,1994, na MIT que consiste escalabilidade em métodos comportamentais  “subsumption-based”, possuindo duas câmeras de vídeo, cada qual tem vários controladores de graus de liberdade, vários subsistemas de controles comportamentais, tipo: Sacada visual, uma rápida construção de tragetória balística em uma dada direção; freqüentemente usado para reposicionar uma câmera quando o objetivo move-se para fora do campo de visão, como uma busca pelo objeto;  Busca final: contínuo rastreamento de um objetivo em movimento; Vergência que: mede  a disparidade entre as duas câmeras focadas no objetivo e então  movendo-se uma das câmeras para reduzir ou eliminá-las.

    6. Conclusão

    O trabalho discutiu aspectos da visão de robôs, dando ênfase nos métodos de identificação utilizados nos sensores  sem contato: Identificação de um detector simples, por meio de um sensor simples ; Identificação ao longo de uma linha, por meio de um vetor de sensores; Identificação por toda área, por meio de uma câmera ou matriz sensitiva.

    Mostrando como um rôbo poderá interagir num ambiente, utilizando sensores (com contato e sem contato) e apresentando comparações com o mundo biológico.

    7. Links interessantes sobre o assunto 

    • Robotics and Machine Vision - Página da NASA, sobre visão computacional 
    •  AIRVL - Artificial Intelligence, Robotics, and Vision Laboratory (Universidade de Minnesota) - Comentários sobre o assunto e fotos de robôs 
    • Vision and Robotics Lab (Universidade de Rochester) - Ciência da Computação - Um curso sobre robótica 
    • Biorobotic Vision Group - sobre visão biorobótica 
    • Simulations Ltd - Algumas dicas para montar um robô, softwares demonstrativos 
    • Linxmotion - Série de robôs móveis
    • Construction Set -- Education / Research / Kit / Gifted - Comentários sobre a necessidade de robôs, kits para montagem e muito mais 
    • Cool Robots - Página da NASA, relacionada com a utilização de robôs para "automatizar" a vida diária humana 
    • Humanoid - Terá mais informações sobre este famoso robô 
    • Universidade de Tsukuba (Japão) - Laboratório de Robótica Inteligente - Muitas informações sobre o mundo dos robôs e ainda poderá encontrar outros link´s relacionados com o assunto complexidade 
    • SAE - Página sobre uma competição anual, composta por dez provas que vão aumentando em complexidade 
    • Encarnação - encontra um simulador de robô muito interessante
    • Robot Magazine - Este é um site de uma revista sobre robótica
    • GRACO - Grupo de Automação e Controle. Este site é muito bem elaborado e trata de assuntos relacionados à mecatrônica e robótica
    • Sociedade Brasileira de Automação
    • LABIC - Laboratório de inteligência computacional (USP)
    • RobotWars - Um site com informações sobre combates entre robôs gladiadores
    • L3C - Laboratório de Conexionismo e Ciências Cognitivas
    Referências Bibliográficas

    A. MARTINS, Robótica. (São Paulo:Brasiliense, 1993). 

    B. DONALD, J. JENNINGS, Perceptual limits, perceptual equivalence classes and a robot´s sensori-computational capabilities. Proc. of  the IEEE/RSJ International Conference on Intelligents Robotics and Systems, vol.9, no. 1-2, 41-74.

    B. DONALD, J. JENNINGS, Sensor interpretation and task-directed planning using perceptual equivalence classes. Proc. of the International Conference on Robotics and Automation. Anaheim, CA,190-97.
    B. LAFTER; T. CHMIELEWKI, M. NEGIN, Robotic engineering: an integrated approach. (Pretince-Hall, Englewood Cliffs, New Jersey, 1989).

    C. M. BROWN, D. TERZOPOULOS, Real-time computer vision. (Cambridge: Newton Institute, 1994). 

    D. CHAPMAN, Intermediate vision: architecture, implementation and use. Technical Report TR-90-06, Teleos Research, Palo Alto, CA, October.

    D. KIM, S. W. RICHARDS, T. P. CAUDELL, An optical tracker for augmented reality and wearable computers. Proc. of IEEE 1997 Annual International 
    Symposium on Virtual Reality, IEEE Comput. Soc. Press; Los Alamitos CA USA, Albuquerque, NM, USA, 1-5 March, 1997, 146-50.

    D. McFARLAND, T. BÖSSER, Intelligent behavior in animals and robots. (Cambridge: Massachusetts Institute of Technology, 1994).

    H, MITTELSTAEDT. Analytical cybernetics of spider navigation. Berlin: Neurobiology of  Arachnids, 1985. 298-316. 

    J. F. WANG, R. AZUMA, G. BISHOP, V. CHI, J. EYLES, H. FUCHS, Tracking a head-mounted display in a room-sized environment with head-mounted cameras. Proc. of Helmet-Mounted Displays II, Vol. 1290, SPIE, Orlando, FL, April 19-20, 1990,47-57. 

    J. M. BARRETO, Inteligência artificial no limiar do século XXI (Florianópolis: PPP, ed.3. 1997).

    J. M. BARRETO, MUCON II Project: multisensory control of movement (European Economic Community, ESPRIT: Basic research, UCL, Louvain-la-Nueve, Belgium, 1992.)

    K. MEYER, et al,  A survey of position trackers, Presence, vol. 1, n. 2, 1992. 

    R. AZUMA, G. BISHOP, Improving static and dynamic registration in an optical see- through HMD, Proc. of 21st International SIGGRAPH Conference, ACM; New York NY USA, Orlando, FL, USA, 24-29, July, 1994, 197-204.

    R. C. ARKIN, Behavior-based robotics: intelligent robots and autonomous agents  (Cambridge: Massachusetts Institute of Technology, 1998).

    R. HARALICK, L. SHAPIRO, Computer and robot vision (Addison-Wesley: 1993). 

    S. RUSSELL, P. NOVIG, Artificial intelligence: a modern approach. (New Jersey: Prentice Hall, 1995). 

    W. A. HOFF, Fusion of data from head-mounted and fixed sensors. Center for Robotics and Intelligent Systems Engineering Division, Colorado School of Mines Golden, CO 80401.
     
     
    Contato:
    Tel.: +55-48-331 7552/9498
    FAX: +55-48-331-9770
    awangenh@inf.ufsc.br