![]() |
![]() |
|||
Visão Computacional 1. Representação de Prof. Aldo von Wangenheim |
ROBÓTICA Eliane Pozzebon
1. Introdução : Muitos pesquisadores descrevem os robôs como máquinas semelhantes à imagem do homem e que podem executar todas as suas tarefas. Entretanto, se robôs jamais poderão substituir o homem, devemos levar em conta os possíveis avanços em duas áreas que podem ser comparadas às habilidades humanas:
Através de sensores e de um processador integrado dentro do sistema do robô é feita a sua adaptação ao ambiente. Alguns sensores artificiais apresentam um paralelo com os sentidos humanos, particularmente, visão, tato e ouvido. Outros, significamente importantes, não apresentam nenhum paralelo:
Na primeira geração existia uma ausência total de sensor ou elemento de visão . Também chamados de robôs de transferência, adaptados a operações simples e repetitivas, como um Automatizador de Prensas; Já na segunda geração o sistema sensorial relativamente desenvolvido e uma programação simples . Também chamados de trajetória contínua, são empregados na indústria automobilística, como um pintor de automóveis por spray; E na terceira geração o sistema sensorial avançado, tem autonomia e agilidade. São empregados em áreas que envolvam inteligência. O “Robotic Institute of America(R.I.A)” define robô como: manipulador programável multi-funcional capaz de mover materiais, partes, ferramentas ou dispositivos especializados através de movimentos variáveis programados para realizar uma variedade de tarefas. Seguindo a divisão preconizada pelo projeto MUCON (“Multisensory Control of Movement”), pode-se dividir as ações inteligentes de um robô como: ação, orientação e locomoção. Ação3. Tipos de Sensores Os sensores atualmente podem ser classificados de acordo com os princípios físicos sobre os quais eles estão baseados (ótico, acústico, e assim por diante) ou de acordo com as quantidades medidas (distância, força, e assim por diante). Entretanto, eles são habitualmente divididos em dois tipos principais: sensores de contato e sensores sem contato. 3.1Sensores de contato Os
sensores de contato são aqueles que requerem um contato físico
com os objetos em seu ambiente, além de produzir um sinal de medida.
Existem sensores de contato para vários níveis de sofisticação.
Desde sensores simples como microchaves (que são usadas para identificar
a presença ou ausência de um objeto) até sensores complexos
como "pele" artificial contendo centenas de elementos sensitivos que transmitem
informações sobre orientação, dimensão,
pressão exercida, e assim por diante.
3.2 Sensores sem contato Nestes tipos de sensores não se tem o contato físico com o objeto a ser medido. As informações são colhidas à distância, logo são menos expostos a danos físicos que os sensores de contato. Usa-se nestes tipos de sensores um princípio de transferência de ondas, que são aplicadas à distância do objeto. Os métodos de identificação utilizados nos sensores sem contato são:
Feito por meio de um sensor ótico, cujo princípio de operação é baseado na identificação da fonte de luz por meio de um sensor simples, ilustrado na figura 1. Observando a figura 1, temos que a fonte de luz e o detector são fixados em lados opostos à esteira. Quando a caixa passa pelo ponto onde a fonte de luz é bloqueada, o sensor sinaliza ao controlador a presença da caixa e ativa o braço do robô para pegar a caixa e movê-la. O princípio do sensor de proximidade ótica é ilustrado na figura 2. A distância entre o sensor e a superfície próxima é: X = L1 x XD / ( L - L1 ) sendo: X = distância entre o sensor e a superfície do objeto;
3.2.2 Identificação ao longo de uma linha, por vetor de sensoreamento: Um vetor de detecção é capaz de fornecer ao controlador
um grande número de informações, muito maior do que
o fornecido pelo sensor. Um vetor de sensoreamento é composto de
um número de sensores, com 1000 sensores ou mais, com distância
na ordem de 10 microns (0.0004").
Fig. 3: Usando um vetor sensitivo para detectar objetos Outro método, um feixe de luz é projetado de uma fonte
de luz. Quando nenhum objeto está presente, todos os sensores são
iluminados, como mostra a figura 4. Quando um objeto está presente,
a luz não é refletida para o mesmo lugar. Em adição
da identificação de presença de objeto, o vetor de
sensoreamento fornece outras informações vitais, como o tamanho
e a locação do objeto.
Fig. 4: Usando um vetor sensitivo para medir objetos O feixe de luz fornece outras informações importantes
sobre a orientação dos objetos,variando-se a orientação
em relação a fonte de luz, como mostra a figura 5.
Cada objeto ilumina um diferente número sensores pela contagem dos sensores não iluminados, a orientação do objeto pode ser critica quando o objeto deve ser manuseado pelo robô. Outra aplicação dos vetores d sensoreamento é a distância medida. Este método é parecido com o método de medida com o sinal de sensor. A luz transmitida pela fonte de luz é refletida para os sensores do vetor de sensoreamento. Somente um sensor será iluminado pela reflexão da luz em um dado instante. A mudança da distância do objeto do vetor de sensoreamento causa mudança na luz refletida para um sensor. A distância pode ser calculada por: X = L1 x XD / ( L - L1 )O valor de L - distância entre a fonte de luz e o sensor - mudanças no sensor iluminado é portanto medido. Este tipo de sensoreamento é usado para controle de qualidade de produtos finalizados. O sensor é montado no braço do robô e movido sobre determinados pontos da peça, medindo a distância, comparando-a com padrões preestabelecidos. Os robôs são capazes de medir centenas d pontos por hora. Limitações do uso de vetores de sensoreamento:
3.2.3 Identificação em toda uma área, por sensoreamento com matriz sensitiva Um grande número de pesquisas tem sido feita na cerca de desenvolvimento
de cameras para identificação de objetos. Muitos procuram
criar uma similaridade entre a câmera e o olho humano, fazendo que
possamos perceber os objetos como o olho humano.
Matriz de câmeras sensoras são construídas de matrizes sensoras de duas dimensões com uma superfície comum. O número de sensores por matriz varia de 32x32 em baixa resolução até 512x512 em alta resoluções. A distância entre os sensores é medida em dezenas de microns. A imagem do objeto observado é projetado na matriz sensores por
meio de lentes. O sensores são eletricamente varridos, e o sinal
obtido, é proporcional o quantidade de luz emitida. A quantidade
de dados, é imensa; uma matriz de 512x512 contém 250000 detectores,
cada ciclo de varredeira proporciona 250000 bits de dados.
O robô não pode operar objetos maiores que os vistos pela câmera, para identificar a natureza, o locação precisa e o orientação do mesmo. O número de dados que podem ser transmitidos para o robô definir a localização e orientação é menor que 250000 bits. A informação é gerada pela câmera e transmitida para o robô. Este tipo de processamento é chamado de patterm recognition. Suponhamos que o objeto amostrado seja um cilindro, o sistema requer somente a localização do centro de gravidade, portanto o objeto é iluminado por uma fonte de luz. Ao ser observado através de uma câmera, os sensores não formam um circulo, portanto, estes dados devem ser comparados com uma tabela guardada na minoria. A figura 7 representa a situação de identificação de um objeto através de sua silhueta e a figura 8 representa a identificação de um objeto por comparação de informações. Pela comparação da área do objeto com a tabela de áreas familiares, o computador identifica o objeto cilíndrico. Neste ponto, o robô "sabe" a identificação do objeto. A identificação da localização do seu centro de gravidade na matriz sensora. O centro de gravidade da imagem do objeto é dado pelas seguintes equações: Xcg = 1 Z n=1 Xisendo: Xcg coordenada-x do centro de gravidadeUma vez tendo localizado o centro de gravidade da imagem do objeto localizado na matriz sensora, esta informação pode ser transformada em ordem para encontrar o centro de gravidade do objeto atual. Esta pode ser um meio simplificado, baseado na proporção da área da matriz sensora. A figura 9 representa o desenvolvimento de "visão" usando-se um sensor de luz. Com o centro de gravidade encontrado, o robô pode desenvolver as atividades que foi programado. Neste exemplo, o objeto é perfeitamente simétrico, e a sua orientação não foi considerada. Entretanto em casos mais complexos, alguns detalhes devem ser observados: 1. O comprimento e a largura do objeto.
Para identificar estas variáveis para um dado objeto, o contorno deve ser identificado primeiramente. Um número de algoritmos tem sido desenvolvidos para uso de identificação do contorno de objetos. Estes algoritmos, são definidos como sensores de margem, são complicados e geralmente necessita de grandes softwares como computadores com um bom processamento no tempo. Como as câmeras podem ser usadas para identificações de objetos em três dimensões? Um método, para objetos simples, é pela projeção de um número de faixas de luz nos objetos e medindo as lacunas refletidas pela luz. O ângulo das fraturas e as fraturas externas indicam o tamanho do objeto. Outro método, para objetos mais complexos, envolve câmeras em duas localizações diferentes. Eles olham o objeto, esteroscopicamente, como muitos olhos humanos. Esta forma de identificação é complexa, necessitando de coordenadas entres as câmeras e uma complicado processo de informação, que são gerados pelas câmeras. Na identificação do cilindro, necessitamos de sinais binários
da câmera. Neste modo, o computador identifica o contorno do objeto.
Entretanto este método somente fornece o contorno do objeto, não
tendo informações internas do mesmo.
O número de sensores aplicados na indústria é pequeno. Muitas razões são dados para esta situação:
Utilizando-se da biologia para inspirar sensores de visão num ambiente expectativo, o que olhar? Continuidade temporal e consistência hipotética podem ser um sistema para restringir as possíveis localizações de um objeto de um ponto no tempo para outro, assim passamos por duas fases, sendo a primeira chamada Reconhecimento, onde é baseada na antecipação de como possa vir a olhar o objeto em questão. Esta característica pode ser restaurada da memória ou pode ser ligada fisicamente em um comportamento de reconhecimento de um objeto específico; contudo o Rastreamento é o segundo passo depois do reconhecimento alcançado, pois esta fase é computacionalmente menos exigente que a descoberta porque as expectativas derivadas da percepção são mais imediatas e então mais confiáveis. O sistema visual é constituído pelos olhos, pelos nervos
associados aos mesmos, ao colículo e ao córtex visual como
mostrado na Figura 10. O colículo é uma estrutura cerebral
que recebe neurônios sensitivos vindo da retina e do ouvido e integra
estas informações. Possue seis camadas de neurônios,
nos quais se observa grande numero de ligações na mesma camada.
Estas ligações fazem supor que esteja materializando um tipo
de camada de Kohonen complexa, envolvendo inibições e excitações.
Como saída do colículo têm-se nervos constituídos
de motoneurônios dos quais os mais notáveis são os
que comandam os movimentos do globo ocular, feitos pelos seis músculos
de cada olho. Além destes motoneurônios saem ainda os que
comandam os músculos do pescoço e também se atribui
ao colículo responsabilidade pelo equilíbrio do corpo. Continuando
mais além do colículo, outros neurônios projetam a
imagem da retina na parte ocipital do cérebro onde se situa o córtex
visual.
Já a Atenção Enfocada firma-se na pergunta, para onde olhar? Através de percepção, saber onde guiar para apontar os sensores dentro da imagem. Utilizando-se de uma base comportamental visual humana, foi destacado três pontos importantes onde: a) o primeiro se justifica na Metáfora do Refletor, onde [Arkin] comenta que esta foca-se no centro do campo de visão, não desfazendo, mas ignorando as imagens ao redor do foco, como um refletor de luz faz num palco de teatro e que nós focalizamos a pessoa no foco, estamos desprezando temporariamente o que esta ao redor dela, pois o ambiente natural confronta o observador com um largo número de estímulos potenciais dentro do campo de visão;5. Exemplo de visão em um rôbo Sendo um ambicioso projeto e desejado por todos que trabalham com sensores
visuais, uma típica cabeça robótica, ver figura 11.
Figura 11: Cog(MIT)
6. Conclusão O trabalho discutiu aspectos da visão de robôs, dando ênfase nos métodos de identificação utilizados nos sensores sem contato: Identificação de um detector simples, por meio de um sensor simples ; Identificação ao longo de uma linha, por meio de um vetor de sensores; Identificação por toda área, por meio de uma câmera ou matriz sensitiva. Mostrando como um rôbo poderá interagir num ambiente, utilizando sensores (com contato e sem contato) e apresentando comparações com o mundo biológico. 7. Links interessantes sobre o assunto
A. MARTINS, Robótica. (São Paulo:Brasiliense, 1993). B. DONALD, J. JENNINGS, Perceptual limits, perceptual equivalence classes and a robot´s sensori-computational capabilities. Proc. of the IEEE/RSJ International Conference on Intelligents Robotics and Systems, vol.9, no. 1-2, 41-74. B. DONALD, J. JENNINGS, Sensor interpretation and task-directed planning
using perceptual equivalence classes. Proc. of the International Conference
on Robotics and Automation. Anaheim, CA,190-97.
C. M. BROWN, D. TERZOPOULOS, Real-time computer vision. (Cambridge: Newton Institute, 1994). D. CHAPMAN, Intermediate vision: architecture, implementation and use. Technical Report TR-90-06, Teleos Research, Palo Alto, CA, October. D. KIM, S. W. RICHARDS, T. P. CAUDELL, An optical tracker for augmented
reality and wearable computers. Proc. of IEEE 1997 Annual International
D. McFARLAND, T. BÖSSER, Intelligent behavior in animals and robots. (Cambridge: Massachusetts Institute of Technology, 1994). H, MITTELSTAEDT. Analytical cybernetics of spider navigation. Berlin: Neurobiology of Arachnids, 1985. 298-316. J. F. WANG, R. AZUMA, G. BISHOP, V. CHI, J. EYLES, H. FUCHS, Tracking a head-mounted display in a room-sized environment with head-mounted cameras. Proc. of Helmet-Mounted Displays II, Vol. 1290, SPIE, Orlando, FL, April 19-20, 1990,47-57. J. M. BARRETO, Inteligência artificial no limiar do século XXI (Florianópolis: PPP, ed.3. 1997). J. M. BARRETO, MUCON II Project: multisensory control of movement (European Economic Community, ESPRIT: Basic research, UCL, Louvain-la-Nueve, Belgium, 1992.) K. MEYER, et al, A survey of position trackers, Presence, vol. 1, n. 2, 1992. R. AZUMA, G. BISHOP, Improving static and dynamic registration in an optical see- through HMD, Proc. of 21st International SIGGRAPH Conference, ACM; New York NY USA, Orlando, FL, USA, 24-29, July, 1994, 197-204. R. C. ARKIN, Behavior-based robotics: intelligent robots and autonomous agents (Cambridge: Massachusetts Institute of Technology, 1998). R. HARALICK, L. SHAPIRO, Computer and robot vision (Addison-Wesley: 1993). S. RUSSELL, P. NOVIG, Artificial intelligence: a modern approach. (New Jersey: Prentice Hall, 1995). W. A. HOFF, Fusion of data from head-mounted and fixed sensors. Center
for Robotics and Intelligent Systems Engineering Division, Colorado School
of Mines Golden, CO 80401.
|
|||
![]() |
![]() |
![]() |