RESEARCH
Peer reviewed scientific video journal
Video encyclopedia of advanced research methods
Visualizing science through experiment videos
EDUCATION
Video textbooks for undergraduate courses
Visual demonstrations of key scientific experiments
BUSINESS
Video textbooks for business education
OTHERS
Interactive video based quizzes for formative assessments
Products
RESEARCH
JoVE Journal
Peer reviewed scientific video journal
JoVE Encyclopedia of Experiments
Video encyclopedia of advanced research methods
EDUCATION
JoVE Core
Video textbooks for undergraduates
JoVE Science Education
Visual demonstrations of key scientific experiments
JoVE Lab Manual
Videos of experiments for undergraduate lab courses
BUSINESS
JoVE Business
Video textbooks for business education
Solutions
Language
pt_BR
Menu
Menu
Menu
Menu
DOI: 10.3791/3436-v
Michael Barnett-Cowan1, Tobias Meilinger1, Manuel Vidal2, Harald Teufel1, Heinrich H. Bülthoff1,3
1Department of Human Perception, Cognition and Action,Max Planck Institute for Biological Cybernetics, 2Laboratoire de Physiologie de la Perception et de l'Action,Collège de France - CNRS, 3Department of Brain and Cognitive Engineering,Korea University
Please note that some of the translations on this page are AI generated. Click here for the English version.
Uma maneira eficiente para obter insights sobre como os seres humanos se navegar em três dimensões é descrito. O método tira proveito de um simulador de movimento capaz de mover os observadores de formas inatingíveis por simuladores tradicionais. Os resultados confirmam que o movimento no plano horizontal é subestimado, enquanto o movimento vertical é superestimado.
O objetivo geral do experimento a seguir é medir a navegação do caminho em três dimensões, controlando a entrada sensorial visual e vestibular para o participante. Isso é feito usando uma cadeira robótica modificada com seis graus de liberdade que estimula o sistema vestibular sentado na cadeira. As visualizações do participante do campo estelar virtual Ao mover a cadeira robótica e alterar simultaneamente o campo estelar, o sistema fornece pistas visuais e vestibulares ao participante.
Os participantes fornecem feedback de navegação de caminho pela precisão e velocidade com que podem apontar de volta para a posição inicial lembrada. Os resultados mostram que a estimativa imprecisa do automovimento depende do plano de movimento e do ângulo através do qual eles são movidos. A principal vantagem dessa técnica sobre os métodos existentes, como plataformas de movimento, é que o simulador MPI Cyber Motion possui um grande espaço de trabalho capaz de mover os observadores em diferentes dimensões, principalmente para baixo.
Este método pode responder a questões-chave no campo da neurociência, como se o cérebro representa igualmente o movimento próprio em diferentes dimensões. Tivemos a ideia para esses experimentos a partir de um estudo de nosso colega Manuel Vidal. Ele moveu as pessoas através de maças virtuais apenas com apresentação visual.
Aqui ele descobriu que a navegação medicinal é prejudicada quando o MACES inclui um componente vertical. As implicações dessa técnica se estendem ao diagnóstico de desorientação espacial porque fornecem uma referência para a navegação de caminho no cérebro normal. O estimulador de movimento NPI Cyber consiste em um robô serial de seis articulações em uma configuração 3, 2, 1.
É baseado em um robô industrial com carga útil de 500 kg para tornar o robô seguro para experimentação. São feitas modificações tanto no hardware como no software Perfis de movimento complexo que combinam movimentos laterais com rotações são possíveis. Com o simulador de movimento cibernético MPI.
Os eixos um, quatro e seis podem girar continuamente quatro pares de hardware e as paradas limitam os eixos dois, três e cinco em ambas as direções. A amplitude máxima dos movimentos lineares depende fortemente da posição a partir da qual o movimento começa. Antes de realizar qualquer experimento, cada trajetória de movimento experimental deve passar por uma fase de teste.
As trajetórias são programadas usando um PC de escritório projetado pela KUKA para configurar o simulador de movimento cibernético MPI. Nesta configuração de malha aberta, as trajetórias são colocadas em coordenadas cartesianas e são convertidas em ângulos de espaço de junta por meio de cinemática inversa a cada 12 milissegundos. As posições atuais dos ângulos das articulações são transmitidas do sistema de controle para o simulador de movimento cibernético MPI por meio de uma conexão Ethernet, onde são lidas e gravadas de forma incremental no disco do robô.
Uma cadeirinha de corrida equipada com o sistema de cinto de segurança de cinco pontos é presa a um chassi, que inclui um apoio para os pés. O chassi é montado no flange do braço do robô. Os participantes devem usar fones de ouvido com cancelamento de ruído, equipados com um microfone para comunicação bidirecional com o experimentador.
Eles também devem ser ingênuos em relação à configuração experimental. O ruído contínuo é reproduzido através dos fones de ouvido, o que mascara o ruído do robô. Os experimentos também são possíveis sentando os participantes dentro de uma cabine fechada enquanto o experimento é realizado na escuridão.
As câmeras infravermelhas permitem o monitoramento visual da sala de controle. Várias configurações de visualização são possíveis, incluindo uma tela LCD, uma projeção frontal estéreo, uma projeção frontal mono ou um head-mounted display. Neste experimento, as dicas visuais para o movimento próprio são fornecidas por um display LCD, colocado 50 centímetros à frente dos observadores para fornecer pistas visuais.
O software apresenta um espaço OID virtual preenchido com 200.000 pontos para o participante. A tela exibe pontos correspondentes a ângulos visuais de 13 a 0,3 graus.
Esses pontos estão a uma distância de 0,085 e quatro. Unidades virtuais do participante. O movimento do campo virtual é sincronizado com o movimento físico por meio de trajetórias de movimento do computador de controle MPI para criar paralaxe entre o fluxo óptico e o movimento.
Os pontos mais profundos no campo de visão são desenhados menores, independentemente dos movimentos do participante. Assim, um total de cem mil pontos se movem a cada segundo.
Um joystick personalizado equipado com botões de resposta permite que os participantes transmitam dados por conexão Ethernet para o sistema de controle. A informação sensorial pode ser manipulada fornecendo apenas pistas visuais do campo estelar de vida limitada. Apenas pistas cinestésicas vestibulares do movimento passivo com os olhos do participante fechados, ou ambas as pistas com os olhos do participante abertos.
Neste experimento, as trajetórias de movimento consistiram em dois comprimentos de segmento. O primeiro é de 0,4 metros e o segundo é de um metro. O ângulo de quaisquer dois segmentos de movimento é transmitido como 45 graus ou 90 graus.
Por exemplo, o movimento no plano horizontal consiste em um movimento para a direita em 90 graus para frente, um movimento para a direita em 45 graus para a direita, um movimento para frente em 90 graus ou um movimento para a direita em 45 graus. Esses tipos de movimentos também são realizados nos planos sagital e frontal. As trajetórias são entregues como translações sem rotação.
Cada trajetória é seguida por uma sequência de reposicionamento, seguida por uma pausa de 15 segundos para reduzir qualquer possível interferência do movimento antes de cada tentativa, e para garantir que o sistema vestibular seja testado a partir de um estado estacionário para fornecer feedback de seu movimento percebido, os participantes movem uma seta com um joystick para indicar seu movimento em relação à sua origem. A origem é apresentada como um avatar de três pontos de vista, e a seta é sempre posicionada aleatoriamente antes do ajuste antes dos testes. É vital treinar o participante para usar o sistema de feedback com precisão.
Eles devem ser capazes de apontar a flecha para objetos ao seu redor, como o joystick apoiado em seu colo durante o teste. O movimento do joystick é restrito ao plano da trajetória e os participantes podem usar qualquer um ou todos os pontos de vista ao coletar dados. Cada condição experimental é repetida três vezes e apresentada em ordem aleatória.
Os dados dos 16 participantes foram analisados. Um. Escores extremos foram emitidos por modalidade e ângulo não teve efeito significativo no movimento estimado. No entanto, os participantes subestimaram o tamanho do ângulo de movimento no plano horizontal em quase nove graus e superestimaram o tamanho do ângulo no plano frontal em cerca de cinco graus. Aqui.
Descobriu-se que o fator ângulo interage significativamente com o fator do plano frontal, de modo que as superestimativas foram maiores para movimentos em 45 graus do que em 90 graus. Além disso, descobriu-se que a modalidade interage significativamente com o ângulo, de modo que as subestimações apenas das informações vestibulares para movimentos de 90 graus foram significativamente maiores em comparação com as condições visuais e combinadas. Tais discrepâncias estavam ausentes para movimentos de 45 graus.
O tempo de resposta foi significativamente mais lento quando o feedback foi fornecido apenas sobre pistas cinestésicas vestibulares em comparação com condições visuais e combinadas. Os participantes também foram significativamente mais lentos quando movidos no plano horizontal em comparação com outros planos. Esses resultados são realmente surpreendentes, pois sugerem que a representação do espaço pelo cérebro não é simétrica entre as dimensões.
Sabemos há algum tempo que as pessoas tendem a subestimar seu movimento no plano horizontal aqui pela primeira vez, estamos mostrando que esse não é o caso na dimensão vertical. No futuro, poderemos usar esses métodos para construir caminhos em todas as três dimensões, incluindo aquelas que são curvas. Isso nos permitirá responder a perguntas adicionais, como como o cérebro é capaz de integrar o movimento entre os planos, bem como como ele navega nas curvas.
View the full transcript and gain access to thousands of scientific videos
Related Videos
26:41
Related Videos
5.3K Views
07:49
Related Videos
8.6K Views
07:12
Related Videos
2.5K Views
05:55
Related Videos
1.5K Views
07:59
Related Videos
13K Views
10:12
Related Videos
16.4K Views
10:49
Related Videos
13.8K Views
07:08
Related Videos
20.2K Views
09:13
Related Videos
9.4K Views
07:26
Related Videos
9.8K Views