Tradução
de alguns trechos da pesquisa
Os nossos olhos podem ser a nossa
janela para o mundo, mas como dar sentido às milhares de imagens que inundam
nossas retinas a cada dia? Cientistas da Universidade da Califórnia, em
Berkeley, descobriram que o cérebro coloca em ordem todas as categorias de objetos
e ações que vemos. Eles criaram o primeiro mapa interativo de como o
cérebro organiza estes agrupamentos.
Os resultados foram obtidos por meio de
modelos computacionais de dados de imagem cerebral coletados enquanto os
sujeitos assistiram horas de clipes de filmes - é o que os pesquisadores chamam
de "um espaço contínuo semântico."
Algumas relações entre as categorias
faz sentido (humanos e animais compartilham a mesma "vizinhança
semântica"), enquanto outros (corredores e baldes) são menos
óbvios. Os pesquisadores descobriram que pessoas diferentes partem de um
esquema semelhante de semântica.
"Nossos métodos abrem uma porta
que vai levar rapidamente a uma compreensão mais completa e detalhada de como o
cérebro está organizado”, diz Alexander Huth, estudante de doutorado em
neurociência na Universidade de Berkeley e principal autor do estudo publicado
(quarta-feira, 19 de dezembro) na revista Neuron.
Uma melhor compreensão de como o
cérebro organiza a informação visual pode ajudar com o diagnóstico médico e
tratamento de doenças do cérebro. Estas descobertas podem também ser usadas
para
criar interfaces cérebro-máquina, em particular para sistemas de
reconhecimento facial e outras imagens.
"Há muito tempo se pensou
que cada categoria de seres humanos, objeto ou ação de ver - pessoas, animais,
veículos, eletrodomésticos e movimentos - era representado em uma região separada
do córtex visual. Neste último estudo, os pesquisadores da UC Berkeley
descobriram que essas categorias são, na verdade, representadas em mapas
altamente organizados, que se sobrepõem, que cobrem tanto quanto 20 por cento
do cérebro, incluindo o córtex somatossensorial e frontal.
O estudo foi realizado através de
mapeamento cerebral, onde cinco pesquisadores assistiram duas horas de clipes
de filmes, os mais de 1700 objetos e ações vistas nos clipes foram resumidos em grandes conjuntos de dados, para encontrar o
"espaço semântico" que era comum a todos os sujeitos do estudo.
Os resultados são apresentados em
multicores, mapas multidimensionais que mostram as mais de 1700 categorias
visuais e suas relações entre si. Categorias que ativam as mesmas áreas do
cérebro têm cores semelhantes. Por exemplo, os seres humanos são o verde,
os animais são amarelas, os veículos são cor de rosa e violeta e edifícios são
azuis.
Para mais detalhes sobre o experimento,
assista ao vídeo (porém, só encontrei em inglês).

