Como o cérebro humano processa as cenas naturais
No ano de 2008, Michael S. Lewicki, professor adjunto da Computação da Carnegie Mellon, Departamento de Ciência e do Centro de Bases Neurais para Cognição e sua estudante de graduação Yan Karklin criaram um modelo computacional para o processamento visual que mostrava que os neurônios visuais que processam linhas e arestas eram insuficientes para processar cenas completas ou fundos de cenas, e verificaram que era um processamento associativo a um conjunto de cenas, o artigo foi publicado na revista Nature daquele ano, intitulado “Emergence of complex cell properties by learning to generalize in natural scenes” (Emergência de propriedades de células complexas para aprendizagem generalizada em cenas naturais).
A casca de uma árvore, por exemplo, é composta por uma multiplicidade de diferentes padrões de imagens locais, e o modelo computacional pode determinar que todas estas imagens locais que representam casca e são todas parte da mesma árvore, bem como determinar que os padrões que fazem parte de um mesmo arbusto não tem nada a ver com o padrões de um morro no fundo.
Agora um outro trabalho mais profundo feito pelos pesquisadores do MIT, Sharat Chikkerur, Tomaso Poggio e Eugene McDermott, Professores do Departamento de Ciências Cerebrais e Cognitivas, do Departamento de Ciência da Computação e do Laboratório de Inteligência Artificial, juntamente com a estudante Cheston Tan e com o pós-doutorando Thomas Serre implementaram o modelo de software, que está sendo testado de acordo com algumas previsões de dados e modelos, em experimentos com seres humanos.
As pessoas dos experimentos foram solicitadas a simplesmente contarem como uma cena de rua era vista retratada na tela do computador, em seguida, contarem os carros na cena, e depois contarem os pedestres, enquanto um sistema de rastreamento dos olhos registrados os movimentos de seus olhos. O software prevê com grande precisão quais as regiões da imagem as pessoas atentam para realizar cada tarefa, os resultados foram publicados na Vision Research, que pode ser entendido segundo os autores como: “The model that we have tries to explain how this information is integrated.” (O modelo como tentamos explicar que uma informação é integrada) mas que terá o título científico (ainda não publicado): “What and Where: A Bayesian inference theory of visual attention”, cujo rascunho pode ser visto em aulas de Sharat no MIT.
O modelo tem a pretensão de identificar as evidências neurológicas de que no cérebro do primata, ao distinguir um objeto de identificação como decide o que é um objeto, onde e como do objeto são tratados separadamente, ou seja: “Embora o que e onde sejam processados em duas partes distintas do cérebro, (depende de como) eles são integrados durante a percepção para analisar a imagem”, diz Sharat Chikkerur.
Joaquim Felipe
17 17UTC junho 17UTC 2010 at 00:40 12Thu, 17 Jun 2010 00:40:17 +000017.
Muito bom!
Parece que teremos novos paradigmas pela frente.
[]s
Joaquim
Joaquim Felipe
17 17UTC junho 17UTC 2010 at 00:40 12Thu, 17 Jun 2010 00:40:17 +000017.
Muito bom!
Parece que teremos novos paradigmas pela frente.
[]s
Joaquim
Robson Ashtoffen
22 22UTC junho 22UTC 2010 at 12:02 12Tue, 22 Jun 2010 12:02:50 +000050.
Isso demonstra empiricamente que estamos mais próximos de um modelo cognitivo do pensamento. O foco é a unidade, o indivíduo, pois esse é a janela que interpreta o mundo.
Pensar a informação fora desse contexto, primariamente, é seguir para uma concepção fraca de epistemologia da CI.
Robson Ashtoffen
22 22UTC junho 22UTC 2010 at 12:02 12Tue, 22 Jun 2010 12:02:50 +000050.
Isso demonstra empiricamente que estamos mais próximos de um modelo cognitivo do pensamento. O foco é a unidade, o indivíduo, pois esse é a janela que interpreta o mundo.
Pensar a informação fora desse contexto, primariamente, é seguir para uma concepção fraca de epistemologia da CI.