Arquivo para a ‘Neurociência’ Categoria
Complexidade, consciência e AI
Já afirmamos que tanto a complexidade como a consciência são fenômenos que pertencem a natureza biológica, e foram emprestados as chamadas ciências “exatas”, mas a AI (Artificial Inteligente) continua tendo avanços, quais seriam então os equívocos de noções equivocadas deste campo ?
A resposta do professor de tecnologia do MIT Rodney Brooks, que trabalha com a robótica para a Panasonic é que há 7 pecados capitais, e ele cita a lei de Amara ao dizer que as pessoas tendem a subestimar tanto o efeito a curto prazo quanto ao de longo prazo da tecnologia ao examinar uma tecnologia inexistente, enquanto um outro fatos é confundir hipóteses onde a AI teria uma igual competência para resolver o problema de uma tecnologia inexistente.
Um terceiro fator apontado por Brooks é que a suposição frequentemente de praticar uma tarefa é frequentemente confundida com uma tarefa realizada por AI igual a competência.
Brooks também diz que as pessoas são propensas a paralelizar o progresso AI na aprendizagem de uma determinada tarefa para o mesmo processo em seres humanos, por isto sempre aparece a ideia de híbridos humano/máquinas.
Brooks afirma também que as pessoas não devem esperar que AI continue a progredir constantemente em um caminho de desempenho exponencial, mas sim em ajustes e reavaliações, e não devemos acreditar em cenários feitos pela mídia com situações inesperadas na AI.
É disto que tratava a ficção científica de Odisseia 2001, onde o computador que tomava decisões diabólicos jamais existiu e assitir o filme hoje mostra a irrealidade daquela ficção, já Blade Runner se atualizou em 2049 e pergunta se máquinas tem almas, a pergunta do escritor que inspirou o filme é se as máquinas sonham com ovelhas elétricas (no romance de Philip K. Dick_, e porque máquinas dormiriam ? e porque máquinas dormiriam ?
Aliás a figura do cachorro do velho caçador de Androides, também chamar Harrison Ford para o papel foi interessante em referência ao romance que inspirou o filme.
O artigo completo de Rooney Brooks publicado na Technology Review da semana passada é bastante interessante e separa 7 falácias sobre a AI.
Robôs autônomos ?
Robôs autônomos é a denominação para aqueles que dentro de limites ambientais, podem realizar os objetivos desejados (por humanos ou por tarefas organizadas em um algoritmo) nestes ambientes desestruturados sem a ajuda humana, por isto o são em certos níveis.
Por exemplo, dentro de uma fábrica onde tarefas mecânicas são realizadas, para evitar acidentes o seu espaço geográfico é limitado e deve detectar algum defeito que possa cumprir determinada tarefa fora do previsto, já um robô espacial deve ter menos limites e ser o mais autonomo possível, por estar sem a possibilidade de uma ação humana direta e ter dificiuldades de comunicação devido a distância.
O projeto chamado SWARM, financiado pela União Européia e que já fizemos um post, agora tem o primeiro sistema multi-robôs de autono montagem que tem coordenação sensório-motor observando robôs parecidos ao seu redor, eles vão variar de forma e tamanho conforme sua tarefa e/ou ambiente de trabalho.
Um ssitema “cerebral” central coordena todos eles, através de um sistema chamado MNS (Sistema Nervoso Combinal, em português), e assim são reconfigurados absorvendo diferentes capacidades mas combinadas por um único controlador central.
Eles também podem se dividir e realizar tarefas de auto reparo, eliminando partes do corpo com defeito, incluindo uma unidade cerebral com algum defeito, claro que pode-se definir que estes defeitos e auto reparos possuem limitações conforme a complexidade.
Em robos autônomos, o aprendizado refere-se a aprender e ganhar novas capacidades sem assistência externa e ajustar estratégias de acordo com o ambiente, o que pode fazer com que sua autonomia aumente, mas pelo que se pode ler do artigo ainda não é o caso.
O modelo atual tem 10 unidades, e os autores apontam no paper publicado na Nature Communications, afirmam que o projeto é escalável, tanto em termos de recursos computacionais para controle robótico quanto tempo de reação para estímulo, dentro do sistema.
Olhando para o futuro, a equipe sugere que os robôs provavelmente serão projetados para adaptação aos requisitos de tarefa em mudança e não mais somente para tarefas específicas.
Como andam as pesquisas sobre cyber-cérebros ?
Há muita pesquisa mapeando os cérebros, e investigando aspectos de como funcionam determinadas funções tais como: a função motora, a visão, e de modo muito especial o da Neurociência Cognitiva estuda a capacidade cognitiva (conhecimento) de uma pessoa, como o raciocínio, a memória e o aprendizado.
Um estudo recente feito pelas universidades de Exeter e Oxford do Reino Unido, em conjunto com a Universidade de Münster na Alemanha, desenvolveu microchips fotônicos que imitiram as sinapses do cérebro humano usando a luz e não mais a eletricidade, como em outros chips.
Os chips são fabricados usando o fenômeno de frequência, mas a partir da mudança de fase combinando nos circuitos fotônicos integrados, projetados para isto, com sinapses podem operar em 1.000 vezes a velocidade das humanas, o que não quer dizer que façam o mesmo.
Os pesquisadores afirmam que é um passo fundamental em máquinas capazes de funcionar e na forma de pensar de forma semelhante ao cérebro uma vez que a fotônica é rápida e de baixo consumo de energia.
David Wright, afirmou para o site da Universidade de Exeter, que o projeto aborda duas questões importantes na computação eletrônisca, tanto a rapidez como a eficiência e os problemas da capacidade nos processamentos paralelos, os mais rápidos de agora: “não só pelo desenvolvimento … novas arquiteturas de computadores tipo cérebro, mas também trabalhando no domínio óptico para aproveitar as enormes vantagens de velocidade e potência da próxima revolução fotônica de silício “.
O trabalho On-chip photonic synapse foi publicado no final de setembro, foi publicado pela revista Science Advances, tendo como autores: Zengguang Cheng, Carlos Rios, Wolfram Pernice, C. David Wright and Harish Bhaskaran.
Dualismo e farisaísmo
Dualismo é uma concepção filosófica e cosmológica de mundo, fundamentada em dois princípios ou duas substâncias irremediavelmente opostas, e incapazes de uma síntese.
Quando pensamos de modo dual, é quase inevitável que estes dois mundos se dividam interiormente, então nossa concepção cosmológica e visão de mundo será dual.
Thomas Hyde escreveu uma obra (Thomas Hyde. Veterum Persarum et Parthorum et Medorum Religionis Historia-1700) sobre a doutrina de Zoroastro, com dois princípios e duas divindades, enquanto Leibniz e Spinoza eram monistas, mas usaram isto também no sentido filosófico, uma vez que a teoria religiosa presente em ambos merece longa discussão.
É curioso que o maniqueísmo e o farisaísmo tenham permanecido nas cosmogonias cristãs ocidentais, uma ve que Santo Agostinho converte-se abandonando esta doutrina, mas uma questão filosófica talvez explique isto é o esquecimento ontológica e a questão do ser, mas também o pragmatismo lógico e científico, o empirismo e outras contribuições estão aí.
John Searle afirmou: “A maior catástrofe de Descartes é seu dualismo, a ideia de que a realidade se divide em dois tipos de substâncias, matéria e espírito. Descartes foi incapaz de ver isso, porque ele achava que a consciência só poderia existir em uma alma, e a alma não era uma parte do mundo físico “, ( Brain, Mind, and Consciousness: A Conversation with Philosopher John Searle), e poristo questões sobre a mente e o cérebro são questão atuais.
O dualismo na filosofia tem seu início consistente (há pré-socráticos duais) com Platão, (século IV a.C.) parte da concepção de que no começo de tudo havia as ideias numa divindade incorpórea e eterna e ela que tinha uma forma ideal “cai” na e forma o universo.
Parte da cosmogonia cristã incorpora este “protótipo” e se liga ao fundamentalismo com a alegoria da “expulsão de Adão e Eva do paraíso”, os fariseus eram uma parte do judaísmo que aspiravam um rigor e uma pureza absoluta, especialmente em matéria de liturgia, mas há o outro aspecto que é o político e diríamos filosófico de unir-se ao poder de modos ambíguos.
O que observa-se na prática cotidiana, como é próprio do dualismo é esconder atrás de palavras e discursos, as vezes até mesmo apelando para a “prática”, com atitudes dúbias.
O que faz o mundo contemporâneo desconfiar destas doutrinas é exatamente o dualismo.
Andróides e cyborgs: onde ?
A ficção Blade Runner nos levou a pensar, assim como na época Odisséia 2001 também, sim estamos indo ao espaço e conhecendo-o melhor, as máquinas crescem em complexidade, mas devemos fazer a pergunta de Terrence Deacon em Natureza incompleta: a mente veio da matéria ? (veja nosso post).
O polêmico Raymond Kurzweil em 2005: The Singularity Is Near: When Humans Transcend Biology é um livro lançado por uma atualização de The Age of Spiritual Machines e The Age of Intelligent Machines, mas a pergunta de fundo é esta de onde viemos? Se viemos apenas de compostos químicos que por milhões de anos foram formando organismos complexos, até chegar a complexidade humana, um ser natural, que tem consciência e que criou coisas fantásticas, entre elas a máquina, onde chegaremos ?
A pergunta que antecede a todos estas que são o nosso “existir” é aquela sobre o que é nosso ser, é transcendente no sentido sobre o que havia antes do homem, viemos só do barro como querem os criacionistas, viemos da mente de Deus como querem os religiosos, ou é possível ainda uma síntese entre as duas: um espírito foi “soprado” em nós.
Na verdade, o que pensamos sobre o futuro, tem a ver com o que pensamos de nossa origem e por isto esta questão é importante, então podemos dizer que o “ser” antecede a “existência” e podemos dizer que o “ser existente” antecede a “ética”, ou de modo mais filosófico “ser” e “ética” se conjugam ontologicamente, pois ambos determinam um ser, e ele tem consciência.
Então será possível “soprar” em androides e cyborgs por mais sofisticados que sejam seus mecanismos de tomada de decisão, assunto que remete aos axiomas da aritmética de Hilbert, ao teorema da incompletude e indecidibilidade de Kurt Gödel, até chegamos a elaborar lógicas complexas destes mecanismos em agentes inteligentes e “inteligência artificial”, mas seria de fato isto inteligência, ao nosso ver, por enquanto andróides e cyborgs só nas ficções.
Androides tem partes robóticas e parte impressionantes super-humanas (visão, força, precisão, etc.), enquanto cyborgs tem partes humanas e partes robôs, mas híbridos que tivessem partes humanas e super-humanas dependeriam da biogenética e de avanços de neurociência ainda mais impressionantes que já existem.
Poderemos criar androides, como no filme Blade Runner 2049, mas qual a capacidade que teriam de sentimentos e consciência ?
Blade Runner 2049 será melhor
Um filme clássico de ficção sem dúvida é Blade Runner, não considero o melhor e nem o primeiro, pois é preciso lembrar-se de Perdidos no Espaço (1965 a 1968) se pensamos em série de TV e o clássico de Stanley Kubrick 2001: Uma odisseia no espaço de 1968, dito por alguns: “o mais incrível, belo e mentalmente estimulante filme de ficção científica de todos os tempos”.
Para aqueles que conheceram o enredo do filme que está para ser lançado, há algumas coisas novas e estranhas.
Mas Blade Runner trouxe os replicantes, seres híbridos cuja verdadeira identidade robótica é escondida, e somente pelo olho (mais precisamente pela íris poderia ser identificado) e em plena guerra com os humanos, por isto dizem, é o pai de muitas ficções científicas modernas na linha robótica.
Em um cenário cavernoso de Budapeste, numa manhã de outono em 2016, e Harrison Ford – vestindo uma camisa cinza com botões, calça jeans escura e uma careta resistente a Ford – está atirando um encontro crucial em Blade Runner 2049, agora dirigido por Denis Villeneuve..
Pela primeira vez em mais de três décadas, Ford está retomando seu papel como Rick Deckard, o policial de dedos rápidos e de bebidas fortes do filme em 1982, do primeiro Blade Runner de Ridley Scott.
Por que K (Ryan Gosling no policial caçador de androides) não usa apenas a porta da frente não é exatamente claro, pois o enredo do Blade Runner 2049 é protegido com o tipo de intensidade geralmente reservada para Star Wars. (Mesmo negociando para entrar no set exigiu mais e depois de um teste de Voight-Kampff).
Ana de Armas afirmou que sua personagem é “forte e complexa”, ela “é a amante do agente K, sua melhor amiga, e a única pessoa em quem pode confiar”.
Depois de 30 anos de Blade Runner há alguns detalhes confirmados: o público deixou Deckard machucado e maltratado em 2019 Los Angeles, ele desapareceu, e o oficial LAPD de Gosling está à caça (possivelmente sob o comando de seu chefe, interpretado por Robin Wright, embora ninguém envolvido com o filme diga com certeza).
Enquanto isso há uma nova geração de replicantes – o termo da série para os androides que são construídos por um misterioso inventor chamado Wallace (Jared Leto), que é ajudado por um empregado dedicado, Luv (Sylvia Hoeks).
Isso é praticamente tudo o que a equipe de 2049 está dizendo, não importa o quão educadamente eu pergunte. “Eu nem tenho certeza de ter permissão para dizer que eu tive um bom tempo fazendo isso”, brinca o ator Gosling.
O lançamento está previsto para 5 de outubro de 2017 (Brasil).
A mente emergiu da matéria ?
Esta pergunta está no trabalho de Terrence W. Deacon filósofo, antropólogo e cientista cognitivo de Berkeley, em Incomplete Nature: how mind emerge from matter (2013), onde Deacon considera a informação um fenômeno cuja existência é determinada respectivamente por uma ausência essencial, algo como um não realizado que pode ou não vir a ser o realizado. Se no século 19 o grande paradigma foi admitir a existência da energia e sua relação com a matéria, agora modificada por Constantino Tsallis (veja nosso post), o século 20 trás para nós suas dificuldades em assimilar a irrealidade existencial da informação.
Uma explicação completa sobre a real natureza da informação é tal que seria necessário distinguir a informação de relações meramente materiais ou energéticas que também requerem uma alteração de paradigma, então uma alternância forma/fundo que nós chamamos neste blog de in-forma-ação, seria ainda mais fundamentalmente uma visão contra-intuitiva que a exigida pela energia.(DEACON, 2013, p. 373)
Deacon usa para seu argumento, diversos exemplos vindos da biologia e da matemática para justificar sua ideia, em essência emergentes de um nada, na verdade não é nova na filosofia e na ciência, menos ainda na lógica e na matemática, mas ao contrário de Descartes onde a primeira certeza é o Eu, na matemática moderna a primeira certeza é o 0, o conjunto vazio e agora com o digital, o 0 e 1, que emerge uma metamatemática como quer Gregory Chaitin, que já abordamos em outro post.
O modelo de números cardinais do matemático Von Neumann define todos os números literalmente a partir do zero: existe o conjunto vazio. O conjunto do conjunto vazio tem um elemento: o próprio conjunto vazio, Alain Turing e Claude Shannon idealizaram a máquina, mas foi Von Neumann que a construiu, se pensamos que o Mark I e a máquina de Konrad Zuze, não eram mais que calculadoras eletromecânicas.
Um matemático ligado à teoria dos Conjuntos, Ernst Zermelo, embora faça um raciocínio distinto, também parte do zero para chegar a todos os cardinais.
A informação faz parte do homem moderna, não só na cidade, mas agora na chamada Sociedade da Informação, que nós mesmo vamos produzi-la a partir de situações onde identificamos que algo está faltando.
Essa aparenta ser a melhor postura para abordar a natureza da informação. Ela é sempre um quê que falta. Como se a todo instante a realidade estivesse se perguntando: e agora o que falta?, e providenciando o que pode.
Essa ideia é mesmo conhecida para nós. Ser previdente, eficiente, organizado, é sempre ter uma atitude preventiva e pró-ativa em relação a situações possíveis. É um antecipar-se. É detectar o que falta e providenciar. Segundo Deacon, essa lógica perpassa toda a realidade. Além da abundante infosfera em que nos situamos, a informação emergente é uma demanda constante, seja através de seres vivos ou não.
Deacon reivindica a ideia do matemático e teórico da comunicação Claude Shannon, que associou entropia máxima à informação mínima e vice-versa, trazendo a informação para a origem da dicotomia ordem/desordem, tão cara às teorias de sistemas complexos, à matemática do caos e à termodinâmica irreversível das estruturas dissipativas de Ilya Prigogini, Prêmio Nobel de Química de 1977, de onde emergem as ideias de Caos e Complexidade.
Terrence Deacon, Constatino Tsallis e Gregory Chaitin estarão no EBICC, evento da USP no fim deste mês.
DEACON, T. W. Incomplete Nature: the mind emerged from matter. 2013.
Uma constante e um possível Nobel da Física
Constantino Tsallis (1943- ), do Santa Fé Institute é um grego que está no Brasil, e é candidato ao Nobel da Fisica deste ano, ele também tem nacionalidade brasileira e argentina, como ele gosta de dizer: “ele e a torcida do Flamengo torcem para este Novel da Física”.
Ele retrabalhou a constante de Boltzmann a ponto de torna-la mais genérica, mais aplicável e a ponto de mudar o nome dela (ou criar uma constante mais geral) chamada de Tsallis.
A constante de Boltzmann (k ou kB) é a constante física que relaciona temperatura e energia de moléculas, os kMols como aprendemos (ou não) nas aulas de Física.
O nome deve-se ao físico austríaco Ludwig Boltzmann (1844-1906), que fez as mais importantes contribuições para a mecânica estatística (sendo até considerado seu fundador), na qual a sua constante tem um papel fundamental. O seu valor experimental, em unidades SI, determinado em 2002, é:
k = 1,3806503. 10^-23 J/K
A forma mais simples de chegar à constante de Boltzmann é dividir a constante dos gases perfeitos pela constante de Avogadro.
Mas a contribuição não para aí, o mais importante conceito que vem da física é o da entropia, e juntamente com Maxwell (embora nunca tenham trabalhado junto), constituíram o que é chamado de distribuição de Maxwell-Boltzmann para visualizar a distribuição da velocidade das partículas em temperaturas diferentes.
Constantino Tsallis, um físico grego-americano que atualmente trabalha no Brasil, ao revisar a constante de Boltzmann, segundo ele próprio apenas pela beleza das equações,
Formulada em 1988 por Constantino Tsallis como uma base para generalizar a mecânica estatística padrão, pode-se dizer quase a refundando, é uma generalização da Entropia de Boltzmann–Gibbs, já que a Particúla de Gibbs foi recentemente confirmada experimentalmente e é também um resultado fundamental para a Física Padrão.
A relevância física da teoria de Tsallis já é amplamente debatida no cenário da literatura física mundial, mas foi só na década passada, que pesquisadores mostraram que a matemática de Tsallis descreve mais precisamente os comportamentos em lei de potência em uma larga gama de fenômenos, desde a turbulência de fluidos até os fragmentos criados nas colisões de partículas de altas energias.
Constantino Tsallis é candidato ao Nobel da Física e estará no evento EBICC da USP-SP.
O problema da consciência e algoritmos
O matemático e cientista da computação Gregory Chaitin, que é argentino-americano e está na Universidade Federal do Rio de Janeiro, formulou ainda jovem a partir da complexidade de Kolmogorov, contribuições na formulação de uma teoria da informação algorítmica e meta-matemática, que foi desenvolvida a partir da formulação do teorema da incompletude de Gödel, já citado aqui nos posts anteriores e sua relação com a Máquina de Turing e Alonzo Church, que deu origem a computação digital moderna.
Chaitin definiu uma constante que leva seu nome e usa o símbolo Ω, um número real cujos dígitos são equidistribuídos, e que é por vezes informalmente descrito como uma expressão da probabilidade de que um programa aleatório será interrompido.
A constante Ω tem a propriedade matemática de ser decidível, mas não computável podemos dizer separa o problema de Hilbert-Gödel do problema de Turing/Church, mas mais do que isto, dá uma chave para resolver problemas no campo da biologia (a obtenção de uma definição formal de “vida”, origem e evolução) e neurociência (o problema da consciência e do estudo da mente).
Em epistemologia, Chaitin propôs que tanto na lógica matemática quanto na teoria dos algoritmos, os “fatos matemáticos que são verdadeiras por qualquer razão, eles são verdadeiros por acidente. Eles são fatos matemáticos aleatórios”. Chaitin propõe que os matemáticos devem abandonar qualquer esperança de provar esses fatos matemáticos e adotar uma metodologia semi-empírica.
Neste sentido cria uma metafísica da matemática, ou uma metamatemática, capaz de elaborar algoritmos que proponham uma lógica da vida e até mesmo da consciência, a partir daí são possíveis os estudos da biologia e da mente por formulações desta metamatemática.
Gregory Chaitin estará na USP no evento EBICC, no início de novembro deste ano abordando o tema da consciência a partir de sua perspectiva.
Os hologramas chegaram
Embora sejam recentes e ainda há muita tecnologia para que se tornem realidades “aumentadas” em nosso cotidiano, os hologramas chegaram pelo caminho que é o mais rápido de ser antecipado, o mundo da arte.
Em muitos ambientes recentes são necessários headseats para mesclar o holograma com o mundo real, e criar o que ficou conhecido como realidade aumentada, em outros usam-se espelhos ou projeções 2D para enganar nosso cérebro e ver as figuras em pleno ar, mas agora o salto para o futuro foi audacioso.
Segundo o artista Joanie Lemercier, imaginou a técnica pensamento nos filmes Minority Report e a saga Star Wars, para dar vida ao “no-logram”, a visão que tem da realidade aumentada, e fazer com que os visitantes de suas “instalações” curtam o conteúdo em sua própria perspectiva sem depender de equipamentos específicos, e por enquanto, são projeções geométricas e formas produzidas em sensoriamento (por exemplo, de um corpo humano ou de uma peça artística), formas geométricas e com movimentações dinâmicas para entreter o público,.
Mas ele utiliza tecnologias de monitoramento “tradicionais”, como análise de imagens e sensores de profundidade para fazer formas sejam projetadas adequadamente.
Enquanto o cenário da indústria segue em sofisticação, este cenário mais simples parece ser mais efetivo uma vez que recorre a tecnologias existentes, e ao criar formas praticamente humanas (veja uma das projeções feitas por Lemercier), parece mais efetivo.
O próprio artista já prevê que num futuro bem próximo, ele pensa em usar gás comprimido e névoas com partículas finas de água para exibir projeções num ambiente ecologicamente inofensivo, e que estarão simulando impressões volumétricas em ambientes imersivos.