Arquivo para a ‘Neurociência’ Categoria
A singularidade e os tecnoprofetas
Antes de Jean-Gabriel Ganascia falar sobre o Mito da Singularidade, a ideia que as máquinas iriam ultrapassar o homem em capacidade humana, já havia sido analisada por Hans Moracev em seu trabalho: Homens e Robots – o futuro das interfaces humanas e robótica, o cuidadoso e ético Ganascia não deixou de citá-lo.
Existem grupos que estudam as questões éticas que isto envolve como o Centro para o estudo do risco existencial na Universidade Cambridge, mas também grupos empenhados neste projeto com a Universidade de Singularidade, com patrocinadores de peso como o Google, a Cisco, a Nokia, a Autodesk e muitos outros, mas também há estudos éticos como o Instituo para a Ética e as Tecnologias Emergentes que Ganascia participa, e o Instituto da Extropia.
Na conta dos tecnoprofetas, a palavra foi cunhada por Ganascia, um gênio preconceito Kurzweil é um dos mais extravagantes, injetava drogas no corpo se preparando para receber a “mente computacional”, porém com previsão para 2024 já falou e agora é para 2045 a 2049, algo que é incrível para alguém que se diz não ter crenças, pois este fato é muito longínquo, se ocorrer.
Ganascia pensa que isto é uma falsa profecia e Moracev analisa as difíceis possibilidades reais.
O instituto Gartner que trabalha com previsões razões prevê computação neuronal ainda engatinhando com previsões para daqui a 20 anos, interfaces como Alexa da Amazon e Sophia da Hanson, são máquinas de interação com humanos que aprendem coisas da linguagem cotidiana, mas estão longe das chamadas máquinas de uma inteligência artificial geral, isto porque o raciocínio humano não é um conjunto de cálculos proposicionais como pensam.
Alguém poderá argumentar mais isto é porque as pessoas são ilógicas, mas isto segundo qual lógica, o que sabemos é que homens não são máquinas e o que perguntamos se máquinas são homens, é a pergunta essencial que inspirou a série Blade Runner, o livro de Philip K. Dick “Andróides sonham com ovelhas elétricas” de 1968, que inspirou Blade Runner.
Penso que sonhos, imaginação e virtualidade são faces da alma humana, robôs não tem alma.
História do algoritmo
A ideia que podemos resolver problemas propondo um número finito de interações entre diversas tarefas (ou comandos como são chamados em linguagens de computação) para diversos problemas tem origem na Aritmética.
Ainda que a máquina de Charles Babbage (1791-1871), e a Álgebra de Boole (1815-1864) tenham uma enorme contribuição para os modernos computadores, a maioria dos lógicos e historiadores do nascimento do mundo digital, concorda que o problema de fato foi levantado pelo segundo problema de David Hilbert (1962-1943), numa conferência de 1900, em Paris.
Entre 23 problemas para a matemática resolver, alguns resolvidos recentemente como o Conjectura de Goldbach (veja nosso post), e outros a resolver, o segundo problema se propunha a provar que a aritmética é consistente, livre de qualquer contradição interna.
Nos anos de 1930, dois lógicos matemáticos, Kurt Gödel (1906-1975) e Gerhard Gentzen (1909-1945) provaram dois resultados que chamavam de novo atenção ao problema proposto, ambos se referiam a Hilbert, então de fato, ali está a origem da questão, grosso modo, se um problema enumerável é resolvido por um conjunto finito de passos.
Na verdade, a solução de Gentzen era uma prova da consistência dos axiomas de Peano, publicada em 1936, mostrava que a prova de consistência pode ser obtida em um sistema mais fraco do que a teoria de Zermelo-Fraenkel, usava axiomas da aritmética primitiva recursiva, não sendo portanto uma prova geral.
Já a prova da inconsistência da aritmética, chamada de segundo teorema da incompletude de Gödel, é mais completa e mostra que não é possível alguma prova da consistência dos axiomas de Peano ser desenvolvida sem essa própria aritmética.
Esse teorema afirma: se os únicos procedimentos de prova aceitáveis são aqueles que podem ser formalizados dentro da aritmética, então o problema de Hilbert não pode ser resolvido, dito de outra forma mais direta, se ou o sistema é completo ou consistente.
Há polêmicas levantadas sobre estes resultados, como Kreisel (1976) que afirmou que as provas eram sintáticas para problemas semânticos, Detlefsen(1990) que diz que o teorema não proíbe a existência de uma prova de consistência, e Dawson(2006) que afirmou que a prova da consistência é errônea usando a prova dada por Gentzen e do próprio Gödel em trabalho de 1958.
Polêmicas a parte, a participação de Kurt Gödel no importante circulo de Viena na década de 20 antes da guerra explodir, e as posteriores discussões de seus teorema por Alain Turing (1912-1954) e Claude Shannon (1916-2001) atentam sua importância para a história dos algoritmos e dos modernos computadores digitais.
A utopia e o confusional
Antes de prosseguir em mostrar a relação entre ser e técnica, deve-se fazer uma digressão para as técnico-profecias catastróficas e os confusionismos, isto é, chama-se de rede nem tudo que é rede, empresta-se a inteligência artificial a humana enquanto é o contrário, e, por último cria-se máquinas pós-humanas sem que se dê uma resposta existencial ao homem.
Brade Runner 2049 não podia fazer sucesso, quem dera, muito melhor que o primeiro ele dá um mergulho no problema existencial humano, enquanto “Andróides sonham com ovelhas elétricas ?” pergunta em seu livro Philip K. Dick, que inspirou os filmes da série, é de 1968 (sic), inclusive foi feita uma edição de capa dura para comemorar os 50 anos recentemente.
Confusional é um termo cunhado por Lucien Sfez, que além de comunicação participou dos projetos Genoma, Biosfera II e Vida Artificial, portanto não é alguém que fala sem compreender direito as possibilidades, os devaneios e os desafios da tecnologia.
Ao mesmo tempo reconhece, entre os devaneios é claro, “A utopia de um registro total; o fazer um ser à nossa imagem, como homem é à de deus, graças à ciência, indiscutível, transparente, luminosa como um gládio sagrado; a crença na onipotência de uma ciência eletrônica; a ilusão da liberdade; e a criação de uma máquina perfeita” (SFEZ, 1996).
Não usaria a palavra utopia, considero-a ela própria um confusional, já que o que Thomas Morus escreveu seria uma sociedade comunitária sem apegos e com uma “saúde social” maior que aquela que sonhou o iluminismo, e que é a própria ciência criadora deste confusional e não Thomas Morus (1478-1535), não era um sonhador foi homem de estado, ocupou vários cargos públicos, inclusive chanceler de Henrique VIII, que justamente foi seu algoz por questão religiosa.
Os limites da técnica estão dentro das possibilidades e desafios, entre estes hoje estão aqueles que possibilitem viagens espaciais não mais em grandes naves, mas em micro-naves que viajariam em worm-holes (foto) quântica e computadores que se utilizem de técnicas de maior volume de processamento, com maior volume de dados comunicados e processados.
No campo das possibilidades vale a pena ler “A física do impossível” de Michio Kaku, entre o campo dos desafios vale a pena ler “O mito da singularidade” de Jean-Gabriel Ganascia, que sintoniza os desafios da Inteligência Artificial e pontua os pontos de pura fantasia.
Não vou recorrer a mais argumentos, é impossível convencer quem no campo das hipóteses não abandona a hipótese do trans-humano ou da máquina mais inteligente que o homem, basta ver os delírios sobre as mídias sociais de hoje; faço uso do argumento de um místico conhecido, talvez poucos conheçam esta frase de São Francisco:
“Comece fazendo o que é necessário, depois o que é possível, e de repente você estará fazendo o impossível”, é certo que fala isto no campo da sua mística, mas quem disse que ela está separada do mundo físico ou ao menos do mundo meta-físico.
SFEZ, Lucien. A saúde perfeita – crítica de uma nova utopia. São Paulo: Loyola, 1996.
Fantasmagóricos e realismos
Sem dúvida, a realidade pode não ser apenas aquilo que nossos sentidos indicam, mas também os sentidos fazem parte de uma boa descoberta da realidade, pode-se usar um óculos, um microcóspico e um potente telescópio para ver a realidade, mas usando o olho.
O que é difícil de se imaginar é como construção de narrativas podem iludir a realidade, podem torná-la diferente daquilo que a simples visão indica, jamais por exemplo, poder-se-ia imaginar que a física quântica daria origem a uma olha visão do chamado “mundo físico”.
Einstein, Podolsky e Rosen; três eminentes físicos na época, escreveram um artigo que se contrapunham a ideia da física quântica, que os quanta ocupavam um espaço entre “pulsos” e que entre eles não havia nada, eles três físicos diziam que era um ação a distância “fantasmagórica” e matematicamente foi demonstrado ser algo impossível, o fenômeno ficou conhecido como EPR (letras iniciais dos autores).
Recentemente, em estudo liderado por Ronald Hanson e publicado na revista Nature em 2015, a Universidade de Tecnologia de Delft, na Holanda, relata ter feito um experimento que, segundo eles, comprova uma das asserções mais fundamentais da teoria quântica –de que objetos separados por uma grande distância podem afetar um ao outro.
As aparições de Jesus, em diversos eventos, após sua partida e ressurreição trazia espanto e até mesmo medo aos seus discípulos, numa passagem pouco conhecida aparece a várias pessoas e diz (Lc 24,38-39): “Por que estais preocupados, e por que tendes dúvidas no coração? Vede minhas mãos e meus pés: sou eu mesmo! Tocai em mim e vede! Um fantasma não tem carne, nem ossos, como estais vendo que eu tenho”,
Infelizmente ainda hoje ele é um fantasma e até uma lenda para muitos, ainda que existam fatos históricos.
Os falsos tecnoprofetas
A ideia que a máquina é má, além de ser uma concepção anti-progresso evidente, procura sem conhecê-las desmentir a primeira lei de Kranzberg: a tecnologia não é boa, nem má nem neutra, mas em geral, desconhece-se as suas outras 5 leis: 2 – a invenção é a mãe da necessidade, 3ª – a tecnologia se desenvolve em “pacotes”, 4ª – as políticas tecnológicas são decididas, prioritariamente, com base em critérios não-técnicos, 5ª. – toda história é importante, mas a História da Tecnologia é a área mais relevante, e, 6ª. – a tecnologia é uma actividade humana, a História da Tecnologia também.
Jean-Gabriel Ganascia, em seu livro “O mito da singularidade: devemos temer a inteligência artificial?“ (Lisboa: Círculo de Leitores, 2018) desmascara a ideia que num futuro previsível, alguns marcam o ano de 2045 a máquinas possam vir a sempre completamente autónomas e substituir a inteligência humana que em ultima instância é o que as programa e governa.
Cita entre vários outros que acreditam nesta profecia, cujo ponto de ultrapassagem é chamado ponto de singularidade, Raymond Kurzweil, que a parte de sua precoce genialidade, com 15 anos escreveu um programa que partituras musicas para piano, prepara seu corpo e sua mente para serem “carregados” (um download cibernético) numa máquina futura.
Outro tecnoprofeta citado por Ganascia é Hans Moravec, que escreveu “Homens e Robots: o futuro da Inteligência Humana e Robótica” (1988) e “Robot: more machines to Transcendent Mind” (1998) que conduziria a uma transformação radical da humanidade.
Um último, que vale citação, Kevin Warwick escreveu I, Cyborg numa clara alusão a Eu, Robot e que tornou-se conhecido do grande público por ter introduzido na pele um chip encapsulado num vidro dentro da própria pele, para comandar uma série de accionadores remotos, mas parece que seu projecto foi um fracasso, afirma Ganasci (pag. 13).
Os filósofos não ficam parados, deixo de lado aqui os críticos das tecnologias digitais atuais, para ir aos tecnoprofetas futuristas, digno de destaque e citado por Ganascia, Nick Bostrom, físico de formação, faz profecias em seus escritos, e particularmente num sucesso de vendas:
Superintelligence: Paths, Dangers, Strategies, prevendo entre outras coisas a trans-humanity.
Entre os catastróficos tecnoprofetas, Ganascia cita Bill Joy, co-fundador da Sun Microsystems, que escreveu um artigo: “Por que o futuro não precisa de nós”, o autor vai de Leibniz a Lyotard para mostrar porque estas teses parecem reais em nosso tempo, mas não nos estudos e resultados da Inteligência artificial.
São de fato tecnoprofecias, mas fora do tempo, o tempo de oráculos e profetas é da cultura da oralidade, que faz sentido no seu tempo ou nos herdeiros desta cultura: tribos e povos ancestrais que ainda tem esta forma de saber.
A natureza e o homem: transubstanciação
Toda crise ocorre tendo um vínculo profundo da relação do homem com a natureza, e em função desta mudança, mudam as relações sociais entre os homens.
Foi assim no início com o plantio e a domesticação dos animais, que tornou possível ao homem nómade tornar-se mais sedentário, mas o tempo actual, o da modernidade, o homem perdeu a capacidade de identificar o que o liga ao animal, ao que é vivo, à natureza, paradoxalmente justamente quando a ciência e “filosofia mais falaram de “dominar a natureza”
Já a crise, no limite actual, +e incapacidade de percepção do que na natureza se diferencia dele, problemas ecológicos, de transgénicos e de bioengenharia.
O homem sendo um pedaço da natureza, e em contrapartida, a natureza produz a hominização, Teilhard Chardin afirmou que o homem é a complexificação da natureza, Edgar Morin (2005) afirma que o homem guia e segue a natureza.
A questão histórica nos leva a refletir sobre o tipo de relação que estabelecemos com a natureza, incluindo a nossa própria natureza, é o que somos como substância do universo, e o enigma eucarístico: porque Deus se fez substância: pão e vinho, nesta data cristã que relembra este último e maior milagre de Jesus.
Podemos ver nesta realidade física (a substância) a paisagem deve ser entendida como realidade física estendida como construção social? A resposta lógica é sim.
Mas num mundo constante transformação, dos costumes sociais, de artefactos e de locais indeterminados, a paisagem entre natureza e sociedade evoluiu; ela tanto já é simultaneamente natureza-objeto como natureza-sujeito, esta dicotomia evolui ?
Talvez estejamos mais pertos de entender o milagre da transubstanciação, Deus se fez artefatos do homem, dois artefatos universais: pão comida e vinho bebida.
MORIN, E. O método II: a vida da vida. Porto Alegre: Sulina, 2005.
Ser do-ente
Quase sempre que simplificamos corremos o risco de estar vulgarizando um conceito complexo como o Ser, na modernidade este conceito está confinado na filosofia e é ser de uso pouco comum no dia a dia, de argumentar e explicar o problema mais profundo de nosso tempo: o ser do-ente, ou um ser projetado para fora de sua existência, ou seu esvaziamento, é, pois diferente da reificação (res – coisa) a pura coisificação.
Grosso modo o Ser não tem forma, em sua origem está o pensamento antigo do filósofo pré-socrático Parmênides o qual confundia a esfera da essência da coisa com a essência una, homogênea e contínua da mesma, significa em resumo para ele: o Ser é e o não-Ser não é, não pode haver terceira opção, e, ao mesmo tempo algo não pode ser A e não-A simultaneamente.
Esta lógica simples parece pura evidência, mas ela se desenvolveu até a modernidade, onde se perguntou porque existe tudo e não o nada, a própria definição de nada, do zero e do infinito, enquanto definições lógica datam do início da modernidade, até mesmo o zero grau absoluto, onde um corpo estaria completamente parado, o zero grau absoluto, é concepção moderna.
Na filosofia é o aparecimento do nihil, do nada mesmo, ao qual parece estar confinada boa parte da humanidade a procura de um sentido para a vida, ou o próprio desprezo por ela.
Simplificando de novo, no pensamento contemporâneo o ente é o que tem forma, enquanto Ser não tem forma, é apenas a sua existência no vazio ou na finitude da vida, pois ente é tudo que existe inclusive em abstrato, por exemplo, o número tem forma (podia até se dizer que é a forma por excelência) enquanto algo que não tem forma pode ser quantificado mas não deveria, a alma (talvez o Ser por excelência, admitindo-se sua existência ao menos enquanto “pensamento”).
São Tomás de Aquino em sua tese sobre o “Ente e a essência”, usava o termo “quididade” para indicar a essência das coisas, dito de forma mais simples, o que a coisa é.
Assim o ser não tem forma, é uma abstração, um pensamento ou como definimos um “noon” um pensamento espiritual, enquanto o ente é a forma, sua visão objetiva, concreta ao gosto atual.
Quando afirmamos objetivo, objetividade, prática (não no sentido mais amplo de experiência fenomênica) estamos falando do ente, de algo que os sentidos percebem, ao gosto do apropriar.
Na filosofia pré-socrática Parménides, confunde-se o ser com a esfera da essência esfera; se por um lado não pode-se dizer que é humano e inumano sobre o ser, pode-se dizer que é líquido, liquefeito ou em estado de liquefação na esfera do ente, não podendo ter dois estados, ainda que oscile entre os dois, pode-se dizer na esfera do ser algo é virtualmente, não sendo ainda o ser enquanto ato, o é em potência, uma semente é uma árvore, mas ainda não é.
Exigimos em nossa contemporaneidade a permanência do ser no ente, por isto dizemos ser-do-ente, enquanto o Ser-do-Ser pode não ser, de modo concreto quando admitimos a presença do Outro, somos nós e não o somos para o Ser-com-outro.
O ser-do-ente, ao mesmo tempo em que separado das coisas quer seja pelo aspecto financeiro ou por estranhamento, está projetado sobre elas como reificação, não sabe como gerenciá-las no uso cotidiano, as críticas ao uso de mídias hoje em dia, o uso de alguns dispositivos, se usados apenas segundo sua finalidade não é um ser-do-ente, mas um ente-do-ser, feito para uso humano, confundi-lo como ser, atribuir-lhe categorias morais, é ser-do-ente.
Novas descobertas do homo sapiens
Em estudo publicado nesta quinta-feira (25/01) pela revista Science, numa caverna africana chamada Misliya, foram encontrados fragmentos faciais com a mandíbula e vários dentes pelos quais se pode fazer a datação com cerca de 200 mil anos, o homo sapiens é mais velho do que nós pensávamos, e então migrou da África para o continente asiático passando pelo Oriente Médio.
Foram encontrados no sítio arqueológico Caverna Misliya (próxima a Israel), localizada no Monte Carmel, os ossos têm entre 177 mil e 194 mil anos.
O coautor do estudo Rolf Quan, afirmou à revista: “é uma descoberta emocionante, ele fornece a clara evidência que nossos ancestrais migraram da África muito antes do que acreditávamos”.
O fóssil que foi chamado de Mislya-1 possui dentes como os humanos modernos, além de mostrar características da espécie humana, e outras evidenciam mostraram que caçavam animais grandes e já usavam o fogo, ferramentas de pedra e lâminas sofisticadas para a época foram encontradas também no local.
Recentemente outros fósseis de cerca de 300 mil anos foram encontrados no Marrocos, e depois em Israel, que já eram luzes sobre esta imigração, e isto reforçou a idéia que traçaram uma rota ao longo do vale do Nilo (a necessidade da água) e não por uma rota através do estreito Bab al-Mandeb, costa da Arábia Saudita, indo depois ao lesta da Ásia e ao subcontinente indiano, afirmou outro coautor Israel Hershkobitz, da Universidade de Tel Aviv.
Os humanos de Misliya eram nômades e migravam pela região no decorrer das estações do ano em busca de alimentos e buscavam cavernas para se abrigarem.
Duas palestras abrem o EBICC
“A base da auto/não distinção na vida e na mente”
Esta será a palestra de Terrence Deacon na abertura do evento Encontro Brasileiro Internacional de Ciências Cognitivas, Deacon é professor da BerKeley US e um antropólogo e biosemiótico sobre o qual já escrevemos alguns posts.
Resumo:
Deacon irá descrever uma organização dinâmica comum que subjazia a sensibilidade vegetativa auto conservadora característica de todos os organismos vivos e mostra como isso é relevante para a neurologia da sensibilidade subjetiva; isto é, a consciência. A dinâmica básica envolve processos auto organizados que se restringem reciprocamente e se preservam mutuamente e, assim, criam uma descontinuidade autossustentável.
Seu argumento que a diferença entre a sensibilidade vegetativa e subjetiva é devido ao modo como a sensibilidade subjetiva é constituída por uma relação entre a sensação vegetativa neurológica de ordem superior e a sensação vegetativa somática da ordem inferior. Uma vez que cada um depende do outro, mas de maneiras hierarquicamente assimétricas, isso cria o que Hoffstadter descreve como um “loop estranho” emaranhando esses dois níveis de sensibilidade. Ele fornecer exemplos dessa organização dinâmica em contextos orgânicos e neurológicos.
“Conhecimento e incerteza na física – Fundamentos e aplicações”
A segunda palestra na abertura do EBICC será proferida por Constantino Tsallis, físico de renome internacional que generalizou os resultados da constante de Boltzmann, importante para os fundamentos da entropia.
Resumo da palestra
Os pilares da física contemporânea são considerados a mecânica estatística newtoniana, relativista e quântica, o electromagnetismo de Maxwell e a mecânica estatística Boltzmann-Gibbs (BG). É dentro desse domínio que surgem as quatro constantes físicas universais, a saber, a constante gravitacional de Newton G, a velocidade da luz c, a constante de Planck h e a constante de Boltzmann k. A teoria das probabilidades e a noção de incerteza entram em todas essas teorias de uma maneira ou de outra. No entanto, nas estatísticas BG e, consequentemente, na termodinâmica, eles desempenham um papel absolutamente crucial através do conceito de entropia. Entropy foi introduzida por Clausius por volta de 1865 e sua conexão com o mundo microscópico (átomos e outros) foi introduzida pela primeira vez por Boltzmann, e mais tarde por Gibbs, na década de 1870. Desde então, tornou-se habitual em física e em outros lugares considerar que a expressão BG é a única entropia fisicamente admissível. No entanto, foi avançado em 1988 (C. Tsallis, Journal of Statistical Physics 52, 479) que não é assim. As motivações históricas, os fundamentos epistemológicos e as aplicações ilustrativas em sistemas complexos naturais, artificiais e sociais, desta teoria serão brevemente apresentados e discutidos
A Biosemiótica e Terence Deacon
Natureza Incompleta: Como a Mente emerge da Matéria é um livro de Terrence Deacon, antropólogo e biosemiótico, que aborda as origens da vida e o filosofia da mente, com novas tentativas de resposta de como a natureza emergiu.
O livro procura explicar conceitos como intencionalidade e normatividade em um propósito diferente ao da fenomenologia, mas considerando-os com um propósito mais funcionalista, chama entenacionais (no sentido ontológico de entes), mas agrupados e por isso “nacionais”.
O livro explora as propriedades da vida, o surgimento da consciência e a relação entre processos evolutivos e semióticos.
O livro especula sobre como propriedades como informação, valor, propósito, significado e comportamento direcionado final surgiram da física e da química.
Os críticos do livro argumentam que Deacon atraiu fortemente as obras de Alicia Juarrero e Evan Thompson sem fornecer citações completas ou referências ao autor, mas uma investigação da UC Berkeley inocentou Deacon que é professor lá.
Em contraste com os argumentos apresentados por Juarrero em Dynamics of Action (1999, MIT Press) e por Thompson in Mind in Life (2007, Belknap Press e Harvard University Press), Deacon rejeita explicitamente as afirmações de que fenômenos vivos ou mentais podem ser explicados por dinâmicas abordagens de sistemas.
Em vez disso, Deacon argumenta que as propriedades da vida ou da mente só emergem de uma relação recíproca de ordem superior entre processos auto-organizados.
Terence Deacon estará em São Paulo, no evento de Ciências Cognitivas EBICC.