Arquivo para agosto, 2017
Oréstia: a tragédia desconhecida
Oréstia foi encenada pela primeira vez em 458 a.C., e foi vencedora do primeiro prêmio nas festas dionisíacas de Atenas, embora tenha sido escrita por Ésquilo, e vencedora do primeiro prêmio nas festas dionisíacas de Atenas, ela é desconhecida e pouco apreciada hoje.
Tragédia está associada em nossos dias, e não por acaso, a dores, catástrofes, algo onde há muitas vítimas, ou ainda o desenrolar de alguma ação violenta como um assassinato, uma guerra ou um grave acidente natural, para os gregos era outra coisa.
Tragikós definia uma forma artística inovadora, ou algo que somente ocorria entre os grandes eventos que mudavam a história. Na visão de Aristóteles, um dos primeiros a estudar o impacto dos espetáculos teatrais, a tragédia seria “uma representação imitadora de uma ação séria, concreta, de certa grandeza, representada, mas não narrada, era provocadora da Katarsis, a catarse, que é a purgação das emoções dos espectadores.
Oréstia, de Ésquilo é porisso uma grande representante desta modalidade de teatro, a peça pode ser dividida em três partes: na primeira Agamênon mostra a volta desse personagem da guerra de Tróia, onde foi bem sucedido em matar a própria filha, Ifigênia, em sacrifício aos deus, mas isto não é bem recebido pela mãe Clitemnestra que quer vingar a morte da filha com ajuda do amante Egisto.
Na segunda parte Coéforas, narra a volta de Orestes, filho de Agamênon, orientado pelo deus Apolo, para vingar a morte do pai, ele é ajudado por sua irmã, Electra, que era mantida como serviçal no sótão do castelo pela sua mãe, Clitemnestra, e, na terceira parte, Eumênides, traz a ira de Clitemnestra, já morta, materializada nas Fúrias, que são vistas somente por Orestes e responsáveis pela sua loucura. Narra também o julgamento do crime de Orestes: o assassinato da própria mãe, que será analisado pela deusa Atena.
Embora daí tenha surgido o complexo de Electra, que não é propriamente o amor dos filhos pela mãe, mas o desejo do matricídio, observado em sociedades machistas, o problema na verdade é de justiça e de política representado pela deusa Atena, proclama um tribunal para julgar o homicídio cometido por Orestes, e ficará instituído para sempre, mas a pergunta que resta é porque deuses precisam de sacrifícios ?
Tentamos responder no próximo post.
Sociedade do Cansaço
O livro do coreano-alemão Byung-Chul Han “A Sociedade do Cansaço” analisa de modo mais profundo e menos individualista a questão mais profunda do ponto de vista ontológico do homem do final da modernidade: “Doenças neuronais como a depressão, transtorno de déficit de atenção com síndrome de hiperatividade (Tdah), transtorno de personalidade limítrofe (TPL) ou Síndrome de Burnout (SB) determinam a paisagem patológica do começo do século XXI” (HAN, 2017, p. 7).
A questão individual, do herói romântico de Dom Quixote que luta contra moinhos de vento, ou do determinismo histórico da questão da consciência em Dilthey, na verdade são traços do idealismo romântico, contornam o problema e tentam resolve-lo do ponto de vista apenas psicológico, sem considerar o social que é mais amplo.
A análise de Chul-Han vai neste sentido, dizer que “o objeto de defesa imunológica é a estranheza como tal” (pag. 8), usando um conceito de Sloterdijk esclarece que o século passado foi uma época na qual se estabeleceu uma “divisão nítida entre o dentro e fora … a Guerra Fria seguia o esquema imunológico”.
Assim “mesmo que o estranho não tenha nenhuma intenção hostil, mesmo que ele não represente nenhum perigo, é eliminado em virtude de sua alteridade.” (pags. 8 e 9)
Explicará na página 10 que a “alteridade é a categoria fundamental da imunologia”, entra em cena a diferença que “não provoca nenhuma reação imunológica”, “o estranho cede lugar ao exótico”, o “tourist viaja para visitá-lo”.
O conceito é devido ao século XX onde a ideia de combater bactérias levou algumas pessoas ao extremo de considerar até mesmo os microrganismos necessários a vida, como aqueles que também devem ser combatidos e não raramente encontrarmos alguém com este Toque.
Recupera o conceito de Immunitas de Roberto Esposito, considerando-a uma falsa hipótese, considerando o excesso de informação, esclarecendo aquilo que é comum ao combate de uma nova epidemia (pela imunologia): “a resistência contra o pedido de extradição de um chefe de Estado estrangeiro, acusado de violação dos direitos humanos, o reforço contra a imigração ilegal e as estratégias para neutralizar o ataque dos vírus de computador mais recentes?” (pagina 11), o autor dirá que nada as separa.
Dirá que “o paradigma imunológico não se coaduna com o processo de globalização … também a hibridização, que domina que domina não apenas o discurso teorético-cultural mas também o sentimento que se tem hoje em dia da vida, é diametralmente contrária precisamente à imunização.” (idem).
“A dialética da negatividade é o traço fundamental da imunidade.” (idem) e quantos discursos este traço nos lembra, aparentemente dentro de um “engagment” é na verdade vazio, pois é ausente de verdadeiras alternativas, é puramente imunológico por acusa o Outro.
Cita na página 15 Baudrillard que fala da “obesidade de todos sistemas atuais”, em época de superabundâncias, “o problema volta-se mais para a rejeição e expulsão” (idem).
Dá um diagnóstico certeiro, vale tanto para “sistemas disciplinares” (os pseudo-éticos) como para a lógica da produção: “o que causa a depressão do esgotamento não é o imperativo de obedecer apenas a si mesmo, mas a pressão de desempenho.” (pag. 27)
HAN, Byung-Chul. A sociedade do cansaço, trad. Enio Paulo Giachini, 2ª. ed. Ampliada, RJ: Petrópolis, Vozes, 2917.
Quais são os melhores planos para nuvens
Já passamos por disquetes, CDs, pendrives e agora são os armazenamentos em nuvens, há serviços bons, médios, mas os excelentes ainda estão por vir.
Detalhe importante verifique se ao comprar um tablete ou notebook se ele já não tem um serviço de nuvem disponível, na maioria das vezes teme o usuário nem sabe usar, é o que vem escrito como 25 GB de storage, pode ser mais ou menos, mas que significa armazenamento por toda vida, mais seguro que qualquer outro serviço.
Se colocar na ponta do lápis, os serviços gratuitos, vai encontrar 5 bons: Dropbox, OneDrive, Box, Google Drive e iCloud, mas ainda tem os serviços ADrive, Amazon, CloudDrive e SpiderOak que são bons, mesmo tendo serviço gratuitos terá que por um pouco a mão no bolso.
O Box é um dos serviços mais confiáveis do mundo, sendo uma opção bem equilibrada em termos de espaço e segurança, mas assim como alguns concorrentes, a desvantagem é a incompatibilidade com o sistema Linux.
Um dos mais famosos serviços de armazenamento em nuvem é também um dos mais robustos, Dropbox tem pouco espaço para armazenamento no plano gratuito.
O produto da Google, o Google Drive tem um espaço de armazenamento considerável, sincroniza fotos automaticamente, tem funções rápida, já vem instalado em quase todos os Androids e Chromebooks, sendo uma opção fácil para quem já usa outros serviços da companhia.
Estes outros planos, como o ADrive chegou a ganhar destaque nos últimos anos quando oferecia alto espaço de armazenamento sem custo ganhou mercado, mas depois ele só permitiu planos por assinatura.
Uma constante e um possível Nobel da Física
Constantino Tsallis (1943- ), do Santa Fé Institute é um grego que está no Brasil, e é candidato ao Nobel da Fisica deste ano, ele também tem nacionalidade brasileira e argentina, como ele gosta de dizer: “ele e a torcida do Flamengo torcem para este Novel da Física”.
Ele retrabalhou a constante de Boltzmann a ponto de torna-la mais genérica, mais aplicável e a ponto de mudar o nome dela (ou criar uma constante mais geral) chamada de Tsallis.
A constante de Boltzmann (k ou kB) é a constante física que relaciona temperatura e energia de moléculas, os kMols como aprendemos (ou não) nas aulas de Física.
O nome deve-se ao físico austríaco Ludwig Boltzmann (1844-1906), que fez as mais importantes contribuições para a mecânica estatística (sendo até considerado seu fundador), na qual a sua constante tem um papel fundamental. O seu valor experimental, em unidades SI, determinado em 2002, é:
k = 1,3806503. 10^-23 J/K
A forma mais simples de chegar à constante de Boltzmann é dividir a constante dos gases perfeitos pela constante de Avogadro.
Mas a contribuição não para aí, o mais importante conceito que vem da física é o da entropia, e juntamente com Maxwell (embora nunca tenham trabalhado junto), constituíram o que é chamado de distribuição de Maxwell-Boltzmann para visualizar a distribuição da velocidade das partículas em temperaturas diferentes.
Constantino Tsallis, um físico grego-americano que atualmente trabalha no Brasil, ao revisar a constante de Boltzmann, segundo ele próprio apenas pela beleza das equações,
Formulada em 1988 por Constantino Tsallis como uma base para generalizar a mecânica estatística padrão, pode-se dizer quase a refundando, é uma generalização da Entropia de Boltzmann–Gibbs, já que a Particúla de Gibbs foi recentemente confirmada experimentalmente e é também um resultado fundamental para a Física Padrão.
A relevância física da teoria de Tsallis já é amplamente debatida no cenário da literatura física mundial, mas foi só na década passada, que pesquisadores mostraram que a matemática de Tsallis descreve mais precisamente os comportamentos em lei de potência em uma larga gama de fenômenos, desde a turbulência de fluidos até os fragmentos criados nas colisões de partículas de altas energias.
Constantino Tsallis é candidato ao Nobel da Física e estará no evento EBICC da USP-SP.
A consciência e qual a origem da Vida
Já pontuamos aqui, em posts anteriores, o problema da consciência histórica, na leitura romântica de Dilthey cujo “seu ideal é decodificar o Livro da História” (Gadamer, 2006, p. 11), e a questão da consciência apontada pelo próprio Gadamer como o “problema de introduzir o problema hermenêutico a partir da perspectiva de Husserl e Heidegger” (idem, p. 10), e que na verdade o autor aborda sua Lebensphilosophie (idem), a filosofia da vida.
O problema da consciência agora visto como uma metamatemática , ou ainda como um problema da complexidade, não é apenas um problema de uma constante, de uma sequência previsível, que pode explicar muita coisa, mas não um Alfa e Omega, princípio e fim, diríamos quase simultâneos.
Sejam quais forem as cosmogonias e escatologias pensadas por seres humanos, todas terão algo em comum, temos consciência de um princípio e fim, e assim podemos dizer que temos consciência de que a consciência “escatológica” existe.
A pergunta na cultura cristã que deveria ecoar sobre a consciência, e indiretamente da nossa existência já que ela é vida, Jesus faz uma pergunta certeira aos seus seguidores, no evangelho de Marcos: “Quem dizem os homens que eu sou?” Eles responderam: “João Batista; outros, Elias; outros, ainda, um dos profetas”. “E vós”, perguntou ele, “quem dizeis que eu sou?” perguntando sobre qual o tipo de verdade eles se deparavam ao caminhar com Ele e ver os fatos e ideias que divulgava.
O fato que não temos resposta definitiva para a questão da consciência, já atentava Gadamer é um problema da Lebensphilosophie, isto é, do que pensamos sobre a vida, e em ultima instância sobre a vida dos Outros, não são os Mesmos, isto é, o Ego.
O que deve ecoar em nossos corações é que não podemos dizer o que somos, ou quem somos e tomar consciência de nossa própria consciência se não pensamos o nosso Ser como parte de uma humanidade diversa, onde o Outro é parte do Ser.
As equações e complexidades que definem a vida, não podem anular a vida que se escoa numa escatologia terrena que se dirige a uma eternidade divina, seja na Teoria do Big Bang (um início do tempo) ou na Teoria das Cordas (na ilustração, um abismo no tempo), a explicação física (algo existe) ou ontológica(o Ser existe), temos sempre consciência da necessidade da consciência, e ela deveria nos guiar.
GADAMER, H.G. O problema da consciência histórica, 3ª. Edição. Rio de Janeiro: FGV, 2006
O problema da consciência e algoritmos
O matemático e cientista da computação Gregory Chaitin, que é argentino-americano e está na Universidade Federal do Rio de Janeiro, formulou ainda jovem a partir da complexidade de Kolmogorov, contribuições na formulação de uma teoria da informação algorítmica e meta-matemática, que foi desenvolvida a partir da formulação do teorema da incompletude de Gödel, já citado aqui nos posts anteriores e sua relação com a Máquina de Turing e Alonzo Church, que deu origem a computação digital moderna.
Chaitin definiu uma constante que leva seu nome e usa o símbolo Ω, um número real cujos dígitos são equidistribuídos, e que é por vezes informalmente descrito como uma expressão da probabilidade de que um programa aleatório será interrompido.
A constante Ω tem a propriedade matemática de ser decidível, mas não computável podemos dizer separa o problema de Hilbert-Gödel do problema de Turing/Church, mas mais do que isto, dá uma chave para resolver problemas no campo da biologia (a obtenção de uma definição formal de “vida”, origem e evolução) e neurociência (o problema da consciência e do estudo da mente).
Em epistemologia, Chaitin propôs que tanto na lógica matemática quanto na teoria dos algoritmos, os “fatos matemáticos que são verdadeiras por qualquer razão, eles são verdadeiros por acidente. Eles são fatos matemáticos aleatórios”. Chaitin propõe que os matemáticos devem abandonar qualquer esperança de provar esses fatos matemáticos e adotar uma metodologia semi-empírica.
Neste sentido cria uma metafísica da matemática, ou uma metamatemática, capaz de elaborar algoritmos que proponham uma lógica da vida e até mesmo da consciência, a partir daí são possíveis os estudos da biologia e da mente por formulações desta metamatemática.
Gregory Chaitin estará na USP no evento EBICC, no início de novembro deste ano abordando o tema da consciência a partir de sua perspectiva.
Sistemas Autônomos e Inteligentes
A autonomia ligada a área de Inteligência Artificial (AI) foi mudando de conotação ao longo do tempo, e hoje podemos dizer que está ligada a ideia genérica de interação com informações e ambientes sociais, o que é claro é um pouco vago demais
Então criar relações entre o campo de desenvolvimento de Agentes Inteligentes e Autonomia, assuntos que tem uma formalização bastante consistente em Agentes Inteligentes é uma boa ideia, e torna o conceito menos abstrato.
De acordo com Nicholas Jenning (2000) “a computação baseada em agentes representa uma nova síntese excitante, tanto para Inteligência Artificial (IA) quanto, em geral, na Ciência da Computação. Possui o potencial de melhorar significativamente a teoria e a prática de modelagem, concepção e implementação de sistemas informáticos. No entanto, até esta (aquela) data, houve uma pequena análise sistemática do que torna a abordagem baseada em agente um modelo computacional tão atraente e poderoso. Além disso, ainda menos esforço foi dedicado a discutir as desvantagens inerentes decorrentes da adoção de uma visão orientada por agente. Aqui, ambos os conjuntos de questões são explorados.”
Um ponto bastante importante, e pouco explorado ainda, mas citado por Jenning é a questão da interação social, afirma o autor: “”O ponto de vista desta análise é o papel do software baseado em agente na resolução de problemas complexos do mundo real. Em particular, argumentar-se-á que o desenvolvimento de sistemas de software robustos e escaláveis requer agentes autônomos que possam completar seus objetivos, situados em um ambiente dinâmico e incerto, que possam se envolver em interações sociais ricas e de alto nível e que possam operar dentro de Estruturas organizacionais flexíveis”.
Um campo que não é bem explorado é se os robôs e sistemas inteligentes que têm uma interação social efetiva podem ser “conscientes” dessa interação, no sentido fenomenológico, que diz que só há consciência de “algo” que sua atividade direcionada a certos objetos.
Esta será nossa próxima questão.
Jenning, Nicholas. On agent-based software engineering . Artificial Intelligence 117, Science Direct (Elsevier licence), 2000.
O teorema de Gödel e a computação
A prova que Kurt Gödel formalizou para a teoria dos números deveria ser seguida por um documento que demonstrasse que o mesmo método de aplicasse a grandes sistemas axiomáticos formais em outros contextos, a abordagem moderna feita pela Máquina de Turing (é importante dizer que foi feita quase simultaneamente por Emil Post), que é uma prova mais geral e que toca o problema proposto por David Hilbert originalmente, que foi abordado por Gödel.
A prova agora escrita em linguagem de sistemas, de Gödel aplicava-se a formalização particular da teoria dos números e procurou demonstrar que servia a sistemas axiomáticos formais, mas um conceito que não poderia ser determinado pelo documento original de Gödel, devido à falta de definição matemática de um procedimento efetivo de um algoritmo computacional, ou aquilo que Turing chamou de Máquina de Estado Finito.
Depois que Alan Turing conseguiu determinar o procedimento efetivo, inventando um computador idealmente idealizado, agora chamado de máquina de Turing (também feito de forma independente por Emil Post), tornou-se possível avançar de forma mais geral.
O requisito fundamental de Hilbert para um sistema matemático formal era que havia um critério objetivo para decidir se uma prova estava escrita na linguagem do sistema. Em outras palavras, existe uma prova mais moderna seja ela a máquina de Turing, seja um algoritmo, ou um programa de computador, feito para verificação de provas.
Assim a definição moderna e compacta do sistema axiomático formal como um conjunto de asserções recursivelmente enumerável é uma conseqüência imediata de um programa que trabalhe com um grande conjunto de teorema, que pela quantidade de axiomas, se tratados humanamente, levariam uma quantidade astronomica de tempo, algumas proposta foram feitas mais cedo em LISP (Levin, 1974) e mais recentemente por Gregory Chaitin (1982) ao propor que a Teoria da Informação de Algoritmos se propõe a trabalhar sobre objetos individuais em vez de conjuntos e distribuições de probabilidades propostos por Claude Shannon e Norbert Wiener. Assim a questão correta seria (Chaitin, 1982) quantos bits são necessários para calcular um objeto individual ?
A teoria da informação algorítmica se concentra em objetos individuais, em vez de nos conjuntos e distribuições de probabilidade considerados na teoria da informação de Claude Shannon e Norbert Wiener. Quantos bits é necessário para definir como calcular um objeto individual? Estes problemas levaram a teoria da Computabilidade.
A chamada teoria da computabilidade, também chamada de teoria da recursão, é um ramo da lógica matemática que foi originado na década de 30 com o estudo das funções computáveis e dos graus de Turing, foram estudadas por Kolmogorov, Chaitin, Levin, Martin-Löf e Solomonoff, ainda há inúmeros trabalhos sobre a questão.
A questão da completude, ou a classe NP-completo, é o subconjunto dos problemas NP da complexidade computacional, verifica de que modo que todo problema em NP pode reduzir, com uma redução de tempo polinomial, a um dos problemas NP-completo, verificando se o problema é computável, na prática, se o algoritmo existe.
Histórias desconhecidas da computação
Charles Babbage construiu duas máquinas chamadas Analytical Engine e Diferential Engine, estas máquinas, suas sistematizações e pensamentos não teriam chegadas até nós não fosse o trabalho paciente de Ada de Lovelace (1815-1852), filha de Lord Byron que compilou e organizou o trabalho deste pioneiro, tornando-o compreensível aos matemáticos da época.
Mais tarde David Hilbert (1862-1943) listou 23 problemas matemáticos sem soluções, dos quais um deles era organizar um sistema algébrico de modo a resolver a questão da computabilidade de problemas por algoritmos, Kurt Gödel pensando neste problema cria um paradoxo sobre a completude de sistemas, afirmando que não poderá provar tendo a prova por uma asserção dentro do sistema, então problemas de consistência debilitam tais sistemas.
Assim era necessária que a lógica além de ser construída com boas propriedades: tivesse consistência (ausência de contradições), completude (qualquer proposição seria ou verdade ou falsa de forma exclusiva) e o sistemas fossem decidíveis (existência dum método permitindo estabelecer se uma fórmula qualquer determinasse se a formula era verdadeira ou falsa).
Esta última propriedade foi chamada por Hilbert como o “entcheidungsproblem”, ou problema da “decisão”.
Alan Turing e Claude Shannon trabalhando em maquinas de codificação (para mensagens do governo americano) e decodificação (uma máquina chamada Enigma foi capturado do exercito de Hitler), como ambos os projetos eram secretos, se encontram em refeições e intervalos do trabalho, conforme indica o livro de James Gleick e conversam sobre o problema proposto por Hilbert e não solucionado por Gödel, um documento secreto prova esta passagem de Turing, que era inglês, pela Bell Laboratories, onde trabalhou em decifrar o código da máquina Enigma.
Durante o trabalho de Claude Shannon no laboratório de Vannevar Bush, este sugeriu a ele a Álgebra de Boole.
Shannon neste período trabalhou como monitor no MIT no laboratório de Vannevar Bush, que havia proposto uma máquina “de leitura” chamada de MEMEX (apareceu na revista TIME – foto) não era propriamente um computador, mas uma máquina para cruzar informações de livros (a máquina do seu laboratório era para traçar gráficos estatísticos).
Mais tarde usando o modelo do matemático Alonzo Church que finalizou o projeto de Alain Turing , e a chamada Máquina de Turing é na verdade baseada no modelo de Turing/Church.
O modelo de Norbert Wiener eram máquinas de modelos eletrônicos de feedback, embora seja ele que fundou a Cibernética, a ideia era de criar modelos para movimentos e transformá-los em modelos de solução de problemas, eram contemporâneo de Vannevar Bush do MIT.
A questão da mulher e um enigma
A questão feminina, sobre violência e o papel da mulher na sociedade é tão antiga quanto a história da humanidade, a tragédia grega Édipo Rei é icônica a ponto de influenciar os estudos da psicanálise moderna.
Mas há um enigma escondido nos escritos cristão, quando se lê na passagem bíblica de Lucas, sobre a visita de Maria a Isabel, que esta lhe pergunta: “Como posso merecer que a mãe do meu Senhor me venha visitar?” (Lucas 1, 43), hora a prima Isabel ainda não sabia que Maria estava grávida, e ao fazer a pergunta refere-se a ela como “Mãe do meu Senhor”.
Qual o enigma ? é muito simples, se Deus é criador, como pode a criatura criar o Criador, poderia numa interpretação simplista dizer, oras é mãe de Jesus e Jesus foi só homem, mas sendo ele Deus, se o admitimos, então temos um enigma, e outro ainda maior que a Trindade é uma, e ainda a leitura diz que Isabel ao dizê-lo estava “cheia do Espírito Santo”.
Mãe de Deus, em grego Theo-tokus, em português Teotoco, foram estudada por Orígenes (254), Atanásio (33) e João Crisóstomo (440), em 431 o Concílio de Trento decretou esta doutrina, e, portanto está na origem de “todo cristianismo” e não só em parte dele.
Bom e quanto aos não cristãos, retornemos a tragédia de Édipo Rei, não dissemos, mas fica nas entrelinhas a questão do poder masculino e o feminino, a questão do machismo ela está lá afinal Jocasta é a vilã, e tanto o Marido quanto o filho-marido Edipo de certa forma a culpam. Jocasta como responsável pela tragédia, ainda que ela tentasse dissuadir o marido de matar o filho, e o filho de se matar.
Até mesmo a Esfinge, que é uma misto de mulher alada e leoa, aterrorizava Tebas, vai indagar Édipo “qual é o ser que dípous, tripous e tetrapous ? , e que no fundo indaga sobre a vida humana, engatinha quando criança, caminha sobre dois pé na juventude e precisa de bengala na velhice.
Aceitar a figura de Maria Teotocos, é também aceita igualdade de gênero, o fim de uma estrutura de poder que atingiu a família durante milênios, o fim do machismo, é um passo cultural, espiritual e de certa forma místico para um novo tempo.