Arquivo para a ‘Linguagem Computacional’ Categoria
O que é clarificação para Charles H. Hinton
O escrito que antecedeu a física quântica, a filosofia hermenêutica e uma nova (ou antiga no sentido de verdadeira) espiritualidade, trazia raciocínios novos e curiosos.
Ao falar de uma dimensão maior do espaço (Higher Space) e maior do Ser (Heigher Being):
Estamos sujeitos a uma limitação de características mais absurdas. vamos abrir nossos olhos e ver os fatos.” (Hinton, 1888), parece simples mas requer treino: “Eu trabalhei no assunto sem o menor sucesso. Tudo era mero formalismo. Mas ao adotar os meios mais simples e por um conhecimento mais completo do espaço, o todo brilhou claramente. ”(Idem)
Já falamos no tópico anterior, mas agora desenvolve o estágio de ser “conscientes de um mais que cada homem individual quando olhamos para os homens. Em alguns, essa consciência atinge um tom extremo e se torna uma apreensão religiosa” (Hinton, 1888), como foi dito no post anterior, “Mas em nenhum é diferente de instintivo. A apreensão é suficientemente definida para ter certeza. Mas isso não é expressável para nós em termos de razão …” (idem)
Parte do aspecto físico, a ideia que “nosso isolamento aparente como corpos um do outro não é de modo algum tão necessário pra assumir como pareceria”, aqui sua relação intuitiva com a física quântica que só tornaria realidade no início do século XX que admite que naquele momento era só uma possibilidade, mas acrescenta mais um ponto: “e viéssemos examinar o assunto de perto, deveríamos encontrar uma relação natural que explicava nossa consciência ser limitada como atualmente é” (Hinton, 1888)
Afirma Hinton: “nosso isolamento aparente como corpos um do outro não é de modo algum tão necessário para assumir como pareceria”, podemos dizer estamos relacionados ao todo, faz um argumento matemático para isto.
Se as formas espaciais só podem ser simbólicas de formas quadridimensionais: e se não lidamos diretamente com as formas espaciais, mas a tratamos apenas por símbolos no plano – como na geometria analítica – estamos tentando obter a percepção do espaço superior através de símbolos de símbolos, e a tarefa é sem esperança” (Hinton, 1888).
Dirá num todo quase místico, mas compatível com o pensamento de Teilhard Chardin por exemplo, “Em vez de uma abstração, o que temos que servir é uma realidade, para a qual até nossas coisas reais são apenas sombras. Somos partes de um grande ser, em cujo serviço e com o amor de quem, as maiores exigências do dever são satisfeitas.” (Hilton, 1888)
Então dará a sentença: “O poder de ver com nosso olho corporal é limitado à seção tridimensional” (Hinton, 188) e será a partir daí que criará sua visão da 4ª. dimensão: o Tesseracto.
HINTON, Charles H. The new era of thought. Lonson: S. Connenschein & Co., 1888. (Chapters 7, 9, 10, and 11)
Julia 1.0: uma nova linguagem de computação
Quando o cenário das lijguagens de computação não parecia mais apresentar novidades, surge um projeto audacioso do MIT que pode mudar esta lógica, trata-se da linguagem Julia, desnecessário dizer que é open source.
Em um evento de Londres em 2018, o JuliaCon os desenvolvedores: o professor Alan Edelman, Jeff Bezanson, Stefan Karpinski e Viral Shah liberaram o Julia 1.0, declaron Edelman na época: “Julia vem revolucionando a computação científica e técnica desde 2009”, trabalharam desde este ano em uma nova linguagem que combinavam Ruby, MatLab, C, Python, R e outras além de ter recursos paralelos, de inteligência artificial e fácil conexão com bancos de dados semiestruturados.
Os comandos são parecidos aos já populares C, C++ e Java, por exemplo, o programa de calculo das raízes da equação do 2º. Grau:
function quadratic2(a::Float64, b::Float64, c::Float64)
sqr_term = sqrt(b^2-4a*c)
r1 = quadratic(a, sqr_term, b)
r2 = quadratic(a, -sqr_term, b)
# pode retornar múltiplos valores sem uso da palavra return
r1, r2
end
A versão lançada no dia 7 de agosto de 2018, e sua versão estável no dia seguinte chamada de Julia 1.0 coloca-a definitivamente no universo das linguagens de programação da atualidade.
O release par oa Julia 1.0 (Julia 1.0.0-rc1) foi lançado em 7 de agosto de 2018 e a versão final um dia depois. A equipe escreveu que o código que é executado sem avisos no Julia 0.7 será executado de forma idêntica no Julia 1.0.
Julia usa JIT (MCJIT [50] do LLVM) que gera código de máquina nativo diretamente, antes de uma função ser executada pela primeira vez, não são bytecodes executados em uma máquina virtual (VM) ou traduzidos como o bytecode em execução, como copor exemplo, Java, a JVM ou Dalvik no Android, é código nativo mesmo.
Julia também é usada para impulsionar carros autônomos e impressoras 3-D, bem como aplicações em medicina de precisão, realidade aumentada, estruturas genômicas, aprendizado de máquina e gerenciamento de risco.
Conforme afirmou o professor Edelman: “O lançamento da Julia 1.0 indica que Julia está pronta para mudar o mundo técnico combinando a produtividade de alto nível e a facilidade de uso do Python e do R com a velocidade veloz do C ++”, mudanças vem ai.
Novas linguagens e mudanças
Em outras épocas guardadas, as devidas proporções, as mudanças que ocorreram em etapas anteriores também causavam impressão forte nas pessoas, mas foram tecnologias disruptivas as que mais influenciaram, as lentes para óculos e telescópios, permitiram a leitura dos primeiros livros impressos, e graças aos telescópicos, a revolução de Copérnico aconteceu.
A mudança de paradigmas que acontece causa espantos, mas é preciso o que se realizará de fato, o que é possível numa realidade mais longínqua e o que poderá acontecer nos próximos anos, já indiquei em alguns post, A física do impossível, de Michio Kaku (2008).
O autor cita no início deste livro, a frase de Einstein: “Se inicialmente uma ideia não parecer absurda, então ela não terá qualquer futuro”, é preciso um pensamento forte e chocante como este para entender que se devemos apostar na inovação, e este é o momento histórico disto, deve entender que grande parte de coisas disruptivas serão inicialmente absurdas.
Falando de coisas mais distantes, no início dos microcomputadores, chegou-se a declarar que eles não teriam utilidade para muitas pessoas, o mouse era desajeitado e “pouco anatômico” quando surgiu, e ainda há muita desconfiança na “inteligência artificial”, não só entre leigos no assunto, entre estudiosos também, outros idealizam um “cérebro eletrônico”, mas nem a Sophia (o primeiro robô a ter cidadania) e o Alexa Amazon tem de fato “inteligência”.
O que é preciso frear, e isto no tempo de Copérnico valia para a visão teocêntrica, hoje há também uma sociopatia anti tecnologia que beira o fundamentalismo, se há injustiças e desigualdades elas devem ser combatidas no plano em que estão, no social e político.
Roland Barthes afirmou que toda recusa de uma linguagem “é uma morte”, com a adoção de tecnologia por milhões de pessoas esta morte se torna um conflito, primeiro entre gerações, e depois entre concepções de desenvolvimento e educação diferentes.
Aos estudiosos faço a recomendação de Heidegger, afirmava sobre o rádio e a televisão que apenas meia dúzia de pessoas entendiam o processo e claro com o poder financeiro podem controlar as editorias destas mídias, mas também pode-se responder no campo religioso.
A leitura do evangelista Marcos Mc 16,17-18 “Os sinais que acompanharão aqueles que crerem serão estes: expulsarão demônios em meu nome, falarão novas línguas; 18se pegarem em serpentes ou beberem algum veneno mortal, não lhes fará mal algum; quando impuserem as mãos sobre os doentes, eles ficarão curados”.
Isto precisa ser atualizado para os novos meios e linguagens modernas, assim como, o avanço da medicina que permitirá curar doenças e dar maior qualidade de vida a muitas pessoas.
KAKU, M. A física do Impossível: uma exploração científica do mundo dos fasers, campos de forças, teletransporte e viagens do tempo. 1ª. Edição. Lisboa: Editorial Bizâncio, 2008.
História do algoritmo
A ideia que podemos resolver problemas propondo um número finito de interações entre diversas tarefas (ou comandos como são chamados em linguagens de computação) para diversos problemas tem origem na Aritmética.
Ainda que a máquina de Charles Babbage (1791-1871), e a Álgebra de Boole (1815-1864) tenham uma enorme contribuição para os modernos computadores, a maioria dos lógicos e historiadores do nascimento do mundo digital, concorda que o problema de fato foi levantado pelo segundo problema de David Hilbert (1962-1943), numa conferência de 1900, em Paris.
Entre 23 problemas para a matemática resolver, alguns resolvidos recentemente como o Conjectura de Goldbach (veja nosso post), e outros a resolver, o segundo problema se propunha a provar que a aritmética é consistente, livre de qualquer contradição interna.
Nos anos de 1930, dois lógicos matemáticos, Kurt Gödel (1906-1975) e Gerhard Gentzen (1909-1945) provaram dois resultados que chamavam de novo atenção ao problema proposto, ambos se referiam a Hilbert, então de fato, ali está a origem da questão, grosso modo, se um problema enumerável é resolvido por um conjunto finito de passos.
Na verdade, a solução de Gentzen era uma prova da consistência dos axiomas de Peano, publicada em 1936, mostrava que a prova de consistência pode ser obtida em um sistema mais fraco do que a teoria de Zermelo-Fraenkel, usava axiomas da aritmética primitiva recursiva, não sendo portanto uma prova geral.
Já a prova da inconsistência da aritmética, chamada de segundo teorema da incompletude de Gödel, é mais completa e mostra que não é possível alguma prova da consistência dos axiomas de Peano ser desenvolvida sem essa própria aritmética.
Esse teorema afirma: se os únicos procedimentos de prova aceitáveis são aqueles que podem ser formalizados dentro da aritmética, então o problema de Hilbert não pode ser resolvido, dito de outra forma mais direta, se ou o sistema é completo ou consistente.
Há polêmicas levantadas sobre estes resultados, como Kreisel (1976) que afirmou que as provas eram sintáticas para problemas semânticos, Detlefsen(1990) que diz que o teorema não proíbe a existência de uma prova de consistência, e Dawson(2006) que afirmou que a prova da consistência é errônea usando a prova dada por Gentzen e do próprio Gödel em trabalho de 1958.
Polêmicas a parte, a participação de Kurt Gödel no importante circulo de Viena na década de 20 antes da guerra explodir, e as posteriores discussões de seus teorema por Alain Turing (1912-1954) e Claude Shannon (1916-2001) atentam sua importância para a história dos algoritmos e dos modernos computadores digitais.
Histórias desconhecidas da computação
Charles Babbage construiu duas máquinas chamadas Analytical Engine e Diferential Engine, estas máquinas, suas sistematizações e pensamentos não teriam chegadas até nós não fosse o trabalho paciente de Ada de Lovelace (1815-1852), filha de Lord Byron que compilou e organizou o trabalho deste pioneiro, tornando-o compreensível aos matemáticos da época.
Mais tarde David Hilbert (1862-1943) listou 23 problemas matemáticos sem soluções, dos quais um deles era organizar um sistema algébrico de modo a resolver a questão da computabilidade de problemas por algoritmos, Kurt Gödel pensando neste problema cria um paradoxo sobre a completude de sistemas, afirmando que não poderá provar tendo a prova por uma asserção dentro do sistema, então problemas de consistência debilitam tais sistemas.
Assim era necessária que a lógica além de ser construída com boas propriedades: tivesse consistência (ausência de contradições), completude (qualquer proposição seria ou verdade ou falsa de forma exclusiva) e o sistemas fossem decidíveis (existência dum método permitindo estabelecer se uma fórmula qualquer determinasse se a formula era verdadeira ou falsa).
Esta última propriedade foi chamada por Hilbert como o “entcheidungsproblem”, ou problema da “decisão”.
Alan Turing e Claude Shannon trabalhando em maquinas de codificação (para mensagens do governo americano) e decodificação (uma máquina chamada Enigma foi capturado do exercito de Hitler), como ambos os projetos eram secretos, se encontram em refeições e intervalos do trabalho, conforme indica o livro de James Gleick e conversam sobre o problema proposto por Hilbert e não solucionado por Gödel, um documento secreto prova esta passagem de Turing, que era inglês, pela Bell Laboratories, onde trabalhou em decifrar o código da máquina Enigma.
Durante o trabalho de Claude Shannon no laboratório de Vannevar Bush, este sugeriu a ele a Álgebra de Boole.
Shannon neste período trabalhou como monitor no MIT no laboratório de Vannevar Bush, que havia proposto uma máquina “de leitura” chamada de MEMEX (apareceu na revista TIME – foto) não era propriamente um computador, mas uma máquina para cruzar informações de livros (a máquina do seu laboratório era para traçar gráficos estatísticos).
Mais tarde usando o modelo do matemático Alonzo Church que finalizou o projeto de Alain Turing , e a chamada Máquina de Turing é na verdade baseada no modelo de Turing/Church.
O modelo de Norbert Wiener eram máquinas de modelos eletrônicos de feedback, embora seja ele que fundou a Cibernética, a ideia era de criar modelos para movimentos e transformá-los em modelos de solução de problemas, eram contemporâneo de Vannevar Bush do MIT.
Correção automática de código
Um sistema baseado em aprendizagem de máquina consegue fazer correção de código de máquina, chamado de “Prophet” tem a capacidade superior em 10 vezes aos sistemas que foram construídos anteriormente para ajudar o desenvolvimento de código para máquinas.
O trabalho foi apresentado pelo grupo que desenvolveu o sistema, no Simpósio “Principles of Programming Languages”, realizado em janeiro deste ano, usa um modelo probabilístico de tratar correção de código, ele usa programas de código aberto para fazer a correção.
Na simulação o “Prophet” recebeu dados sobre correções detectando 777 erros em oito aplicações open source armazenadas no repositório GitHub, o sistema de maior popularidade de código aberto.
O estudando Fan Long, participantes do estudo, já havia desenvolvido um algoritmo para preparação de erros de código, com a uma forma de modificação sistemática de código de um programa, com a dificuldade que este processo era mais demorado.
Agora o sistema de aprendizado de máquina funciona junto com esse algoritmo, mas classifica possíveis problemas de acordo com a probabilidade de estarem corretos antes de submetê-los a testes mais demorados com o algoritmo.
O professor e participante do projeto Martin Rinard, afirmou: “Um dos aspectos mais intrigantes desta pesquisa é a descoberta de que, de fato, existem propriedades universais no código correto que podem ser aprendidas pelo sistema a partir de um conjunto de aplicações e aplicadas em outro conjunto de aplicações”, segundo reportagem do IDGNow.
Também explicou o atual estágio de desenvolvimento do sistema: “Se você é capaz de reconhecer o código correto, isso tem enormes implicações em toda a engenharia de software. Esta é apenas a primeira aplicação do que esperamos que venha a ser uma técnica totalmente nova.”
Games e a tecnofobia
Os games que tem jogos violentos e games que pouco educam são uma realidade, fazem milhões ao redor do mundo, mas também ocupam uma faixa etária e depois os jovens perdem o interesse, mas não a necessidade de interagir.
Uma área nova de estudos neste campo, que estuda também as redes sociais é a chamada fenomenologia da interação, embora haja muitos trabalhos sobre o assunto, um pouco conhecido é a curiosa obra do poeta Goethe: A metamorfose das Plantas, onde o fenômeno orgânico é compreendido como a manifestação do todo com as partes, em que ele explica a relação da unidade e multiplicidade, entre o todo e as partes, a ausência e a presença.
Deveria ser assim, mas não é, especialistas e psicólogos procuram compreender exatamente o que está acontecendo, ficam entre a extrema liberalidade (tipo pode tudo) e a tecnofobia: isto faz mal aos jovens, vai torná-los ignorantes (há um famoso livro que os chama até de imbecis), mas tudo não passa de formas pouco profundas sobre o que os games significam de fato.
As pessoas tem necessidade de interação, que é uma forma específica de comunicação e de relação, é aquela no qual as partes trocam e trocam dentro de um todo, ou seja, de um contexto mais amplo, assim esta é a atração dos games: a possibilidade de interagir.
Se é um fato que existem jogos muito negativos, também há muitos jogos educativos que os adultos pouco se interessam e as vezes nem sabem que existem, existe um site específico para Games Educativos, também a Fundação Lemann preocupada com uma educação de qualidade explora a questão, é há diversos outros sites: Escola Games (que tem o game Coleta Seletiva), SmartKids, Jogos Educativos e diversos outros como o site da Editora Abril para games para as diversas disciplinas escolares.
Mas é mais fácil proibir do que educar, é mais fácil ter preconceito do que se informar porque não tem a menor ideia que um dos processos fundamentais da educação é o diálogo, que nada mais é do que interação.
Algoritmo para pintar criativas
As pinturas podem ser consideradas criativas em função da influencia de correntes de artistas ou de pintores anteriores, para definir pinturas criativas ou que são apenas derivadas de uma determinada corrente, os pesquisadores Ahmed Elgammal e Babak Salek da Universidade de Rutger desenvolveram um algoritmo de visão cibernética que classifica imagens.
Eles usaram conceitos que podem ser chamados classemas (classemes) desenvolvidos em uma lista de 2559 tipos diferentes com um vetor (uma lista de parâmetros) que os classifica, o que está descrito no artigo recente do MIT Technology Review, nos EUA.
O algoritmo consulta um baco de dados de arte que contém imagens e anotações sobre cerca de 62 mil obras de arte e pode ser percebido a aproximação da classifica da história da arte, mas mostrando também como pinturas contemporâneas usam características antigas.
A história das pinturas tem um grande número de exemplos de forma parecidas que tem já traços anteriores de grande influencia naqueles que seguiram, por exemplo, a Madonna de Leonardo da Vinci de 1469 e uma criança com uma romã, de Goya 1780, até mesmo o Cristo crucificado ou Monet de 1865 e assim por diante.
Outras pinturas são mais derivadas, mostrando muitas semelhanças com aquelas que vieram antes e por isso são consideradas como menos criativas.
Linguística Computacional
Na linha evolutiva de agentes inteligentes, que promete ser a próxima grande onda da Web, está a nascente linguística computacional (CL), quem esclarece que campo novo é este, é a professor Shalom Lappin, professor de linguística Computacional no King College of London.
Segundo reportagem do The Guardian, o professor afirma que é possível escrever modelos de software que analise automaticamente certos aspectos de uma língua e com isto criar e desenvolver modelos para trabalhar com as línguas naturais.l
No aspecto de engenharia, CL concentra-se em processamento de linguagem natural, com objetivo de desenvolver sistemas que facilitem a interação humano-computador, e para automatizar uma série de tarefas linguísticas práticas, como a tradução automática, sumarização texto, reconhecimento de fala e de geração de textos, extração e recuperação da informação e análise de sentimento contido em um texto.
Ao examinar o aspecto científico da CL, os pesquisadores buscam modelar línguas naturais como sistemas combinatórios formais, em um esforço para identificar os procedimentos através dos quais os seres humanos podem aprender e para representar esses sistemas.
O King College of London realizou o Festival de Línguas Naturais, para celebrar a diversidade de línguas, onde foram apresentados os desenvolvimento feitos pelo prof. Lappin.
Google enfrenta problemas na Europa
O parlamento Europeu votou a favor de interpelar o Google, como uma solução para acabar as reclamações sobre favorecimentos da empresa em seus serviços de busca, embora não tenha pode sobre as relações comerciais enviou um claro recado aos organismos comerciais.
A decisão final ficará nas mãos da comissária de livre comércio Margrethe Vestager, que já trabalhou em 2010 num caso anticoncorrência dos rivais da Google, em 2010.
Por outro lado, políticos dos EUA e organismos comerciais têm manifestado a sua consternação com a votação, afirmando que o gigante de buscas age legalmente.
Segundo dados da BBC, o Google tem em torno de 90% do mercado de compartilhamento, para dados de pesquisas na Europa, e as rivais pedem para investigar quatro áreas:
– A maneira pela qual o Google mostra seus próprios serviços de buscas verticais em comparação com outros produtos concorrentes.
– Cópias da Google de conteúdos de outros sites, com restaurações para inclui-los em seus próprios serviços.
– Contratos de exclusividade para vender publicidade em torno dos termos de buscas que as pessoas normalmente usam.
– Criar restrições para os anunciantes mudarem campanhas de publicidade online com competição entre os motores de buscas.
Restrições sobre os anunciantes de mover as suas campanhas de publicidade on-line para competir com os motores de busca.
Em caso anterior, Joaquin Almunia (veja nosso post) rejeitou as concessões feitas pelo Google, e sugeriu que a multa poderia ser de US $ 5 bilhões.