Arquivo para maio, 2018
Ambientes de agentes e um exemplo
O exemplo que Norvig e Russel (2010) vão dar para descrever o que é um ambiente na Inteligência Artificial é feliz e infeliz ao mesmo tempo, feliz porque tornou-se algo real 8 anos após a edição do livro, um táxi como veículo autónomo, e infeliz porque já há casos de acidentes com veículos autónomos.
O que chama de ambiente é descrito como PEAS (Performance, Ambiente, Atuadores e sensores, traduzidos ao português) (figura ao lado), cuja primeira etapa é projetar o ambiente da tarefa.
O agente será diferente de um software (um softbot ou webcrawler), mas é didático.
O ambiente sugerido era de um táxi autônomo, o que na época era um “pouco além das capacidades da tecnologia existente”, mas na página 28 vai descrever um robô com esta função, o lado fortuito do exemplo como dizem os autores é uma tarefa “completamente aberta” e “não há limite para as novas combinações de circunstância que podem surgir” (Norvig, Russel, 2010, p. 40)
Que medidas de desempenho serão desejadas: chegar ao destino correto, minimizar o tempo de destino correto, o consumo de combustível e desgaste, as violações de tráfego, distúrbios e segurança aos passageiros e outros condutores, e se houver conflitos tomar decisões (eis um dos motivos do acidente para proteger os passageiros causou um atropelamento de uma transeunte).
O passo seguinte é mapear um ambiente de um carro autónomo, deverá lidar com uma variedade de estradas, desde pistas rurais e vielas urbanas a rodovias de 3, 4 e até 5 pistas, havendo nas pistas além de outros veículos, pedestres, animais vadios, obras na estrada, carros da polícia, poças, e buracos, e deve interagir com passageiros em potencial e reais.
Os atuadores para um táxi automatizado incluem aqueles disponíveis para um motorista humano: controle sobre o motor através do acelerador e controle sobre direção e frenagem.
algumas escolhas opcionais de comunicação com outros veículos com setas e até buzina, e com os passageiros que necessitarão de sintetizadores de voz.
Os sensores básicos do táxi incluirão uma ou mais câmeras de vídeo controláveis para que possam ver a estrada; pode aumentá-las com sensores de infravermelho ou
sonar para detectar distâncias para outros carros e obstáculos.
Os problemas de segurança e convívio com motoristas humanos é evidente, mas graças a este exemplo de sucesso feito em 2010, hoje tem-se mapas, GPS, sinalizadores em estradas, e muitos outros avanços.
NORVIG, P.; RUSSEL, P. Artificial Intelligence: A Modern Approach 3nd ed., Upper Saddle River, New Jersey: Prentice Hall, 2010.
AI e artefactos
O livro de Norvig e Russel (2010) traz logo no início uma tabela sobre o pensar humanamente e racionalmente, e agir humanamente e racionalmente, a tabela completa para a Inteligência artificial é incompleta, mesmo se considerando a literatura na área em questões como autonomia e consciência.
Analisemos primeiro as quatro principais citações que estão no quadro da figura 1.1. do livro exemplificada ao lado, sobre a Inteligência Artificial.
Pensando Humanamente
“O novo e empolgante esforço para fazer os computadores pensarem. . . máquinas com mentes, no sentido completo e literal. ”(Haugeland, 1985)
“A automação de atividades que associamos ao pensamento humano, atividades como tomada de decisões, resolução de problemas, aprendizado. . . ”(Bellman, 1978)
Pensando Racionalmente
“O estudo das faculdades mentais através do uso de modelos computacionais” (Charniak e McDermott, 1985)
“O estudo das computações que tornam possível perceber, raciocinar e agir.” (Winston, 1992)
Agindo Humanamente
“A arte de criar máquinas que executam funções que exigem inteligência quando executadas por pessoas.” (Kurzweil, 1990)
“O estudo de como fazer computadores faz coisas em que, no momento, as pessoas são melhores.” (Rich e Knight, 1991)
Atuando Racionalmente
“Inteligência Computacional é o estudo do design de agentes inteligentes.” (Poole et al., 1998)
“AI. . . está preocupado com o comportamento inteligente em artefatos. ”(Nilsson, 1998)
Entendi por este quadro que estou atuando racionalmente, e que as definições e Poole e Nilsson servem para meus estudos, mas falta alguma coisa, o que é consciência e autonomia, e neste sentido que o quadro é incompleto.
Mas a questão da consciência é um fato, se pensamos que uma pessoa pode ter consciência, mas um artefacto não, argumento de Thomas Nagel, podemos no sentido inverso de pensar em IA “fraca” e IA “forte” definições dados por John Searle, para diferenciar se as máquinas estão pensando racional e humanamente (IA forte) ou apenas pensando e atuando racionalmente (IA fraca).
Isto levou a um outro campo que é hoje chamado de IA geral e IA profunda.
NORVIG, P.; RUSSEL, P. Artificial Intelligence: A Modern Approach 3nd ed., Upper Saddle River, New Jersey: Prentice Hall, 2010.
Como pensamos que é o pensar
Desde a Algebra de 0 e 1 de Boole, passando pelos primeiros computadores de Charles Babbage, chegando aos pensamentos de Vannevar Bush e Norbert Wiener do MIT dos anos 40, chegamos passando por Alan Turing e Claude Shannon, a pergunta final: a máquina um dia pensará.
O que vemos entre o apelo de investimentos da Robô Sophia ao mercado de “assistentes pessoais” é uma longa história do que de fato significa pensar, mas a pergunta agora devido aos tecnoprofetas (nome dado aos alarmistas por Jean-Gabriel Ganascia) é inevitável.
Vannevar Bush tinha uma máquina de processar dados no seu laboratório do MIT, onde foi trabalhar um estagiário chamado Claude Shannon, diz James Gleick que foi ele que sugeriu ao seu aluno que estudasse a Algebra de Boole.
Vannevar Bush no seu texto histórico As We May Think, embora não diga como iriamos pensar, fala das possibilidades futuras de novos avanços: “considere um dispositivo futuro … em que um indivíduo armazene todos os seus livros, registros e comunicações, e que seja mecanizado para que possa ser consultado com excessiva velocidade e flexibilidade. É um suplemento íntimo ampliado de sua memória” (Bush, livre tradução nossa do texto de 1945).
Cria a ideia embrionária de um computador que relaciona textos, como se faz em pesquisas desde o início da impressão de Gutenberg, mas sua máquina Memex (figura acima) já era pensada como uma capacidade alargada de registros e comunicações, mesmo que o telefone fosse ainda nascente nos anos finais da II Guerra mundial e as comunicações dependiam de potentes antenas.
O certo é que no final seu texto pouco ou quase nada diz sobre de fato o que é o pensamento e tal como acontece ainda hoje em Inteligência Artificial, o que temos feito é ampliar mais e mais a capacidade de memória e comunicação, assim como de cruzar grandes quantidades de dados, agora com técnicas chamadas de Big Data.
Outra tendência contemporânea é perguntar pela autonomia das máquinas, os experimentos realizados, mesmo com os chamados “veículos autónomos” são a base de algoritmos e eles dependem na tomada de decisão de como o ser humano vai fazer em determinada circunstância, em casos críticos, como decidir entre duas tragédias, a opção pode ser fatal.
Mas pensar ainda é com humanos, e por enquanto são eles que escrevem algoritmos e treinam as máquinas.
Uma pausa para Cannes
Cannes está pouco charmosa dizem por aqui na Europa, mas eu discordo olhando alguns filmes que estão por lá, diria que uns 5 me chamaram a atenção, mas pelo menos 9 poderiam ser olhados de perto, sobretudo por brasileiros, enumero apenas os 5 que li e 4 que soube.
Do cineasta Asghar Farhadi (palma de ouro em O passado de 2013, O apartamento de 2016 e o Oscar de melhor filme estrangeiro em 2017), o seu nome filme Todos lo saben, ambientado em Argentina e Espanha tem atores latinos conhecidos no Brasil, como Penépope Cruz, Jarvier Bardem e Ricardo Darin.
O segundo que penso valer a pena é Francis: A man of his word, do diretor Wim Wenders (de filmes como Asas do Desejo, Cidade dos Anjos e Paris Texas) e o principal ator nada menos que o Papa Francisco, lembro ainda que fez um documentário também sobre Sebastião Salgado.
O terceiro, para entusiastas de Star Wars e também pelo principal ator que participou dos dois filmes de Blade Runner, Harrisson Ford que fez o papel de Han Solo na série original, mas agora feito por Alden Ehrenreich, ainda bem jovem quando o piloto da Millennium Falcon conhece o amigo Chewbacca e Calrissian (Donald Glover), bem antes de aderir à Rebelião.
Segundo dizem os informativos de filmes, este estava emperrado desde 2015, mas aparece agora em Cannes, do brasileiro Cacá Diegues O grande circo místico, que conta a história de cinco gerações de uma família circense, com Juliano Cazarré, Bruna Linzmeyer, Antônio Fagundes, Jesuíta Barbosa e o francês Vincent Cassel, aparentemente promete, vale conferir.
O quinto e último que faço um comentário, é de volta a questão racial traz de volta Spike Lee, que conta uma historia real em Blackkklansman, um policial negro Ron Stallworth (John David Washington), que se infiltra na Ku Klux Klan e chega a liderar um grupo local.
Filmes que tenho poucas informações, mas a crítica está comentando são: Under the Silver Lake (de David Robert Mitchell, Corrente do Mal), Fahrenheit 451 (Ramin Bahrani), The House that Jack Built (do controvertido Lars von Trier) e The Man who killed Don Quixote (Terry Gilliam) que traz uma repaginação do romance histórico Dom Quixote.
Amanhã retorno com temas de Inteligência Artificial.
Novas linguagens e mudanças
Em outras épocas guardadas, as devidas proporções, as mudanças que ocorreram em etapas anteriores também causavam impressão forte nas pessoas, mas foram tecnologias disruptivas as que mais influenciaram, as lentes para óculos e telescópios, permitiram a leitura dos primeiros livros impressos, e graças aos telescópicos, a revolução de Copérnico aconteceu.
A mudança de paradigmas que acontece causa espantos, mas é preciso o que se realizará de fato, o que é possível numa realidade mais longínqua e o que poderá acontecer nos próximos anos, já indiquei em alguns post, A física do impossível, de Michio Kaku (2008).
O autor cita no início deste livro, a frase de Einstein: “Se inicialmente uma ideia não parecer absurda, então ela não terá qualquer futuro”, é preciso um pensamento forte e chocante como este para entender que se devemos apostar na inovação, e este é o momento histórico disto, deve entender que grande parte de coisas disruptivas serão inicialmente absurdas.
Falando de coisas mais distantes, no início dos microcomputadores, chegou-se a declarar que eles não teriam utilidade para muitas pessoas, o mouse era desajeitado e “pouco anatômico” quando surgiu, e ainda há muita desconfiança na “inteligência artificial”, não só entre leigos no assunto, entre estudiosos também, outros idealizam um “cérebro eletrônico”, mas nem a Sophia (o primeiro robô a ter cidadania) e o Alexa Amazon tem de fato “inteligência”.
O que é preciso frear, e isto no tempo de Copérnico valia para a visão teocêntrica, hoje há também uma sociopatia anti tecnologia que beira o fundamentalismo, se há injustiças e desigualdades elas devem ser combatidas no plano em que estão, no social e político.
Roland Barthes afirmou que toda recusa de uma linguagem “é uma morte”, com a adoção de tecnologia por milhões de pessoas esta morte se torna um conflito, primeiro entre gerações, e depois entre concepções de desenvolvimento e educação diferentes.
Aos estudiosos faço a recomendação de Heidegger, afirmava sobre o rádio e a televisão que apenas meia dúzia de pessoas entendiam o processo e claro com o poder financeiro podem controlar as editorias destas mídias, mas também pode-se responder no campo religioso.
A leitura do evangelista Marcos Mc 16,17-18 “Os sinais que acompanharão aqueles que crerem serão estes: expulsarão demônios em meu nome, falarão novas línguas; 18se pegarem em serpentes ou beberem algum veneno mortal, não lhes fará mal algum; quando impuserem as mãos sobre os doentes, eles ficarão curados”.
Isto precisa ser atualizado para os novos meios e linguagens modernas, assim como, o avanço da medicina que permitirá curar doenças e dar maior qualidade de vida a muitas pessoas.
KAKU, M. A física do Impossível: uma exploração científica do mundo dos fasers, campos de forças, teletransporte e viagens do tempo. 1ª. Edição. Lisboa: Editorial Bizâncio, 2008.
Tendências da Inteligência artificial
No final dos anos 80 as promessas e desafios da Inteligência artificial pareciam desmoronar a frase de Hans Moracev: “é fácil fazer os computado- res exibirem desempenho de nível adulto em testes de inteligência ou jogar damas, e é difícil ou impossível dar a eles as habilidades de um garoto de um ano quando se trata de percepção e mobilidade”, em seu livro de 1988 “Mind Children”.
Também um dos maiores precursores da IA (Inteligência Artificial) Marvin Minsky e co-fundador do Laboratório de Inteligência Artificial, declarava no final dos anos 90: “A história da IA é engraçada, pois os primeiros feitos reais eram belas coisas, máquina que fazia demonstrações em lógica e saía-se bem no curso de cálculo. Mas, depois, a tentar fazer máquinas capazes de responder perguntas sobre históricas simples, máquina … 1º. ano do cicio básico. Hoje não há nenhuma máquina que consiga isto.” (KAKU, 2001, p. 131)
Minsky junto com outro precursor de IA: Seymor Papert, chegou a vislumbrar uma teoria d’A Sociedade da Mente, que buscava explicar como o que chamamos de inteligência poderia ser um produto da interação de partes não-inteligentes, mas o caminho da IA seria outro, ambos faleceram no ano de 2016 vendo a virada da IA, sem ver a “sociedade da mente” emergir.
Graças a uma demanda da nascente Web cujos dados careciam de “significado”, os trabalhos de IA vão se unir aos esforços dos projetistas da Web para desenvolver a chamada Web Semântica.
Já havia dispositivos os softbots, ou simplesmente bots, robôs de software que navegavam pelos dados brutos procurando “capturar alguma informação”, na prática eram scripts escritos para Web ou para a Internet, que poderiam agora ter uma função mais nobre do que roubar dados.
Renasceu assim a ideia de agentes inteligentes, vinda de fragmentos de código, ela passa a ter na Web uma função diferente, a de rastrear dados semiestruturados, armazená-los em bancos de dados diferenciados, que não são mais SQL (Structured Query Language), mas procurar questões dentro das perguntas e respostas que são feitas na Web, então estes bancos são chamados de No-SQL, e eles servirão de base também para o Big-Data.
O desafio emergente agora é construir taxonomias e ontologias com estas informações dispersas na Web, semi-estruturadas, que nem sempre estão respondendo a um questionário bem formulado ou a raciocínios lógicos dentro de uma construção formal clara.
Neste contexto emergiu o linked data, a ideia de ligar dados dos recursos na Web, investigando-os dentro das URI (Uniform Resource Identifier) que são os registros e localização de dados na Web.
O cenário perturbador no final dos anos 90 teve uma virada semântica nos anos 2000.
KAKU, M. A física do Impossível: uma exploração científica do mundo dos fasers, campos de forças, teletransporte e viagens do tempo. 1ª. Edição. Lisboa: Editorial Bizâncio, 2008.
A singularidade e os tecnoprofetas
Antes de Jean-Gabriel Ganascia falar sobre o Mito da Singularidade, a ideia que as máquinas iriam ultrapassar o homem em capacidade humana, já havia sido analisada por Hans Moracev em seu trabalho: Homens e Robots – o futuro das interfaces humanas e robótica, o cuidadoso e ético Ganascia não deixou de citá-lo.
Existem grupos que estudam as questões éticas que isto envolve como o Centro para o estudo do risco existencial na Universidade Cambridge, mas também grupos empenhados neste projeto com a Universidade de Singularidade, com patrocinadores de peso como o Google, a Cisco, a Nokia, a Autodesk e muitos outros, mas também há estudos éticos como o Instituo para a Ética e as Tecnologias Emergentes que Ganascia participa, e o Instituto da Extropia.
Na conta dos tecnoprofetas, a palavra foi cunhada por Ganascia, um gênio preconceito Kurzweil é um dos mais extravagantes, injetava drogas no corpo se preparando para receber a “mente computacional”, porém com previsão para 2024 já falou e agora é para 2045 a 2049, algo que é incrível para alguém que se diz não ter crenças, pois este fato é muito longínquo, se ocorrer.
Ganascia pensa que isto é uma falsa profecia e Moracev analisa as difíceis possibilidades reais.
O instituto Gartner que trabalha com previsões razões prevê computação neuronal ainda engatinhando com previsões para daqui a 20 anos, interfaces como Alexa da Amazon e Sophia da Hanson, são máquinas de interação com humanos que aprendem coisas da linguagem cotidiana, mas estão longe das chamadas máquinas de uma inteligência artificial geral, isto porque o raciocínio humano não é um conjunto de cálculos proposicionais como pensam.
Alguém poderá argumentar mais isto é porque as pessoas são ilógicas, mas isto segundo qual lógica, o que sabemos é que homens não são máquinas e o que perguntamos se máquinas são homens, é a pergunta essencial que inspirou a série Blade Runner, o livro de Philip K. Dick “Andróides sonham com ovelhas elétricas” de 1968, que inspirou Blade Runner.
Penso que sonhos, imaginação e virtualidade são faces da alma humana, robôs não tem alma.
Um mundo criado em laboratório
A história de Claude Shannon, que trabalhava num laboratório do MIT de Vannevar Bush e Alain Turing se cruza em meio a II Guerra Mundial, quando trabalhando em projetos secretos, que eram dois lados da mesma moeda, sem saber um do projeto do outro, a ideia de passar a linguagem para um código humano, o System X que trabalhou Shannon, e, o de Turing que era decifrar o código da Máquina Enigma captura do exército alemão.
Não podendo conversar sobre os seus projetos, falando em almoços e encontros do Teorema da Incompletude de Gödel, e a ideia de criar uma máquina que poderia codificar o pensamento humano, dizia em tom de piada, “podia ser um cérebro mundano como o do presidente da Bell Laboratories”, local de desenvolvimento dos projetos secretos das máquinas de codificação (System X) e decodificação da máquina alemã apelidada de Enigma.
Ela começou como um Laboratório em Washington da AT & T (Telefonia americana), e depois tornou-se um laboratório independente, local do desenvolvimento de inúmeros projetos (foto acima).
Os maiores obstáculos às iniciativas de inovação nascem dos bloqueios mentais causados por crenças, preconceitos e percepções não comprovadas sobre as possibilidades da tecnologia, estes além de fortemente alienantes, são inibidores da criatividade e podem condenar a processos de mal desenvolvimento de mentalidades.
Apesar da ironia de Shannon e Turing com o presidente da Bell Laboratories, lá se desenvolveram desde as primeiras válvulas, o primeiro transistor que valeu um Prêmio Nobel, os sistemas telefônicos em suas mais diversas versões chegando a linha discada e o uso da rede para transmissão pela internet, e o sistema de fibra ótima, cujo primeiro teste foi feito na Georgia.
Também linhas de aparelhos de rádio e televisão, o desenvolvimento do sistema UNIX precursor do Linux, as primeiras células solares, diversos prêmios Nobel e alunos famosos passaram por lá.
O desafio de pioneiros nunca é simples, os críticos estão sempre dispostos a desvalorizar o esforço humano de progresso, a Bell Laboratories e outros centros de estudos, como o CERN e Instituto de pesquisa em todo o mundo, o Brasil tem alguns deles como o INPE em São José dos Campos, são centro impulsionadores da criatividade humana e projetam o futuro do homem.
História do algoritmo
A ideia que podemos resolver problemas propondo um número finito de interações entre diversas tarefas (ou comandos como são chamados em linguagens de computação) para diversos problemas tem origem na Aritmética.
Ainda que a máquina de Charles Babbage (1791-1871), e a Álgebra de Boole (1815-1864) tenham uma enorme contribuição para os modernos computadores, a maioria dos lógicos e historiadores do nascimento do mundo digital, concorda que o problema de fato foi levantado pelo segundo problema de David Hilbert (1962-1943), numa conferência de 1900, em Paris.
Entre 23 problemas para a matemática resolver, alguns resolvidos recentemente como o Conjectura de Goldbach (veja nosso post), e outros a resolver, o segundo problema se propunha a provar que a aritmética é consistente, livre de qualquer contradição interna.
Nos anos de 1930, dois lógicos matemáticos, Kurt Gödel (1906-1975) e Gerhard Gentzen (1909-1945) provaram dois resultados que chamavam de novo atenção ao problema proposto, ambos se referiam a Hilbert, então de fato, ali está a origem da questão, grosso modo, se um problema enumerável é resolvido por um conjunto finito de passos.
Na verdade, a solução de Gentzen era uma prova da consistência dos axiomas de Peano, publicada em 1936, mostrava que a prova de consistência pode ser obtida em um sistema mais fraco do que a teoria de Zermelo-Fraenkel, usava axiomas da aritmética primitiva recursiva, não sendo portanto uma prova geral.
Já a prova da inconsistência da aritmética, chamada de segundo teorema da incompletude de Gödel, é mais completa e mostra que não é possível alguma prova da consistência dos axiomas de Peano ser desenvolvida sem essa própria aritmética.
Esse teorema afirma: se os únicos procedimentos de prova aceitáveis são aqueles que podem ser formalizados dentro da aritmética, então o problema de Hilbert não pode ser resolvido, dito de outra forma mais direta, se ou o sistema é completo ou consistente.
Há polêmicas levantadas sobre estes resultados, como Kreisel (1976) que afirmou que as provas eram sintáticas para problemas semânticos, Detlefsen(1990) que diz que o teorema não proíbe a existência de uma prova de consistência, e Dawson(2006) que afirmou que a prova da consistência é errônea usando a prova dada por Gentzen e do próprio Gödel em trabalho de 1958.
Polêmicas a parte, a participação de Kurt Gödel no importante circulo de Viena na década de 20 antes da guerra explodir, e as posteriores discussões de seus teorema por Alain Turing (1912-1954) e Claude Shannon (1916-2001) atentam sua importância para a história dos algoritmos e dos modernos computadores digitais.
Clareira e revelação
Haverá no turbilhão de respostas e angústias do homem do nosso tempo, presentes mais do que nunca no nosso pensamento cotidiano e também naqueles que procuram as raízes de nossas dificuldades contemporâneas ? qual é o labirinto sem saída que entramos ?
As respostas não são as mesmas, mas o diagnósticos quase sempre são os mesmos, além da liquidez baumaniana pessimista, o diagnóstico são as necessidades de educação para a vida, o respeito à diversidade, a distribuição de renda e a capacitação do homem para este futuro.
Embora a maioria já sinta e veja o despertar desta nova época, as reações as mudanças que são mais do que necessárias, são urgentes, estão aí maior equilíbrio no planeta, controle dos paraísos fiscais, eliminação das armas atômicas, e, principalmente o respeito à diversidade.
O que nos impedem ainda são os fechamentos em bolhas, que apesar da “liquidez” não podem ter solidez, uma vez que são efêmeras e basta olhar a sua volta encontrará pessoas de outras visões de mundo, de outras culturas e de outras religiões, isto é sólido e definitivo.
O que nos chama atenção Byung-Chul Han em a Expulsão do Outro, creio que é seu livro mais recente, é que a tendência a uniformização, até mesmo o desejo disto parte de valores não tão sólidos, a exigência de um estado centralizador e “forte”, a falta de diálogo realmente aberto entre religiões, culturas e principalmente correntes ideologicamente centralizadas, não levará a bom termo a tarefa de uma nova sociedade mais coletiva, mais dialógica e fraterna.
Não há mais resposta única, partido único, Portugal por exemplo, criou a Gerigonça, mas ainda somos escravos de convicções e apostas em correntes únicas totalitárias que falharam a muito.
A mensagem bíblica é antiga, mas parece ainda pouco praticada, o tempo da servidão passou, diz a passagem bíblica, de Jesus aos seus convivas Jo (15,15) “Já não vos chamo servos, pois o servo não sabe o que faz o seu senhor. Eu vos chamo amigos, porque vos dei a conhecer tudo o que ouvi de meu Pai”, mas a escravidão está aí, diz Chul Han: “a comunicação global e dos likes só tolera os mais iguais; o igual não dói!”, eis a escravidão de hoje.