RSS
 

Arquivo para a ‘Motores de Busca’ Categoria

Fake news com dias contados

12 Fev

Noticias falsas, e também maliciosas ou tendenciosas são antigas, já citamos as denúncias que fazia Karl Kraus nos 20, também noticias de que a atriz Rita Hayworth (nome artístico de Margarita Carmen Cansino, famosa nos anos 50 e 60), que teria vivido mais dois anos, ou a propaganda enganosa que a Nike estaria dando camisas da seleção brasileira.
Agora há um software desenvolvido pela empresa de pesquisa Fraunhoffer-Gesellschaft, na Alemanha que desenvolveu um sistema que analisa automaticamente post das midias sociais e filtra falsas notícias e desinformação, podemos prever um futuro promissor.
É bom ressaltar que isto foi graças as novas tecnologias, a ferramenta faz um aprendizado por máquina (machine learning) que filtra as notícias e através de aprendizagem (no sentido de algoritmos por maquina) analisa conte+udos e metadados, verificando a interação do usuário e otimiza resultados em tempo real.
A ferramenta verifica ainda a quantidade de dados (processos de viralização), com gráficos de dados de envio, frequência e redes de seguidores.
Ulrich Schade, conforme o site da Fraunhofer, afirmou: “Nosso software pode ser personalizado e treinado para atender às necessidades de qualquer cliente. Nosso software pode ser personalizado e treinado para atender às necessidades de qualquer cliente. Para órgãos públicos, pode ser um sistema de alerta precoce útil”. 
Os metadados são usados como marcadores, e permitem assim uma marcação do posto com fake, ou seja, ele desempenha um papel crucial na diferenciação entre fontes autênticas de informação e notícias falsas.
Assim se um site com uma certa frequência de postagens é feita, qual e com que frequência um tweet é agendado e a que horas? O tempo de um post pode ser muito revelador, assim como a frequência do tweet e os seguidores.
Deve-se revelar também o país e o fuso horário do originador das notícias para sua correta identificação e localização, por isso as horas são essenciais.
Uma alta frequência de envio sugere bots, o que aumenta a probabilidade de uma notícia falsa, pode ser facilmente detectada e pode sinalizar um fake.
Os bots sociais em geral enviam seus links para um grande número de usuários, e isto é um exemplo, de como espalhar a incerteza entre o público, portanto nunca repasse.
As conexões e os seguidores da conta também podem ser um terreno fértil para os analistas, embora pessoas bem-intencionadas usem isto, a chance de ser um fake é grande, e agora uma ferramenta pode detectar isto, os dias do fake estão contado

 

A Web 4.0 emerge ?

31 Out

O impulso inicial de Tim Berners-Lee para criar em meados dos anos 90web4-0port um protocolo sobre a internet, o HTTP (Web e Internet são camadas diferentes) foi para difundir de modo mais rápido a informação científica, podemos dizer então que era uma Web centrada na informação.

A Web rapidamente se popularizou, então o crescimento da preocupação com a semântica da Web fez Berners-Lee, James Hendler e Ora Lassila publicaram o paper inaugural Semantic Web: new form of Web content that is meaningful to computers will unleash a revolution of new possibilities,  e uma grande parte do desenvolvimento posterior da Web Semântica estava lá projetado como a representação do conhecimento, ontologias, agentes inteligentes e finalmente uma “evolução do conhecimento”.

A Web 2.0 teve como característica inicial a interatividade (O´Reilly, 2005) onde os usuários se tornam mais livres para interagir em páginas da Web e podem marcar, comentar e compartilhar documentos encontrados online.

O artigo apontava o caminho das ontologias, como caminho “natural” para o desenvolvimento e agregar significado a informação na Web Semântica, com metodologias vindo da Inteligência Artificial, que no olhar de James Hendler (Web 3.0) passava por um “inverno” criativo.

Mas três ferramentas integradas acabaram indicando um novo caminho: as ontologias ajudaram a construção de esquemas de organização simples do conhecimento chamado (SKOS – Simple Organization of Knowledge System), um banco de dados para consulta, com uma linguagem chamada SPARQL e aquilo que já era básico na Web Semântica, que era o RDF (Resource DEscription Framework) em sua linguagem descritiva simples: o XML.

O primeiro grande projeto foi o DBpedia, um Banco de Dados proposto pela Free University of Berlin e a University of Leipzig em colaboração com o projeto OpenLink Software, em 2007, que se estruturou em torno do Wikipedia, usando os 3.4 bilhões de conceitos para formar 2.46 de triplas RDF (recurso, propriedade e valor) ou de modo mais simples sujeito-predicado-objeto, indicando uma relação semântica.

Há diversos tipos de Agentes Inteligentes em desenvolvimento, pouco ou quase nada usam a “inteligência” da Web 3.0, haverá no futuro novos desenvolvimentos ? apontamos em artigo recente a ferramenta Semantic Scholar da Fundação Paul Allen, mas ainda a conexão com a Web 3.0 (projetos ligados ao linked data) não é clara.

2016 decididamente ainda não foi o ano da Web Inteligente, ou se quiserem a Web 4.0, mas estamos nos aproximando, os assistentes pessoais (Siri, Cortana, o “M” do Facebook), a domótica (Apple Homekit, Nest), o reconhecimento de imagem e os carros sem motoristas estão logo ali, virando a esquina.

Domótica são os recursos inteligentes caseiros, neste campo a AI cresce rápido.

 

A internet desaparecerá, diz chefe da Google

27 Jan

EricSchmidt Não é o que está pensando, mas sim o fato que ela se tornará de tal forma presente que será impossível se conectar a algo sem utilizá-la, afirmou o chefe da Google Eric Schmidt, na quinta-feira passada em Davos, na Suiça, onde se realizou o Fórum Econômico Mundial.

Perguntado sobre o futuro da internet respondeu: “Eu vou responder muito simplesmente que a internet vai desaparecer”, segundo vídeo disponibilizado pela rede de TV norte-americana CNBC.

Mas não quis dizer com isto que a internet  pode seguir o caminho dos filmes fotográficos e dos disquetes, mas o entendimento de Schmidt é que a rede será de certa forma tão presente em nosso dia a dia que será inescapável.

Poderá estar presente na vida de uma pessoa do momento que nasce, em todos os momentos da vida de uma pessoa, sua vida familiar, médica, estudantil e atividades sociais diversas, claro com o direito do “esquecimento” que é a possibilidade de desaparecer com registro indesejáveis.

Mas o problema da privacidade permanece, como garantir que dados não sejam extraviados e caiam em mãos que façam mau uso, eis um grande problema a ser resolvido.

 

FIFA não controlou ingressos

01 Jul

Há vários indícios que de alguma forma agências de turismo, espertalhões e cambistas conseguiram ingressosScorpyn de forma ilegítima (ilegal é questionável já que compraram) mesmo havendo um sorteio, uma desta forma foi furar a fila por um aplicativo de smartphones.

O aplicativo chama-se Scorpyn e existe desde 2011 quando foi criado, no início era uma ferramenta que permitia a digitalização contínua e automática de bilhetagem, verificando a cada 5 segundos, a disponibilidade de ingressos para a Copa.

A rigor isto seria apenas um mecanismo mais rápido do que a tradicional tecla F5 de atualização do site na medida em que os ingressos fossem sendo vendidos, mas o fato apontado por alguns especialistas que o programa dava o número de ingressos disponíveis mostra que de alguma forma ele tinha acesso a toda a base de dados, e portanto poderia controla-la, fazendo compras antecipadas, isto é, furando a fila.

Embora o sistema seja gerenciado por uma empresa americana respeitada, a Akamai Technologies, com sede em Cambridge, Massachusetts, que tem como cliente o NBA da liga americana de basquetes, os indícios de que compras furando a fila foram feitas é claro

 

Novidades e papelão no Google I/O

27 Jun

GoogleI_OO Conferencia Developer Google I/O começou ontem e a empresa fez seu tradicional discurso de abertura dando uma visão geral de todas as notícias reveladoras do evento.

 

As mudanças anunciadas além de uma prévia da próxima versão do Android, apelidada de “L”  sendo o site TechRunch, foi o desenvolvimento de um novo paradigma de design para sistema operacional do Google que ajuda a trabalhar em diferentes tipos de telas e dispositivos, uma vez que esta fatia de mercado esquentou nos últimos anos: telas flexíveis, diversos tamanhos e resoluções, 3D, etc.

 

Num discurso de 3 horas, eles falaram de um futuro unificado para o  Android e o Chrome no desktop, no celular, até em seu carro e em seu pulso e mais além, e de certa forma não será apenas uma tradução desajeitada e forçada na maneira de usar o software em cada cenário.

 

Cada ano a Google dá aos participantes da conferência um presente, este ano deu um papelão, mas que papelão !!! era uma caixa que ao rasgar o selo parece um origami que dobrando-o de forma intuitiva torna-se um cheap, um fone de ouvido ou óculos de realidade virtual, bacana !

 

Google vai as compras de novo

20 Mai

A fonte é o The Verge, depois das milionárias compras do YouTube e Motorola Mobile,Twitch a próxima poderá ser o gerador de streaming de vídeo Twitch, as cifras giram em torno de 1 bilhão de dólares, mas parece que o assunto ainda está sendo analisado.

 

O valor da oferta (que seria de 730 milhões de dólares, está na revista online da “Variety” apesar da gigante de busca já ter o serviço de vídeo YouTube, adquirido em 2006 por 1.6 bilhões de dólares, que é claro, será o serviço diretamente beneficiado ampliando a vantagem no mercado de vídeos.

 

O Twitch aoareceu em Junho de 2011, feito por Justin Kan e Emmett Shear, o atual  presidente executivo da “start-up”, que levantou 35 mil milhões de dólares na época. 

 

Entretanto um dos o negócio pode ser melado pelo departamento de Justiça norte-americano, já que a medida a aquisição do Twitch pode representar uma prática anti-concorrencia, e existem leis de proteção do mercado nos EUA.

.

O YouTube já é o maior “site” de compartilhamento de vídeos na internet, com mil milhões de utilizadores em todo o mundo, mas o Twitch vinha crescendo assim como o Vimeo, o principal concorrente do YouTube.

 

Realidades e fantasias da Web 3.0

14 Nov

Em Novembro de 2006, John Markoff escrevia no New York Times, usando a expressão Web 3.0, dizendo que ela encontrariaWeb3.0 novas formas de mineração de inteligência humana: “A partir dos bilhões de documentos que formam a World Wide Web (rede mundial de computadores) e os links que os ligam, cientistas da computação e um crescente grupo de novas empresas…” (veja a tradução de George El Khouri Andolfato no link bibNews).

As definições variam bastantes, desde aqueles que pensam nas características de personalização até a Web Semântica geral e irrestrita, desde fantasias como a de Conrad Wolfram que pensa que a Web 3.0 será o lugar onde “o computador irá gerar novas informações”, até pessimistas como Andrew Keen (O Culto do Amador) que vê na Web 3.0 um retorno aos especialistas e autoridades, chamando-a de “abstração irrealizável”, pela ideia de conectar e organizar informação na Web.

Considero um texto realmente fundador o texto de James Handler, publicado na revista IEEE Computer de janeiro de 2009: “Web 3.0 emerging” on de explica que após inúmeras voltas em torno da Web Semântica, finalmente encontrou tecnologia que podem ajudá-la a realizar-se.

O artigo explica as tecnologias emergentes integradas na Web Semântica já começam a produzir resultados, desde aplicações básicas usando a descrição RDF (no âmbito da descrição de recursos, vincular dados de vários sites da Web usando uma linguagem padrão SQL, a SPARQL que consulta RDF até ligações já prontas em XML ou ontologias em OWL.

 

Big Data e Bibliotecas

21 Ago

A tecnologia de dados do Big Data está pronta para revolucionar todos os aspectos da BigData2vida humana e da cultura como pessoas coletar e analisar grandes volumes de dados para previsão de comportamento, resolução de problemas, segurança e inúmeras outras aplicações, é o que garante o site Christian Science Monitor.

A geração de grandes quantidades de dados está sendo impulsionada pela crescente digitalização das atividades cotidianas e a dependência das pessoas em dispositivos eletrônicos que deixam “rastros digitais” conceito que pode ser estendido para “rastro da informação”, uma vez que qualquer objeto em qualquer estado de conservação pode conter informação “implícita” que não está ainda num formato adequado.

O site CSMonitor cita um grande projeto de dados notável  que é um esforço por os Biblioteca do Congresso dos EUA para arquivar milhões de tweets por dia, cujo benefício pode custar muito pelo seu valor histórico.

Um exemplo, citado é o trabalho de Richard Rothman, professor da Johns Hopkins University, em Baltimore, fundamental: salvar vidas.

Os Centros de Controle e Prevenção de Doenças (CDC) em Atlanta preveem surtos de gripe, e o faz através dos relatórios dos hospitais.

Mas isto levava semanas, em 2009, apareceu um estudo onde pesquisadores puderam prever surtos muito mais rápido através da análise de milhões de buscas na Web, fazia as consultas como “Meu filho está doente” e podiam conhecer um surto de gripe muito antes do CDC soubesse pelos relatórios dos hospitais.

Mas as tecnologias de grandes volumes de dados também tem uma contorno sinistro, em que a tecnologia é percebida potencial de destruir a privacidade, incentivar a desigualdade e promover a vigilância do governo de cidadãos ou outros em nome da segurança nacional, como conciliar estas duas tendências ?

 

Falha no Google faz internet cair 40%

20 Ago

Na última sexta-feira entre os horários das 20h37 e 20h48 (horário de Brasília), GoSquaretodos os serviços do Google sofreram uma interrupção: Gmail, Drive, Maps, claro o buscador e outros, que segundo nota da empresa durou “entre um e cinco minutos.

O Google afirmou em sua página que, durante o período de interrupção, “de 50% a 70% das requisições ao Google receberam mensagens de erro”, mas que o serviço foi corrigido após quatro minutos e foi restaurado para a maioria dos usuários em um minuto.

Segundo a empresa GoSquared houve uma queda de 40% no tráfego de internet mundial naquela noite e o estudou mostrou que, após a queda de poucos minutos, o tráfego de internet disparou logos após a restauração.

Durante a falha, segundo a página do Google, “de 50% a 70% das requisições ao Google receberam mensagens de erro”, mas não informou a origem da falha.

A falha mostrou o quanto a internet ainda é frágil e as possibilidades de danos mesmo que temporários não é uma falácia.

 

Altavista buscador pioneiro será desativado

03 Jul

Na próxima segunda-feira (08/07) o buscador pioneiro AltavistaAltavista, com 18 anos de existência será desativado, ele possui página no Brasil e já foi muito popular no país.

Eram populares nos anos 90 também o Lycos, Infoseek e Yahoo.

Foi criado quando a Web nascia e a Internet já tinha vinte nos, em 1995, mas mudou de donos várias vezes, criador pela Digital (DEC, Digital Equipment Corporation) foi comprado pela Compaq em 1998 e quando esta foi comprada pela HP trocou de mãos.

A HP vendeu o vovô buscador para a Oberture, que no mesmo ano foi comprada pela Yahoo, em 2003.

Com isto o império do gigante de busca fica mais forte, porém não faltam críticas quanto a semântica, relevância e volume das buscas do Google.