RSS
 

Arquivo para a ‘Bancos de Dados’ Categoria

Free Databases

15 Feb

When more opensource databases grow, more companies covet this market, three competitor has great products: MySQL, Firebird, PostgreSQL.
Some obstacles always present is gaining trust among developers of these products in independent software producers, where a false idea works: what we pay is the best products.

On the other hand paid products developers, called proprietary software, is to use the advantages of this “free” market in their favor, for example, Microsoft’s SQL Server Express allows facilities for migration to its paid version, SQL Server Express, Also the generation and a database in a Microsoft Excel spreadsheet, which is easy to be done can be easily converted to Access database, which comes bundled with your Windows package.

But the Bigdata concept, which requires NoSQL databases, are those where a collection of databases become so complex and bulky that it is very difficult (in many cases impossible) to do simple operations such as removal, sorting, and summarization using Systems Traditional Database Managers.

BigData also refer to unstructured data found in social media, is a direct consequence of Web 2.0 that has entered millions of users as producers of information, use NoSQL (Not only SQL) applications. NoSQL promoting a number of innovative storage solutions and high volume information.

These diverse solutions are being used very frequently in countless companies, such as IBM, Twitter, Facebook, Google and Yahoo! for the analytical processing of Web log data, conventional transactions, among many other tasks.

The DBMS has a consistency model strongly based on the ACID (Atomicity, Consistency, Isolation and Durability) transactional control, but this model is not feasible when distributed over several nodes, a typical case of networks (important here are networks and not media).

The model developed then must be another: CAP (Consistency, Availability and Partition tolerance) where generally only two of these 3 properties can be guaranteed simultaneously, which makes processing more difficult, but not if the database is “semi-structured”, this Is, to work with the principle that the data is not structured in the conventional formats of SQL banks.

Among the various existing NoSQL products, we can consider that the most representative is Apache Hadoop, today there is a version adapted for the Web, called Handoop 2.0.
There are other products, among them HBase which is a distributed database, column-oriented, uses the Google BigTable model and is written in Java, and another is open-source software like Apache Cassandra (originally developed for Facebook).

HBase is an open-source distributed column-oriented database, modeled from Google BigTable and written in Java.

There are simple interfaces to SQL as associative arrays or key-value pairs, as well as standards for native XML databases supported by the XQuery standard.

A language that was developed for the Semantic Web is the SPARQL (Protocol and RDF Query Language) that has aided the growth of linked data clusters

 

(Português) Armazenamento 5D eterno

23 Feb

Sorry, this entry is only available in Brazilian Portuguese.

 

(Português) Google maps off-line disponível

12 Nov

Sorry, this entry is only available in Brazilian Portuguese.

 

(Português) Mapeando dados de Big Data

22 Sep

Sorry, this entry is only available in Brazilian Portuguese.

 

Snowden make virtual appear in USA

17 Mar

edwardMonday begins the American marketplace SXSW and Edward Snowden will make a virtual conversation via Hangout and can converse with audience members .

Anticipating his speech he said he had no regrets and everything he did was to protect the majority of ordinary citizens who have had their privacy ” violated on a massive scale.”

As a solution to the privacy issue , he said the programming community must develop new mechanisms to ensure data security and encryption for privacy .

The SXSW takes place in Austin (USA), and the connection will be made in Russia , due to ban him enter the United States for their complaints , but where is located and continue in secret transmission is protected for seven proxies (connections with servers) to mislead any search for your location .

The event received is called “A conversation with Edward Snowden” and he said he did reaffirm that  an oath to support and defend the U.S. Constitution.”

 

A curious problem of Big Data

10 Oct

Simon DeDeo a research in applied mathematics and complex systems of the Santa Fe Institute,MatematicaCriativa had a problem , as posted in Wired magazine .

He was collaborating on a new project to analyze data from the archives of the Old Bailey court in London criminal court central England and Wales 300 years . ”

But there were no clean data ( say structured ) as in a normal Excel spreadsheet format simple , including variables such as prosecution, trial and sentence in each case , but about 10 million words written over just under 200 000 trials .

How could analyze this data ? DeDeo question: ” It is not the size of the data set , it was difficult for patterns of large data size was quite manageable .” Was this enormous complexity and lack of formal structure that represented a problem for these ” big data ” that disturbed .

The paradigm of the research involved the formation of a hypothesis , decide precisely what it was intended to measure , then build a device to make this measurement accurately as possible , is not exactly like physics where you control variables and has a limited number of data.

Alessandro Vespignani , a physicist at Northeastern University , which specializes in harnessing the power of social networks to model disease outbreaks , the behavior of the stock market , the collective social dynamics , and electoral results , collected many terabytes of data networks social as Twitter , this approach can help treat texts written out of social networking .

Scientists like DeDeo Vespignani and make good use of this fragmented approach to the analysis of large data , but the mathematician at Yale University, Ronald Coifman says what is really needed is the large volume of data equivalent to a Newtonian revolution , comparing with the invention the calculation of the 17th century , which he believes is already underway .

Coifman says ” We have all the pieces of the puzzle – now how do we actually ride them ,” ie , we still have to move forward to address scattered data.

 

Serviço de nuvem dá anonimato

28 Nov

O serviço Amazon de nuvem, apelidado de EC2 (Elastic Compute Cloud) oferece capacidade de serviços virtuais de computador com promessas de confidencialidade por um tipo de estrutura que está sendo chamada de Orion, em projeto open source chamado Tor.

Tor é uma abreviação para The Onion Router, assim chamado devido à natureza multi-camadas da maneira como ele é executado. . É também conhecida como “dar net” (a rede escura).

No blog do projeto, os desenvolvedores afirmaram: “Através da criação de uma ponte, você doar largura de banda para a rede Tor e ajudar a melhorar a segurança e a velocidade com que os usuários podem acessar a internet”, revelando uma nova forma de colaboração que é a uso da banda.

O serviço custa em média normalmente custa £ 19 (perto de R$ 30) por mês, mas a Amazon está oferecendo um ano de armazenamento gratuito como parte de sua promoção, o que significa que o serviço deverá crescer.

O serviço é particularmente elogiado em regimes fechados, em países como Irã e outros do mundo árabe ele tem sido usado e muito elogiado.

Os serviços podem ser acessado no Android através de um aplicativo chamado Orbot e no início desta semana a Apple aprovou Navegador Covert para iPad que passou a ser vendido na App Store, sendo o primeiro aplicativo oficial app iOS que permite aos usuários rotearem suas comunicações on-line através do Tor.

 

Gerenciamento Eletrônico de Documentos (GED)

29 Oct

Gerenciadores eletrônicos de documentos (GED em português e ECM, Enterprise Content Management) propiciam que uma empresa, organização ou mesmo uma pessoa gerencie documentos mesmo que não estejam estruturados, ou seja, envolvem estratégias, métodos e ferramentas utilizadas para capturar, gerenciar, armazenar, preservar e distribuir conteúdo e documentos relacionados aos processos de organização do fluxo.

Neste sentido são mais amplos que os CMS (Content Managment System), como Drupal, Plone, WordPress, etc. que gerenciam conteúdos “carregados” dentro da plataforma e portanto são limitados, pois não é suficiente “gerenciar” o conteúdo.

Duas plataformas mais difundidas de GED são: Alfresco e Knowledge Tree (KT).

As principais motivações para se ter um GED são: o compartilhamento de arquivos é melhorar a colaboração e auditoria em documentos organizacionais. Seis pontos devem ser levados em consideração: métodos para organizar e armazenar de modo simples os documentos, segurança e proteção (isto é crítico, nem sempre levado a sério), capacidade de introduzir metadados, opções de pesquisa (outro ponto crítico), controle de versão e rastreamento de transações e documento de fluxo de trabalho (road map).

As duas ferramentas fazem isto, mas KT é paga, há uma outra paga chamada Dokmee, mais simples mas ao nosso ver mais limitada, mas muitas empresas preferem ferramentas “simples”, para tornar o treinamento simples e garantir o “serviço”.

Tanto Alfresco quanto KT oferecem todas as funcionalidades sugeridas acima, com pequenas diferenças.  Os dois têm os conceitos de usuários, grupos e papéis, mas KT fornece ainda  a opção de unidades.  Todos os usuários tem acesso aos documentos que podem ser controlados em uma escala de simples e com complexas opções de proteção.

Já os metadados e opções globais de pesquisas internas de documentos estão disponíveis em ambos, mas na versão KT estão ativados como padrão enquanto no Alfresco podem ser acrescentados com maior facilidade através de definição de aspectos de herança de acordo com as localidades. E por último ambos têm sistemas de fluxo contínuo de trabalho.

 

O computador pode pensar como humanos?

16 Aug

O trabalho é do cientista da computação do MIT (Massachussets Institute Technology) Scott Aaronson que argumenta Leia o resto deste post »

 

Cloud Computing avança

28 Jun

Estamos habituados a utilizar aplicações instaladas em nossos próprios computadores, assim como a armazenar arquivos e dados dos mais variados tipos neles. No ambiente corporativo, esse cenário é um pouco diferente, já que nele é mais fácil encontrar aplicações disponíveis em servidores que podem ser acessadas por qualquer terminal autorizado por meio de uma rede.

A principal vantagem desse modelo está no fato de ser possível, pelo menos na maioria das vezes, utilizar as aplicações mesmo sem acesso à internet ou à rede. Em outras palavras, é possível usar esses recursos de maneira off-line. Entretanto, todos os dados gerados estarão restritos a esse computador, exceto quando compartilhados em rede, coisa que não é muito comum no ambiente doméstico. Mesmo no ambiente corporativo, isso pode gerar algumas limitações, como a necessidade de se ter uma licença de um determinado software para cada computador, por exemplo.

A evolução constante da tecnologia computacional e das telecomunicações está fazendo com que o acesso à internet se torne cada vez mais amplo e cada vez mais rápido. Em países mais desenvolvidos, como Japão, Alemanha e Estados Unidos, é possível ter acesso rápido à internet pagando-se muito pouco. Esse cenário cria a situação perfeita para a popularização da Cloud Computing, embora esse conceito esteja se tornando conhecido no mundo todo, inclusive no Brasil.

O conteúdo passa a fica disponível nas “nuvens”, isto é, na Web e o fornecedor da aplicação realiza as tarefas de desenvolvimento, armazenamento, manutenção, atualização, backup, escalonamento, etc. O usuário não precisa se preocupar com nada disso, apenas com acessar e utilizar.

De acordo com uma pesquisa realizada pela IDC, o número de pequenas e grandes empresas que já usam alguma aplicação em Cloud Computing é de 18% das médias. A estimativa para o ano de 2013 é  entre 30% a 35%, segundo esta mesmas consultoria. Ela prevê um aumento na demanda nos próximos anos com um crescimento anual de 60% deste mercado no Brasil.

A IDC iinformou que 80% dos investimentos em computação em nuvem no Brasil serão direcionados a implantação de ambientes híbridos, deste modo, a mistura de cloud pública com a privada.

Em dinheiro está previsto para toda América Latina, onde 14,5% das empresas usarão este serviço  gastos no valor de US$ 170 milhões, e no mundo inteiro o número deverá chegar a 10 bilhões de dólares

O mercado aprova estas soluções, muitas empresas já estão adotando, este modelo vingou.