Warning: Declaration of wp_option_choose_color_scheme::render() should be compatible with wp_option::render($field_html, $colspan = false) in /home/marcosmucheroni/www/blog/wp-content/themes/chocotheme/lib/theme-options/choose-color-scheme.php on line 39

Warning: Use of undefined constant wp_cumulus_widget - assumed 'wp_cumulus_widget' (this will throw an Error in a future version of PHP) in /home/marcosmucheroni/www/blog/wp-content/plugins/wp-cumulus/wp-cumulus.php on line 375
[:pt]Projeto avançado Deep Mind[:en]Deep Mind Advanced Project[:] « Blog Marcos L. Mucheroni Filosofia, Noosfera e cibercultura
RSS
 

[:pt]Projeto avançado Deep Mind[:en]Deep Mind Advanced Project[:]

20 set

[:pt]Projetos que tentavam simular sinapses cerebrais, a comunicação entre neurónios, foram anteriormente chamados de redes neurais ou neuronais, e tiveram um grande desenvolvimento e aplicações.

Aos poucos estes projetos foram se deslocando para estudos da mente e o código foi sendo dirigido para Machine Learning (Aprendizado por máquina) que agora usando redes neurais passou a ser chamado deep learning, um projeto avançado é o Google Brain.

Basicamente é um sistema para a criação e treinamento de redes neurais que detectam e decifram padrões e correlações em sistemas aplicados, embora análogo, apenas imitam a forma coo os humanos aprendem e raciocinam sobre determinados padrões.

O Deep Learning é um ramo da Machine Learning que opera um conjunto de algoritmos usado para modelar dados em um grafo profundo (redes complexas) com várias camadas de processamento, e que diferente do treinamento de redes neurais, operam com padrões tanto lineares como não lineares.  

Uma plataforma que trabalha com este conceito é a Tensor Flow, originada de um projeto anterior chamado DistBelief, agora é um sistema de código aberto, lançado pela equipe da Apache 2.0, em novembro de 2015, o Google Brain usa esta plataforma.

Em maio de 2016, a Google anunciava para este sistema a TPU (Tensor Processing Unit), um acelerador de programas de inteligência artificial programável com habilidade de alta taxa de transferência para a aritmética de baixa precisão (8 bts), que executa modelos e não mais treina como faziam as redes neurais, inicia-se uma etapa da Deep Compute Engine.

O segundo passo deste processo no Google Compute Engine, a segunda geração de TPUs alcança até 180 teraflops (10^12 números reais) de desempenho, e montados em clusters de 64 TPUs, chegam a trabalhar até 11.5 petaflops.[:en]Projects that attempted to simulate brain synapses, communication between neurons, were formerly called neural or neural networks, and had a large development and applications.
Gradually these projects were moving to studies of the mind and the code was being directed to Machine Learning that now using neural networks happened to be called deep learning, an advanced project is Google Brain.
Basically it is a system for the creation and training of neural networks that detect and decipher patterns and correlations in applied systems, although analogous, only imitate the way humans learn and reason about certain patterns.
Deep Learning is a branch of Machine Learning that operates a set of algorithms used to model data in a deep graph (complex networks) with several layers of processing, and that, unlike the training of neural networks, operate with both linear and non-linear patterns .
One platform that works with this concept is Tensor Flow, originated from an earlier project called DistBelief, is now an open source system, released by the Apache 2.0 team in November 2015, Google Brain uses this platform.
In May 2016, Google announced to this system the TPU (Tensor Processing Unit), a programmable artificial intelligence program accelerator with high transfer rate ability for low precision arithmetic (8 bts), which runs models and does not more training as neural networks did, a Deep Compute Engine stage begins.
The second step of this process in Google Compute Engine, the second generation of TPUs achieves up to 180 teraflops (10 ^ 12 floating point operations), and mounted in clusters of 64 TPUs, work up to 11.5 petaflops. [:]

 

Comentários estão fechados.