RSS
 

Arquivo para a ‘chip’ Categoria

Internet das coisas vem ai

23 mai

 

Se temos 7 bilhões de pessoas no mundo, das quais perto de 5 bilhões BilhoesDispositivosestão conectadas, o número de dispositivos é de 50 bilhões e a conexão entre dispositivos poderá ser mudança ainda mais surpreendente que a que aconteceu com a internet: a internet das coisas (IoT).

 

Os protocolos até recentemente eram reduzidos, agora novos padrões começam a emergir além do conhecido BlueTooth, chega com força agora o ZBee ou ZigBee.

 

O BlueTooth também evoluiu para o BlueTooth Low-Energy (BLE) ou Smart Bluetooth, como protocolo antigo e conhecido para internet das coisas segue firme, uma vez que o consumo de energia é um item significativo para a aprovação das tecnologias IoT.

 

Mas ZigBee vem crescendo em número de aplicações e dispositivos, e começa a ganhar muito interesse em desenvolvedores, usado em automação de casas, edifícios e áreas industriais, usa um protocolo padronizado IEEE 802.15.4 que é uma tecnologia sem fio padrão industrial que opera para aplicações na faixa de 2,4 GHZ requerem pouca troca de dados e operam numa faixa de 100 m, portanto excelente para casas, edifícios ou industriais.

 

Uma evolução do ZBee é o padrão RF4CE que tem algumas vantagens para sistemas complexos com baixo consumo de energia, alta segurança, robustez e alta escalabilidade com adição de nós e pode ser inserida em redes de controle de sensores sem fio para aplicações M2M (Máquina para Máquina) na IoT.

 

A versão mais recente é o ZBee 3.0, que unifica todos padrões ZigBee em um único padrão.

 

Há outros padrões comentaremos nos próximos posts.

 

Velocidade e armazenamento: o limite do silício

30 set

Já há algum tempo o limite de velocidade e de armazenamento dos chips de silício está trazendo uma barreira para oChipChalcogenio avanço da computação eletrônica, que podemos dizer do futuro do armazenamento, um novo dispositivo chamado PCM (Phase Change Material) pode ser capaz de ultrapassar estas barreiras.

Os novos processadores estão sendo produzidos por pesquisadores da Universidade de Cambridge, do Instituto A* STAR Data-Storage e da Universidade de Cingapura de Tecnologia e Design, usando um tipo de PCM com base num vidro de chalcogenidio, que pode ser fundido e cristalizado em menos da metade de um nanossegundo usado pulsos de tensão adequados.

A memória de estado sólido feita com base no silício, é utilizada para armazenar os resultados de feitos também em chips à base de silício. “No entanto, como a demanda por computadores mais rápidos continua a aumentar, estamos alcançando rapidamente os limites da capacidade do silício”, disse o professor Stephen Elliott, do Departamento de Química da Cambridge, que lidera a pesquisa.

Desenvolvido pela primeira vez na década de 1960, os PCMs foram originalmente usados ​​em dispositivos de memória óptica, tais como DVDs regraváveis​​, mas agora estão começando a serem usados para aplicações de eletrônica de memória e já estão substituindo a memória flash baseada em silício em algumas marcas de smartphones.

Nestes dispositivos as operações lógicas e de memórias são co-localizados, em vez de separadas como nos computadores baseados no silício, podendo permitir velocidades de processamento entre 500 a 1000 vezes que um processador normal, usando menos energia, os resultados estão sendo publicados nos Processings da Academia Nacional de Ciências dos EUA.

 

Limites reais da Lei de Moore

19 ago

Quando milhares de transistores começaram a ser colocados dentro de pastilhas microscópicas dos chips, e a microcomputaçãoNewLeiMoore nascia na década de 70, um engenheiro da Intel Gordon Moore formulou uma lei segundo a qual a cada dois anos o dobro de transistores eram colocados numa micro área das pastilhas de silício, e isto fez a velocidade e a capacidade dos microprocessadores chegarem aos bilhões de “transistores” por área (na casa dos 22 nm nanômetro), além de aumentar a velocidade hoje na casa dos GHz  (GigaHertz)

Porém este é o limite do silício, por sua capacidade atômica e por isto temos que usar os “fans” (ventiladores) porque para o processamento, a velocidade e a área usada está “fritando” os chips que devem ser resfriados, mas o professor Igor Markov, publicou um artigo na revista Nature que explica melhor este fenômeno dos chips atuais.

Os engenheiros estão preocupados com o limite da Lei de Moore que está prestes a ser alcançado como a densidade de transistor se aproxima da escala atômica, mas Markov diz que há muitos fatores envolvidos além de tamanho e há maneiras de obter maior poder de computação além de escala, dizendo que há um problema de “eficiência energética”.

Markov argumenta ainda há inúmeros ganhos a serem feitos nesta área e novos materiais, tais como transistores de nanotubos de carbono, que poderiam  ajudar a ter uma grande economia de energia que, por sua vez permitem maior poder computacional, em área que chegaria a 10nm.

Outra possibilidade já conhecida é a de explorar modelos naturais, tais como o cérebro humano, que é fundamentalmente diferente dos sistemas de computador existente tanto em termos de estrutura e funcionamento.

Mas Markov sabe que existem alguns limites físicos duros, estes  limites são conhecidos como o comprimento de onda de Planck e o limite Berkenstein, que ainda não são  o suficiente para que eles possam afetar computação, tanto quanto alguns suspeitam.

 

Repensando os computadores

18 ago

A tecnologia de silício aparentemente chegou no seu limite, anunciamos em nosso último post um chipNewChips que tenta imitar as sinapses cerebrais, mas que depende de uma nova programação para efetivamente funcionar.

A HP já anunciou o esforço para repensar as tecnologias de computação, computação quântica e cognitiva parecem ser os novos enfoques, mas há pouca coisa realmente funcional e que esteja pronta para ir para o mercado.

Agora a IBM anunciou investimentos da ordem 3 milhões de dólares em projetos que querem repensar o modelo dos supercomputadores atuais, e o vice-presidente de Sistemas e Tecnologia da IBM, Tom Rosamilia, declarou a ComputerWorld, que a curto prazo são os processadores gráficos de alta performance que podem melhorar o desempenho dos computadores, mas a longo prazo “temos outros pontos que podem dar saltos passando de uma tecnologia para outra”, que significa materiais, arquiteturas e programação inteiramente novas, que significa misturar e combinar tecnologias novas propostas.

Os novos modelos significam que será necessário pensar programas e sistemas muito antes que as arquiteturas surjam, e a lei de Gordon Moore que dizia que o número de transistores dobraria a cada dois anos e enquanto isto foi verdade para o silício, não foi preciso mudar o modo de processar e de programar, agora os novos chips em sistemas totalmente novos podem exigir programação antecipada, para que quando surjam tenham algumas funcionalidades já operacionais.

 

Chip do tamanho de um selo

15 ago

Um grupo de pesquisadores coordenados pela IBM criou um chip, que segundo o líder do grupoTrueFort Dharmendra Modha será uma máquina para “uma nova era” e foi publicado na Science.

Mas as aplicações comerciais ainda podem levar ano, pois o software para este novo chip deverá ser escrito novo, porque o sistema de programação de hardware é todo novo.

Dharmenda declarou a BBC que o chip é resultado de “um trabalho cumulativo de mais de 200 anos-pessoa”, o que significa um esforço científico realmente grande.

O chip chamado de TrueNorth é próprio para as operações matemáticas são interconectadas, o que lhe permite trabalhar muito mais dados ao mesmo tempo.

“Nosso chip integra computação, comunicação e memória”, disse Modha.

A computação “neuromórfica” do TrueNorth acontece através de redes formadas por unidades chamadas “spikes” ou impulsos.

 

Cristal de memória do Superman é criado

13 nov

Uma equipe de pesquisadores da Universidade de Southamptom, UK, criou um cristal capaz de armazenar informações digitais, em cinco dimensões, além das três convencionais do espaço, mais duas extras usando as nanoestruturas (estruturas no nível do átomo na ordem de 10CristalSuperHomem-9 m.

Estes dispositivos podem atingir a capacidade de  360TB de dados guardados, o equivalente a um milhão de vezes maior que um CD, por exemplo, de 360 GB, supondo que ele tenha um dispositivo de visualização e projeção, aquela memória da infância do Superhomem, seria praticamente possível agora.

Devido a semelhança com o filme, o dispositivo já é chamado de “cristal de memória do Superman”, pois lembra os cristais de memória do filme do Super-Homem.

Segundo o professor supervisor do projeto,  Pete Kazansky  é  “emocionante pensar que foi criado o primeiro ‘documento’ capaz de sobreviver à raça humana”, pois esta “esta tecnologia pode armazenar as últimas evidências da civilização: tudo o que foi aprendido não será esquecido”, e em condições normais manterá as informações por 1 milhão de anos.

O paper ‘5D Data Storage by Ultrafast Laser Nanostructuring in Glass’  foi apresentado na Conference on Lasers and Electro-Optics (CLEO’13) em San Jose, Califórnia.

 

Como tornar as nuvens seguras

10 jul

ChipSeguro2Este foi o problema tratado pela equipe de pesquisa do MIT, dirigida pelo professor Srini Devadas, os estudantes da graduação Ling Ren, Xiangyao Yu e Christopher Fletcher, assim como o pesquisador Marten van Dijk, trabalharam numa tipo de memória não coo um arranjo como é conhecido, mas em uma estrutura de dados conhecida como “árvore”, noticiado pelo MIT.

Cloud computing significa a terceirização de tarefas computacionais através da Internet, que por um lado possa dar aos usuários de computadores domésticos um poder de processamento sem precedentes e que as pequenas empresas possam usar de serviços de Web mais sofisticados, sem a construção de enormes bancos de dados em servidores.

Mas justamente esta terceirização pode levar a enormes problemas de segurança, como a nuvem é tratada como um condomínio, pode acontecer como citam no artigo de MIT apresentado num Simpósio Internacional de Arquitetura de Computadores, supondo um conjunto de servidores em nuvem para ter a execução de 1.000 aplicativos para clientes simultâneos, sem o conhecimento do exato serviço de hospedagem que é prestado, um desses aplicativos pode ter outra finalidade, a de espionar os outros 999.

No Simpósio Internacional de Arquitetura de Computadores recém acontecido junho, os pesquisadores do MIT descreveram um novo tipo de componente de hardware seguro, chamado Ascend, que misturam os padrões de memória de acesso a um servidor, o que torna impossível no caso de um atacante inferir nos dados que estão armazenados.

Mas talvez só as empresas poderosas e governos consigam usar isto, o que se discutem é quem pode controlar e não se o controle da informal é legal, vejam como todos os estados tratam Snowden, que fez a denuncia inicial de dados: algum país vai recebê-lo ?

Mas a solução no Brasil será o lançamento de um satélite brasileiro, dois cabos submarinos e a instalação de um Ponto de Troca de Tráfego (PTT) internacional, gostamos de coisas caras.

 

Crescimento dos chips vai continuar

16 out

A quase 50 anos, Gordon Moore anunciou uma lei que os dispositivos de processamento (os de memória são mais lentos) dobravam sua velocidade a cada dois anos, por causa disto esta “lei” ficou conhecida como Lei de Moore.

No entanto o limite de velocidade usando os chips de silício estava sendo alcançado, por isto o uso dos fans (ventiladores dos chips), mas já em 2011, pesquisadores do mundo inteiro buscavam alternativas ao Silício, num laboratório de Stanford, Max Shulaker produziu, ainda que de modo artesanal, os menores circuitos do mundo usando uma tecnologia nova com os nanotubos de carbono, o material básico dos chips de grafeno, e depois disto aos poucos o processo foi se tornando industrial.

O novo tipo de material para chips é chamado CNFET(Transistores de efeito de campo de nanotubo de carbono), segundo o New York Times, o primeiro a produzir em laboratório foi feito no Robust System Group (há pesquisas desde 2002), um grupo liderado por Subhasish Mitra, ex-engenheiro da Intel, o chip feito na época tinha largura de 6 átomos de silício.

Publicamos recentemente um post (ver) que um grupo de pesquisadores e professores da Universidade Rice, entre eles o químico James Tour, encontraram um interessante efeito do óxido de carbono e silício, usando o grafeno, tendo como resultado uma memória em superfície transparente, que pode ser construída em 3D, com largura de um átomo de carbono.

Este dispositivo pode ser usado para memórias não-voláteis (substitui os Hardisk, pendrive e DVDs), resistentes ao calor, corrosão e a radiação.

 

Novo dispositivo de memória vem aí

10 out

Durante quatro anos um grupo de estudantes, pesquisadores e professores da Universidade Rice, encontraram um interessante efeito do óxido de carbono e silício, elementos comuns na Terra (pode-se um derivada da poluição e outro componente da areia), juntando-o com uma estrutura de carbono nova desenvolvida em laboratório que é o grafeno, resultado: uma memória em superfície transparente.

Além de esta memória ser possível em superfícies transparentes e construídas em 3D (o que aumento o volume de memória por micro-área), o químico James Tour afirmou que é possível fazer bits de memória de computador, menor que qualquer coisa que conhecemos, a custos menores e em escala industrial.

Detalhes desta investigação, mas que já produziu chips em laboratório, estão na revista última Nature Communications, uma das mais prestigiosas da área, descrevem uma memória não-volátil (quer dizer semelhante aos Hardisk, pendrive e CDs), resistentes ao calor, corrosão e a radiação.

Em trabalho recente de Tour e sua equipe, eles ofereceram detalhes do sucesso da fabricação deste chip em laboratório no site de notícias de Rice, usando eletrodos do grafeno, com unidades de memória construída praticamente na espessura de um átomo de carbono, prensando o óxido de silício entre eletrodos do grafeno.

Três grandes questões estão em jogo: o processo de redução de tamanho da área de armazenamento de memória, junto ao seu consequente aumento de velocidade, o problema da obsolescencia dos dispositivo (Disquetes e outros dispositivos e formatos que sumiram) e a defasagem entre o aumento da velocidade dos chips sempre mais rápido que o aumento da velocidade das memórias.

 

Internet das coisas

27 ago

O termo foi criado no Laboratório Auto-ID do MIT, e pretende recorrer ao novo sistema de identificação por radio-frequência (RFID, em inglês, Radio Frequency IDentification) e sensores de redes Wireless para registrar os bens e recursos das coisas na Web e prepara uma nova revolução tecnológica, mas no momento depende do desenvolvimento de sensores e da nanotecnologia para sua plena implantação.

O sensores com identificação por rádio frequência, por exemplo, poderão substituir sistema confusos de numeração, códigos de barra e demais sistemas de identificação e produtos, será fácil por exemplo, saber o preço, a origem, a data de fabricação, etc. de qualquer produto, é muito provável que nossos smartphones e celulares em breve terão estes sensores.

No aspecto da nanotecnologia, significa que cada objeto poderá aumentar o poder da rede de devolver a informação processada para diferentes pontos e terem capacidade de interagir e conectar, por exemplo, estando numa loja e supermercado, saber o preço do produto por seu RFID e ligação com a loja, informar data de validade e até mesmo o preço em outros lugares.

O Brasil já realizou dois congresos nesta área, o 2o. Congresso da Internet das Coisas que aconteceu em outubro de 2011, em Búzios, RJ.