RSS
 

Posts Tagged ‘chip’

ARM será produzido pela Intel ?

22 ago

Os mais antigos lembram-se da evolução dos PCs 186, 286, 386, até chegar ao ARMPentium, que na verdade eram os nomes da evolução de seus processadores, mas depois continuou a existir a linha feita pela Intel chamada de x86, portanto para computadores e não para celulares.

 

A linha mais forte nos celulares é a ARM, na verdade é apenas uma design de chip, chamado de Arquitetura de Computadores, e seu dono é a empresa britânica SoftBank que pagou US$ 32 bilhões para ser dona da tecnologia, quem fabrica especialmente para smartphones, são a Snapdragon, Samsung, Apple, MediaTek, Nvidia, AMD (neste caso para servidores).

 

Já haviam rumores que a Apple estaria solicitando a produção de chips pela Intel na tecnologia ARM, o site The Verge afirmou isto, e uma implicação imediata é que um problema sério para a Samsung e TSMC, que fabricam os chips feitos pela Apple, que produz 1 bilhão de iPhones.

 

As duas questões seguintes são a vitória dos processadores de baixo consumo, um dos quesitos do ARM sobre a linha x86, o que é especial para smartphones e uma maior velocidade de processamento.

 

Para especialistas da computação é uma vitória sem volta da arquitetura RISC (Reduced Instrution Set Code), computadores com poucas instruções de máquina, já que ARM significa Arquitetura Avançada RISC (Advanced Risc Arquitecture).

 

Produzido inicialmente pela inglesa Acorn Computers, a arquitetura era baseada no modelo Berkeley RISC I, o ARM2 tinha o equivalente a 30 mil transitores, o ARM6 evolui para 35 mil e o ARM7 que ficou mais famoso pois foi utilizado em alguns modelos de netbooks em 2009.

 

http://www.theverge.com/2016/8/16/12507568/intel-arm-mobile-chips-licensing-deal-idf-2016

 

 

Limites reais da Lei de Moore

19 ago

Quando milhares de transistores começaram a ser colocados dentro de pastilhas microscópicas dos chips, e a microcomputaçãoNewLeiMoore nascia na década de 70, um engenheiro da Intel Gordon Moore formulou uma lei segundo a qual a cada dois anos o dobro de transistores eram colocados numa micro área das pastilhas de silício, e isto fez a velocidade e a capacidade dos microprocessadores chegarem aos bilhões de “transistores” por área (na casa dos 22 nm nanômetro), além de aumentar a velocidade hoje na casa dos GHz  (GigaHertz)

Porém este é o limite do silício, por sua capacidade atômica e por isto temos que usar os “fans” (ventiladores) porque para o processamento, a velocidade e a área usada está “fritando” os chips que devem ser resfriados, mas o professor Igor Markov, publicou um artigo na revista Nature que explica melhor este fenômeno dos chips atuais.

Os engenheiros estão preocupados com o limite da Lei de Moore que está prestes a ser alcançado como a densidade de transistor se aproxima da escala atômica, mas Markov diz que há muitos fatores envolvidos além de tamanho e há maneiras de obter maior poder de computação além de escala, dizendo que há um problema de “eficiência energética”.

Markov argumenta ainda há inúmeros ganhos a serem feitos nesta área e novos materiais, tais como transistores de nanotubos de carbono, que poderiam  ajudar a ter uma grande economia de energia que, por sua vez permitem maior poder computacional, em área que chegaria a 10nm.

Outra possibilidade já conhecida é a de explorar modelos naturais, tais como o cérebro humano, que é fundamentalmente diferente dos sistemas de computador existente tanto em termos de estrutura e funcionamento.

Mas Markov sabe que existem alguns limites físicos duros, estes  limites são conhecidos como o comprimento de onda de Planck e o limite Berkenstein, que ainda não são  o suficiente para que eles possam afetar computação, tanto quanto alguns suspeitam.

 

Repensando os computadores

18 ago

A tecnologia de silício aparentemente chegou no seu limite, anunciamos em nosso último post um chipNewChips que tenta imitar as sinapses cerebrais, mas que depende de uma nova programação para efetivamente funcionar.

A HP já anunciou o esforço para repensar as tecnologias de computação, computação quântica e cognitiva parecem ser os novos enfoques, mas há pouca coisa realmente funcional e que esteja pronta para ir para o mercado.

Agora a IBM anunciou investimentos da ordem 3 milhões de dólares em projetos que querem repensar o modelo dos supercomputadores atuais, e o vice-presidente de Sistemas e Tecnologia da IBM, Tom Rosamilia, declarou a ComputerWorld, que a curto prazo são os processadores gráficos de alta performance que podem melhorar o desempenho dos computadores, mas a longo prazo “temos outros pontos que podem dar saltos passando de uma tecnologia para outra”, que significa materiais, arquiteturas e programação inteiramente novas, que significa misturar e combinar tecnologias novas propostas.

Os novos modelos significam que será necessário pensar programas e sistemas muito antes que as arquiteturas surjam, e a lei de Gordon Moore que dizia que o número de transistores dobraria a cada dois anos e enquanto isto foi verdade para o silício, não foi preciso mudar o modo de processar e de programar, agora os novos chips em sistemas totalmente novos podem exigir programação antecipada, para que quando surjam tenham algumas funcionalidades já operacionais.

 

Chip do tamanho de um selo

15 ago

Um grupo de pesquisadores coordenados pela IBM criou um chip, que segundo o líder do grupoTrueFort Dharmendra Modha será uma máquina para “uma nova era” e foi publicado na Science.

Mas as aplicações comerciais ainda podem levar ano, pois o software para este novo chip deverá ser escrito novo, porque o sistema de programação de hardware é todo novo.

Dharmenda declarou a BBC que o chip é resultado de “um trabalho cumulativo de mais de 200 anos-pessoa”, o que significa um esforço científico realmente grande.

O chip chamado de TrueNorth é próprio para as operações matemáticas são interconectadas, o que lhe permite trabalhar muito mais dados ao mesmo tempo.

“Nosso chip integra computação, comunicação e memória”, disse Modha.

A computação “neuromórfica” do TrueNorth acontece através de redes formadas por unidades chamadas “spikes” ou impulsos.

 

Lei de Moore tem obstáculos

29 mai

A lei de Moore foi estabelecida pela primeira vez em 1965 por Gordon Moore, co-fundador da Intel em 1968 e, que em 1975 tornou-se um executivo da empresa.

O artigo original sobre a lei, publicado na revista eletrônica em 1965, tinha como foco aspectos econômicos relacionado ao custo por transistor, tecnologia anterior e a escala da nova tecnologia que era a Escala do Circuito impresso (SI), que crescia da pequena escala de integração (SSI) para a média escala (MSI), depois na década de 70 veio a larga escala (LSI).

Mas agora fabricar chips cada vez menores, mantendo o ritmo com a Lei de Moore talvez seja mais difícil hoje do que era no ano passado, disse William Holt, vice-presidente executivo e gerente geral do Grupo de Tecnologia de Manufatura da Intel, num discurso na Conferência Jeffries Global Technology, Media e Telecom da segunda semana de maio, e noticiada no PC World.

“Estamos mais perto de um fim do que éramos há cinco anos atrás? Claro. Mas somos nós para o ponto onde podemos realmente prever o efeito, nós não pensamos assim. Estamos confiantes de que vamos continuar a fornecer o blocos de construção básicos que permitem melhorias em dispositivos eletrônicos “, disse Holt.

Intel ainda tem a tecnologia de fabricação mais avançada da indústria de chips de hoje, mas foi preciso construir muitas novas fábricas para novos processos de chips, usando materiais novos como tungstênio e Germanio (Ge) para atingir a escala dos 90 e 65 nanômetros, e mais recentemente os gates high-k metal, de 45 nm e 32 nm.

As tecnologias abaixo de 22 nm (chamada Silvermont) já trabalham com estruturas 3D mas o futuro deve ser dos grafenos e chips quânticos, para andar na velocidade que andava a lei de Moore.

 

Quase-particulas ajudam fazer chip de grafeno

19 out

A pesquisa está sendo levada na Universidade de Rice, que tem se destacado por pesquisas na produção de novos chips de grafeno, o professor Peter Norlander desta universidade, afirmou que quase-partículas conhecidas como plasmons, que oscilam nas nano superfícies de metais que produzem chips (nano é 10-9 do metro) podem ajudar a redirecionar a luz que produzem revelam o circuito no chip, em processo análogo ao de revelação de filmes.

A base de todos os chips são estruturas P-N-P (Posiivo-Negativo-Positivo, como um transistor), o problema é que devido a infinitésima superfície onde o circuito é construído, a energia de luz incidente que se convertem em calor transfere diretamente os átomos do grafeno e esta mudança pode alterar material que tem a função de condutor em um semicondutor, conhecido na física de produção de chips como processo de “dopagem”.

No experimento, os pesquisadores envolveram o feixe de luz com oito discos de ouro (em nanoescala é claro) colocados em torno de um disco maior, e no ponto de interferência destrutiva, a maior parte da luz incidente (no processo de revelar o filme, neste caso o circuito) a maior parte da luz convertida em calor transfere diretamente as poções de grafeno em dopagem exata.

Conforme afirmou o prof. Norlander “O ponto quântico e atenas das nanopartículas plasmonicas podem ser ajustado para responder a qualquer cor no espectro visível”, ou seja, é possível controlar a luz que ”revela” o circuito.

O grafeno é uma grande promessa na continuidade do desenvolvimento em velocidade e tamanho de memórias digitais para esta década.

 

Crescimento dos chips vai continuar

16 out

A quase 50 anos, Gordon Moore anunciou uma lei que os dispositivos de processamento (os de memória são mais lentos) dobravam sua velocidade a cada dois anos, por causa disto esta “lei” ficou conhecida como Lei de Moore.

No entanto o limite de velocidade usando os chips de silício estava sendo alcançado, por isto o uso dos fans (ventiladores dos chips), mas já em 2011, pesquisadores do mundo inteiro buscavam alternativas ao Silício, num laboratório de Stanford, Max Shulaker produziu, ainda que de modo artesanal, os menores circuitos do mundo usando uma tecnologia nova com os nanotubos de carbono, o material básico dos chips de grafeno, e depois disto aos poucos o processo foi se tornando industrial.

O novo tipo de material para chips é chamado CNFET(Transistores de efeito de campo de nanotubo de carbono), segundo o New York Times, o primeiro a produzir em laboratório foi feito no Robust System Group (há pesquisas desde 2002), um grupo liderado por Subhasish Mitra, ex-engenheiro da Intel, o chip feito na época tinha largura de 6 átomos de silício.

Publicamos recentemente um post (ver) que um grupo de pesquisadores e professores da Universidade Rice, entre eles o químico James Tour, encontraram um interessante efeito do óxido de carbono e silício, usando o grafeno, tendo como resultado uma memória em superfície transparente, que pode ser construída em 3D, com largura de um átomo de carbono.

Este dispositivo pode ser usado para memórias não-voláteis (substitui os Hardisk, pendrive e DVDs), resistentes ao calor, corrosão e a radiação.

 

Novo dispositivo de memória vem aí

10 out

Durante quatro anos um grupo de estudantes, pesquisadores e professores da Universidade Rice, encontraram um interessante efeito do óxido de carbono e silício, elementos comuns na Terra (pode-se um derivada da poluição e outro componente da areia), juntando-o com uma estrutura de carbono nova desenvolvida em laboratório que é o grafeno, resultado: uma memória em superfície transparente.

Além de esta memória ser possível em superfícies transparentes e construídas em 3D (o que aumento o volume de memória por micro-área), o químico James Tour afirmou que é possível fazer bits de memória de computador, menor que qualquer coisa que conhecemos, a custos menores e em escala industrial.

Detalhes desta investigação, mas que já produziu chips em laboratório, estão na revista última Nature Communications, uma das mais prestigiosas da área, descrevem uma memória não-volátil (quer dizer semelhante aos Hardisk, pendrive e CDs), resistentes ao calor, corrosão e a radiação.

Em trabalho recente de Tour e sua equipe, eles ofereceram detalhes do sucesso da fabricação deste chip em laboratório no site de notícias de Rice, usando eletrodos do grafeno, com unidades de memória construída praticamente na espessura de um átomo de carbono, prensando o óxido de silício entre eletrodos do grafeno.

Três grandes questões estão em jogo: o processo de redução de tamanho da área de armazenamento de memória, junto ao seu consequente aumento de velocidade, o problema da obsolescencia dos dispositivo (Disquetes e outros dispositivos e formatos que sumiram) e a defasagem entre o aumento da velocidade dos chips sempre mais rápido que o aumento da velocidade das memórias.

 

Morre outro pioneiro, dos microprocessadores

20 ago

Morreram no ano passado, além do conhecido Stevie Jobs, Dennis Ritchie criador do Unix e do C, uma linguagem de código aberto e livre, sem a qual não haveriam microcomputadores e códidos abertos (veja nosso post), também morreu Michael Hart, pioneiro das bibliotecas digitais (veja nosso post), entre outros, agora morreu aos 79 anos Victor Poor, um dos pais fundadores da inovação dos microprocessadores, morreu sexta-feira, com a idade de 79, de câncer no Pancreas, câncer no pâncreas em Palm Bay, na Flórida, EUA.

Ele foi um dos poucos engenheiros que ajudou a desenvolver microprocessador da Intel primeiro chip único – o 4004, quando segundo o New York Times, em 1969 se encontrou com o então engenheiro da Intel Stanley Mazor para discutir a idéia de construir um processador para um terminal programável (no início a ideia não era um microcomputadores), projeto no qual seu colega já trabalhava, e que que seria mais o primeiro computador-no-chip 4004.

Depois deste primeiro, veio a famosa linha da Intel de microprocessadores usados nos primeiros “micros” 8008, 8086, e 8088; trabalhados por ele, Mazor e vários outros engenheiros altamente conceituados, como Ted Hoff e Federico Faggin, para construir outros microprocessadores.

Lançado em 1971, além Poor e Mazor, participaram do projeto arquitetônico do primeiro micro-processador, Frederico Faggin que foi um projetista de chips (chip designer) e Ted Hoff que havia feito a proposta arquitetônica do MCS-4 em 1969 (então apenas no papel).

 

Novos processadores AMD

30 jun

Segundo Ronaldo Miranda, gerente-geral da empresa no Brasil, em evento realizado em São Paulo segundo o Portal G1, a nossa linha de processadores AMD chamada “Trinity”, chega ao Brasil no segundo semestre e os preços dos aparelhos com o chip devem ficar entre R$ 1,3 mil e R$ 2 mil, por uma decisão já tomada anteriormente, conforme afirmou o gerente- geral no evento:

“A decisão dessa faixa de preço em 2011 nos ajudou a quadruplicar nosso crescimento. Temos 27% de participação no mercado de notebooks, aparelhos que respondem por 63% das vendas no Brasil”, mas na prática significa um controle de preços no mercado.

O processador é 29% mais rápido que o anterior, e com isto a bateria pode durar bem mais chegando até 12 horas se a máquina em “stand by”.

Os chips devem ser usados em ultrabooks, mas poderão estar nos tablets e smartphones.

Mas uma linha ainda mais poderosa chamada Opteron 6200, ou ainda “Interlagos”, com 16 núcleos (cores) serão de 25% a 30% mais rápidos que os anteriores Opteron 6100, que tinham 12 núcleos de processamento, sendo indicado para servidores e recebeu prêmios no início do ano segundo analistas (cf Analysts Choise Award), a série chega a 20% a mais de performance em total e quase 40% acima do desempenho de operações de ponto-flutuante em relação aos concorrente, além de ser mais barato.