Warning: Declaration of wp_option_choose_color_scheme::render() should be compatible with wp_option::render($field_html, $colspan = false) in /home/marcosmucheroni/www/blog/wp-content/themes/chocotheme/lib/theme-options/choose-color-scheme.php on line 39

Warning: Use of undefined constant wp_cumulus_widget - assumed 'wp_cumulus_widget' (this will throw an Error in a future version of PHP) in /home/marcosmucheroni/www/blog/wp-content/plugins/wp-cumulus/wp-cumulus.php on line 375
Computação – Hardware « Blog Marcos L. Mucheroni Filosofia, Noosfera e cibercultura
RSS
 

Arquivo para a ‘Computação – Hardware’ Categoria

[:pt]Rumo a computação sem servidor[:en]Towards serverless computing[:]

27 jan

[:pt]Entre as tendências apontadas pela Nasdaq, a bolsa de valores dos eletrônicos, está a chamada computação sem servidor, com a transferência das funções para o armazenamento em nuvens.
As nuvens passam a gerenciar as funções e o armazenamento feito pelos servidores, a computação fica mais ágil e menos dependente dos dispositivos móveis, que também começam a migrar para a IoT (Internet das Coisas) e assim a tendência geral poderá ser uma transformação digital, não a buzzword da moda, mas na própria estrutura do universo digital.
Outra consequência será a transferência e simplificação e muitas funções para a Web, que é confundida com a internet, mas é apenas uma fina camada sobre ela, escrita através de um interpretador (uma linguagem de computação com alta interatividade) que é o HTTP.
A criação e execução de aplicativos fica assim mais simples, mas isto não é propriamente a computação sem servidor como indica uma literatura superficial da área, e sim uma das importantes consequências dela.
A tecnologia de Função como um Serviço (Function as a Service) é diferente das definições de aplicações me Nuvens (IaaS, Infraestrutura como serviço e PaaS, Plataforma como serviço), onde os códigos são escritos sem que seja preciso saber em que servidor aquela aplicação vai ser executada.[:en]Among the trends pointed out by Nasdaq, the electronics stock exchange, is the so-called serverless computing, with the transfer of functions to cloud storage.

Clouds start to manage the functions and storage made by servers, computing is more agile and less dependent on mobile devices, which also begin to migrate to the IoT (Internet of Things) and so the general trend may be a digital transformation, not the buzzword of fashion, but in the very structure of the digital universe.

Another consequence will be the transfer and simplification and many functions for the Web, which is confused with the Internet, but it is just a thin layer on it, written through an interpreter (a computer language with high interactivity) which is HTTP.

The creation and execution of applications is thus simpler, but this is not exactly serverless computing as indicated by a superficial literature in the area, but one of the important consequences of it.

Function as a Service (FaaS) technology is different from the application definitions in Clouds (IaaS, Infrastructure as a Service, and PaaS, Platform as a Service), where codes are written without having to know on which server that application will be executed.[:]

 

[:pt]Totalidade e Infinito[:en]Totality and infinit[:]

16 jan

[:pt]O complexo é fundamental para se entender a totalidade, escreveu Edgard Morin: “apenas o pensamento complexo poderá civilizar nosso pensamento” (Morin, 2008, pg. 23), na ausência de um discurso totalizador e abrangente é ele próprio o pensamento complexo.

Giordano Bruno foi o primeiro a intuir que o infinito era fundamental para o nascente pensamento moderno, mas este se refugiou no dualismo racional (objetivismo x subjetivismo) e na finito humana que não admite o mistério e o infinito presente na totalidade cósmica.

O pensamento atual, graças a complexidade física que veio dos quanta e da teoria da relatividade, é lançado para as profundezas do universo para pensar a matéria e a energia escura e seus novos e excêntricos fenômenos que desafiam os modelos atuais de física, de ciência, e quiçá de religião.

Edgar Morin antes de refletir sobre a virada paradigmática, diz que o Ocidente “filho fecundo da esquizofrênica dicotomia cartesiana e do puritanismo clerical, comanda também o duplo aspecto da práxis ocidental, por um lado antropocêntrica, etnocêntrica, egocêntrica desde que se trata do sujeito (porque baseada na auto-adoração do sujeito: homem, nação ou etnia, indivíduo) por outro e correlativamente manipuladora, gelada “objetiva” desde que se trata do objeto” (Morin, 2008, p. 81).

Sem considerarem-se dogmáticos, arrogantes e autorreferenciadores, este pensamento mesmo quando projeta para o Infinito, mesmo apelando a Deus e mesmo invocando o diálogo são eles próprios arrogantes, basta a mínima dose de questionamento para notar-se a prepotência.

Ora, mesmo para o religioso admitir o mistério é imprescindível para admitir a ideia de Deus e de infinito, enquanto para o pensamento “racional” (não o racionalismo dogmático) admitir a complexidade dos fenômenos não é senão fazer ciência séria e investigar de fato a natureza por um lado e admitir o lugar do homem dentro dela a única possibilidade de superar a arrogância objetivista e egocêntrica do pensamento moderno.

O infinito que é também reivindicado por pensadores atuais como Ricoeur, Lévinas que explicou o sentido de alteridade diante do Infinito: “A idéia do infinito não parte, pois, de Mim, nem de uma necessidade do Eu que avalie exatamente os seus vazios. Nela, o movimento parte do pensado, e não do pensador.” (Levinas, 1988, p. 49).

LEVINAS, Emmanuel. Totalidade e infinito. Tradução José Pinto Ribeiro, Lisboa- Portugal, Edições 70, 1988.

 

 [:en]The complex is fundamental for understanding wholeness, Edgard Morin wrote: “Only complex thinking can civilize our thinking” (Morin, 2008, p. 23), in the absence of a totalizing and comprehensive discourse, complex thinking itself is.

Giordano Bruno was the first to intuit that the infinite was fundamental to the nascent modern thought, but this one took refuge in the rational dualism (objectivism x subjectivism) and in the human finite that does not admit the mystery and the infinite present in the cosmic totality.

Current thinking, thanks to the physical complexity that came from quanta and relativity theory, is launched into the depths of the universe to think about matter and dark energy and their new and eccentric phenomena that challenge current models of physics, science, and maybe religion.

Edgar Morin, before reflecting on the paradigmatic turn, says that the West “the fruitful child of the schizophrenic Cartesian dichotomy and clerical puritanism, also commands the double aspect of Western praxis, on the one hand anthropocentric, ethnocentric, egocentric since it is the subject ( because based on the self-worship of the subject: man, nation or ethnicity, individual) by another and correlatively manipulative, icy “objective” since it is the object ”(Morin, 2008, p. 81).

Without considering themselves dogmatic, arrogant, and self-referential, this thought, even when projecting to the Infinite, even appealing to God and even invoking dialogue, is itself arrogant, the slightest amount of questioning enough to note arrogance.

Now, even for the religious to admit the mystery, it is indispensable to admit the idea of ​​God and the infinite, while for the “rational” thought (not the dogmatic rationalism) to admit the complexity of the phenomena is only to make serious science and to investigate the reality, nature on the one hand, and to admit man’s place within it is the only possibility of overcoming the objectivist and egocentric arrogance of modern thinking.

The infinite that is also claimed by current thinkers such as Ricoeur, Lévinas who explained the sense of alterity before the Infinite: “The idea of ​​infinity does not start from Me, nor from a need for the Self that accurately assesses its emptiness. In it the movement starts from the thought, not from the thinker. ”(Levinas, 1988, p. 49).

LEVINAS, Emmanuel. Totalidade e infinito. Tradução José Pinto Ribeiro, Lisboa- Portugal, Edições 70, 1988.

 [:]

 

[:pt]Teletransporte quântico por chip[:en]Quantum teleportation chip[:]

30 dez

[:pt]O fenômeno é chamado entrelaçamento quântico, ou teletransporte, antes feito com partículas, agora com sinais foi feito entre chips.

O feito foi realizado por pesquisadores da Universidade de Bristol e da Universidade Técnica da Dinamarca, onde a equipe conseguiu enviou dados sem que os chips estivessem próximos.

O experimento significa um salto no teletransporte porque agora trata-se de sinais codificados, o que viabiliza a comunicação via teletransporte.

O paper da pesquisa já foi aceito para publicação em Physical Review Letters e está disponível no servidor de acesso aberto em pré-impressão arXiv.org .

O vídeo a seguir explica o entrelaçamento quântico:

https://www.youtube.com/watch?v=Q9J4ArjheD8[:en]The phenomenon is called quantum entanglement, or teleportation, once made with particles, now with signals was made between chips.
The feat was done by researchers from the University of Bristol and the Technical University of Denmark, where the team was able to send data without the chips being close.
The achievement means a jump in teleportation because it is now coded signals, which makes communication via teleportation possible.
The research paper has already accept to been published for publication in Physical Review Letters and is available on the open prepress access server arXiv.org.
The following video explains quantum entanglement:
https://www.youtube.com/watch?v=5_0o2fJhtSc[:]

 

[:pt]O que é difusão de inovação[:en]What is diffusion of innovation[:]

20 nov

[:pt]Uma inovação para chegar ao mercado, se ela não entrar em desuso que é uma possibilidade, passa por um processo chamado “curva de adoção”.

Everett Rogers, é um reconhecido nesta área de estudos de comunicação, professor do departamento e jornalismo da Universidade do Novo México, seu livro Diffusion of Innovations, já 5ª. edição é um dos livros mais citados na área, a primeira é de 1962, e o autor faleceu em 2004.

Sua argumentação principal é que a inovação é comunicada ao longo do tempo entre os participantes de um sistema social, e a origem de sua teoria abrange diversas disciplinas e embora jamais tenha usado o termo, pode-se afirmar com segurança que é transdisciplinar.

Rogers propõe que quatro elementos principais influenciam a disseminação de uma nova ideia: a própria inovação, os canais de comunicação, o tempo e um sistema social. Este processo depende fortemente do capital humano. A inovação deve ser amplamente adotada para se sustentar. Dentro da taxa de adoção, há um ponto em que uma inovação atinge a massa crítica. Que também pode ser entendida como a curva da adoção

A teoria caracteriza 5 vantagens para adoção de uma tecnologia: 1) a vantagem da melhoria de uma inovação em relação a concorrente de uma geração anterior de um produto, 2) a partir de um ponto, uma equipe deve aprimorar a vantagem relativa ao seu concorrente em potencial para não haver um retorno ao produto anterior, 3) o novo produto deve ser compatível ao anterior, não apenas quando instalação e operação, mas principalmente em relação ao estilo de vida do potencial consumidor, 4) relevância no momento do lançamento que significa um profundo entendimento das condições que a inovação encontra no momento que é lançada, e, 5) qual é a complexidade ou simplicidade do uso da inovação no momento que é lançada, inovações complexas podem atingir um pequeno público apenas.

Na figura acima a perspectiva de uma inovação chegar ao mercado, se não cair em desuso, passa por sucessivos grupos de consumidores adotando a nova tecnologia (mostrada em azul), sua participação no mercado (amarelo) acabará atingindo um nível de saturação.[:en]An innovation to reach the market, if it does not fall into disuse that is a possibility, goes through a process called “adoption curve”.
Everett Rogers, is a recognized in this area of communication studies, professor of department and journalism of the University of New Mexico, his book Diffusion of Innovations, already 5ª. is one of the most cited books in the area, the first is from 1962, and the author died in 2004.
Their main argument is that innovation is communicated over time among participants in a social system, and the origin of their theory spans several disciplines and although it has never used the term, it can be safely stated that it is transdisciplinary.
Rogers proposes that four main elements influence the dissemination of a new idea: innovation itself, communication channels, time and a social system. This process depends heavily on human capital. Innovation must be widely adopted to sustain itself. Within the rate of adoption, there is a point at which an innovation reaches critical mass. That can also be understood as the curve of adoption
The theory characterizes 5 advantages for adopting a technology: 1) the advantage of improving an innovation over a previous generation competitor of a product, 2) from a point, a team must improve the advantage relative to its competitor in potential for there to be no return to the previous product, 3) the new product must be compatible with the previous one, not only when installing and operating, but especially with regard to the potential consumer’s lifestyle, 4) relevancy at the time of launch which means a deep understanding of the conditions that innovation finds in the moment it is launched, and 5) what is the complexity or simplicity of using innovation when it is launched, complex innovations can reach a small audience only.
An innovation to reach the market, if not fall into disuse, is a possibility, goes through a process With its successive groups of consumers adopting the new technology (shown in blue), its market share (yellow) will eventually reach saturation level.[:]

 

[:pt]Projeto avançado Deep Mind[:en]Deep Mind Advanced Project[:]

20 set

[:pt]Projetos que tentavam simular sinapses cerebrais, a comunicação entre neurónios, foram anteriormente chamados de redes neurais ou neuronais, e tiveram um grande desenvolvimento e aplicações.

Aos poucos estes projetos foram se deslocando para estudos da mente e o código foi sendo dirigido para Machine Learning (Aprendizado por máquina) que agora usando redes neurais passou a ser chamado deep learning, um projeto avançado é o Google Brain.

Basicamente é um sistema para a criação e treinamento de redes neurais que detectam e decifram padrões e correlações em sistemas aplicados, embora análogo, apenas imitam a forma coo os humanos aprendem e raciocinam sobre determinados padrões.

O Deep Learning é um ramo da Machine Learning que opera um conjunto de algoritmos usado para modelar dados em um grafo profundo (redes complexas) com várias camadas de processamento, e que diferente do treinamento de redes neurais, operam com padrões tanto lineares como não lineares.  

Uma plataforma que trabalha com este conceito é a Tensor Flow, originada de um projeto anterior chamado DistBelief, agora é um sistema de código aberto, lançado pela equipe da Apache 2.0, em novembro de 2015, o Google Brain usa esta plataforma.

Em maio de 2016, a Google anunciava para este sistema a TPU (Tensor Processing Unit), um acelerador de programas de inteligência artificial programável com habilidade de alta taxa de transferência para a aritmética de baixa precisão (8 bts), que executa modelos e não mais treina como faziam as redes neurais, inicia-se uma etapa da Deep Compute Engine.

O segundo passo deste processo no Google Compute Engine, a segunda geração de TPUs alcança até 180 teraflops (10^12 números reais) de desempenho, e montados em clusters de 64 TPUs, chegam a trabalhar até 11.5 petaflops.[:en]Projects that attempted to simulate brain synapses, communication between neurons, were formerly called neural or neural networks, and had a large development and applications.
Gradually these projects were moving to studies of the mind and the code was being directed to Machine Learning that now using neural networks happened to be called deep learning, an advanced project is Google Brain.
Basically it is a system for the creation and training of neural networks that detect and decipher patterns and correlations in applied systems, although analogous, only imitate the way humans learn and reason about certain patterns.
Deep Learning is a branch of Machine Learning that operates a set of algorithms used to model data in a deep graph (complex networks) with several layers of processing, and that, unlike the training of neural networks, operate with both linear and non-linear patterns .
One platform that works with this concept is Tensor Flow, originated from an earlier project called DistBelief, is now an open source system, released by the Apache 2.0 team in November 2015, Google Brain uses this platform.
In May 2016, Google announced to this system the TPU (Tensor Processing Unit), a programmable artificial intelligence program accelerator with high transfer rate ability for low precision arithmetic (8 bts), which runs models and does not more training as neural networks did, a Deep Compute Engine stage begins.
The second step of this process in Google Compute Engine, the second generation of TPUs achieves up to 180 teraflops (10 ^ 12 floating point operations), and mounted in clusters of 64 TPUs, work up to 11.5 petaflops. [:]

 

[:pt]Porque a Inteligência artificial emergiu?[:en]Why did artificial intelligence emerge?[:]

22 ago

[:pt]O longo caminho percorrido pela Inteligência Artificial inclui a construção de linguagens como Lisp, Prolog, Haskel, mas atualmente emergiram ambientes como DialogFlow, Watson e
O Final do século 20 havia uma grande crise na IA (sigla para inteligência Artificial), mas a emergência de pesquisadores em Web Semântica retomou estudo e aos poucos, assuntos como IoT (internet das Coisas), Linguagem Natural e Machine Learning (não há uma tradução, mas poderíamos dizer aprendizagem por Máquina) emergiram.
O fato que assusta alguns está ligado ao conceito que se tem de “inteligência” e de “mente”.
Esta emergência despertou as cinco maiores companhias de tecnologia do mundo : Apple, Microsoft, Google, Amazon, e Facebook, que passaram a investir em inteligentes capazes de conversar com humanos.
Agora já 28% dos consumidores nos Estados Unidos atualmente usam algum assistente virtual, esses aparelhos que integram a tecnologia IA de um assistente de voz com um produto de casa comum tem tido grande sucesso, tais como Alexa, Echo e Google Home, mas o aumento de vendas para 39% anuais foram comemorados pelas empresas.
Em empresas a preocupação com a privacidade, a operação é feita usando armazenamento em nuvens, empresas com assistentes de som usam medidas diferentes para proteger as informações pessoais de seus consumidores, mas sabem que existem falhas nessas defesas.
O áudio enviado para a Google e Amazon é criptografado antes de ser transmitido, deixando a troca de dados supostamente segura, mas a base de dados pessoas precisa ser acessada para que a máquina vá “desenvolvendo” sua capacidade de aprendizagem.
Recentemente um pesquisador inglês da área de segurança da informação demonstrou que é possível transformar um Echo fabricado antes de 2017 em um instrumento de gravação perpetua cujo áudio pode ser transmitido a um local remoto, sem que o usuário saiba.
Para se proteger de hackers, uma boa prática é acessar sua conta e apagar o histórico de interações com os serviços periodicamente, mas resta saber se não foi hackeada neste período.
Já o Siri da Apple, ao invés de associar a gravação com a conta de usuário, ele associa a coleta da interação com você com uma série de números aleatórios.
Com ou sem segurança, este mercado cresceu e as empresas estão de olho, já é irreversível.[:en]The long road covered by Artificial Intelligence includes the construction of languages such as Lisp, Prolog, Haskel, but environments like DialogFlow, Watson, and
At the end of the 20th century there was a major crisis in AI, but the emergence of researchers in the Semantic Web resumed study and gradually, subjects like IoT (Internet of Things), Natural Language and Machine Learning (there is no translation, but we could say learning by Machine) emerged.
The fact that scares some is linked to the concept of “intelligence” and “mind.”
This emergency has awakened the five largest technology companies in the world: Apple, Microsoft, Google, Amazon, and Facebook, which have started investing in smart people who can talk to humans.
Now 28% of consumers in the United States currently use some virtual assistant, these devices that integrate the AI technology of a voice assistant with a common home product has had great success, such as Alexa, Echo and Google Home, but the increase of sales to 39% annually were celebrated by companies.
In companies the concern for privacy, the operation is done using cloud storage, companies with sound assistants use different measures to protect the personal information of their consumers, but know that there are flaws in these defenses.
The audio sent to Google and Amazon is encrypted before being transmitted, leaving the data exchange supposedly safe, but the people database needs to be accessed in order for the machine to “develop” its learning ability.
Recently a researcher in the field of information security has demonstrated that it is possible to transform an Echo manufactured before 2017 into a perpetual recording instrument whose audio can be transmitted to a remote location without the user knowing.
To protect yourself from hackers, a good practice is to access your account and erase history of interactions with the services from time to time, but it remains to be seen if it has not been hacked in this period.
Apple’s Siri, instead of associating the recording with the user account, associates the collection of the interaction with you with a series of random numbers.
With or without security, this market has grown and companies are watching, it is irreversible.[:]

 

[:pt]Material pode ajudar criação de chips quânticos[:en]Material can help quantum chips[:]

08 ago

[:pt]Pesquisadores da Universidade Central da Flórida (UCF) descobriram um tipo de material que poderia ser usado como um “bloco de construção” de chips quânticos, sendo composto de háfnio, telúrio e fósforo, Hf2Te2P.

Segundo o pesquisador Madabe Neupane, da UFC: “Nossa descoberta nos leva um passo mais perto da aplicação de materiais quânticos e nos ajuda a obter uma compreensão mais profunda das interações entre várias fases quânticas”.

O material tem mais de um padrão de elétrons que se desenvolve dentro de sua estrutura eletrônica, dando-lhe uma gama de propriedades quânticas. Neupane diz que este material aumentará o poder de computação para grandes volumes de dados em novos dispositivos e reduzirá consideravelmente a quantidade de energia necessária para a eletrônica de potência.

A descoberta já atraiu empresas que estão investindo na pesquisa, a Microsoft por exemplo investiu em seu projeto chamado Estação Q, o laboratório que está dedicado ao campo da computação quântica topológica, e a google se associou à NASA num investimento que trabalha com computação quântica e inteligência artificial.

Como os fenômenos quânticos precisam ser melhores compreendidos para que a eletrônica seja totalmente substituída pela fotónica e pela computação quântica, as mudanças de cenário computacional tendem a mudar rápida e continuamente.

A descoberta do laboratório de Neupane está publicada na Nature Communications, e é um grande passo para esta mudança de cenário.

 [:en]Researchers at the University of Central Florida (UCF) have discovered a type of material that could be used as a “building block” of quantum chips, consisting of hafnium, tellurium and phosphorus, Hf2Te2P.
According to UFC researcher Madabe Neupane, “Our discovery takes us one step closer to the application of quantum materials and helps us gain a deeper understanding of the interactions between various quantum phases.”
The material has more than one electron pattern that develops within its electronic structure, giving it a range of quantum properties. Neupane says that this material will increase computing power for large volumes of data on new devices and will considerably reduce the amount of power needed for power electronics.
The discovery has already attracted companies that are investing in research, Microsoft for example invested in its project called Station Q, the laboratory that is dedicated to the field of topological quantum computing, and Google has teamed up with NASA in an investment that works with quantum computing and artificial intelligence.
Because quantum phenomena need to be better understood so that electronics are totally replaced by photonics and quantum computation, computational scenario changes tend to change rapidly and continuously.
The discovery of Neupane’s lab is published in Nature Communications, and is a big step forward for this change of scenario.
[:]

 

[:pt]Novidades no Google News[:en]News in Google News [:]

02 jul

[:pt]Após vários anúncios, finalmente na segunda quinzena de maio o Google lançou seu novo aplicativo, somente agora consegui dar uma olhada no aplicativo que substitui o Google Play Newsstand, agora com uso de Inteligência Artificial.

O aplicativo trabalho em usar aprendizado de máquina para treinar algoritmos que vasculham notícias de modo complexo e recentes e divide-as num formato de fácil compreensão, com cronogramas cronológicos, notícias locais e histórias apresentadas numa sequencia de acordo com a evolução dos fatos, por exemplo, o início de uma partida de futebol, seus lances mais importantes, o resultado e as consequências.

Esta seção que são notícias que os algoritmos julgam importantes para você tem o nome For You (Para você no Brasil, e Para si em Portugal), seguem mais 3 seções assim divididas:

A segunda seção é chamada Manchete, onde as últimas notícias e temas específicos são apresentadas. Aqui, existe uma subseção onde o usuário pode escolher ler a notícia pela Cobertura Completa do Google, em que o Google divide-a em itens, numa variedade de fontes em Mídias sociais, permitindo saber onde e quando aquilo aconteceu.

A terceira seção mostra os favoritos, como os principais tópicos que o usuário costuma acessar, a IA tem grande trabalho ai, vai nas fontes favoritas do proprietário, salva histórias para leituras mais tarde e guarda pesquisas de acordo com a localização dos textos.

E por fim o White Play (Play Branco) que é a adição do novo Google news, que permite que o usuário acesse e assine serviços com conteúdos premium em Sites voltadas à notícias.

Enquanto uma parte da crítica continua a duelar com os velhos esquemas de notícias dirigidas ou enlatadas, vinculadas a grupos editoriais, o mundo das notícias personalizadas evolui.  [:en]After several announcements, finally in the second half of May Google launched its new application, only now I have been able to take a look at the application that replaces Google Play Nwesstad, now with use of Artificial Intelligence.

The application works on using machine learning to train algorithms that scour complex and recent news stories and divides them into an easy-to-understand format with timelines, local news and stories presented in a sequence according to the evolution of the facts, for example , the start of a football match, its most important bids, the result and the consequences.

This section which are news that the algorithms think important to you have the name For You, follow 3 more sections so divided: The second section is called Manchete, where the latest news and specific topics are presented. Here is a subsection where you can choose to read the news through Full Coverage by Google, where Google splits it into items from a variety of social media sources, letting you know where and when it happened.

The third section shows favorites, such as the top topics the user usually accesses, the AI ​​has great work there, goes to the owner’s favorite sources, saves stories for later readings, and saves searches according to the location of the texts.

And finally the White Play (White Play) which is the addition of the new Google news, which allows the user to access and subscribe services with premium content in news sites.

While a part of the critique continues to duel with the old canned news schemes linked to editorial groups, the world of personalized news evolves

 [:]

 

[:pt]Assistentes pessoais chegam ao consultório[:en]Personal assistants arrive at the office [:]

27 jun

[:pt]Em alguns consultórios médicos já se utilizam o Google Home, Assistant e Translate, além da indispensável Agenda, quem a começa a utilizar não a deixa mais, evita conflitos de horários e avisa esquecimentos, mas a ideia agora é integrar estes ambientes no “Medical Digital Assist”, desenvolvido pelo médico Steven Lin da Universidade de Stanford feito junto ao CNBC.
Segundo o site da CNBC, o projeto esta no grupo de saúde do audacioso projeto Google Brain, parte da divisão da Google em inteligência artificial, tendo como seu “objetivo ambicioso” de implantar testes com pacientes de saúde externos antes do final de 2018.
O objetivo principal, entretanto, é auxiliar os médicos em seus relatórios e prontuários médicos, antes de iniciar os estudos a Escola de Medicina de Stanford fez um levantamento onde verificou que os médicos perdem de 6 a 11 horas de seus trabalhos diários para documentar os históricos clínicos dos pacientes, por isto muitas vezes é mais fácil perguntas, mas as respostas dos pacientes podem ser imprecisas ou ignorar dados relevantes.
O problema da precisão é fundamental, o site da CNBC explica a diferença entre uma interpretação e “hipo” ou “híper” pode ser fatal, hipoglicemia é exatamente o oposto de hipoglicemia, se o médico não verificar isto cuidadosamente, inclusive na interpretação em IA.
A primeira fase deste estudo está prevista como conclusão em agosto, Lin disse que ambas as partes planejam renovar a colaboração para a segunda fase por ao menos por um ano.

Consta-se que a Microsoft e a Amazon também estão desenvolvendo sistemas semelhantes me inteligência artificial, e o foco principal permanece em elaborar os relatórios clínicos.[:en]In some doctors’ offices already use Google Home, Assistant and Translate, in addition to the indispensable Agend, whoever starts using it does not leave it any more, it avoids scheduling conflicts and warns forgetfulness, but the idea now is to integrate these environments into “Medical Digital Assit “, developed by the doctor Steven Lin of Stanford University made next to the CNBC.

According to CNBC site, the project is in the health group of the daring Google Brain project, part of Google’s division in artificial intelligence, having as its “ambitious goal” to deploy external health care trials before the end of 2018.

The main goal, however, is to assist physicians in their reports and medicals records, before beginning the studies the Stanford School of Medicine made a survey where they found that doctors lose 6 to 11 hours of their daily work to document the histories patients’ clinics, so it is often easier questions, but patient responses may be inaccurate or ignore relevant data.

The problem of accuracy is key, the CNBC website explains the difference between an interpretation and “hipo” or “hyper” can be fatal, hypoglycemia is exactly the opposite of hypoglycemia if the doctor does not check this carefully.

The first phase of this study is expected to conclude in August, Lin said both parties plan to renew collaboration for the second phase for at least a year.

Microsoft and Amazon are also reportedly developing systems similar to artificial intelligence, and the main focus remains on developing clinical reports[:]

 

[:pt]Alexa: assistente pessoal da Amazon[:en]Alexa: Amazon personal assistant[:]

26 jun

[:pt]Pode não parecer um fenômeno novo na tecnologia já que existem assistentes como o Siri, Cortana ou Google Now, mas o fato deste assistente ser realmente pessoal, por isto chamei os outros de assistentes de voz, é o fato que ele aprende e armazena os dados em uma nuvem particular da Amazon Web Service (AWS).

Ativados por voz estes assistentes pessoais embora todos fundamentados pelo uso de voz há diferenças, eles podem aprender com pessoas específicas hábitos e funções que elas desejam, enquanto o assistente de voz, como chamo Siri e Google Now agora emponderado pelo Dialogflow, como explicamos no post anterior, eles podem responder e aprender com a interação humana, mas poderá, se for desejável organizar seu próprio banco de dados.

O Alexa (por ser o assistente pessoal penso ser do género masculino, mas pode ser a também) está centralizada na nuvem da Amazon e tem seu próprio equipamento que é o Amazon Echo, uma coluna sempre conectada a internet via WiFi que está atenta aos diálogos do seu “dono”.

Os serviços de música em streaming com uso do Spotify ou Pandora, pode ler as notícias dos principais jornais que preferir, informar a previsão de tempo ou o trânsito a caminho do trabalho, pode controlar todos equipamentos em casa que sejam Smart Home, inclusive ele pode identificar e dizer sobre a compatibilidade, mais sua capacidade vai além.

Além disto tudo promete verificar coisas básicas como resolver contas matemáticas ou entrar numa conversa e até contar piadas, com o tempo este banco e esta capacidade vai evoluir.

Mas cuidado, já postamos aqui sobre o mito da singularidade (em especial o livro de Jean Gabriel Ganascia), a ideia que isto vai virar um monstro e controlar você é menos verdadeira que a de individualizar-se e deixar de falar com amigos e parentes. [:en]It may not seem like a new phenomenon in technology since there are wizards like Siri, Cortana or Google Now, but the fact that this wizard is really personal, that’s why I called the others for voice assistants, is the fact that it learns and stores the data in a private cloud from Amazon Web Service (AWS).
These personal assistants although all grounded by the use of voice there are differences, they can learn from specific people habits and functions they desire, while the voice assistant, as I call Siri and Google Now now empordered by Dialogflow, as we explained in the post above, they can respond and learn from human interaction, but may, if it is desirable to organize their own database.
Alexa (because I’m the personal assistant I think is masculine, but it can be the same) is centralized in the Amazon cloud and has its own equipment that is Amazon Echo, a column always connected to the Internet via WiFi that is attentive to dialogues of its “owner”.
Streaming music services using Spotify or Pandora, you can read the news of the main newspapers you prefer, inform the weather forecast or the traffic on the way to work, can control all equipment at home that are Smart Home, including it can identify and tell about compatibility, plus its capacity goes beyond.
In addition, it promises to check basic things like solving math accounts or getting into a conversation and even telling jokes, over time this bank and this ability will evolve.
But beware, we have already written here about the myth of singularity (especially the book by Jean Gabriel Ganascia), the idea that this will turn a monster and control you is less true than to individualize and stop talking to friends and relatives[:]