RSS
 

Arquivo para a ‘[:pt]Dispositivos[:en]Devices[:es]Dispositivos[:]’ Categoria

Andróides sonham ?

18 mai

Os dois filmes de Blade Runner foram inspirados no livro Androides sonham com ovelhas elétricas?, de Philip K Dick é relançado em edição comemorativa de 50 anos (1968-2018) com escritos inéditos: uma carta do autor para os produtores de Blade Runner, na qual profetiza o sucesso da produção e a última entrevista concedida por Dick, publicada em 1982 na revista The Twilight Zone Magazine na ocasião do lançamento do filme.

O prefácio exclusivo assinado pelo escritor e jornalista argentino Rodrigo Frésan, amante da ficção científica e da obra de Dick relatando a conturbada e impressionante vida do autor, e um brilhante cenários que chamam de “pós-apocalípticos” feitos por Douglas Kellner e Steven Best, professoras respectivamentte da Universidade da Califórnia e na Universidade do Texas.

Acrescente-se a isto um posfácio escrito pelo tradutor do livro, Ronaldo Bressane, que compara Androides com Blade Runner e comenta aspectos da obra não explorados no cinema, como a preocupação ambiental, além das questões religiosas e metafísicas presentes no texto.

As questões religiosas e metafísicas são tão atuais que merecem uma visão atualizada do que pensamos que é o nosso universo interior, os nossos valores e nossa relação com o mundo natural e ao mesmo tempo transcendental, no sentido não imediato.

O que é a natureza além a natureza e o que é o homem além do humano, não é nem trans-natureza e nem trans-humano apenas, mas para olhá-la de modo adequado será preciso ter um olhar transdisciplinar, não ver pelo lado apocalíptico e pessimista apenas.

A Inteligência Artificial é sem dúvida uma inspiração para os próximos anos, pensar nela não é pensar fora do espírito e da interioridade humana, mas é justamente questionar o que é isto, Blade Runner 2049 fez isto, mas o sucesso foi pequeno, preferimos Robocop.

Se a vida interior reduziu-se na modernidade não é devido aos avanços atuais e vindouros, mas devido ao fato que as vezes atribuímos aos humanos atitudes de robôs e não o contrário, pois os robôs atuais ainda tem raciocínio mecânico e numa lógica limitada.

 

Ambientes de agentes e um exemplo

17 mai

O exemplo que Norvig e Russel (2010) vão dar para descrever o que é um ambiente na Inteligência Artificial é feliz e infeliz ao mesmo tempo, feliz porque tornou-se algo real 8 anos após a edição do livro, um táxi como veículo autónomo, e infeliz porque já há casos de acidentes com veículos autónomos.

O que chama de ambiente é descrito como PEAS (Performance, Ambiente, Atuadores e sensores, traduzidos ao português) (figura ao lado), cuja primeira etapa é projetar o ambiente da tarefa.

O agente será diferente de um software (um softbot ou webcrawler), mas é didático.

O ambiente sugerido era de um táxi autônomo, o que na época era um “pouco além das capacidades da tecnologia existente”, mas na página 28 vai descrever um robô com esta função, o lado fortuito do exemplo como dizem os autores é uma tarefa “completamente aberta” e “não há limite para as novas combinações de circunstância que podem surgir” (Norvig, Russel, 2010, p. 40)

Que medidas de desempenho serão desejadas: chegar ao destino correto, minimizar o tempo de destino correto, o consumo de combustível e desgaste, as violações de tráfego, distúrbios e segurança aos passageiros e outros condutores, e se houver conflitos tomar decisões (eis um dos motivos do acidente para proteger os passageiros causou um atropelamento de uma transeunte).

O passo seguinte é mapear um ambiente de um carro autónomo, deverá lidar com uma variedade de estradas, desde pistas rurais e vielas urbanas a rodovias de 3, 4 e até 5 pistas, havendo nas pistas além de outros veículos, pedestres, animais vadios, obras na estrada, carros da polícia, poças, e buracos, e deve interagir com passageiros em potencial e reais.

Os atuadores para um táxi automatizado incluem aqueles disponíveis para um motorista humano: controle sobre o motor através do acelerador e controle sobre direção e frenagem.
algumas escolhas opcionais de comunicação com outros veículos com setas e até buzina, e com os passageiros que necessitarão de sintetizadores de voz.

Os sensores básicos do táxi incluirão uma ou mais câmeras de vídeo controláveis para que possam ver a estrada; pode aumentá-las com sensores de infravermelho ou
sonar para detectar distâncias para outros carros e obstáculos.

Os problemas de segurança e convívio com motoristas humanos é evidente, mas graças a este exemplo de sucesso feito em 2010, hoje tem-se mapas, GPS, sinalizadores em estradas, e muitos outros avanços.

NORVIG,  P.; RUSSEL, P. Artificial Intelligence: A Modern Approach 3nd ed., Upper Saddle River, New Jersey: Prentice Hall, 2010.

 

História do algoritmo

07 mai

A ideia que podemos resolver problemas propondo um número finito de interações entre diversas tarefas (ou comandos como são chamados em linguagens de computação) para diversos problemas tem origem na Aritmética.
Ainda que a máquina de Charles Babbage (1791-1871), e a Álgebra de Boole (1815-1864) tenham uma enorme contribuição para os modernos computadores, a maioria dos lógicos e historiadores do nascimento do mundo digital, concorda que o problema de fato foi levantado pelo segundo problema de David Hilbert (1962-1943), numa conferência de 1900, em Paris.
Entre 23 problemas para a matemática resolver, alguns resolvidos recentemente como o Conjectura de Goldbach (veja nosso post), e outros a resolver, o segundo problema se propunha a provar que a aritmética é consistente, livre de qualquer contradição interna.
Nos anos de 1930, dois lógicos matemáticos, Kurt Gödel (1906-1975) e Gerhard Gentzen (1909-1945) provaram dois resultados que chamavam de novo atenção ao problema proposto, ambos se referiam a Hilbert, então de fato, ali está a origem da questão, grosso modo, se um problema enumerável é resolvido por um conjunto finito de passos.
Na verdade, a solução de Gentzen era uma prova da consistência dos axiomas de Peano, publicada em 1936, mostrava que a prova de consistência pode ser obtida em um sistema mais fraco do que a teoria de Zermelo-Fraenkel, usava axiomas da aritmética primitiva recursiva, não sendo portanto uma prova geral.
Já a prova da inconsistência da aritmética, chamada de segundo teorema da incompletude de Gödel, é mais completa e mostra que não é possível alguma prova da consistência dos axiomas de Peano ser desenvolvida sem essa própria aritmética.
Esse teorema afirma: se os únicos procedimentos de prova aceitáveis são aqueles que podem ser formalizados dentro da aritmética, então o problema de Hilbert não pode ser resolvido, dito de outra forma mais direta, se ou o sistema é completo ou consistente.
Há polêmicas levantadas sobre estes resultados, como Kreisel (1976) que afirmou que as provas eram sintáticas para problemas semânticos, Detlefsen(1990) que diz que o teorema não proíbe a existência de uma prova de consistência, e Dawson(2006) que afirmou que a prova da consistência é errônea usando a prova dada por Gentzen e do próprio Gödel em trabalho de 1958.
Polêmicas a parte, a participação de Kurt Gödel no importante circulo de Viena na década de 20 antes da guerra explodir, e as posteriores discussões de seus teorema por Alain Turing (1912-1954) e Claude Shannon (1916-2001) atentam sua importância para a história dos algoritmos e dos modernos computadores digitais.

 

Uma forma de avançar na educação

19 abr

As educações básicas precisas como disseram no primeiro postde empatia, capacidade de resolver conflitos e não será possível com a educação on-line atingir os níveis de escolarização para as faixas etárias mais baixas, mas a partir da primeira escolaridade.

Chamo isto a idade até os 10 ou 12 anos, já é possível observar que o ensino on-line ajuda e pode ser de grande avanço, em especial para crianças que vivendo em países periféricos tenham capacidade de rendimento escolar acima do que seria próprio da sua idade, claro esta criança deve desfrutar de canais de empatia e sociabilidade normais da sua idade.

Porém no nível superior é que podemos ter saltos maiores de qualidade e propiciar uma alta escolarização em escala mundial, só para dar um exemplo, a Índia que ainda tem níveis de saúde e pobreza alarmante é um país gerador de cérebros e estudantes de alto nível.

Os MOOCs (Massive Open Online Curses) é um tipo de curso aberto oferecido por meio de ambientes virtuais de aprendizagem, ferramentas da Web 2.0 ou redes sociais que visam oferecer para um grande número de alunos a oportunidade de cursarem sem a presença física em universidades e sem custos de moradia, transportes, etc.

Um fake News rodou este universo dizendo que os MOOCs nasceram em 2012 e faleceram em 2014, mas isto não é verdade, os números comprovam isto: os números atuais segundo o site Central-Class, o número de estudantes online é de 58 Milhões, distribuídos em mais de 700 universidades, em 6850 cursos, também os gráficos deste site mostram valores crescentes.

No Brasil grandes universidades já possuem cursos on-line, por exemplo: a FEA, da USP, tem um curso de  Fundamentos de Administração (FEA/USP), disponível na plataforma Veduca, de educação online do Brasil, o curso gratuito é destinado a quem deseja aprender a administrar, outro curso é Responsabilidade Social e Sustentabilidade das Organizações (PUC/RS), curso da PUC do Rio Grande do Sul disponível na Miríada X, a Fisica de São Carlos tem o curso Física Básica (IFSC/USP), o curso tem carga horária de 59 horas divididas em 26 aulas e a UnB tem o curso Bioenergética (UNB),  que permite ao interessado optar por apenas assistir às aulas ou obter o certificado.

 

As redes e relações (in)visíveis

09 abr

Um dos assuntos em foco hoje são as redes sociais, elas não são de hoje, o problema é que hoje elas estão em evidencia, mas continuam a guardar certos aspectos de invisibilidade, confundidos com virtualidade, façamos uma análise histórica.

As redes de comércio na antiguidade, por mar e por terra, os colégios invisíveis, definidos por Solla Price em seu trabalho “O desenvolvimento da ciência: análise histórica, filosófica, sociológica e econômica”, de 1976, chama as redes científicas de redes colaborativas, onde os pesquisadores se comunicam, trocam informações e experiências, significa que mesmo na ausência, através dos trabalhos impressos e das conferências, os autores colaboram.

Essencialmente, uma rede é uma teia de nós (elementos) e links (conexões) entre os nós, embora estes participantes sejam autônomos, as consequências das conexões em redes podem ultrapassar os seus próprios limites por conexão para “fora” através dos laços fracos.

Na análise de redes podem ser identificados apenas por razões didáticas, três tipos: as redes egocentradas (ego networking), as redes de análise global (Global Networking) e as redes de relações entre atores, chamadas TAR (Teoria Ator-Rede)  com origem nos trabalhos de Michel Callon.

As redes de aeroportos, as redes de transportes de containers a nível mundial, as redes de telecomunicações e evidentemente a internet, a Web é uma camada sobre esta rede. 

As redes globais são influenciadas fortemente pelas mídias, e elas criam certa dose de invisibilidade, uma vez que as redes colaborativas de publicações são também foram chamadas de colégios invisíveis por autores como Solla Price, mas aceleradas pela velocidade dos meios, os mídias eletrônicas tem maior velocidade de publicação e comunicação que a impressa, então blog, twitter e as mídias de redes sociais como Facebook ocupam um papel novo na atualidade, mas não são em si redes, mas mídias de redes.

Diversas medidas podem ser pensadas, a centralidade de proximidade (closeness) de um ator mede o quanto um nó está próximo de todos os outros, maior será a medida de proximidade, a centralidade de intermediação (betweenness) mede a importância de um nó na circulação da informação.

Então, para efeito de informação, o betweenness é a medida do controle que um ator detém no fluxo de informação e closeness é a facilidade que um ator tem do acesso à informação.

A invisibilidade, enfatizando presente nos colégios “invisíveis” na modernidade, é relativa ao processo de comunicação e informação que pode ir além dos autores-atores ao longo da rede, a virtualidade por sua vez refere-se a potencialidade de aumento da capacidade da rede.

 

Escutando não ouvem

04 abr

O fato fisiológico de se escutar pode estar em contraste com a apreensão do conteúdo no cérebro humano, isto é, pode-se ter um aparelho auditivo adequado ou até mesmo artefatos que ajudem, mas mesmo escutando não ouvem, isto é não apreendem o conteúdo.

A visão de McLuhan que a comunicação, como meio tende  a ser definida como transparente, inócua, incapaz de determinar quais são os conteúdos comunicativos que estão veiculados.

 A sua única incidência no artefato, seja ela qual for, no processo comunicação seria negativa, devido a ruídos ou obstáculos na veiculação da mensagem, esta já era a preocupação enquanto aparato de Claude Shannon, mas agora McLuhan chama que tanto a mensagem feita oralmente ou por escrito, seja ela transmitida por rádio, televisão, põe em jogo novas estruturas sendo elas artefatos destinados a ampliar os sentidos realçando contornos e outros nuances do que é comunicado, neste trabalho relaciona com o artista que deseja realçar algo.

Dito de forma mais direta, para McLuhan, o meio, o cana (termos mais apropriado para Shannon)l, os artefatos de tecnologia que a comunicação se estabelece, não é apenas constitui a de certa forma de comunicado, mas determinará em última instância o próprio conteúdo.

O que McLuhan chama a atenção é o facto de uma mensagem proferida tanto oralmente

quanto por escrito, ao ser transmitida pelo rádio ou pela televisão põe em jogo o conteúdo.

Sua tese central é que existe aí uma dupla operação: 1) estudar a evolução dos meios comunicativos usados pelos homens ao longo da sua História, e, 2) identificar as características especificas de cada um desses diferentes meios/artefatos de comunicação.

Estes são dois pontos centrais de sua investigação que estão na raiz de uma de suas obras fundamentais, a saber,  Understanding Media, de 1964.

Assim desenvolve três galáxias, quando apenas uma é lembrada, a Galáxia de Gutenberg, que é típica da cultura escrita e depois a impressa com as possibilidades de reprodutibilidade, mas há a cultural oral ou acústica que é anterior, onde a questão da escuta é fundamental, nelas mestres (no sentido oral), oráculos e profetas ocupam um papel central, e, a atual que McLuhan chamava de eletrônica, mas pode-se como prolongamento falar de uma galáxia digital em rede, onde tem-se  mídias de redes que não devem ser confundidas com as redes, pois estas existem nas galáxias anteriores.

Desta forma quem está preso a Galáxia de Gutenberg pode não escutar a Galáxia da cultura oral, e aqueles que estão presos a Galáxia dos meios eletrônicos, chamo-a de Shannon, não escutam a Galáxia da cultura oral e da Galáxia de Gutenberg, os artefatos multimodais poderão mudar isto?

 

Por uma filosofia do Design

22 mar

Vilém Flusser foi um tcheco naturalizado brasileiro, falecido em 1991, que atuou por cerca de 20 anos como professor de filosofia, jornalista, conferencista e escritor no Brasil e depois de volta no seu país de nascimento a Republica Tcheca.

Seus livros estão sendo republicados no Brasil, incluindo todos os seus escritos, e comecei relendo O mundo Codificado – por uma filosofia do Design.

Sua obra vai além das influências que recebeu de Roland Barthes, Marshall McLuhan, pois sua filosofia é própria com elementos de fenomenologia e existencialismo.

Na introdução do livro, feita por Rafael Cardoso, é destacada sua mudança de pensamento sobre as modernas mídias que apenas viu nascer: “ao contrário da maioria dos filósofos modernos, que costumam concentrar suas análises na linguagem verbal ou nos códigos matemáticos, Flusser dedicou boa parcela de seu gigantesco poder de reflexão às imagens e aos artefatos, elaborando as bases de uma legítima filosofia do design e da comunicação.” (FLUSSER, 2017, p. 10)

Lançou perguntas profundas sobre o mundo virtual: “Se uma árvore cai no espaço virtual, e não há ninguém on-line, será que ela gera uma mensagem de aviso?” retomando a famosa questão da árvore que cai na floresta, e também “Qual a diferença entre o material e o imaterial? Podemos trocar coisas por não coisas?” (idem) e conclui com uma pergunta ainda mais fundamental: “Que destino devemos reservar para os detritos gerados por nossa frenética atividade de transformação da natureza em cultura?” (FLUSSER, 2017, p. 15)

Aproxima-se do paradigma da informação, base essencial para o conhecimento e a educação, “o fim da história parecer ser o fim de nossa capacidade coletiva de lutar contra a entropia, contra a desagregação do sentido e da forma. Se a base daquilo que entendemos por cultura reside na ação de in + formar, então não é paradoxal que o excesso de informação nos conduza à desagregação do sentido ? “ (idem)

A importância do “conceito de virtualidade talvez seja a melhor e mais elegante prova do quanto Flusser tinha razão.” (idem), e não se pode mais fugir a esta questão, o uso em diversas formas de informação, comunicação e das artes exige a abertura desta “caixa preta”, nome de um ensaio publicado no ano de 1985.

Flusser ao contrário de apocalípticos, admite que “ao menos em tese”, o que deveria transformar-se em bem estar, ““humano torna-se escravo das forças de uma outra “natureza” que ajudou a gerar artificialmente”.

Aspectos da virtualidade e de um mundo codificado são desenvolvidos de maneira única pelo autor e contribuem para um debate mais sereno sobre as novas mídias.

FLUSSER, V. O mundo codificado: por uma filosofia do design. São Paulo: Ubu editora, 2017.

 

Princesa Léia: de Volta para o Futuro

03 fev

Eu sei, são dois filmes distintos, porém a Universidade Brigham Young (BYU) parece retornaraPrincesaLeia ao caminho da transmissão e projeção de imagens holográficas 3D no ar.
“Nossa equipe tem como missão tornar realidade os hologramas em 3D das ficções científicas” disse Daniel Smalley, professor de engenharia computacional e informática, um especialista em holografia que publicou recentemente (25/01) um artigo na Revista Nature.
A técnica que desenvolveu baseia-se no fenômeno da fotoforese, na qual partículas suspensas em meio a um líquido gasoso (há experiências com gotículas de água que o obriga a serem aspiradas no ar), podendo ser as próprias partículas que estão no ar atmosférico, que precisam ser movimentadas por gradientes térmicos e que pode ser feito por raios laser, explica Smalley “essas telas são capazes de produzir imagens em um ´ar fino’ que são visíveis de qualquer direção e não estão sujeitas a recortes”, ou seja, é visto de qualquer posição do espectador.
O nome técnico deste efeito é mais precisamente: “photophoretic-trap volumetric display” (uma tradução pode ser ´display de projeção volumétrica por armadilha fotoforética´), e é superior a técnicas antigas que não conseguiram capturar a luz por meio do ar para criar um objeto virtual com a mesma noção de profundidade do objeto real.
Mas o mais espetacular é a possibilidade de projeção RGB (Red-Green-Blue, as três cores primárias que compostas foram o espectro visível pelo ser humano), como o ponto de luz é capaz de mover-se rapidamente e assim o ponto de luz produz a cor, a projeção dos rádios laser verde, vermelho e azul produzem o efeito visual da cor.
A imagem colorida em três dimensões volumétrica (3D), terão a resolução de 10-micrómetro (10^-6 do metro ou 10^-4 do centímetro), isto significa produzir 10 mil voxels (Pixels volumétricos) por centímetro ou um milhão por metro cúbico.
Em pouco tempo a comunicação mudou, em 10 anos falamos pela Web em interação visual, graças ao VoIP (voz sobre Internet), agora a interação volumétricas em hologramas, ou também, assistir imagens de objetos e pessoas a nossa volta que estão a milhares de quilômetros de distancias, ou simplesmente, em filmagens de outros tempos, estamos de volta ao futuro.

 

Heidegger e a clareira

08 jan

O termo é recorrente na filosofia, Platão falava de sair da caverna para aaClareira luz, na modernidade surgiu o iluminismo, e mais recentemente Heidegger falava  da clareira, significando uma abertura no meio da floresta, portanto, a questão da falta de luz e noite escura não é nova.
Mas estudando a etimologia da Clareira, retirando-a da filosofia de Heidegger, ela vem da palavra alemã Lichtung, onde além do significado de clareira na floresta (ele próprio viveu alguns anos na floresta negra da Alemanha), enquanto Licht é a palavra para luz, significará coisas ocultas, ou entes cuja verdade deve vir à tona, assim alguns tradutores usam desvelar.
A clareira é neste contexto o que está oculto dentro de um todo, onde deve emergir o ser, e isto parece mais apropriado a modernidade, visto que a fragmentação onde apenas emerge a parte, é na maioria das vezes oposta ao todo ao qual o ente pertence, assim a questão do Ser.
Assim a verdade, para os dias atuais, existe na abertura da parte para o todo, e é sensível o total fechamento da parte ao todo, não apenas como contexto, mas como parte integrante do Ser, e ao qual é preciso abertura para se chegar a verdade, não a afirmação referente ao objeto, mas a noção primordial da verdade que é a descoberta do ente em si mesmo.
O ente que se descobre, enunciou o próprio Heidegger: “deixa-se ver em seu ser e estar descoberto. O ser-verdadeiro (verdade) do enunciado deve ser entendido no sentido de ser-descobridor” (Heidegger, 1986, 219).
Primeiro vemos esta verdade ontológica como Ser, e não mais como lógica, segundo vemos esta relação entre conhecer o objeto e a própria relação com o Ser, o que na filosofia moderna poderia ser chamada de subjetividade, mas não é porque não são instâncias separadas.
O que se teoriza aqui, em conformidade com a teoria antropotécnica em extensão a sociotécnica, é que ao invés de  tratar a diferença entre pensar o homem como o ente que “tem” objetos, no sentido de ser ele possuidor como as capacidades de falar, e construir objetos “externos”, a concepção ontológica que pensa o homem como “sendo” por meio dos objetos (a linguagem e a produção da sua própria vida e dos meios necessários a ela), permite entender todos os meios não apenas como veículo de transmissão de informações, mas como o modo no qual se manifesta o próprio existir humano, chamamos isto de onto-antropotécnica.
Na foto, artigo de  Andrew Kessel para a revista SingularityHub, faz experimentos de recriação de objetos na vida real por computadores, em impressoras 3D, que é uma recriação dos objetos já ontologicamente criados.

HEIDEGGER, M. Sein und Zeit. 17 ed. Tübingen, Niemeyer, 1986.

 

A  tecnologia e as más notícias em 2017

27 dez

O ministro Gilberto Kassab anunciou em janeiro deste ano que a banda larga teriaGoProFusion limite de dados, e a mobilização de usuários e até da Anatel foi imediata, também neste mês a boa e antiga Nokia (agora HMD global) anunciou sua adesão ao sistema Android, que vai se universalizando.
Em janeiro a Sul coreana Samsung admitiu os problemas de explosões com o Galaxy Note 7.
Fevereiro foi marcado por uma série de smartphones, como o revivido design do Nokia 3310, sem o mesmo sucesso imediata da primeira geração o Pokemon GO chegou ao mercado.
Em março a Nintendo lançou a console Switch, o ZenFone 3 Zoom é lançado no Brasil, e também os Galaxys S8 e S8+.
Abril foi o mês do alerta, a brincadeira de mal gosto Baleia Azul começou a se proliferar, também houve o caso do menino do Acre que deixou mensagens criptografadas e sumiu.
Maio foi o mês do vírus ransomware Wanna Cry, que afetou Telefonia e o FedEx europeu, em 3 dias o vírus foi neutralizado, mas a cobrança em bitcoins por arquivos capturados rendeu alguns milhões provavelmente, o autor ainda não foi identificado.
Em junho variações do WannaCry afetaram possível que a origem tenha sido na Rússia.
Em julho aparece o aplicativo de mural virtual Sarahah, o app é polêmico porque diferente dos spinners (anúncios virtuais), permite o anonimato que pode ser fonte de golpes.
Em agosto Andy Rubin, considerado pai do Android, lança o conceito de Essential Phone, mas como a maioria dos projetos Big Thing no mundo digital, ainda carece de evoluções.
Setembro foi o mesmo dos iPhone 8 e 8 Plus, e também uma edição comemorativa dos dez anos a versão iPhone X, mas a Chinesa Xiomi com o Mi Mix 2, e o ZenFone 4 apareceram no mercado.
Uma nova tentativa de modelo revolucionário foi o GoPro Fusion (foto acima), com câmera 360 graus.
Outubro o Google lança o Pixel 2 e o Pixel 2XL, após a compra desta divisão da HTC.
Novembro os lançamos começam a rarear, mas a Razer lançou o Razer Phone, e a Tesla lançou o caminhão semi automático e elétrico, mas ainda sujeito a evoluções.
Dezembro traz a pior notícia, a ideia de Trump de tirar a neutralidade da internet (empresas teriam mais “banda”) começa a prosperar, seria o fim e a total mercantilização ? esperamos que não, enquanto tecnofóbicos apenas criticam o mundo digital, os monopólios avançam.