terça-feira, 30 de novembro de 2010

Brinquedo nerd: Sonic Slam

“Você passa o dia inteiro na frente do computador. Vai fazer um exercício”. Você já deve ter escutado isso da sua mãe, esposa, noiva ou namorada. Sempre que você está na linha de código mais emocionante, ou na fase mais legal, alguém teima em lembrá-lo do seu estilo sedentário de ser e do mal que isso pode fazer à sua saúde.

Se você não quer sair de casa, pode adquirir um par dessas raquetes Sonic Slam, da Mattel. O sensor de movimentos garante um certo nível de realismo #not ao jogo. Já os falantes garantem o som da partida. Por US$ 34,99? Uma pechincha. Agora, se você tem um pouco de noção, compre um Wii, um Kinect ou um Move, dependendo do seu gosto por consoles.Mantenha longe das crianças.

Via Oh Gizmo

Donos de smartphones são "infiéis" e estão a fim de trocar de marca

 

Pesquisa mostra que fabricantes têm dificuldades em manter consumidores

Reuters

 

Getty ImagesGetty Images

35% dos donos de BlackBerry dizem que são fiéis à empresa

 

Apesar de o mercado de celulares inteligentes não demonstrar sinais de desaceleração, os fabricantes terão de batalhar para manter seus compradores, considerando que os proprietários de smartphones demonstram baixa fidelidade às marcas que possuem atualmente.

De acordo com uma pesquisa feita pela consultoria GfK, 56% dos donos de smartphones nos principais mercados mundiais mantêm as opções em aberto quanto ao próximo modelo que querem comprar. Apenas a Apple tem um nível significativo de fidelidade.

Ryan Garner, principal analista da pesquisa, diz que "a fidelidade a uma marca de celular é mais complicada hoje porque as pessoas estão em busca de experiências de alto nível".

– Se um celular não fizer o que diz que fará, ou o que o dono espera que ele faça, o fabricante perderá credibilidade.

A pesquisa constatou que apenas 25% das pessoas que têm smartphones pretendem se manter fiéis ao sistema operacional usado em seus aparelhos. A fidelidade é mais elevada entre os usuários do iPhone, Apple, com 59%, e mais baixa entre os usuários do Windows, da Microsoft, com 21%.

Entre os usuários do BlackBerry, da RIM (Research in Motion), 35% declararam que se manteriam fiéis. A fidelidade era de 28%entre os usuários de celulares equipados com o Android, do Google, e de 24% entre os usuários do Symbian, da Nokia.

A GfK realizou a pesquisa com 2.653 usuários de celulares em países como Brasil, Alemanha, Espanha, Reino Unido, Estados Unidos e China

fonte: R7

Notebook projetado para suportar uma guerra

 

Pense num notebook que pode ser levado pra lá e pra cá? Normalmente um notebook é muito frágil. Bem, numa guerra ele é essencial para estratégias e tudo mais. Pensando nisso, a solução encontrada para este problema do "US Army" foi recorrer a um fabricante chamado VT Miltope. A VT Miltope é especialista em fabricar produtos militares, e agora está fabricando um notebook que resista ao campo de batalha.
Sua linha de notebooks militares será apresentada esta semana em um evento chamado AUSA ("Association of the US Army" ou "Associação do Exército dos Estados Unidos") que acontecerá em Washington nos EUA. O laptop RLC-3 atende a norma militar MIL-STD-810F. É resistente à água, fogo, poeira ou areia, chuva, fungos, pulsos eletromagnéticos, impactos por explosões e até a raios e aguente 26 quedas de 1 metro de altura. A empresa não forneceu muitos detalhes, mas o laptop não será vendido para o público. Que pena!

Comentem por favor!

segunda-feira, 29 de novembro de 2010

O computador da Apollo: uma história de True Hackers

Faz muito tempo que problemas de computação passaram a ser resolvidos com força bruta. Otimização de código é considerado algo desnecessário, quando basta adicionar poder computacional no pool e tudo se resolve (exceto Ruby, que não escala).

Nem sempre foi assim. Houve uma época em que o auge da tecnologia de computação não permitia essas saídas fáceis. Era uma época onde o Talento ainda imperava, onde desenvolvedores dotados de poderes mágicos conjuravam programas impossivelmente eficientes, bons o suficiente para colocar um Homem na Lua.

A tarefa não era fácil. O computador de navegação das naves Apollo era tão fundamental que dois meses depois de John Kennedy proferir seu famoso discurso a NASA já estava fechando o contrato de desenvolvimento do sistema, antes sequer de saber como seria o foguete que ele controlaria.

Para surpresa do Complexo Industrial Americano, o contrato foi para as mãos do MIT, mais precisamente do laboratório de Instrumentação, liderado por um sujeito chamado Stark. Certo, era Charles Stark Draper, mas poderia muito bem ter sido Howard Stark, dado seu currículo.

Ele apenas inventou o sistema de navegação inercial para aviões, um conjunto de giroscópios e acelerômetros que determina com precisão a posição de uma aeronave, e associado ao piloto automático, bem… pilota o bicho até seu destino.

O sistema se baseia no conceito de que um giroscópio, quando em movimento giratório, mantém a mesma posição, fruto da inércia. Medindo a mudança de ângulo das estruturas presas ao giroscópio, temos direção. Some isso aos dados dos acelerômetros e é simples calcular a posição do objeto em relação a seu ponto de partida. E melhor ainda, giroscópios, ao contrário do acelerômetro do iPad, funcionam em gravidade zero:

 

GRAVIDADE ZERO

No primeiro grande teste do sistema um avião levando Draper, sua equipe e jornalistas voaram de Boston até Los Angeles, sem usar referências externas, somente no automático. Quase no final da viagem o avião fez uma curva abrupta, o piloto por pouco não assumiu o controle, todo mundo achava que o sistema tinha pirado.

Não era o caso. Ele estava corrigindo a posição por causa dos ventos fortes, quando a curva parou o aeroporto de destino estava perfeitamente alinhado com a proa.

Draper pensou em usar essa mesma tecnologia para orientar a espaçonave, o que exigiu giroscópios bem mais precisos e duráveis que os existentes. E esse nem foi o maior problema. Num avião os controles eram simples, um sistema eletromecânico bastava pro sistema de navegação pilotar. Em uma nave viajando entre dois mundos, o buraco era muito mais embaixo. Ou em cima, dependendo de seu referencial.

Era preciso um computador. Isso em uma época onde computador ainda era sinônimo de algo que ocupava uma sala grande. Tinham que criar uma máquina funcional que ocupasse o volume máximo de 0,028 metros cúbicos. Qual o tamanho disso? Um PC desktop dos pequenos.

PARTE de um computador, no início dos Anos 60

Produzir esse computador não seria fácil, principalmente em 1961. O jeito foi apelar pra uma tecnologia recém-inventada, os circuitos integrados. Um computador usava 4100 CIs, todos idênticos, cada um uma porta lógica NOR.

Isso mesmo, nada de processadores dedicados, o circuito era todo composto de unidades discretas. Eles literalmente montaram um processador, o que era compreensível, afinal o microprocessador em um único chip só seria lançado em 1971, com o Intel 4004.

Nessa brincadeira, no auge do programa Apollo a NASA consumia 60% da produção americana de chips, mesmo assim ainda havia mais problemas.

O computador de navegação sendo montado

Não havia especificação do sistema. Era tudo especificado em tempo de desenvolvimento. Não se sabia nem se o sistema iria controlar totalmente a navegação ou apenas auxiliar os astronautas. Os projetistas acabaram incluindo um backup que se tornou vital: um sextante. Isso mesmo, navegação pelas estrelas, como os primeiros marinheiros. Primitivo talvez, mas funcional e à prova de tela azul.

Por falar em BSOD, os travamentos eram uma preocupação, pois a vida dos astronautas dependeria daquele computador. A solução foi uma ideia radical: em vez de um sistema de time sharing, com multitarefa cooperativa, onde cada tarefa entregava o controle de volta ao sistema operacional, optou-se por um sistema onde havia tarefas cooperativas e um sistema de interrupções onde tarefas prioritárias eram executadas mesmo que outras aplicações não houvessem devolvido o controle ao sistema.

Listagem de um dos programas, ia até os pés da nerdzinha edificante

Os programas eram escritos em assembly, com endereçamento de 16 bits e um conjunto de apenas 11 instruções diferentes, mas calma que melhora: como fazer cálculos complexos em assembler (minha geração chama assembly de assembler, quem não gostar, GFY) é, foi e sempre será um inferno, o MIT criou uma máquina virtual com um conjunto de instruções expandido, com capacidade de cálculo em ponto flutuante e até operações vetoriais.

Essa máquina virtual rodava em tempo real, em cima do computador de navegação da Apollo.

Especificações

O computador era uma obra-prima de tecnologia, fazendo tudo isso com 2 KB de RAM e 48 KB de ROM, rodando a um clock interno de 1,024 MHz, sendo usado nas Apollos IV e VI.

A segunda geração de computadores do sistema de navegação foi construída em 1966 com 2800 CIs cada um com duas portas lógicas NOR, a RAM aumentou pra 4 KB e a ROM para 73 KB.

Obviamente não havia HD, os discos da época eram frágeis e grandes demais. a ROM era gravada em um negócio genial que, apesar do nome, não foi inventado em Pernambuco: Memória de Corda.

Eram fios passando através ou em volta de núcleos magnetizados. O fio passando dentro era um 1, passando fora era um 0.

Memória de Corda. Sim, está bem ampliado

Como você já está imaginando, era um inferno escrever um programa, ou tecer, para ser preciso. Levava meses e qualquer erro significava jogar fora todo o trabalho, que era conhecido como Método LOL, de Little Old Lady, pois a maior parte dos funcionários que faziam a tecelagem do software eram velhinhas.

Esse cidadão está gravando um programa em ROM

Um zoom. Notem que não tem IntelliSense ou sintax highlight.

ÓBVIO que com tudo isso o projeto atrasou, a ponto da NASA nomear um interventor que foi explicar aos universitários como a banda tocava no mundo corporativo. Softwares inteiros foram reescritos, a própria função do sistema de navegação foi reduzida, de primário para auxiliar, e no final uma versão funcional foi entregue.

O sistema iria utilizar sinais de rádio da Terra como faróis de navegação, o módulo inercial seria um backup, usado somente em caso de emergência ou quando não houvesse contato.

O grande teste foi em 1968, com a Apollo VIII. Ao passar por trás da Lua ficaram sem o sinal de rádio, todo o controle foi feito pelos giroscópios e pelo software. Ao sairem da sombra o sistema enviou seus dados de telemetria para a Terra, e bateram com absoluta precisão com os valores calculados pela NASA.

Em 1969 foi a vez da Apollo XI usar o módulo mais complexo de todo o sistema, as rotinas de pouso. Em nenhum outro momento uma sequência contínua tão grande de instruções era necessária. Curioso é que esse módulo foi escrito quando 2/3 do sistema já estava pronto. O autor foi um jovem de 22 anos em seu primeiro emprego como engenheiro júnior chamado Don Eyles. Responsabilidade? Magina…

Durante a descida na superfície lunar, o computador disparou um alerta de erro, no caso, o famoso Erro 1202.

Problema é que na NASA ninguém sabia que diabos era aquilo, e sem idéia da gravidade, o natural seria abortar o pouso. Quem salvou o dia foi um sujeito chamado Jack Garman, engenheiro de software e que tinha a única cópia da lista de erros do sistema.

Ele levantou a mão, disse qual era o erro: overflow, o computador estava recebendo dados demais e não conseguia processá-los, mas graças ao sistema de prioridades de tarefas criado por Hal Lanning, as de baixa importância eram desconectadas enquanto o principal, relacionado ao pouso, era mantido rodando.

Jack Garman, o homem que salvou o dia

Depois descobriram qual havia sido o erro. A checklist estava errada, Buzz Aldrin, seguindo as instruções, ligou o radar de retorno, usado para acoplagem com a cápsula principal. Desnecessário para o pouso, só seria usado em caso de cancelamento, nunca havia sido testado nos simuladores enviando dados para o computador principal.

O resto, como dizem, é História. O sistema sofreu várias melhorias, inclusive a adição da possibilidade de reescrever parte dos programas em execução, função que foi fundamental para salvar a Apollo XIV, que teve problemas com um sinal intermitente nos circuitos de abortar o pouso. A 300 mil km de distância Don Eyles orientou os astronautas que entraram com uma rotina de bypass, em assembler. E você reclama do Java.

o computador de navegação e o painel de controle

O computador de navegação da Apollo se dava ao luxo de ter processamento de sobra, permitindo até detalhes como converter os dados de sistema métrico para unidades imperiais, ao gosto dos astronautas. Hoje temos que esperar a próxima atualização do iPad, pois a Apple não incluiu teclado em português na primeira versão…

domingo, 28 de novembro de 2010

As 10 previsões tecnológicas mais furadas dos últimos 10 anos

Prejuízos astronômicos, equipamentos sem valor entulhados ou alarmes na população sem o menor fundamento? O que faz com que uma previsão tecnológica se torne verdadeiramente uma furada?

Assim como muitas empresas apostaram em conceitos lucrativos, muitos perderam o respeito com milhões em ideias fracassadas ou porque se recusaram a pensar diferente. Nós ilustramos alguns dos maiores fracassos tech da última década para que você nos ajude a escolher qual destas foi a previsão tecnológica mais furada dos últimos 10 anos.

O bug do milênio

Eis que o céu se rasgou em chamas de onde surgiram os 4 dígitos do apocalipse...  Com apenas algumas décadas de existência, os anos para os computadores jamais precisaram mais do que 2 dígitos para mensurar o tempo. E como a primeira regra do aproveitamento prega que jamais devemos criar algo novo se o velho continua a funcionar, ninguém mexeu em uma linha sequer do antigo código COBOL para as datas.

Graças a esse comodismo, à meia noite do dia primeiro de janeiro do ano 2000, todos os bancos de dados do mundo interpretariam que havíamos voltado para o ano 1900. Todos os sistemas entrariam em colapso, controles essenciais parariam de funcionar e ninguém saberia o que poderia vir depois. A data chegou e, além da dor de cabeça, nenhum cataclismo tecnológico ocorreu.

Bug do milênio

Em 99 (ou melhor, em 1999), muitas empresas de todo o mundo investiram pesado na atualização de seus sistemas e, mesmo para os que não se alarmaram com a situação, nada de grave ocorreu. Segundo especialistas, a temível virada foi positiva para muitas companhias, pois enfim atualizaram seu sistema de dados.

A terceirização de serviços na data também marcou a ascensão de mercados tecnológicos até então pouco expressivos, como o indiano. 

Barebones, desktops compactos

Olhando para trás, não é difícil perceber que a evolução dos componentes eletrônicos tende tanto para o aumento de desempenho quanto para a redução de tamanho. Apostando nessa ideia, a Shuttle Computer foi a primeira a lançar um desktop consideravelmente menor e com formato cúbico.

Barebone Shuttle SN41G2

Fonte: Wikipédia.

Devido ao seu sucesso, poucos anos depois, o mercado estaria coberto de computadores de menores dimensões, alguns contando até com configurações entusiastas. Por um fértil período para o comércio, o sonho de consumo de muitos usuários era economizar volume na mesa de trabalho com um desses.

Ironicamente, o mercado parece não encontrar mais espaço para os barebones, resultando em prejuízo para diversas empresas que investiram no conceito e no acúmulo de peças que jamais foram vendidas. Atualmente, quem procura por uma máquina de alto desempenho parece não se incomodar com um grande gabinete. Já entre os modelos compactos, a nova febre diz respeito aos computadores all-in-one, que eliminam a figura do desktop.

Gateway

Se lançar uma nova onda (fadada ao fracasso) levou os barebones à extinção, não se adaptar ao mercado acabou ruindo uma das maiores empresas de computador dos EUA. Em 2004, a Gateway possuía 25% dos volumes de venda de PCs no território norte americano e era a terceira maior empresa do segmento, atrás apenas da Dell e da HP. Três anos depois, fora comprada pela Acer pela bagatela de 710 milhões de dólares para cobrir suas dívidas.

Logo da Gateway

O principal motivo do fracasso da Gateway foi sua relutância em entrar no mercado de laptops. Enquanto seus concorrentes faturavam alto com a aposta dinâmica no segmento dos portáteis, sua estratégia tardia rendeu prejuízos suficientes para levar a companhia à falência.

Dreamcast

O lançamento do Dreamcast foi um sucesso absoluto, esgotando todas as 150 mil unidades postas à venda no Japão e as 500 mil nos EUA no dia de seu lançamento. O console que inaugurou a sexta geração contava com suporte a jogos pela internet, os melhores gráficos até então e diversas outras tecnologias únicas para a época. Foi um verdadeiro sonho para uma geração inteira de gamers, mas que em pouco tempo se tornou um pesadelo para a SEGA.

SEGA Dreamcast

Depois de perder investidores, o videogame fora lançado às pressas para faturar antes dos concorrentes. Com a chegada dos demais consoles da mesma geração, principalmente o Sony Playstation 2, o hardware do Dreamcast acabaria em grande desvantagem. A mídia ótica era a principal delas, enquanto os demais adotaram o DVD como formato padrão, o console desenvolveu um formato próprio com apenas 1 GB de capacidade (o GD-ROM).

Logo, o volume de vendas do aparelho e de seus discos caiu a tal ponto que a própria SEGA acabou se aposentando do mundo do entretenimento eletrônico. Descontinuado na América em 2001 e em 2006 no Japão, o desenvolvimento independente de jogos continua graças a um kit lançado pela Microsoft. Algumas comunidades de fãs cultuam o Dreamcast, desenvolvendo aplicativos, emuladores e comunidades para o console.

Windows Vista

Em 30 de janeiro de 2007, o mundo conhecia o último fruto da maior empresa de softwares do mundo. O Windows Vista foi criado com o intuito de aumentar a segurança do mais difundido sistema operacional, ao mesmo tempo em que oferecia um visual deslumbrante com o efeito Aero.

Windows Vista.

Fonte: Wikipédia.

A primeira decepção veio quando os usuários descobriram que as melhorias na segurança não eram assim tão grandes. Os requisitos para rodar o sistema também eram altos e acabaram impedindo o upgrade de muitas máquinas. Finalmente, a quantidade de memória RAM exigida pelo Vista prejudicou seu desempenho em máquinas menos robustas.

O resultado foi uma grande quantidade de usuários optando pelas versões anteriores do sistema e uma quantidade imensa de reclamações nos telefones da Microsoft. Somente com a chegada de seu sucessor é que a sombra do Vista pareceu se diluir. Segundo dados da empresa, o número de usuários que migram diretamente do XP para o 7 é maior do que o de usuários que optaram pelo Vista.

HD DVD

O formato foi lançado comercialmente dois anos antes do que o Blu-ray, contava com apoios de peso como Microsoft, Toshiba e Universal Pictures, seus aparelhos eram muito mais baratos, possuía menus interativos, função quadro por quadro e conteúdos baixáveis da internet. Mesmo assim, o HD DVD perdeu a guerra de mercado para o Blu-ray. Por quê?

Alguns dizem que o espaço extra do BD foi o fator decisivo, outros defendem que a quantidade maior de parceiros com que o Blu-ray contava garantiu sua vitória. Mas a resposta mais aceita não provém do cinema, mas sim do mundo dos games: Playstation 3.

HD DVD

Fonte: Wikipédia.

No início da disputa, ambos os players eram ausentes no mercado, despertando a incerteza dos desenvolvedores. Como um dos principais patrocinadores do formato, a Sony teve a grande ideia de incluir a mídia em seu novo console. Sucessor de um dos videogames mais vendidos da história, em pouco tempo o Playstation 3 e o Blu-ray player estariam na casa de muitos espectadores.

Especialistas afirmam que, por cerca de dois anos, a venda de cada PS3 dava prejuízos à Sony e, mesmo assim, faziam dele o console o mais caro da geração. O resultado veio em 2008, quando os últimos estúdios deixaram de apoiar o HD DVD para se dedicar ao Blu-ray. Há quem afirme que o principal erro da Microsoft foi não adotar o formato para o Xbox 360, o console utiliza um drive de DVD comum e sofre com as limitações de espaço.

PDAs

Também conhecidos como Palm Tops, os PDAs (Personal Digital Assistants) ganharam vida nos anos 90 e se tornaram populares entre executivos na primeira metade da década seguinte. Em 2005 os PDAs possuíam Wi-Fi, Bluetooth, grande compatibilidade de formatos multimídia, funções touchscreen e processadores superiores a qualquer celular da época.

Mas em 2006, os smartphones passaram por uma evolução incrível e incorporaram a maleável conectividade 3G. Os desenvolvedores perceberam que era possível unir as funcionalidades de um PDA em um celular. Já as companhias telefônicas, que poderiam subsidiar os aparelhos para lucrar com os serviços.

Palm EX

Fonte: Wikipédia.

Ao final de 2007, o Palm Treo com seus anos de estrada atingia a marca de 690 mil unidades vendidas, enquanto o Blackberry já havia ultrapassado os 3 milhões de aparelhos.  Até mesmo o recém-lançado iPhone já ultrapassava 1 milhão de aparelhos em operação. Diga-se de passagem, ninguém deseja carregar um aparelho grande a mais se um único smartphone supre todas as suas necessidades.

Segway

O veículo elétrico tinha a proposta de substituir os automóveis por um meio de transporte limpo para os meios urbanos. Não se engane com sua aparência simples, o desenvolvimento do Segway custou mais de 100 milhões de dólares para aperfeiçoar sua autonomia e equilibrar automaticamente o condutor.

Segundo previsões da companhia, o Segway seria o aparelho a bater a marca de 1 bilhão de unidades vendidas no menor período de toda a história. Contudo, desde seu lançamento em 2001 até o final de 2007, o veículo alcançou apenas a marca das 30 mil unidades.

Segway

Fonte: Wikipédia.

O preço de 3 a 7 mil dólares por veículo parece um tanto alto para que um veículo de visual desengonçado, porém que almeja ser consumido em massa. Alguns países exigiram habilitação especial para os condutores do Segway e proibiram seu trânsito em vias públicas, comprometendo ainda mais suas vendas. Contudo, ele continuará a ser utilizado por policiais em filmes de comédia.

Iridium

Alguém se lembra do Iridum, aquela companhia telefônica que prometia celulares por satélite capazes de funcionar em qualquer região do planeta? O conceito era simplesmente revolucionário e era motivo de destaque na publicidade mundial há cerca de 10 anos.

Com o apoio da Motorola, a Iridium gastou cerca 5 bilhões de dólares construindo e lançando os 66 satélites necessários para o serviço. Para cobrir o investimento, previa-se que 500 mil aparelhos estariam operantes em 1999. Contudo, o número de usuários não passou de 10 mil.

Motorola 9500

Fonte: Wikipédia.

Além de 3 mil dólares por cada aparelho, o custo das ligações era de 5 dólares por minuto. E como o aparelho dependia da comunicação com satélites para operar, não era possível fazer ligações dentro de carros em movimento, de prédios e de muitas áreas urbanas. Um preço tão elevado para um sinal instável não atraiu muitos clientes.

Na mesma época, as companhias de telefonia móvel cresciam amplamente nos países desenvolvidos, garantindo serviços de qualidade a preços muito mais acessíveis. Tudo isso fez com que o Iridium se tornasse uma das 20 maiores falências de toda a história dos Estados Unidos.

Por que a internet vai fracassar?

Calma, caro leitor, essa predição não foi escrita e muito menos defendida por nós. Na verdade, caso a previsão que Clifford Stoll publicou em 1995 na Newsweek estivesse correta, nosso site nem estaria no ar neste exato instante.

Nela, o autor defende que o crescimento exponencial da rede de computadores entraria em colapso dentro de alguns anos. Fato que, felizmente, não se concretizou, uma vez que a infraestrutura da web evoluiu junto com o crescimento da internet.

A internet vai fracassar!?

Outro ponto defendido pelo autor era de que o ser humano é uma criatura social e, portanto, jamais trocaria os estabelecimentos físicos pelos serviços e transações virtuais. O que Stoll não previu foi a adaptabilidade dos homens diante das novas mídias. Em vez de reduzir, a internet amplia o circulo social dos usuários de um limitado espaço físico ao seu redor para comunidades online com milhares pessoas em todo o mundo.

Ao passo em que o crescimento da internet pode ser vertiginoso, ela jamais será capaz de se autodestruir. Em vez de ser consumida como os demais recursos naturais do nosso planeta, a previsão falha de Clifford Stoll evidencia que a tecnologia serve de matéria-prima para a própria tecnologia.

Qual a previsão tecnológica mais furada dos últimos 10 anos? Deixe nos comentários.

  • O bug do milênio
  • Barebones, desktops compactos
  • Gateway
  • Dreamcast
  • Windows Vista
  • HD DVD
  • PDAs
  • Segway
  • Iridium
  • A internet vai fracassar

http://tecinfo20.blogspot.com http://tecinfo20.blogspot.com/2010/10/as-10-previsoes-tecnologicas-mais.html#ixzz163vaN5Vu

Lançamento Motorola: Milestone 2 será visto nas lojas nesta semana

milestone_cpto_1

O Milestone 2, smartphone da Motorola, está chegando às lojas brasileiras. Com especificações aprimoradas, a novidade vem com Android 2.2 e inclui o Motoblur, serviço exclusivo da Motorola para gerenciar e-mails e mensagens de redes sociais, integrando todas as atualizações em um único serviço.
Assim como seu antecessor, o aparelho combina a tela sensível ao toque capacitiva e o teclado QWERTY físico deslizante. Mas o hardware é mais poderoso, com um processador de 1GHz, 8GB de memória interna expansível em até 32GB com cartão microSD e capacidade de capturar vídeos em HD.milestone_cpto_2

O Milestone 2 ainda funciona como um hotspot móvel 3G, permitindo a conexão de até cinco dispositivos Wi-Fi. Outros recursos incluem Bluetooth, GPS, câmera de 5 megapixels com flash LED duplo e foco automático e player multimídia.

 

 

Com cartão de 8GB incluso, a novidade chega ainda esta semana nas lojas da TIM, por R$1488 no plano pré-pago, valor que pode ser parcelado em até três vezes. Em qualquer plano pós pago, o smartphone sai por 12 parcelas de R$ 124, enquanto os consumidores que trouxerem o número de outra operadora e optarem pelo plano TIM Liberty (que oferece chamadas locais e DDD ilimitadas para números TIM) - pagarão R$ 155 mensais por um ano, valor que inclui a franquia com desconto, de R$ 39 mensais, e a parcela do aparelho.

sábado, 27 de novembro de 2010

Nokia confirma problemas na fabricação dos smartphones N8

Unidades do modelo podem apresentar problemas de energia, resultando, por exemplo, no desligamento automático do aparelho.

Algumas unidades do smartphone N8 poderão apresentar problemas de energia, resultando, por exemplo, no desligamento automático do aparelho, anunciou a Nokia na última quinta-feira (18/11). 

"Algumas pessoas que adquiriram o N8 relataram que ele está desligando automaticamente, ou, simplesmente, não ligando", comunicou Niklas Savander, vice-presidente executivo e gerente geral da unidade de mercados da Nokia.

De acordo com o comunicado oficial em seu blog, todos os aparelhos afetados serão substituídos. 

"O problema está dentro do período de garantia e os proprietários podem procurar os nossos centros de atendimento. Para resolver a questão, estamos adotando medidas em toda a nossa linha de produção", disse Savander.

image_nokia

N8 apresenta problemas de energia

Ele, porém, não citou a quantidade de dispositivos que foram afetados pelo problema, comentando, exclusivamente, que corresponde a um número "pequeno" de smartphones. No entanto, salientou que, para os clientes afetados, "está é uma questão importante e precisa ser corrigida". 

"O N8 é um produto importante para a Nokia, principalmente, às vésperas das tradicionais compras de final de ano e questões como esta podem ter um impacto negativo, se não forem tratadas de uma forma ágil", comentou Roberta Cozza, principal analista da Gartner. "A Nokia precisa ter cuidado", completou ela.

Brasil

A redação do IDG Now! entrou em contato com a assessoria de imprensa da Nokia no Brasil, que, até o momento, não se pronunciou oficialmente sobre o assunto.

sexta-feira, 26 de novembro de 2010

A Motorola ou é surda ou não tem mãe

 

veia surdaRingtones são uma ferramenta de marketing meio desprezada por algumas empresas, mas tratados como importante recurso para firmar a identidade das marcas por outras. A Nokia por exemplo não só trabalha seu toque em todos os celulares da empresa, tornando a  ”nokia tune” imediatamente reconhecida por milhões de consumidores, como ousaram realizar  primeira ação de merchandising em Star Trek, colocando no carro do jovem James T. Kirk (ok, no carro do padrasto) um terminal/display/pda/sei lá da Nokia, com direito a uma versão futurista do toque oficial da empresa. Até pouco tempo estava inclusive disponível para download.

A motorola por sua vez ousou com a então questionável decisão de distribuir um ringtone falado. Não exatamente uma música, não exatamente um ruído o “Hello, Moto” acabou pegando. Não sei se com muita ajuda do pessoal que não sabe como mudar o toque do celular, mas no final ele não é algo que ofenda.

Ofender aliás é comigo mesmo. Fiz uma enquete solicitando idéias para ringtones irritantes. O vencedor foi um cidadão que sugeriu “barulho de modem conectando”. Achei ótimo, pois além de ser extremamente irritante gera saudosismo, cria sentimentos conflitantes entre que escuta.

Infelizmente meu reinado durou pouco, nem de longe posso mais dizer que tenho um ringtone irritante. Fui superado pela Motorola, com o toque-padrão do Droid Pro.

Sério, não dá nem pra descrever. Visite este link, clique no Play e sinta sua sanidade escorrer pelas orelhas. Imagine  uma orgia de R2D2s tivesse dado errado e a balbúrdia resultante fosse reproduzida em 10x a velocidade normal. Agora imagine que Lorde Satã em pessoa tenha cantado o som resultante em um Karaokê. Pense que a performance foi transmitida por um telefone da TELERJ e comprimida em RealAudio. O resultado é o ringtone do Droid Pro. Duvida? Clique.

Depois de ouvir essa barbaridade, só me resta questionar:  quem escolhe esses toques, uma comissão composta pela Marlee Matlin, Hellen Keller e fãs do Restart?

Fonte: Android Central

quinta-feira, 25 de novembro de 2010

Nova geração do Kindle

Novas versões trazem tela com melhor contraste e custarão entre 139 e 189 dólares.
A Amazon apresentou na última quarta-feira (28/7), a nova geração do seu e-Reader, o Kindle. Agora, os modelos trazem telas com melhor contraste, estão mais leves e velozes.  Eles começam a ser vendidos a partir do dia 27 de agosto, com preços que variam entre 139 e 189 dólares.
A tela de seis polegadas do novo Kindle agora conta com 50% a mais de contraste do que o seu antecessor, refletem 15% a mais de luz e tem um tamanho 21% menor que o modelo anterior. 
kindle-preview
Além disso, as novas versões do gadget estão 20% mais velozes na virada das páginas. A memória interna tem 4GB de capacidade, permitindo ao usuário armazenar até 3.500 livros. Ainda segundo o site do produto, o browser nativo está “mais rápido, mais fácil e com características simplificadas”.
Ainda de acordo com a Amazon, os recursos de reprodução sonora dos textos também foram aperfeiçoados, assim como a leitura de PDFs, inclusive com a possibilidade de protegê-los com uma senha.  A bateria tem autonomia de até 10 dias com Wi-Fi ativado e 30 dias com ele desligado.
O novo Kindle estará disponível nas cores branca e grafite e em dois modelos: o primeiro tem conexão Wi-Fi e 3G (189 dólares) e o segundo, apenas Wi-Fi (139 dólares).

quarta-feira, 24 de novembro de 2010

Ecrã a cores chega aos E-books

 

O Hanvon vai ser o primeiro e-reader a suportar um ecrã a cores com a tecnologia da E Ink.

Ecrã a cores chega aos E-books

O e-reader Hanvon vai ser o primeiro a utilizar o ecrã a cores desenvolvido pela E Ink, fabricante que fornece cerca de 90 por cento dos ecrãs para o segmento dos e-books, segundo o New York Times.

O método utilizado pela E Ink na produção dos ecrãs a cores para e-readers consiste na sobreposição de um filtro colorido num ecrã a preto e branco convencional. 

A vantagem desta tecnologia é a longevidade da autonomia da bateria que se mantém semelhante à dos e-books a preto e branco. Outra vantagem é a facilidade de leitura do e-book à luz solar, ao contrário dos ecrãs LCD.

A tecnologia utilizada pela E Ink torna, no entanto, a intensidade cromática do ecrã reduzida relativamente aos ecrãs LCD. O ecrã a cores desenvolvido pela E Ink não suporta vídeo, apenas pequenas animações. 

Algumas empresas, como a Amazon ou a Sony, aguardam ainda novos desenvolvimentos relativamente aos ecrãs a cores antes de aplicar a tecnologia aos seus e-readers

Kingston adota refrigeração a água para acelerar memória de computador

Kit "H2O" equipa os modelo HyperX, de alto desempenho.
Equipamento, mais caro, é indicado para usuários avançados




Módulo de memória refrigerado à água.Módulo de memória refrigerado a água.
(Foto: Divulgação)
O fabricante de memórias Kingston apresentou kits de memória DDR3 HyperX “H2O”, de duplo e triplo canais, com suporte à refrigeração à água.

Desenvolvidos para usuários avançados, que montam máquinas de alto desempenho com sistemas com resfriamento líquido, os módulos de memória vêm com frequências de até 2133 MHz e capacidades de até 6 GB.

Segundo Mark Tekunoff, gerente sênior de tecnologia da Kingston, a HyperX H2O é uma extensão natural das ofertas da empresa para usuários avançados. “Nosso objetivo é ter produtos que atendam as necessidades de usuários de todos os níveis e interesses”, explica Tekunoff.
OCZ oeferce máxima dissipação com o uso da refrigeração líquida.OCZ oeferce máxima dissipação com o uso da
refrigeração líquida. (Foto: Reprodução)
A linha H2O se inicia com três produtos: todos DDR3, sendo que dois são dual-channel de 2000 MHz e 2133 MHz, e um é triple-channel rodando a 2000 MHz. Os novos kits estão disponíveis por meio dos canais autorizados da Kingston a partir de R$ 900 o pente de 4GB.

A solução não é pioneira. Outros fabricantes também têm solução refrigerada a água.

A Corsair possui o sistema Hydro H30 em seus modelos Dominator GT e, a OCZ, dispõe de refrigeração líquida na sua série Flex XLC.


Especificações - Kingston HyperX H2O DDR3


Part Number                 Capacidade e Caracteristicas     Preço sugerido

KHX2000C9D3W1K2/4GX  -        4GB DDR3 2000MHz               R$ 899,00      
                                               (CL9-11-9-27 @ 1.65v) 
                                           kit de 2 otimizado para XMP


KHX2133C9D3W1K2/4GX           4GB DDR3 2133MHz               R$ 1.199,00
                                               (CL9-11-9-27 @ 1.65v) 
                                           kit of 2 otimizado para XMP  


KHX2000C9D3W1K3/6GX             6GB DDR3 2000MHz             R$ 1.359,00
                                               (CL9-10-9-27 @ 1.65v) 
                                           kit de 3 otimizado para XMP


http://tecinfo20.blogspot.com http://tecinfo20.blogspot.com/2010/09/kingston-adota-refrigeracao-agua-para.html#ixzz149j7JIfA

terça-feira, 23 de novembro de 2010

Projeto da NASA para colonizar outros planetas

Hundred Year Starship

1
A NASA anunciou num evento recentemente um novo programa chamado “ Hundred Year Starship” que visa desenvolver a tecnologia necessária para desenvolver viagens espaciais de longa distância e a possível colonização de outros planetas.
A ideia é que dentro de poucos anos possamos ver um protótipo real de uma nave espacial para viajar entre planetas sem a necessidade do uso dos foguetes químicos que fazem o lançamento das atuais naves ao espaço. Estes foguetes além de terem um custo muito alto são ineficazes no que diz respeito longos trajetos.
Uma das propostas é desenvolver a curto prazo, um sistema de propulsão elétrica altamente eficiente e poderoso, mas por enquanto a propulsão térmica por microondas já está em fase de pesquisa. Nesse sistema o mecanismo de propulsão que transmite energia a uma nave a partir de uma base energética a distância, eliminando assim a enorme quantitade de combustível que se precisa pra mandar uma nave a orbita.
Enquanto desenvolvem a tecnologia, os responsáveis pelo programa já estão pensando em maneiras de colonizar o espaço; a ideia é ir primeiramente as luas de marte (por volta de 2030) e alí implantar uma biologia sintética que permite aos seres humanos sobreviver. Como para mandar uma missão tripulada são muito elevados, não descartam a solução criativa de mandar astronautas com a passagem somente de ida, para que fiquem o resto de suas vidas em Marte e possam fundar uma colônia em Marte. Será que estamos de volta a época da colonização?

Via FayerWayer

segunda-feira, 22 de novembro de 2010

Brasil vai fabricar discos para 2ª maior produtora de HDs do mundo

Western Digital

Western Digital vai fabricar discos externos e
internos no Brasil. (Foto: Divulgação)

A fabricante de discos rígidos e produtos de armazenamento de dados Western Digital vai anunciar, na próxima semana, que passará a fabricar HDs no Brasil. O valor total do investimento e detalhes sobre como será a operação da empresa no país ainda não foram revelados. 

A Western Digital é a segunda maior fabricante de discos rígidos do mundo, atrás apenas da Seagate. A empresa tem 62,5 mil funcionários em todo o mundo, e o obteve um faturamento de US$ 9,8 bilhões em 2009, segundo o último relatório anual da companhia.

Em agosto, a empresa já havia lançado um centro de suporte técnico no país, instalado na região da rua Santa Ifigênia, área que reúne vendedores de equipamentos eletrônicos na capital paulista.

Samsung lança TV 3D mais barata Modelo de 50" custa US$1.099,99

A Samsung anunciou nesta semana nos Estados Unidos o lançamento de uma nova linha de TVs de plasma 3D que inclui o modelo mais barato do mercado.
Diferente da maioria das TVs 3D do no mercado, a PN50C490 (50 polegadas) é compatível com a resolução 720p e custa apenas US$ 1.099,99 (ou US$ 989 em pré-venda na Amazon.com).
Ainda não foi divulgado se a PN50C490 virá ou não com os óculos especiais, mas ela inclui suporte para 600Hz e estará disponível ainda em agosto.
Além deste modelo, a Samsung também anunciou duas outras TVs de plasma 3D compatíveis com a resolução 1080p: a PN50C680 (50 polegadas; US$ 1.599,99) e a PN58C680 (58 polegadas; US$ 2.299,99).

Samsung PN50C490, a TV de plasma 3D mais barata do mercado
Samsung PN50C490, a TV de plasma 3D mais barata do mercado

Uma pena que o produto ainda não está disponível no Brasil. Vamos esperar pra ver.

domingo, 21 de novembro de 2010

Samsung exibe sua TV 3D Ultra Definition com uma resolução de 3840x2160

A Samsung apresentou a primeira TV 3D UD (Ultra Definition) do mundo com resolução duas vezes maior que a das TVs full HD (1080p).
O aparelho de 70 polegadas possui resolução de 3840 x 2160 e taxa de atualização de 240Hz (alguns novos modelos virão com 480Hz).
A empresa não divulgou quando sua TV 3D UD chegará ao mercado e nem o possível preço. O aparelho nas fotos foi usado apenas para demonstração da tecnologia utilizada.

A nova TV 3D UD (Ultra Definition) da Samsung
A nova TV 3D UD (Ultra Definition) da Samsung

sábado, 20 de novembro de 2010

A vulnerabilidade do Google Chrome

O navegador Google Chrome é um grande sucesso, conquistando boa parte do mercado com pouco tempo de vida. Entretanto, ele não é somente o navegador mais vulnerável de todos: encabeça uma lista de todos os softwares, segundo um estudo da empresa Bit9, especializada em segurança na área de TI.

chrome_icon

Chrome

O Chrome contabiliza 76 brechas de segurança, enquanto o Safari, em segundo, possui 60. Em terceiro vem a suíte de escritório da Microsoft, o Office, com 57 falhas. Em seguida vem o Adobe Acrobat (65 falhas) e o Firefox (51 falhas). Porém, ressaltam os autores do estudo, por se tratar de um software muito recente, é normal que o Chrome esteja mal avaliado.

O Bit9 afirma também que o Google tem sido muito rápido na correção das falhas de segurança, pois a cada seis semanas é lançada uma nova versão com correções de segurança. Portanto, os usuários do Chrome não precisam ficar tão apreensivos, bastando atualizá-lo com frequência para ficar seguro.

quinta-feira, 18 de novembro de 2010

Pérola da impressora que não funciona. Leiam…

Temos amigos de longa data, todos nós. E porque não ajuda-los quando eles precisam? Eu não me furto a auxiliá-los, e até aprendo muito nestas ocasiões. Mas por vezes coisas estranhas, quase bizarras acontecem e isso merece ser registrado e contado para os amigos do FORUMPCs. Também para que os leitores possam compartilhar histórias semelhantes. Mas vamos ao caso.

Este amigo me pediu uma indicação de impressora há quase um ano. Eu me lembro de ter passado duas ou três alternativas para ele. No final ele acabou comprando outra impressora, diferente das que eu tinha indicado. Ele comprou uma HP 6900, pequena, simples, rápida, uma boa impressora. Mas ele por algum motivo não consegui instalá-la. Estive em sua casa e acabei conseguindo fazer a pequena HP funcionar.

Mas dias depois a impressora parou… Falamos ao telefone, tentei ajudar, mas nada. Dei um pulinho lá e para minha surpresa, o cabo estava solto!! Problema trivial. Expliquei, mostrei, ficou tudo bem.

Mais alguns dias de novo me pediram ajuda, mesmo problema, a impressora sem funcionar. Perguntei se o cabo não tinha soltado. “Claro que não, não mexi no cabo”. Lá fui eu de novo ver o que tinha acontecido. Logo de cara vi que a impressora estava mais distante, em uma mesa ao lado. O cabo não estava solto, mas ligeiramente fora do encaixe na impressora, pois com a mudança de posição o cabo fora esticado e ficou com mau contato. Sugeri que fosse comprado um cabo mais longo para evitar que isso acontecesse de novo.

Mais um mistério resolvido, cabo novo comprado. Ele mesmo instalou o cabo e disse que tudo tinha ficado perfeito. UFA! Pensei comigo mesmo “agora não tem mais como ter surpresas”. Ledo engano. Não foi bem assim que aconteceu. Semana passada, após várias semanas sem “problemas com a impressora” ele me ligou novamente, vou replicar resumidamente o diálogo.

Aquela maldita impressora parou de novo!! Que bela porcaria esta impressora!!

Olha nas outras vezes o problema era o cabo. Será que não soltou de novo ou coisa parecida? Daria para você checar as conexões?
Já fiz isso mais de uma vez e te garanto que está tudo certo, super bem encaixado nas duas pontas, no PC e na impressora.

Só se houve algum problema com o driver da impressora. Vou me conectar remotamente para ver se descubro o que houve.

Eu tinha deixado instalado o software LogmeIn prevendo que poderia precisar algum dia. Fiz acesso remoto e achei algumas coisas estranhas, a impressora HP 6900 aparecia duas ou três vezes. Isso às vezes pode acontecer se o cabo USB for plugado em outro conector no PC e o Windows (no caso um XP SP3), acaba instalando outras cópias da impressora. Fiz uma “limpeza” nas impressoras, deixei apenas a original. Reinstalei o driver da HP e nada aconteceu, continuava sem funcionar. Continuava parecendo que o cabo estava solto. Mas como ele jurara que as conexões estavam perfeitas eu comecei a suspeitar que o cabo USB novo (aquele um pouco maior) tinha apresentado problema, mau contato, etc.

Eu vou de novo aí ver sua impressora e por via das dúvidas vou levar um cabo novo para fazer um teste.

Não sei se é isso não, essa impressora que você me falou para comprar é muito ruim, para de funcionar toda hora!

Nem quis polemizar, afinal ele comprou outra impressora, não a que eu tinha recomendado. Mas de toda forma não parecia ser a impressora. A HP comprada era bem legal. Já nem sabia mais. Levando um cabo USB nas mãos dirigi-me para lá para destrinchar o novo mistério.

Logo ao chegar olhei no PC, olhei na impressora e parecia tudo normal. Observando com mais atenção descobri o problema. Usando meu telefone celular tirei até foto da situação. As fotos abaixo foram incluídas em um e-mail que mandei para ele um pouco depois, com as devidas explicações nas próprias fotos. Vejam o que tinha acontecido.

Incrível, não é mesmo??!!! A impressora estava conectada COM PERFEIÇÃO!! Mas na interface de rede, no conector RJ45 e não no conector USB!!!

De quem é a culpa??? MINHA É CLARO!! Segundo meu amigo ele fez tudo exatamente como eu tinha explicado. Será que a HP tem culpa? Muito improvável! O conector de REDE é diferente e eles tiveram o cuidado de fazê-lo inclusive em outra cor (amarelo). Na verdade esta impressora é uma pequena jóia, legal mesmo. Pequena e dispõe de interface RJ45. Quem sabe se eu tivesse usado a configuração de rede (um pouquinho mais complicada) este episódio não aconteceria. Jamais um cabo RJ45 entraria em um conector USB (será??!).

A lição a ser aprendida é que se há alguma chance de algo dar errado, dará errado!! E todo amigo que pedir ajuda, pensarei mais vezes. Não chegou a acontecer problema entre nós, mas em alguns momentos os diálogos foram um pouco mais tensos.

Enfim… acho que tudo pode acontecer quando a relação PC, PERIFÉRICOS e USUÁRIOS existir !!! E você, o que achou da história? Tem algum caso (ou seria “causo”) semelhante para contar??

retirado do ForumPcs

Um HDD de 3TB da Hitachi

Seagate e e Western Digital já apresentaram seus discos rígidos de 3TB. A Hitachi é a terceira a mostrar seus HDs de 3TB, com pratos alcançando 600GB de densidade. No entanto, seu produto tem um grande diferencial: é o primeiro a alcançar a rotação de 7.200 RPM.

HD Hitachi

HD Hitachi

O Hitachi 7K3000 possui uma rotação maior, portanto, é mais veloz que os modelos de suas companhias rivais. Segundo informações publicadas pela Hitachi, com pratos mais densos, seus HDs são capazes de atingir até 145MB/s em acessos sequenciais, quando no início do disco. O buffer é de 64MB e a interface nativa é SATA 3.

Além do modelo de 3TB, a Hitachi disponibilizará discos de 2TB e 1.5TB. Os preços que serão praticados são desconhecidos. E esperar pra ver…

sexta-feira, 12 de novembro de 2010

O fim oficial do Walkman - Já ERA! hUM...


Caso você tenha nascido nos anos 90, ainda poderia ver o saudoso Walkman em funcionamento. Era uma febre na época, era como se fosse um mini-rádio, onde você podia ouvir fitas cassete (fitas K-7) e tinha algumas que vinha com rádio AM e outras com rádio FM. Era portátil e você podia ouvir suas músicas em qualquer lugar. Porém, sua fabricante, a Sony, oficializou o fim do Walkman ontem, e eles pararam sua fabricação em quase todo o mundo. Por quê?

A tecnologia cresceu. Dizem que o walkman era o bisavô do IPod, e realmente... é isso mesmo. Vejamos os fatos.



Durante a febre Walkman, era o boom das fitas K-7 com gravações de música. Algumas vinham com vídeos, mas a maioria era só áudio. Mesmo pelo seu tamanho (seu tamanho era duas vezes menor que uma fita de vídeo), gravava muitos sons com alta fidelidade, utilizando um gravador. Alguns walkmans vinham com microfone e gravador de voz (o som era gravado numa K-7).

Depois, veio os aparelhos que reproduziram CD (os populares "Discmans"), um artefato novo na época. Era virada do milênio quando os CDs foram um grande sucesso. Todo mundo tinha um portátil disso, o problema era o tamanho dos CDs na época (o diâmetro era muito grande para tentar colocar dentro do bolso), porém ocupavam menos espaço (se levarmos em consideração do volume deixado por uma pilha de 100 CDs, um encima do outro, e uma pilha de 100 fitas K-7). O Walkman começava a ser deixado de lado, porém só não tinha sido descartado por terem suporte a Rádio AM e FM, coisa que os tocadores de CD não tinham Rádio FM nem gravavam som.

Pouco tempo depois, veio os famigerados MP3s. Aqueles objetos cada vez mais compactos tinham um HD específico e não necessitama de nenhum fator externo para tocar músicas (só pilhas). Conectava ao computador por meio de um cabo USB (ou diretamente) e ainda tocava músicas digitalizadas. Tinha Rádio FM e permitia gravar música da rádio, além de gravar sons externos. Ou seja: tudo que o Walkman fazia na sua época. Então foi declarado que o MP3 era o neto do Walkman, mas ainda viria uma nova revolução.

Surge então o IPod, da famigerada Apple. Ela continua todos os serviços oferecidos do MP3, além de visualizar vídeos, ler textos, jogos em Java (coisa que o MP5 e suas evoluções viriam a fazer depois) e mais um suporte: acesso a internet. Com a internet, você podia baixar músicas, ver notícias em mundo real e assim vai.

Como podem ver, o Walkman virou coisa de colecionador. E agora é oficial, com o fim de sua produção. Daqui a pouco, será a vez do Discman, e daqui a uns dez anos, podemos ver o MP3 indo pro ralo. Quem sabe?

Se você tem um Walkman, guarde. No futuro, ele poderá valer uma fortuna nas mãos de colecionadores. E se você ainda tiver fita K-7, que está esperando para convertê-lo logo pra CD e depois guardar no computador pra passar pro IPod e ouvir onde você estiver??
VAMOS NESSA ENTAO!
Ate breve...

quinta-feira, 11 de novembro de 2010

Creative lança tablets ZiiO no mercado

 

A Creative anunciou na passada terça-feira o lançamento da nova gama Pure Wireless Entertainment que inclui os tablets ZiiO.

ziiotablet

A gama Pure Wireless Entertainment inclui, além dos tablets, o Zen Touch 2 Wireless, um leitor multimédia portátil, e os headphones WP-300 Pure Wireless.

Os tablets ZiiO da Creative são baseados no sistema operativo Android 2.1, e segundo a Creative têm a melhor qualidade de som dos tablets Android. Essa qualidade deve-se a tecnologias como o codec apt-X, que permite fazer streaming de música de alta qualidade para auscultadores compatíveis, ou o X-Fi Crystalizer que restaura o detalhe em ficheiros de som com menos qualidade.

Existem dois tablets ZiiO: um de sete e outro de dez polegadas. O primeiro tem 207x 133x13,7 milímetros de tamanho e pesa 400 gramas. Já o ZiiO de dez polegadas tem 262x173x13,7 milímetros de dimensão e 650 gramas de peso. 

O modelo de 10" com 8 GB de memória custa 299,99, enquanto que 16 GB custam 319,99 euros. Já o modelo de 7" tem um preço de 249,99 euros ou 269,99, para as versões com 8 GB e 16 GB, respetivamente.

ExameInformatica.Pt

segunda-feira, 8 de novembro de 2010

Acer inova com novo smartphone Android

A Acer informa que o smartphone Liquid Metal vai estar disponível no mercado "português" a partir do final de outubro. Note que no Brasil nem existe, "ainda",  esta marca e modelo.

acer-9b9b

O Liquid Metal está equipado com um ecrã(tela) de 3,6 polegadas, um processador Qualcomm 7230 a 800 MHz e é baseado no sistema operativo Android 2.2 (Froyo). Este smartphone possui conectividade Wi-Fi 802.11N e HSDPA de 14,4 Mbps.
A câmera incluída de  5 MP permite gravar vídeo HD a 720p.
O Liquid Metal permite partilhar conteúdos com outros dispositivos domésticos, como o televisor, o PC ou a console de jogos, já que suporta a norma DLNA e UPnP.
Relativamente a software, a Acer personalizou o sistema operaticional Android com a interface Breeze, e disponibiliza, também, a aplicação Social Jogger que reúne os feeds do Facebook e do Twitter.
O Liquid Metal estará disponível em duas cores (metalizado e castanho), mas a Acer não foi disponibilizado os valores.


fonte: http://aeiou.exameinformatica.pt

sábado, 6 de novembro de 2010

Novas placas de vídeo da Ati Série 6000

A AMD lançou sua nova linha de placas de vídeo Radeon, HD 6850 e HD 6870, que têm os games como foco principal. A Série 6 de dispositivos gráficos tem o desempenho como principal carro-chefe, cerca de 35% maior que os equipamentos que estão hoje no mercado.
Com processador central cerca de 25% menor que as placas da série 5, os novos equipamentos da AMD são capazes de processar até 900 milhões de polígonos por segundo. O consumo de recursos do computador, porém, continua o mesmo das gerações passadas.
Gráfico comparativo entre a geração atual e a nova
Imagem: Chip Hell
Outro destaque importante do lançamento é a tecnologia MD HD3D que, como o nome já diz, adiciona o suporte a games e vídeos em alta definição com 3D estereoscópico. Caso o computador tenha um drive de Blu-Ray, será possível assistir a filmes como “Avatar” e “Resident Evil 4: Recomeço” como no cinema, além de jogar com uma maior imersão.
O anti-aliasing morfológico, que se tornou conhecido com o game God of War 3, para Playstation 3, chega pela primeira vez aos computadores pelas mãos da AMD. A tecnologia, que suaviza os serrilhados criados nos polígonos, é aplicada em toda a imagem após o processamento dos gráficos, e não somente nas bordas e determinadas superfícies.
Comparação exibe os efeitos do anti-aliasing
Imagem: Chip Hell
A novidade, aliada ao filtro anisotrópico, que suaviza as texturas a partir do ângulo no qual a imagem é vista, promete melhorar o desempenho dos computadores até mesmo nos games mais pesados, e entregar gráficos mais limpos e bonitos.
A técnica de tesselation, que aumenta o número de polígonos sem diminuir a performance também é um destaque da série 6 da AMD. De acordo com a empresa, as novas placas terão um sistema inteligente, que aumenta os níveis gráficos apenas dos objetos que estiverem mais próximos do jogador, poupando as capacidades de processamento da máquina.
Por outro lado, a AMD também tem um cuidado com o uso excessivo do tesselation, de forma a evitar uso demasiado das capacidades do computador, sem efeito visual palpável para o usuário. As novas Radeons exibirão cerca de 16 pixels por polígono, o que, de acordo com a empresa, seria o equilíbrio ideal entre desempenho e qualidade gráfica.
Todas estas funcionalidades são possíveis graças à presença nas placas da segunda geração do Directx 11, que faz a interface entre os games e o hardware, fornecendo instruções para que os recursos das máquinas sejam utilizados da melhor forma possível.
Nova placa da AMD
Imagem: Chip Hell
O aumento no desempenho das novas Radeons não se reflete em um maior consumo de energia. De acordo com dados apresentados pela AMD para a HD 6870, o consumo máximo da placa continua em 150 W, assim como a geração anterior, mas quando estiver inativa, o equipamento consumirá apenas 19 W, contra 27 W da série 5.
Para apimentar ainda mais a competição, a AMD apresentou uma série de gráficos de benchmark exibindo o poderio de suas novas placas em relação à concorrência. Jogos que demandam muitos recursos, como “Batman: Arkham Asylum”, “Crysis” e “Borderlands” foram utilizados para comparação. Em alguns casos, as novas Radeon exibem desempenho cerca de 50% maior. Confira as análises na galeria de imagens, logo abaixo.
Outras Imagens