terça-feira, 31 de janeiro de 2012

Correndo com um computador no pulso – parte 2 - Garmin Forerunner 610

Na primeira parte deste artigo descrevi o Garmin Forerunner 405 e o Polar RS200SD dois notáveis relógios de corrida. Agora vamos subir um degrau em termos de sofisticação. Falarei do Garmin Forerunner 610 e depois do Motorola MOTOACTV. O 610 é o meu “assistente de corrida” de uso pessoal enquanto o MOTOACTV me foi emprestado pela Motorola para avaliação. E acredite, já faz umas boas semanas que saio para treinar com os dois relógios, um em cada pulso para testar, avaliar e comparar. Quem me vê na rua deve me considerar um maníaco, mas tudo bem. Tudo pelo “bem da ciência”!!

correndo com os dois relógios, estranho mas eficaz para o teste


Os dois relógios do teste – Garmin Forerunner 610 e Motorola MOTOACTV

Há uma série de recursos comuns entre os quatro dispositivos testados. Por isso mesmo recomendo fortemente a leitura da primeira parte deste texto para melhor compreensão desta sequência.


GARMIN Forerunner 610

Sendo muito breve, resumido, o 610 é o “mesmo” equipamento que o valoroso Garmin Forerunner 405, porém “passado a limpo”. Essencialmente as funções são as mesmas, mas a diferença está forma como estes recursos estão disponíveis e como são usados.

·         O novo design me agradou. Ele é todo na cor preta. A superfície dele é totalmente plana e não “chanfrada” como o 405. Tem o mesmo tamanho de seu antecessor, mas é um pouco mais leve. Há 3 botões que são ligeiramente maiores.

Garmin Forerunner 610 - design diferenciado


·         Para comandá-lo (aqui a grande novidade) ele dispõe de interface “touch” em seu vidro, como tantos outros dispositivos (telefones, tablets, etc.). O BEZEL do 405 não existe mais. Apenas tive que me acostumar com a pressão certa a fazer em sua superfície. Se for leve demais não funciona, que é bom pois evita comandos involuntários que atrapalhariam o uso.

·         A duração de bateria foi bastante beneficiada. Agora sem usar o GPS ele dura até 30 dias. Em operação “padrão”, ou seja, usado para registrar o treinamento a autonomia aumentou pelo menos 60% pois antes eu conseguia no máximo treinar entre 2 e 3 vezes com o 405 antes de recarrega-lo e agora pelo menos treino 5 vezes antes de plugá-lo no meu notebook para recarga.

·         O monitor cardíaco que o acompanha é muito confortável e preciso. É oferecido em dois tipos , “macio” e “rígido”. Tenho o modelo rígido que veio com o meu 405 (funciona em ambos), e na foto abaixo pode ser visto o modelo “macio”.
Garmin Forerunner 610 com cinta/monitor cardíaco


·         A pulseira é feita de outro plástico mais resistente (precisei trocar a do 405 pois ela ficou ressecada). Mas preciso destacar algo que me atrapalhou MUITO. Ao contrário d0 405 o 610 tem sua superfície posterior feita de algum tipo de metal (o 405 é todo de plástico). Isso causou em mim alergia que volta e meia machucava o meu braço. Vejam as fotos abaixo. Durante algum tempo eu usava o relógio ora no braço esquerdo e quando machucava trocava para o braço direito. Era muito desconfortável, mas só fazia isso pelo fantástico dispositivo que é o 610. Após algum tempo o metal na parte traseira sofreu algum desgaste e a alergia diminuiu até não mais ocorrer. Durante dois meses sofri com isso. Hoje em dia não mais.

Alergia e feridas causadas no meu braço no começo do uso


Garmin Forerunner 610 já desgastado e sem causar alergia no meu braço


·         A sensibilidade do GPS é muito boa, bem como sua precisão. Duas ou três vezes ei corri com o 405 e o 610 (um em cada braço) e como não poderia deixar de ser eles mediram EXATAMENTE as mesmas distâncias (afinal o “mecanismo” é o mesmo). Mas o 610 SEMPRE pegou o sinal dos satélites mais rapidamente. Sempre que não se usa o relógio por alguns dias, mas demorado é obter o sinal. Mas o 610 obtêm na metade do tempo ou menos. Provavelmente mais sensível e isso tem muito mérito, pois assim o faz gastando menos bateria!

·         Sistema de menu simplificado (em relação ao 405) o torna mais fácil de usar pois as funções estão muito bem divididas. É pensado para ser usado com o recurso “touch”e cada opção escolhida não tem uma infinidade de escolhas. Apenas uma crítica. O 405 ao mostrar o nível de carga da bateria mostra também um percentual (30%, 50%, etc.) enquanto o 610 apenas mostra um pequeno gráfico (que imita uma pilha). Ele apenas mostra o percentual ao ligá-lo ao carregador (tomada ou USB) e muitas vezes eu acabei fazendo recarga ainda tendo 25% a 30% de energia disponível.
Garmin Forerunner 610 – sistema de menus simplificado




·         Usa o mesmo “USB ANT adapter” do 405 que é o dispositivo que uma vez plugado no PC habilita a comunicação sem fio entre o 610/405 e o PC a fim de enviar os dados para o site http://connect.garmin.com o qual registra todas as informações das corridas, como mostrei no texto anterior texto anterior.
Garmin Forerunner 405/610 USB ANT Adapter – comunicação com o PC


Garmin CONNECT – dados da corrida armazenados – clique aqui para ampliar


Pontos Positivos: mais leve, bateria com mais autonomia, pulseira mais resistente, comandos via “touch” no painel, menus simplificados e sinal de GPS obtido mais rapidamente. Site que recebe os dados é sensacional, com múltiplas informações.

Pontos Negativos: tem o preço mais elevado dentre os relógios testados. Causou alergia e feridas em meu braço durante algumas semanas (depois me acostumei com ele).

Preço referência: US$ 399 (com monitor cardíaco) ou R$ 349 (apenas o relógio) – preços obtidos na www.AMAZON.COM . Achei também no Brasil por R$ 1.245,00 no www.sportsonline.com.br


Por causa do tamanho deste texto o texto que fala do Motorola MOTOACTV será publicado separadamente em poucos dias. Já o convido para ver e conhecer esta última alternativa e fazer o seu próprio juízo. Será que algum destes apresentados serve para você??

Eu o aguardo na parte final deste teste! 



LINKS RELACIONADOS






Spam estranho Spam

Spam sempre me incomodou e volta e meia escrevo a respeito. Mas o objetivo desta coluna não é discutir ferramentas contra spam, técnicas de filtragem de e-mails, produtos que cada um acha que resolvem o problema, etc. Não. O que quero é contar para você algumas “descobertas” e alguns “fenômenos” que tenho presenciado. 

Infelizmente somos atolados com e-mails inúteis todos os dias
Resolvi fazer um estudo deste assunto. Inicialmente meio superficial, mas fui mudando a forma de coletar as informações. Preciso contar pra vocês como lido com isso. Eu recebo todos os spams mas na pasta Lixo Eletrônico do meu Outlook. Faço isso, pois tenho meu próprio servidor Microsoft Exchange . Uso o recurso de “lista branca” do Outlook 2010. Com este recurso ativado TODOS os e-mails vão parar no LIXO ELETRÔNICO. Parece radical. Mas basta autorizar um certo endereço uma única vez que este nunca mais vai parar na pasta de LIXO. De certa forma é o que os filtros de spam dos provedores fazem com uma diferença. Eu recebo o lixo no meu Outlook em uma pasta separada. Tirando o fato disso gastar banda de minha Internet, funciona muito bem pois na minha Caixa de Entrada nunca tem lixo. Só preciso revisar a pasta de Lixo Eletrônico às vezes para ter certeza de que não há algum interlocutor novo que eu preciso autorizar.

Por conta desta forma que trabalho eu resolvi colecionar os spams e guardá-los em pastas separadas. Antes eu apagava tudo, furiosamente várias vezes ao dia. Mas já faz três meses que venho acumulando este lixo digital para poder analisar. Segue um resumo dos dados :

  • 92 dias de coleta de dados (spams)
  • 15.792 e-mails no lixo eletrônico
  • 1557 e-mails válidos
  • 17349 e-mails no total
  • 189 e-mails por dia
  • 17 e-mails válidos por dia
  • 162 spams por dia


Relação OK x SPAM : 10 VEZES , ou seja eu recebo 10 Spams para cada e-mail válido!!

Fiquei PASMO com isso!! Sei que muitas pessoas recebem bem mais e-mails válidos por dia do que eu, que ajudaria a melhorar a estatística. Dados da SYMANTEC contidos em seu último Relatório sobre Vulnerabilidades e Internet, apontam para uma média mundial de 76% de SPAM, ou seja, praticamente 3 spams para cada e-mail bom recebido. Assim eu deduzo que meu caso deve ser um “ponto fora da curva”, pois minha relação é péssima (10 por 1).

Mas qual seria a razão de eu receber tanto lixo? Repito, eles não me incomodam, pois desembarcam direto na pasta de Lixo Eletrônico do Outlook, mas porque sou tão bombardeado?? Tenho alguns e-mails mais antigos redirecionados para meu e-mail principal. A chance de um e-mail mais antigo ter sido “vendido” ou “usurpado” para aquelas listas com 10 ou mais milhões de e-mails vendidas nas barraquinhas das ruas de São Paulo (e nas outras cidades do Brasil também) e também vendidas por e-mail, é muito grande. Acho que pago o preço por ser um usuário antigo da Internet.

Sobre o LIXO, tenho mais algumas informações interessantes:

60% são phishings ou e-mails que induzem à instalação de algum malware no PC. Você acha puco??. Foram quase 9600 tentativas de ataque aos meus dados pessoais nestes 92 dias, quase 120 por dia!!

50% são e-mails em outro idiomas, principalmente em inglês e idiomas orientais.

Sobre este assunto tenho um outro dado muito curioso. No começo deste estudo, no final setembro havia uma quantidade imensa de e-mails em japonês, chinês, coreano, línguas ininteligíveis para mim. Chegava quase à metade dos spams que eu recebia. Veja abaixo uma amostra.
 

Tela de meu Outlook com uma amostras das mensagens estranhas
Esta tela é apenas uma amostra. Se olharem bem as mensagens que estão em baixo não são em japonês ou chinês. São caracteres especiais e ininteligíveis. Provavelmente podem ser outros conjuntos de caracteres como russo, hebraico, grego, etc. No começo todos os e-mails estranhos eram assim. Instalei no Internet Explorer por minha conta os caracteres orientais mais manjados e após ter feito isto consegui ver textos em japonês, chinês, etc. Mas na verdade a maior parte dos e-mails estranhos são em outros idiomas que não estes.

Da mesma forma que vieram estes “ataques” de e-mails estranhos em outros idiomas, eles se foram. Durou mais de dois meses. Atualmente recebo uma mensagem dessas a cada 5 ou 6 dias. Nos primeiros dois meses eram 50% dos spams!! Eu eventualmente dou meu cartão em alguns eventos internacionais que participo. Se imaginasse que meus e-mails iriam engordar uma lista em algum lugar e que eu seria vítima desses estranhos ataques, não teria feito isso!!

Alguém mais experimenta situações semelhantes??!!!

A última pergunta que não que calar : o e-mail em japonês ou chinês sendo mostrado acima, na imagem de meu Outlook, tenta me vender uma prótese mamária, uma operação para aumento do pênis, comunica que meu nome está no SERASA ou é uma conta de telefone não paga e protestada!??? Quem souber lê-la que me ajude!!!


PS: este texto foi originalmente publicado como "Spam estranho Spam" em minha sessão de colunas no portal FORUMPCs

segunda-feira, 30 de janeiro de 2012

Como invadir um notebook (ou evitar)

Como os assuntos vão e veem. Hoje um amigo estava desesperado porque seu notebook foi furtado enquanto ele almoçava em um restaurante em São Paulo. Ele bem que percebeu que havia pessoas olhando para ele, mas... O notebook em si é um pequeno prejuízo financeiro, mas muitas vezes a informação presente nele é valiosa demais para cair em mãos de terceiros. Por isso mesmo resolvi resgatar este texto que publiquei há algum tempo no FORUMPCs e trazê-lo para meu blog pessoal. Acho que vale o alerta!!

Flavio Xandó



Quem me conhece deve estar estranhando o título deste texto. Sou um quase fanático pelo tema segurança. Há algum tempo tive a oportunidade de conhecer uma empresa especializada neste assunto chamada 
Websense cuja expertise produtos e serviços me impressionaram. Sua especialidade é software para “filtragem” na Internet, agindo de forma proativa frente às ameaças da Net. A solução da Websense visa o mercado corporativo e seus mecanismos de filtros ativos visam cobrir as lacunas existentes entre os diversos produtos de segurança (antivírus, firewall, antiSpywates, IDS, etc.).
O perigo
O perigo
A Websense tornou publico os resultados de uma importante pesquisa sobre a segurança de TI no Brasil e na América Latina. Há muitos aspectos analisados mas a minha conclusão é que os responsáveis pela segurança das empresas e os gerentes de TI não têm a visão exata do problema segurança. Um exemplo disso é que no Brasil 92% dos gerentes de TI estão satisfeitos com sua solução de antivírus, mas por outro lado mais de 30% deles tiveram eventos de infecção em suas redes. Analogamente 80% deles estão confiantes em suas proteções contra Spyware, mas 60% deles admitem que algumas de suas estações de trabalho foram infectadas por Spywares. Isto é só um pequeno exemplo de como o assunto segurança em sua forma mais ampla carece de mais atenção e investimentos por parte das pessoas e empresas.

A Websense disponibiliza uma fonte riquíssima de informações sobre o assunto segurança no site www.websensesecuritylabs.com o qual foi minha fonte de pesquisas para este artigo sobre segurança e notebooks. Recomendo a visita, achei interessantíssimo!
As ferramentas malignas
As ferramentas malignas
Mas voltando ao tema da coluna, muitas pessoas se perguntam qual o real perigo que existe quando um notebook é perdido ou roubado. Qual a chance de haver prejuízos e perda real de informações? Por mais básico que seja, muitas pessoas que usam computadores portáteis (incluindo laptops, notebooks, PDAs ou Smartfones), nem senha têm em seus dispositivos. Mas mesmo que tenham senha, como os “homens malvados” conseguem quebrar a segurança e invadir estas máquinas? Este texto aborda algumas técnicas largamente disseminadas no submundo de roubo de informações, mas não visa estimular ninguém a surrupiar dados alheios. Pretendo informar estes caminhos para que as pessoas possam se defender melhor destes tipos de ameaças.

Quem poderia pensar que a carga da bateria pode ser um fator importante? Claro! Uma máquina roubada ou perdida, quando plenamente operacional (por duas a cinco horas) facilita muito a vida do hacker digital. Se descarregado este terá que desmontar o equipamento para ter acesso ao HD ou descobrir uma fonte de alimentação compatível. Por isso um amigo meu usa SEMPRE sua bateria desconectada (também para economizar ciclos de carga da mesma).

Mais uma contramedida de segurança é incluir uma senha na BIOS da máquina, embora quem subtrai um notebook propositalmente, tem conhecimento de sobra para ressetar a BIOS e zerar esta senha. Mas não custa nada ter mais esta camada de segurança.

Outra medida simples, mas eficaz é utilizar o “protetor de tela” com a opção de solicitar senha ao retomar o trabalho configurando o tempo para a ativação do screen-saver o menor possível. Eu mesmo fui vítima disso há meses atrás. Deixei meu notebook logado e “aberto”para qualquer um chafurdar em meus dados. Tive uma senha roubada (ainda bem que não foi senha de banco).

Mesmo com todo o cuidado com as senhas há formas de burlar ou “adivinhar” as mesmas. No caso de proteção de tela com senha, conheço pessoas que têm esta proteção, mas seu Windows está configurado para login automático. Assim de nada vale, basta reiniciar a máquina. Mas se o login não for automático e o sistema pedir a senha o que faz o malfeitor digital? Inicialmente tenta algumas senhas óbvias e triviais como “1″, “1234″, “!”, “senha”, “password”, etc. A chance é pequena, mas pode dar certo. Se não der certo (pode se arrepiar) ainda é brincadeira de criança!

Uma Existe uma solução comercial de um fornecedor chamado ElcomSoft que tem a capacidade de descobrir senhas de acesso de rede, chaves de encriptação wireless, senhas de dialup e VPN (que abrem o acesso à rede corporativa), etc. O Proactive System Password Recovery , software capaz desta proeza tem uma origem legítima que é auxiliar a recuperação de senhas que foram perdidas ou entrar em máquinas de funcionários que saíram da empresa e “esqueceram” de informá-la ao seu chefe (por exemplo).
gratuito
gratuito
No caso de necessidade de uso de força bruta para descobrir senhas, existe um software OFHCRACK que dá conta do recado. Mas o que achei mais interessante é que ele tem uma versão BOOTABLE LIVE CD que faz o trabalho tanto para WINDOWS como para LINUX. O boot é dado pelo CD e usando o programa todas as senhas do Windows (ou Linux) podem ser vasculhadas com maior ou menor tempo para quebrá-las. Quem quiser dar uma olhadinha neste programa pode obtê-lo aqui
Algumas sugestões adicionais
Algumas sugestões adicionais
Mas apesar de todas estas ferramentas e técnicas será possível nos defender destas ameaças? Com certeza, mas lembrando que nenhuma defesa é completamente segura. É como seu carro. Você pode ter vários alarmes, travas, etc. que dificultam cada vez mais o ladrão, mas não o impedirão de levar seu carro.

Existem programas que criam partições encriptadas no disco rígido e que criam uma barreira extra. Na verdade estas partições são arquivos que o sistema enxerga como drives. O lado ruim deste tipo de solução é que exige o usuário ser muito disciplinado para gravar TUDO que for relevante nesta partição especial. Sabemos que usuários gravam documentos na área de trabalho, Meus Documentos, etc. Ainda existe o risco da senha da partição encriptada estar gravada num arquivo desprotegido (sic!) ou mesmo programas ou dados gravados na área não protegida podem ter suas senhas descobertas pelas ferramentas já descritas e usadas como tentativas de acesso na área protegida. Há usuários que fazem isso, usam a mesma senha…

Existem outros programas que realizam a criptografia do conteúdo do disco rígido como um todo. O próprio Windows Vista, que está por chegar, traz a tecnologia BITLOCKER , muito segura. O lado “ruim” desta solução é que é exclusiva para Windows (Vista). Há programas como PGP Whole Disk Encryption Voltage Security SecureDisk , e SecurStar DriveCrypt Plus Pack que são independentes de sistema operacional.

Uma das soluções mais interessantes são os sistemas de criptografia no hardware que já existem nos notebooks mais modernos. Os notebooks corporativos da HP têm um sistema chamado TPM (“Trusted Platform Module”), bem como outros fabricantes tem soluções análogas. A virtude deste tipo de recurso é que a chave de criptografia não fica armazenada em lugar algum do equipamento, que possa ser descoberta. Existe um processo de criptografia “one-way” que é usada somente para comparar a chave digitada no boot com a chave do hardware. A própria fabricante de HDs SEAGATE traz agora nos seus discos rígidos da série Momentus recursos de criptografia no nível de hardware que se ainda não é perfeita é uma boa alternativa de proteção extra.

Entendo que o assunto é delicado e muito extenso. Minha idéia era abrir a discussão e mostrar que a insegurança é maior do que possamos imaginar. Existem ferramentas até gratuitas que fazem um estrago enorme na segurança. Senhas seguras e fortes, partições encriptadas (via software ou hardware) são soluções que melhoram muito a situação mas não se pode garantir 100% de eficácia nesta área.

PS: este texto foi originalmente publicado como "Como invadir um notebook (ou evitar)" em minha sessão de colunas no portal FORUMPCS

"No es solamente tinta" - o que existe por trás das tintas das impressoras

O texto abaixo eu publiquei no FORUMPCs já faz algum tempo. Mas por acaso hoje mesmo eu conversei com uma pessoa sobre o mercado de "tintas" e "cartuchos". Há opiniões conflitantes e divergentes. Eu mesmo mudei minha opinião depois que tive a oportunidade de conhecer a fábrica de cartuchos da HP anos atrás. E disso resultou um dos textos mais legais que escrevi e por isso mesmo resolvi "importá-lo" para o meu blog pessoal. Espero que gostem.

Flavio Xandó

A forma como as pessoas imprimem seus documentos mudou bastante ao longo dos últimos anos. Estão longe na memória os dias que impressoras matriciais eram as únicas alternativas. Muitas empresas participaram desta saga, desta evolução. A HP é sem dúvida uma delas e que trouxe uma grande colaboração no desenvolvimento das tecnologias de impressão. Visitei uma das fábricas da HP, situada em Aguadilla, uma pequena cidade na ilha de Porto Rico e pude testemunhar um pouco as mudanças em relação ao passado, como estamos hoje e o que nos reserva o futuro da impressão.


Mas não posso deixar de falar brevemente de Porto Rico, um lugar singular. Para ser honesto, quando soube do workshop que iria participar, tive que procurar um mapa para aprender onde se localiza este diminuto estado, mais um dos Estados Unidos da América, a sudeste de Cuba, na região do Caribe. Conta a história que no final do século XIX Porto Rico se tornou independente da Espanha e por conta da proximidade, desenvolveu uma estreita relação com a terra do tio Sam. Isso até que em 1952 por vontade própria e interesse americano (Cuba comunista ali do lado!) tornou-se mais um dos estados da federação, sendo tão “USA” como Califórnia ou Texas. Mas não é bem isso que observei. As únicas pessoas que ouvi falando em inglês foram os funcionários do hotel, que ao verem que era brasileiro, comutaram instantaneamente para espanhol suas simpáticas explicações. As pessoas na ilha se dividem entre os que adoram ser americanos, outros que têm idéias separatistas e outros que não concordam com nenhum dos grupos anteriores! Para ajudá-los a entender, imagine uma metrópole brasileira, com seus atrativos naturais (a ilha é deslumbrante com paisagens belíssimas), um trânsito caótico (existem um carro para cada dois habitantes na ilha), muitas manifestações de pobreza e ao mesmo tempo a opulência e o tecnicismo norte americano. Isso tudo misturado é uma boa descrição de San Juan a capital de Porto Rico.

Paisagem típica de Porto Rico

A HP se instalou na ilha no começo dos anos 80, assim como muitas outras empresas por conta de incentivos fiscais criados pelo governo americano, que foram diminuindo ao longo das décadas, até que no final de 2005 estes benefícios foram extintos. A HP tem uma fábrica e um centro de pesquisa e desenvolvimento formidável aqui. Atualmente [b]mais de 180 produtos[/b] são manufaturados em Aguadilla entre servidores, storages, desktops, impressoras, cartuchos, etc. Há outras fábricas de cartuchos da HP espalhadas pelo mundo, mas cada uma delas produz modelos diferentes. Se por acaso você tem uma impressora que utiliza os conhecidos cartuchos HP 56, 57 ou 58, pode ter certeza que seus cartuchos são caribenhos.

O preâmbulo desta coluna ficou grande, mas precisava situar para os leitores o contexto desta coluna. Indo agora direto ao aspecto mais tecnológico, fiquei muito impressionado com o que vi aqui. Impressoras não costumam cativar muito a atenção do leitor do ForumPCs, que estão mais ligado nos processadores, memórias, placas de vídeo, softwares, etc. Mas reconheço que aprendi muito em relação ao assunto.Como estive há um ano e meio fazendo visita semelhante nas instalações da Lexmark, relatado na coluna Um só cartucho,uma parte de meu desconhecimento em relação ao assunto foi eliminado pela Lexmark e outra boa parte agora pela HP.

A lição que já fora aprendida antes é a da importância do uso dos cartuchos originais. Sim, claro, isso é de interesse dos fabricantes, EPSON, HP, LEXMARK, etc., mas há fundamentos sólidos nos argumentos a favor dos cartuchos originais. Vou ilustrar isso de forma visual. Participei de um experimento que envolvia tintas de diferentes origens - HP e genéricas. Veja a primeira foto abaixo.

 
Dispersão da tinta HP

O que se vê é um recipiente no qual existe uma tinta amarela (parece alaranjada por causa da concentração). Esta tinta amarela é de fabricação da HP. Há dois pingos pretos nesta tinta. O menor foi feito também com tinta HP. O outro, bem maior, foi um pingo igual, mas feito com tinta genérica. Depois que fiz esta foto o pingo grande continuava a crescer e quase se juntou ao pingo menor que permaneceu estável e pequeno. É assim que a tinta deve ser comportar ao chegar ao papel ou ao se misturar com outras tintas, ou seja, estável. Deve cair e se estabilizar. Observe agora a foto abaixo, a seqüência da experiência.

Dispersão da tinta "genérica"

Agora a tinta amarela é genérica e cada um dos pingos pretos foi feito com tinta genérica e HP. O pingo com a tinta HP se expandiu mais que na experiência anterior, mas depois estabilizou. A combinação do amarelo genérico com preto genérico gerou um borrão preto que não parou de se expandir até que tomou todo o recipiente. Eu chamaria de combinação explosiva! Claro que no papel os efeitos não são assim tão dramáticos, pois devido à porosidade do mesmo a tinta acaba secando e não gera borrões assim grotescos, mas a diferença entre a tecnologia por trás de cada uma dessas amostras para mim é inquestionável.

Comprovando a autenticidade do experimento

Esta é uma realidade mundial, mesmo nos EUA, no qual cartuchos “remanufaturados” (são cartuchos originais preenchidos com outras tintas), chamados por eles de “remans”, são vendidos a baixo custo (ou recarregados por menos de US$ 5) enquanto um cartucho original (que contém uma cabeça de impressão novinha e tinta de qualidade) custa entre sete e oito vezes mais (cartucho colorido).  A HP argumenta que os usuários deveriam comparar em igualdade de condições. Isso significa que o número de páginas impressas, uniformidade da qualidade de impressão, durabilidade do documento impresso (retenção da tinta no papel), etc. não são os mesmos.

Curiosamente os cartuchos são chamados pelos funcionários da HP de Porto Rico de “Las Plumas”. Isso se deve ao fato de no início da operação desta fábrica de Aguadilla (anos 80), terem sido fabricados os componentes para os plotters. Por conta disso, os cartuchos foram batizados de Plumas pela semelhança funcional com seus antigos pares.

A tecnologia eletrônica do cartucho eu já tinha assimilado na ocasião da visita ao outro fabricante. Mas destaco que a complexidade é similar à construção de um processador (como por exemplo, Intel ou AMD), com um agravante. Além de o silício ter que desempenhar o processamento dos sinais e computar as aberturas microscópicas das cabeças de impressão (que é o próprio chip), ainda flui tinta no interior deste ”chip molhado”!! Isso explica a foto abaixo. Não é a toa que se parece com uma foto tradicional de fabricante de processadores, sala limpa, funcionários com roupas de proteção, etc.

Sala onde são manipulados os waffers para fabricação dos chips do cartucho

Pode-se dizer que os cartuchos nascem aqui. Para depois serem montados nas estruturas plásticas, preenchidos com tinta e despachados. No final da linha de produção automatizada cada cartucho é testado individualmente. No preço final o componente eletrônico e a tinta representam cerca de 35% a 40% cada um e os restantes 30% ficam por conta da estrutura plástica em si, montagem, custo do projeto etc. A HP não divulga a capacidade de produção da fábrica por julgar ser informação sensível e estratégica.

A HP não se considera fabricante de impressoras ou cartuchos ou mídias para impressão. Ele se considera fornecedora de Sistemas de impressão, que na verdade é um tripé com todos estes elementos. O máximo desempenho só é atingido quando todos os fatores interagem entre si, a impressora com o papel correto, com a tinta correta e a cabeça de impressão correta.

O sistema de impressão no conceito da HP – uma solução integrada

Preciso destacar que as tintas da HP utilizadas no experimento retratado anteriormente, pertencem a uma nova geração de tintas que a HP já está fabricando e entregando para o mercado. Esta nova geração recebeu até um nome diferenciado (VIVERA) por causa de suas características especiais no aspecto durabilidade. Esta tinta em conjunto com os papéis fotográficos especiais pode alcançar durabilidade de 105 anos ou mais. Mas isso é assunto que detalharei futuramente.


É provável que haja entre os usuários do ForumPCs vários usuários de impressoras HP e também de outros fabricantes. Gostaria de abrir e estimular o debate em relação às experiências que tiveram ao usar componentes genéricos ou componentes originais em seus sistemas de impressão. Haverá argumentações interessantes de todos os lados, estou certo disso. Aguardo colaborações.

Em uma próxima coluna, ainda fruto desta experiência com a HP, irei detalhar mais a tecnologia das impressoras laser coloridas, bem como a diversidade de mídias para impressão e como elas influenciam o resultado final dos trabalhos de impressão.

PS : este texto foi originalmente publicado como "No es solamente tinta" na minha sessão de colunas no portal FORUMPCS

segunda-feira, 23 de janeiro de 2012

Sincronizando servidores, o pesadelo e o sonho!

O cenário é comum. Empresa com dois ou mais escritórios que precisa compartilhar suas informações e arquivos entre as localidades. Não é algo tão simples, mas há soluções engenhosas para esta situação. Este assunto é ao mesmo tempo estratégico para o empresário que quer prover todas as informações para seus colaboradores que trabalham em locais distintos bem como um desafio técnico para os responsáveis por TI.

Por isso mesmo este texto visa de forma simples passar estas informações para estes dois grupos tão distintos de leitores. Alguns parágrafos serão mais técnicos visando o pessoal de TI, mas essencialmente visa alertar e abrir esta possibilidade para empresários que têm a necessidade e não sabem que o problema tem soluções acessíveis e simples.

Mas porque do título “..., o pesadelo e o sonho”?? Na verdade vou apresentar duas soluções possíveis e igualmente eficazes. Mas uma delas, por desconhecer uma “manha”, vivi um “inferno astral”. Como não quero que meus leitores passem pelo mesmo infortúnio, escrevo este texto.

Inúmeros servidores conectados entre si – será possível??


O Cenário

Empresa se estabelece uma grande sede. Vasto espaço para crescimento. Mas quando se é competente e trabalha direito o reconhecimento acontece bem com o crescimento. Um novo escritório, na mesma cidade ou em outra cidade torna-se necessário. Porém a massa de trabalhos, arquivos, documentos, imagens está em local único, o servidor da empresa. A compra de um segundo servidor com a cópia dos dados “resolve” o problema original, mas traz uma nova situação complicada. A partir do dia que existem dois locais com usuários distintos e novos trabalhos ninguém mais sabe onde se encontram as versões mais atuais de documentos sensíveis à operação da empresa. Se fosse possível ter apenas um servidor esta situação não aconteceria.

Sem ser muito técnico há uma solução de caráter temporário que é interligar as duas sedes pela Internet (usando uma VPN – rede virtual privativa) e os usuários da sede menor acessam remotamente os arquivos na sede maior. Funciona? Claro, mas para um grupo pequeno de pessoas apenas e com prejuízo na condição de uso. Por mais rápido que seja a conexão com a Internet, arquivos maiores (2, 5, 10, 20 Mbytes) demoram demais para serem carregados, entre 2 e 10 minutos. Leva este tempo para ler e o mesmo tanto para gravar! Chega uma hora que se torna inviável.

As duas soluções que serão apresentadas a seguir partem do princípio da existência de uma conexão VPN estabelecida entre as duas sedes. Isto pode ser feito de diversas formas. Desde um serviço especializado de VPN contratado junto a um provedor de Internet ou uma simples conexão feita pelo próprio servidor ou por roteadores com este recurso (VPN fim a fim).


Solução 1 – o versátil ROBOCOPY – pesadelo e quase um sonho

Administradores de rede e servidores conhecem formas de criar scripts (arquivos contendo conjunto de comandos) para diversas finalidades. Usando esta tecnologia existe uma forma engenhosa de resolver a situação de manter os dados de dois locais diferentes, em dois servidores distintos com os mesmos arquivos.

Na verdade manter os “mesmos arquivos” significa algo um pouco mais sofisticado. Significa que apenas as versões MAIS NOVAS de cada arquivo devem ser trocadas. O que foi criado ou alterado na sede A deve ser enviado para a sede B. Da mesma forma apenas os arquivos novos e alterados na sede B devem ser enviados para a sede A.

A primeira vez que tentei resolver este problema usei o recurso mais simples possível. Tratava-se do antigo comando XCOPY (extended copy) que existe desde os primórdios dos DOS 3.3 e todas as versões subsequentes do Windows. Porém o XCOPY não é ideal para copiar apenas arquivos novos ou alterados. E tem uma característica terrível que só descobri depois. Se alguém deixar um arquivo aberto em uma estação, o XCOPY ao tentar copiá-lo não obtém sucesso e o processo fica estagnado (não vai para frente e o processo não é completado).

Mas a própria Microsoft criou um SUPER COPY, ou melhor, o ROBUST FILE COPY que é chamado de ROBOCOPY. São dezenas de opções, parâmetros e possibilidades. Veio como um programa à parte para o Windows XP e Windows Server 2003 e tornou-se um comando nativo do Windows Vista, Windows 7 e Windows Server 2008.  Um singelo exemplo está abaixo.

ROBOCOPY C:\DOCUMENTOS D:\DOCUMENTOS /S /R:2 /w:1

Este comando copia apenas os arquivos DIFERENTES da pasta C:\DOCUMENTOS para outro disco D:\DOCUMENTOS (que pode ser na mesma máquina ou em outro servidor remoto), com todas as subpastas (/S) tentando copiar arquivos “presos” por até 2 vezes (/R:2) esperando por 1 segundo entre as tentativas (/W:1). Dá para criar LOGs (registro de tudo que foi copiado) e tantas outras opções. Seria enfadonho explicar em detalhes o ROBOCOPY (veja detalhes no hiperlink). Mas deve ter ficado claro que este BRILHANTE comando resolveria o meu problema!! Assim foi criado um par de scripts programados para rodar em cada um dos servidores para copiar o que tinha de novo ou alterado da sede A para a sede B e vice versa.

Tudo funcionando, acompanhei por dois ou três dias e tudo estava aparentemente certo. APARENTEMETE. Foi quando o PESADELO começou. Pessoas da sede A e da sede B começaram a reclamar que seus trabalhos recém-feitos haviam sido perdidos, tinha voltado a ser como eram dias atrás (alterações perdidas). Crise brava! Não uma ou duas, mas MUITAS pessoas com o mesmo problema. Depois de muita tensão e estudo descobri que há uma ANOMALIA no comportamento do brilhante ROBOCOPY.

Por padrão o ROBOCOPY copia os arquivos DIFERENTES, sem se importar se o DESTINO é mais novo ou mais antigo. Assim ao fazer cópias de sede A para a sede B os arquivos diferentes (mesmo mais ANTIGOS) são copiados sobre os arquivos MAIS NOVOS da sede B. Estava descoberta a anomalia e o problema. Por isso que inúmeras pessoas reclamavam com razão que seus trabalhos estavam “SUMINDO”. Para realizar backups em discos externos (HDs externos) o arquivo ser diferente é suficiente, mas NÃO PARA SINCRONIZAR SERVIDORES.

Estudando a documentação do ROBOCOPY descobri existir o parâmetro /XO que faz o comando funcionar como era esperado. Ajustados os scripts, o nefasto efeito de arquivos mais antigos serem copiados sobre os mais novos no outro servidor parou de acontecer. Ficou tudo QUASE perfeito. Este esquema usando scripts e ROBOCOPY apresentou ainda DUAS grandes deficiências :

  • ·         Sincronização apenas uma vez por dia, feita de madrugada.
  • ·         Arquivos apagados “reapareciam”. Este é o efeito colateral da forma como foi feita a sincronização. O arquivo apagado na sede A era recopiado da sede B (que não fora apagado). Assim qualquer arquivo apagado em qualquer das sedes era recuperado pois vinha do outro servidor.

Solução 2 – Microsoft DFS – o sonho!!

DFS – Distributed File System, ou Sistema de Arquivos Distribuído é um recurso que nasceu no de forma incipiente no Windows 2000 Server, mais de dez anos atrás. Mas atingiu sua plena maturidade no Windows Server 2008 R2. Assim o que vou mostrar está longe de ser algo novo. Mas exigia certo estudo. A solução feita com o ROBOCOPY, mesmo não sendo perfeita, deu-me tempo para estudar melhor esta “nova” alternativa.

O conceito: o recurso DFS é amplo e tem muitas facetas distintas, mas o que me importava era a possibilidade de integração, sincronização de dados de forma inteligente. E põe inteligente nisso. Tomemos como exemplo dois servidores (podem ser mais). Algumas pastas podem ser escolhidas e estas serão constantemente monitoradas pelo Windows. Os seguintes eventos são resolvidos por esta ferramenta:

·         Se um arquivo é criado em qualquer dos servidores naquela pasta escolhida (ou sub-pasta) este arquivo é instantaneamente copiado para o outro servidor no mesmo local.
·         Se um arquivo é alterado, seja ele grande ou pequeno, o outro servidor recebe a atualização. Mas de forma inteligente. Usando um complexo algoritmo de compressão (RDC - Remote Diferential Compression), o conteúdo é analisado e apenas a parte que foi alterada do arquivo é transmitida para o outro lado.

·         Se um arquivo é APAGADO em uma das duas pontas (um dos servidores), o mesmo arquivo e na mesma pasta também é apagado no outro servidor em poucos segundos.

Há muitas outras características, mas já ficou claro que apenas estas 3 citadas acima resolvem completamente a situação a qual eu me propunha solucionar. O DFS está presente como uma função a mais da “role” FILE SERVICES e deve ser instalada explicitamente no servidor.

Serviço DFS e sua função de Replicação

Outro uso importante para o DFS REPLICATION é manter um servidor redundante no mesmo local. Caso haja pane do primeiro o segundo pode rapidamente configurado para assumir seu lugar e assim a empresa não terá perda de continuidade em seus trabalhos.

Resumidamente falando o DFS REPLICATION pode ser configurado de muitas formas. Pode ser unidirecional ou bidirecional (no meu caso tinha que ser bidirecional). Pode envolver muitos servidores (no meu caso eram apenas 2). A Microsoft recomenda que até 10 servidores sejam usados para MULTI REPLICAÇÃO, ou seja, TODOS REPLICANDO EM TODOS. Já imaginaram? Qualquer alteração feita em um dos 10 é repetida nos outros 9... Fantástico. Mas podem ser usadas outras arquiteturas. Um conjunto ainda maior de servidores podem ser associados por meio de um “concentrador” e este enviar as alterações para outros. Enfim, são muitas possibilidades.

Fica claro que ocorre uma forte comunicação entre os servidores. Mas principalmente no cenário remoto (via VPN) como fica o consumo de recurso de comunicação (banda de Internet)?

Este ponto foi tratado com bastante esperteza pela Microsoft. A empresa em questão, objeto deste “case” tinha um link de Internet de 10 Mbps em uma sede e link de 2 Mbps na outra sede. Se o volume de arquivos novos fosse grande demais em determinado dia a sede B ficaria completamente sem condição de acesso à Internet, pois teria toda sua capacidade “drenada” pelo DFS REPLICATION. Assim o administrador de rede pode definir o quanto do recurso pode ser usado a cada momento:


  • Todo dia das 21:00 até 08:00 usa toda a capacidade (100%)
  • Das 08:00 às 09:00 e das 20:00 às 21:00 usa 50%
  • Das 09:00 às 20:00 apenas 128 Kbps (5% da banda mínima)
  • Sábados e Domingos todo dia 100%
Isto é facilmente enxergado e configurado na tela mostrada abaixo.

Controle de consumo de banda de Internet por dias/horários

Embora durante o dia haja apenas 128 Kbps reservado para esta operação, quando os volumes envolvidos são pequenos ou médios as operações são replicadas rapidamente. Apenas no caso de uma cópia massiva de arquivos na rede que estas apenas serão completadas no período após o expediente, com toda a capacidade de uso da Internet à disposição.

Quando eu implantei este recurso entre sede A e sede B da referida empresa, os servidores já se encontravam em locais distintos. Assim a “replicação inicial” demorou quase duas semanas para ser completada. Eram quase 500 Gb de arquivos!! Rápido se pensar no volume, graças ao sofisticado algoritmo de compressão de dados usado pela Microsoft. Depois disso as operações eram virtualmente instantâneas (no máximo 2 segundos para acontecerem na outra ponta).

Por isso quando for possível o ideal é realizar esta replicação primordial com os dois servidores lado a lado, na mesma rede, sem envolver comunicação remota via Internet. Depois pode levar cada servidor para seu destino final onde a replicação dos arquivos acontecerá de imediato via Internet.


CONCLUSÃO

A tarefa de manter dois ou mais locais com o mesmo conjunto de arquivos dispõe de várias soluções. O DFS Replication do Microsoft Windows Server 2008 R2 embora tenha já no mínimo um par de anos, nem sempre é usado pelas empresas. Talvez por desconhecimento. E não há motivos para isso. A solução “caseira” via scripts com o também competente ROBOCOPY é uma solução “honrosa”. Tem como virtude a simplicidade, mas como demonstrado apresenta alguns “poréms” que podem ou não serem tolerados. Depende de cada situação.

Já há alguns meses este cenário descrito está implantado com sucesso pleno. Administrar o uso do recurso (para não consumir demais a capacidade da Internet), manter 2 servidores exatamente iguais, seja a 2 metros de distância, 500 metros ou 2000 Km é um serviço fantástico. DFS Replication não é ferramenta de backup. Mas ter um ou mais servidores rigorosamente com o mesmo conteúdo é uma segurança a mais para a empresa, em caso de pane severa de um de seus repositórios de arquivos.

Por fim devo confessar que me surpreendi com a simplicidade da implementação. Soubesse eu que fosse assim, nem teria usado a alternativa dos scripts com ROBOCOPY (que é uma ótima ferramenta, mas não a melhor para ESTE cenário). E para o empresário, que quer apenas que suas informações estejam igualmente disponíveis e acessíveis plenamente em todas as suas sedes, escritórios ou filiais, o DFS Replication é uma ferramenta essencial.


Arquitetura multi replicação do DFS Replication

Alguns links para consulta :

http://technet.microsoft.com/en-us/library/cc753479(WS.10).aspx
http://technet.microsoft.com/en-us/library/cc773238(WS.10).aspx
http://www.windowsnetworking.com/articles_tutorials/implementing-dfs-replication.html

PS: continuarei a série de textos sobre relógios-computadores-de-pulso para corredores na sequência. Interrompi para falar deste outro assunto.