segunda-feira, 28 de abril de 2014

Situações extremas exigem redes extremas

Esta história começou a ser contada quase um ano atrás quando analisei a implantação de uma rede WiFi diferenciada. Tratava-se do caso do Gillete Stadium do New England Patriots que proporcionou acessoWiFi para 68 mil pessoas. Mas mais do que isso. Criativas aplicações e serviços foram viabilizados por esta grandiosa realização. Na ocasião pude estudar o caso e compará-lo com situações mais próximas das pessoas comuns e das empresas. Mas o motivador para este novo texto é que pude conhecer um pouco mais a empresa que está por trás desta e de muitas outras realizações. Conhecer um pouco mais a tecnologia e suas aplicações me fez ver o quanto a demanda por redes mais e mais sofisticadas e complexas têm crescido e que recursos estão disponíveis para que possam ser criadas.

A empresa citada é a Extreme Networks detentora de um extenso portfólio de produtos de rede tanto para soluções sem fio como redes tradicionais cabeadas (Ethernet, fibra, etc.). Este é um mercado desafiador, pois há um seleto grupo de competentes fornecedores constantemente desenvolvendo e aprimorando seus produtos. Mas engana-se quem pensa que apenas a vertiginosa escalada de velocidade de transmissão (por cabo ou via ar) é que importa para os clientes. Claro que no mundo que vivemos no qual o Big Data é cada vez mais presente, intenso e o volume de informações criados praticamente dobra a cada 5 anos a velocidade é essencial. Mas repito, não é tudo.

Não posso deixar de citar que a primeira rede que usei tinha a assombrosa velocidade de 0.256 Mbps (256 Kbps). O rumo da evolução foi 1, 2, 10, 100, 1000 Mbps e nos dias de hoje redes de 10 Gbps são comuns em grandes empresas e 40 Gbps já pode também desfrutado, especialmente em grandes corporações e Data Centers.

O caso mais intenso de necessidade de banda em altíssima escala sem dúvida se encontra na infraestrutura de um grande Data Center de um provedor de serviços de nuvem. Uma quantidade inimaginável de servidores físicos e virtualizados existem neste ambiente e seus milhares de “sub-ambientes” como grupos de servidores virtuais de empresas. Não posso me esquecer da incrível demanda de serviços como armazenamento, aplicações, bancos de dados ou serviços web todos hospedados na nuvem.

Este mundo de redes de alta capacidade e desempenho se desenvolveu havendo hoje em dia tipos de switches diferentes para cada segmento da rede. São pelo menos 3 segmentos:

·         switch departamental – usados para levar conexão aos usuários finais nos escritórios das empresas. Normalmente trafegam dados em 100/1000 Mbps e alguns modelos têm PoE (power over Ethernet), ou seja, podem alimentar com energia alguns dispositivos como Access Points, câmeras de segurança e telefones IP.
·         switch core – usados para concentrar e distribuir o tráfego entre os diversos departamentos da empresa e onde são conectados os servidores. São dispositivos de alto desempenho e baixa latência para otimizar o tráfego. Trafegam dados até 10 Gbps.
·         switch “top-of-the-rack”- para grandes corporações, grandes datacenters e provedores de nuvem. São os switches principais destes ambiente, baixa latência, podem trabalhar agregados e trafegam dados até 40 Gbps.
  

Os fabricantes têm seus modelos, famílias, recomendações, etc. Não é o escopo deste texto, mas não posso deixar de ilustrar estes elementos que são fundamentais para as “redes extremas” que quero comentar. Seguem alguns exemplos da família da Extreme Networks. São apenas alguns exemplos da diversidade de dispositivos. A própria empresa dispõe de vários outros tipos e modelos de switches.


Figura 01 – SummitX440 – switch departamental 10/100/1000

Figura 02 – SummitX670 – switch core até 10 Gbps

Figura 03 – Summit X770 – switch alta densidade e baixa latência 40 Gbps


Purview – domando a rede

Parafraseando recente slogan publicitário: “rede não é nada sem controle”. A Extreme Networks apresentou há pouco tempo uma ferramenta que melhora a experiência de uso das aplicações, pois permite conhecer o uso que é feito por parte dos usuários, otimiza o rendimento das mesmas e protege os sistemas de informação de usos inadequados ou potencialmente perigosos.

O Purview aproveita a informação em cada contexto que viaja pela rede a partir dos usuários,  dispositivos, aplicações e locais de utilização. Captura os dados da rede e os agrega, analisa, correlaciona e os apresenta, proporcionando assim a visibilidade sobre o rendimento e uso que faz dos diferentes recursos de TI da organização. Pode ser utilizado tanto em redes baseadas em switches da Extreme Networks como em redes de outros fabricantes Ethernet. Essencialmente ele analisa o tráfego do ponto de vista de aplicações e não pacotes TPC/IP. Por exemplo, pode-se descobrir quais aplicações geram maior tráfego de rede e quem são seus usuários e quando são usadas. Tudo mostrado graficamente com possibilidade de aprofundar a informação (“drill-down”). Trabalha na camada 7 do modelo de referência OSI de conectividade. Minha curiosidade foi bastante estimulada ao saber deste tipo de solução. Oportunamente posso vir a testá-la. Assim eu desejo.

 
Figura 04 – Purview analisando tipo de tráfego e aplicações


Figura 05 – Purview modelo conceitual e arquitetura



Mas o mundo está mudando ainda mais. A tecnologia de rede sem fio abriu a possibilidade para que novos paradigmas de rede fossem criados. Mas isso tudo foi além. Quando se começou a falar em “Internet da coisas” francamente eu não levei muito a sério. Não via como tão fantástico nem tão útil minha geladeira estar conectada com outros dispositivos de minha casa e todos ligados à Internet. Mas meu pensamento era “pequeno”. Por meio da Extreme Networks eu tive acesso a um caso de uso de rede sem fio tão ou mais interessante do que o WiFi no Gillete Stadium.

Uso de WiFi no Henry Ford Health System (HFHS)

Se prover conexão no estádio foi um imenso desafio, principalmente pelo volume, o que não dizer de um ambiente extremamente crítico como um hospital, ou melhor, um grupo de hospitais. Se o nome HenryFord Health System lhe soou familiar, é o mesmo (e único) Henry Ford, criador do Ford T e da linha de produção em série que está por trás de tudo isso. Trata-se de uma instituição privada de saúde sem fins lucrativos fundada em Detroit em 1915 junto com o hospital de mesmo nome cuja história pode ser aprofundada nestes dois links: história e fatos.

 
Figura 06 – Henry Ford Hospital em Detroit


Atualmente são 7 hospitais no estado de Michigan que atendem mais de 2.2 milhões de pessoas por ano. O volume de funcionários é próximo de 24 mil empregados, e conta com diversos centros de excelência em várias áreas que vão de tratamento de câncer, transplantes, etc.

Mas qual o uso que se faz de WiFi no HFHS (Henry Ford Health System)? Desde prover acesso aos pacientes e familiares (“convidados”), entregar acesso sem fio em aplicações críticas para pacientes, médicos, enfermagem e equipamentos usados para monitoração que salvam vidas em regime 24x7x365. São os aparelhos médicos e sistemas de monitoração, seja em leitos como nas UTIs. Todos se valem da conectividade sem fio para intercâmbio de informações.


Figura 07 – aparelhos médicos conectados


Segundo as estatísticas do HFHS cerca de 12000 se conectam todos os meses e aproximadamente mais de 5000 pessoas acessam como “convidadas” e usam os recursos de conectividade e Internet todos os dias. Os números são grandiosos. Há mais de 650 mil metros quadrados de cobertura de sinal de WiFi nas várias unidades (atualmente presente em 5 unidades). Segundo dados atualizados em março de 2014 existem cerca de 4500 access points distribuídos que são geridos por 16 “Wireless Controllers” e 8 Engenheiros de rede sem fio se alternam nas diversas funções de prover a estabilidade e o crescimento da rede no HFHS.

Há uma interessante entrevista com Doug McDonald que é “Wireless Network Manager” do HFHS e que pode ser ouvida aqui. Resumidamente Doug conta que iniciaram o projeto da rede em 2006 visando obter alguns registros médicos via WiFi. Ainda assim achavam que a maior parte da rede seria cabeada no futuro, que dispositivos móveis não teriam condições de suportar aplicações tão críticas. Mas mesmo assim investiram nesta visão e desde então a rede vem crescendo de forma muito acelerada. Ampliaram a capacidade 100% (dobrando) seu tamanho nos últimos 7 anos consecutivos.

Segundo Doug ainda estamos começado apenas no uso de WiFi na área de saúde. Aparelhos “wearable” (do tipo do Google glass), análise de Big Data, aplicações móveis ainda mais sofisticadas são apenas mais alguns pontos que estão por vir.

O desafio é conseguir no dia a dia prover o serviço necessário para usuários e dispositivos médicos. Estabelecer o número correto de access points para o nível de qualidade necessária. Ter a essencial separação de tráfego por níveis de prioridade. Um sensor de dados em uma UTI não pode ser prejudicado por uso de Internet pelos convidados bem como a exibição de uma imagem obtida em um exame diagnóstico. A necessidade é de comunicação em tempo real entre pacientes, sensores, médicos e dispositivos!

Uma rede grande assim não pode prescindir de um sistema de IPS (prevenção contra intrusão) especializado para WiFi. Investimentos e evolução devem ser constantes. Bem como preocupar-se com o tipo encriptação do sinal pois não importa quão forte ela seja hoje. É apenas questão de tempo e dinheiro para uma encriptação ser quebrada (como já aconteceu com o protocolo WEP). No HFHS existem 1200 sensores dedicados especialmente a esta finalidade, ou seja, análise de segurança, capturar tentativas de acesso indevido ou tentativas de invasão.

Tudo isso são preocupações novas pois com cabos os dados fluem circunscritos à edificação da empresa (neste caso dos hospitais) enquanto sinal wireless vaza para fora de seus limites. Sofisticados equipamentos de “wireless sniffer” podem avaliar e monitorar os sinais a partir de uma distância muito grande. Não haverá aquela “van suspeita” parada na porta a espionar. É bem mais complicado desconfiar de quem possa estar espionando.

Desafios importantes a serem superados

O prédio da sede em Detroit foi reformado e ampliado nos anos 70 do século passado, em plena época da Guerra fria entre EUA e URSS. Por isso há muitas paredes de concreto de grande espessura (180 cm) que não são nada propícias a propagação de sinais de WiFi. Além disso existem átrios no interior dos prédios nos quais alta vegetação cresce e vai interferindo nas características de propagação de sinal de rádio. Também existem sites de variados tamanhos dentro dos hospitais e um número grande de locais pequenos a serem suportados pelo WiFi.

A velocidade de acesso é fator crítico! Principalmente dos equipamentos mais sensíveis e de grande responsabilidade como sensores de UTI, etc. Por tudo isso a distribuição dos access points teve que ser feita após extensa pesquisa dos locais e planejamento de sensibilidade de sinal para que os acessos mais importantes fossem privilegiados.

Também não poderia faltar cobertura de sinal nos elevadores e nas escadas para haver continuidade de uso dos sistemas médicos e aplicações de voz. Passar fiação em fosso de elevador é algo bem complicado porque vistorias de segurança por parte dos bombeiros é feita e nada pode comprometer a segurança. Nos fossos de elevador fibras óticas foram usadas para prover a conectividade aos access points cuidadosamente instalados nestes lugares.

Como foi resolvido o problema?

Foi descartado o uso de tecnologia de 2.4 Ghz, a mais popular em favor de equipamentos que funcionam a 5 Ghz. Estes são muito menos sujeitos à interferência, mas via de regra têm alcance menor. As opções para 5 Ghz seriam os padrões  802.11a, 802.11n e 802.11ac. Como dois dos requisitos eram cobertura plena e velocidade de acesso privilegiada foram usados equipamentos com suporte ao recente padrão 802.11ac, ou seja, com velocidade nominal de até 1300 Mbps. O diagrama abaixo mostra as diferenças entre estas soluções.



Figura 08 – diferentes padrões de WiFi


Como em muitas situações práticas na vida corporativa no âmbito da tecnologia precisa existir um equilíbrio entre largura de banda e alcance do sinal. Isso é refletido na densidade de access points a serem utilizados (mais para as soluções de 5 Ghz). Mas o ganho em velocidade é bastante expressivo. Não só isso, a robustez do sinal é outro aspecto muito importante. A tecnologia 802.11ac dispõe de um recurso chamado DFS (Dynamic Frequency Selection). Na prática funciona com sistema que “dribla” as interferências entre os canais de rádio (e as frequências) alternando-as de uma forma dinâmica na medida que haja conflito de sinais. Isso é bem engenhoso e resulta em um benefício muito grande.


Figura 09 – equilibrando largura de banda e densidade de access points


Outra característica que foi explorada na solução do HFHS foi o uso de múltiplos canais do protocolo 802.11ac. Em função da capacidade do dispositivo conectado na rede WiFi, da necessidade de largura de banda (velocidade de acesso) e da proximidade do access point mais canais podem ser usados simultaneamente para maximizar a velocidade de acesso. Isso tem como consequência a diminuição da quantidade de canais úteis que não têm conflito de frequência e por isso mesmo é um recurso que deve ser usado e explorado com bastante planejamento.


Figura 10 – como acontece o aproveitamento de múltiplos canais no WiFi 802.11ac


Por fim ao usar a tecnologia WiFi 802.11ac como fez o HFHS deve ser feito o planejamento de necessidades de largura de banda em função da distância. Todo sistema de WiFi apresenta diferença de velocidade em função de maior ou menor proximidade dos access points. Mas na tecnologia 802.11ac isso é mais dramático por conta da possibilidade de uso de múltiplos canais. Assim ao planejar o acesso dos dispositivos que requerem maior fluxo de dados estes devem estar mais próximos ao access point usufruindo de velocidades compatíveis aos serviços executados.



Figura 11 – como acontece o aproveitamento de múltiplos canais no WiFi 802.11ac

Individualmente estas premissas básicas não são complicadas. Mas conciliar 4500 access points em função das distâncias necessárias aos dispositivos, uso de mais ou menos canais, visando atender da melhor forma possível aos usuários, dispositivos e sensores, este sim é um grande desafio. Para isso foram usados os access points IdentiFi 3600 da Extreme Networks. Destes 4500 IdentiFi 3600, 1200 estão sendo usados exclusivamente como sensores para identificar e permitir bloquear intrusões, ou seja, como elementos de segurança.

Para gerenciar este parque todo e controlá-los foram usados 14 equipamentos IdentiFi WiFi Controllers modelos c5110a e c4110 montados em pares redundantes a falhas de tal forma que se um deles apresentar falha ou for desligado o outro assume a função mantendo a operação. Da mesma forma access points também foram instalados em redundância para que na falha de um deles seu par possa assumir seu papel e possa manter os usuários conectados.


 
Figura 12 – IdentiFi WiFi Controller e Identifi 3600 access point (imagens fora de escala)


Orquestrando toda a solução

O caso que me foi apresentado tem as informações focadas no formidável sistema de rede sem fio com este número imenso de equipamentos, controladores, etc. Porém a interligação de todos estes milhares de access points com seus gerenciadores, links de Internet, servidores e outros sistemas de informação dos hospitais deve ser implementado via rede cabeada. Até conheço solução 100% baseada em WiFi, mas não haveria largura de banda suficiente e haveria latência bem mais alta se tudo fosse sem fio.

Por isso o arquiteto da solução do HFHS teve que pensar, pensar, pensar e fazer a melhor distribuição possível de recursos visando atender todos os pontos. Mesmo na solução do estádio do New England Patriots foi desafiador levar os cabos Ethernet ou fibra para todos os pontos necessários para prover conectividade aos access points. Da mesma forma no HFHS, pois até fibra teve que ser levada aos fossos de elevador para que também houvesse conectividade nestes lugares. Quais switches devem ser usados e em que quantidade, que velocidades... Tudo isso está nos bastidores desta solução, deste lindo projeto realizado pelo Henry Ford Health System. Planejamento, excelência técnica, robustez, confiabilidade e muita engenharia de rede, tudo isso somado permite que um cenário como este seja especificado, realizado e esteja em operação dobrando de tamanho a cada ano. Definitivamente situações extremas exigem redes extremas. E cada vez mais neste mundo super conectado que vivemos!!

domingo, 13 de abril de 2014

Sandisk Extreme Pro - parece um pendrive, mas é algo muito diferente!!

Quando os populares pendrives desbancaram os antigos disquetes foi uma maravilha. Muitos talvez nem se lembrem. Mas os primeiros pendrives tinha capacidade de 8 MB ou 16 MB. Isso era muito mais que os disquetes que armazenavam apenas 1.44 MB e ainda tinha problema do tamanho (embora tivessem sido projetados pensando em fazê-los caber no bolso de uma camisa) e da fragilidade (apesar da carcaça rígida que envelopava o disco). Não há como comparar a robustez, velocidade de acesso e a praticidade dos pendrives com os finados disquetes.

Ao longo do tempo assistimos uma grande escalada na capacidade dos pendrives que rapidamente evoluíram para 128 MB, 512 MB, 1 GB, 2 GB, 4GB... O que não evoluiu tanto assim foi a velocidade de acesso para leitura e gravação. Como os pendrives substituíram os disquetes o uso predominante sempre foi transportar conteúdo, documentos, planilhas, fotos, apresentações, arquivos que normalmente não são grandes. Quando muito 1 MB. Dessa forma o acesso a cada um deles sempre se dava de forma quase instantânea e portanto contentava a todos. Por isso os fabricantes se preocuparam apenas em aumentar a capacidade ao longo do tempo uma vez que a velocidade estava bem resolvida. Isso ajudava a manter o custo do pendrive mais baixo uma vez que memórias flash que podem ser lidas e gravadas mais rapidamente são mais caras. Mas o tempo passa e as coisas mudam.



figura 01 – Sandisk Extreme PRO USB 3.0

A foto acima se parece com um pendrive certo? Pois é, mas eu não me atrevo a dar este nome para o Sandisk Extreme Pro ou ao menos reduzi-lo a esta categoria. O que se pode fazer com ele e como fazemos amplia e muito a sua gama de utilização.  Vou explicar. Nos dias de hoje manipulamos arquivos maiores ou grupos maiores de arquivos com mais frequência. São arquivos de vídeo, uma centena de fotos, algumas centenas de músicas...


figura 02 – Sandisk Extreme PRO USB 3.0 em sua embalagem

Olhando a embalagem do Extreme Pro ele destaca ser 60 vezes mais rápido que um pendrive comum. Como pode ser?? Tudo começa por ele exigir ser conectado em uma porta USB 3.0 (que tem um limite teórico de transferência de até 480 MB/s). Além disso o tipo de memória usada na sua construção é bem diferenciada. Na mesma embalagem vemos discretamente no canto superior esquerdo sua especificação de velocidade citando 260 MB/s para leitura e 240 MB/s para escrita. Testei em um de meus notebooks e obtive valores que se não são idênticos aos citados são bem próximos: 241 MB/s para leitura e 209 MB/s para escrita.



figura 03 – Sandisk Extreme PRO USB 3.0 – teste de leitura – 241 MB/s


figura 04 – Sandisk Extreme PRO USB 3.0 – teste de escrita – 209 MB/s


Importante! Fiz o teste usando um Ultrabook que contém um SSD Seagate de 480 GB (que tem velocidade nominal de 450 MB/s), que será objeto de texto em futuro bem próximo. Isso é importante porque só se obtém o máximo de velocidade no acesso se a fonte dos arquivos, ou seja, onde eles estiverem gravados seja no mínimo tão rápido quanto o Extreme Pro. De que adiantaria gravar pastas ou arquivos a partir de um notebook com HD convencional que só entrega entre 65 a 95 MB/s? Obviamente isso limitaria o desempenho encontrado. E de quebra ficou explícito que o Extreme Pro é bem mais rápido que HDs convencionais.


figura 05 – Sandisk Extreme PRO USB 3.0

Mas eu sou persistente. Usando um software mais apropriado para medir desempenhos de discos, o CrystalDiskMark obtive os dados propalados pela Sandisk. Medi 261 MB/s para leitura e 240 MB/s para escrita na situação mais comum que é acesso sequencial (veja na figura abaixo).


figura 06 – Medindo a velocidade de escrita e gravação com o CrystalDiskMark

Mas a Sandisk divulga ser o Extreme Pro 60 vezes mais rápido que um pendrive convencional. Será?? Eu tenho em meu escritório uma caixa com cerca de 100 pendrives. Procurei por vários e fiz diversos testes. Enquanto o Extreme Pro lê informações entre 240 e 260 MB/s um pendrive comum lê as mesmas informações entre 2.5 e 4.5 MB/s. Aliás 4.5 MB/s foi o máximo que obtive após testar cerca de 15 unidades. Não tive paciência de testar os 100!! Mas foi uma boa amostragem. Ficou claramente comprovado que a designação – 60 vezes mais rápido é bastante precisa.



figura 07 – Medindo a velocidade de leitura no melhor pendrive convencional que encontrei

Talvez o leitor não tenha percebido o impacto disso no dia a dia. Vou explicar melhor. Imagine um arquivo com 1.8 GB. Pode ser um filme, uma imagem ISO de um DVD, ou qualquer outro arquivo importante. Com um pendrive convencional essa cópia demora um pouco menos que 7 minutos (400 segundos), medido por mim. O MESMO arquivo sendo lido do Extreme Pro demora apenas SETE SEGUNDOS, sim isso mesmo, 7 segundos!!

Isso tudo me remete ao título que escolhi para o meu texto. O Extreme Pro se parece com um pendrive, mas é definitivamente algo bem diferente!! Por que?? Porque o tipo de uso que ele pode ter é extremamente mais amplo. Usá-lo para conter algumas dezenas de documentos e planilhas é um desperdício, mas também cumpre este papel. Se você é alguém que não confia em guardar arquivos na nuvem pode usar um Extreme Pro como a sua “nuvem pessoal portátil” na qual você sempre grava TODOS os seus arquivos e transporta facilmente para qualquer lugar e com máxima velocidade de leitura e escrita (maior que os HDs convencionais dos notebooks). Pode ser o seu local de backup e que pode ser feito com muita agilidade. Quer ver um filme na sua TV, filme com 4 ou 5 GB e não quer esperar 20 minutos para realizar a cópia (19 segundos no Exteme Pro)... Eu às vezes penso duas vezes e algumas delas eu desisto quando vejo o quanto vai demorar uma operação dessas em um pendrive comum.

Enfim, este novo dispositivo, o Sandisk Extreme Pro permite que se amplie o que se pode fazer com algo parecido com um pendrive. Viabiliza novos tipos de usos que somente a velocidade dele pode proporcionar. Porém isso tudo tem um preço. A versão que eu testei de 128 GB custa no mercado cerca de R$ 890!! Alguém que queira esta velocidade toda, mas não tanto espaço pode ficar bem com um modelo de 64 ou 32 GB (um pouco mais lentos – mas ainda bem rápidos).



figura 08 – Sandisk Extreme Pro USB 3.0

sábado, 12 de abril de 2014

Nova fábrica controlada por WiFi produz motor inédito no Brasil

A Ford inaugurou neste dia 10 de abril uma nova fábrica de motores em sua planta industrial em Camaçari na Bahia. Esta inauguração é mais uma das fases do lançamento de seu novo carro compacto, o novo KA que já foi apresentado preliminarmente (pelo menos suas formas – sem mecânica) nas versões sedan e hatch no ano passado. Mas o destaque deste acontecimento foi para mim o grau de sofisticação da fábrica, muito moderna e do motor que também é bastante avançado e cheio de soluções inovadoras.

A nova fábrica

A edificação que hospeda a nova fábrica tem 24.500 metros quadrados, algo como 125 por 200 metros (em se tratando de unidade rurais trata-se de um alqueire!!). O ambiente é totalmente climatizado, temperatura constante de 24C e pressão positiva de ar. Dessa forma há total controle sobre as diminutas margens de tolerância dimensional. Isto visa controlar as variações de temperatura que podem causar expansão ou contração micrométrica nos metais que fora de certos limites podem afetar o produto final. Também assim é garantida a não contaminação das unidades produzidas por impurezas que poderiam ser trazidas pelo ar.


figura 01 – visão da nova fábrica de motores da Ford em Camaçari


Eu entendo que o que eu visitei e observei é ainda uma fábrica em regime de pré-produção. Mas o grau de limpeza e ordem é digno de um ambiente hospitalar!! Desta fábrica sairão 210 mil motores por ano, tanto para o mercado nacional, para equipar os carros compactos da Ford bem como para eventualmente suprir motores para fábricas de outros países. Trata-se da fabricação completa, bloco, cabeçote e a montagem da unidade motriz.

Trata-se de primeira fábrica de motores situada na região nordeste do Brasil tendo criado 300 novos postos de trabalho. Demandou um investimento de 400 milhões de reais, parte de um plano de investimentos da companhia iniciado tempos atrás que realizará investimentos de 4.5 bilhões de reais até o final de 2015 no país.

Pensava que falar de uma fábrica poderia ser enfadonho, mas há dados que achei espetaculares e interessantes. Quando uma fábrica é feita usando postos fixos e especializados aquela linha de montagem fará eternamente somente determinado produto. Porém nesta fábrica há 34 centros de usinagem totalmente flexíveis, ou seja, podem ser reprogramados para desempenharem outras funções no futuro. São mais de 40 robôs e estações de carregamento automáticos (veja nas fotos).


figura 02 – visão da nova fábrica de motores – sistema robotizado

figura 03 – linha de produção sendo acompanhada por funcionário



Controlada por WiFi? Sim!!

Sim WiFi é tecnologia essencial na fábrica. 100% dos equipamentos e máquinas são conectados a uma central de monitoramento e gerenciamento. É uma estrutura impressionante! Dessa forma há rastreabilidade total da unidade sendo montada em todas as estações. Por quais máquinas ela passou, dados de uso das máquinas, tempo de operação, etc. São quase 130 pontos de monitoração. Há também câmeras de alta definição que acompanham e ajudam a verificar as operações de montagem dos componentes. Segundo a Ford isso tudo visa garantir a presença de ZERO defeitos no produto final.

Foi escolhida a tecnologia WiFi porque pelas dimensões da fábrica e quantidade de equipamentos seriam necessários quilômetros e quilômetros de cabo, além de estruturas, canaletas, etc. Algumas dezenas de células WiFi distribuídas na edificação proporcionam a cobertura de toda a área. Assim são mantidos os “quadros eletrônicos” de produção com atualização a cada segundo com informações detalhadas de volume de produção e do histórico de cada unidade fabricada. Achei sensacional! Digno de um estudo de caso mais minucioso da aplicação esta tecnologia...


figura 04 – linha de produção


Validações

Ainda visando a meta de “zero defeitos”, há estações de testes ao longo da linha de produção para verificação imediata da operações. No final da linha de montagem há 3 células de “Cold Test”. Este é um tipo de checagem na qual o motor é testado sem combustível, ou seja, um motor elétrico provê o movimento das partes e mais de 350 características são aferidas. 100% dos motores que saem da linha passarão pelo “Cold Test” e devem apresentar zero imperfeições.

Antes de concluir o processo os motores passam por mais 2 células de “Hot Run”, ou seja, o teste a quente, que simulam o funcionamento no veículo fazendo o motor funcionar com combustível e lubrificação. Este tipo de teste não será feito em 100% dos motores porque se o “Cold Test” não detectou variação alguma não há porque a unidade apresentar defeito. Mas mesmo assim um percentual dos motores é testado. No início da produção este percentual de testes será elevado, quase a totalidade dos motores, mas com a estabilização do processo de produção a verificação será mesmo feita por amostragem estatística


figura 05 – verificação de funcionamento dos motores


Mão de obra

Equipamentos moderníssimos, tecnologia de primeiro mundo, expectativa de qualidade superior por si só não garantem a excelência do produto final. Também é necessário que o funcionário que opera cada posto de trabalho tenha sido bastante preparado e capacitado para tal. Foi construído um novo centro de treinamento visando este projeto e ministradas mais de 380 mil horas de treinamento para os funcionários dedicados aos estreantes motores. Foi feita uma parceria com o SENAI e com diversos fornecedores visando prover o treinamento específico para os funcionários da nova fábrica.


Produção mais limpa


Fábricas que realizam usinagem (desgaste controlado de material) têm um sério problema. Normalmente é usada água (muita água) borrifada na peça sendo trabalhada. Isso tem como efeito a lubrificação do contato da ferramenta com o metal e também visa reduzir a temperatura. Mas o dejeto desta operação é água contaminada por metais, em grande quantidade. No passado isso era descartado no meio ambiente causando grande poluição e trauma ambiental. Atualmente as empresas devem tratar esta água para poder ser reaproveitada ou descartada não contaminada.

Na nova fábrica de motores da Ford é usado um processo denominado MQL – mínima quantidade de lubrificação. Isso significa que em vez de água o processo usa uma névoa de óleo e ar comprimido para a mesma função. Assim pequenas quantidades de lubrificante são direcionados para o local exato. Só isso reduz em 50% o consumo de água em cada motor. Esta técnica também reduz o consumo do próprio óleo em 80% (100 ml – o equivalente a uma xícara de chá para cada motor). Os resíduos são sólidos (cavaco e óleo) e isso facilita bastante o processo de reciclagem de material. E por não ter efluentes líquidos reduz bastante a energia gasta no processo de tratamento.



figura 06 – processo de usinagem usando MQL – observe a névoa de óleo e ar


O que ainda existe de efluentes no processo completo é tratado em uma central de ultrafiltragem. E há a reciclagem de 100% de todo resíduo sólido dos processos de usinagem.

A Ford produziu um breve vídeo muito interessante que ilustra as características desta nova fábrica e que pode ser visto neste link (disponível em alta resolução 1080p).




Mas e o motor??!!

Motor, unidade motriz ou qualquer que seja o nome designado, é o ponto central dessa nova fábrica. Trata-se de uma unidade de 1.0 litro de avançada tecnologia. A começar pelo projeto bem moderno e por ser membro de uma família de motores da Ford que por si só gerou 120 patentes para a empresa.

A versão fabricada no Brasil tem como grande diferencial o fato de ser um motor de 3 cilindros. Habitualmente motores têm 4, 6 ou 8 cilindros (12 em alguns carros de alta performance ou embarcações). Um motor de 3 cilindros não é um de 4 que teve um cilindro retirado. Nada disso. Exige um projeto totalmente novo. A começar para equilibrar os esforços dinâmicos. Afinal em um motor de 4 cilindros a cada momento há dois pistões descendo e dois subindo enquanto no de 3 cilindros são dois para cima e um para baixo (e vice versa). Equilibrar este motor é um quebra-cabeças formidável de engenharia que foi superado pelos engenheiros da Ford.


figura 07 – visão evidente dos 3 cilindros do novo motor

Aliás esta é uma tendência interessante na indústria automobilística. Trata-se do “downsizing”, ou seja, a redução do tamanho do motor usando projetos modernos e avançados com apoio da eletrônica para obter potências maiores com unidades menores. O limite extremo disso são os motores 1.0 EcoBoost turbinados da Ford que atingem entre 100 CV e 125 CV (dependendo da versão).

O motor fabricado no Brasil é um digno sucessor desta pérola tecnológica. Essencialmente é o EcoBoost Turbinado com alguma simplificação e algumas novas soluções. Mas porque sem o turbo? Porque no Brasil será usado para veículos compactos como o novo KA (a ser lançado em poucos meses) e para isso se o motor turbo tivesse turbo entregaria potência excessiva e seria bem mais caro (características incompatíveis com este projeto). Só para comparar este 1.0 turbo na Europa é usado em versões do Ford Focus em substituição a motores 1.4 ou 1.6!!

Voltando ao motor feito agora no Brasil, ele é um sucessor do EcoBoost e está pronto para crescer se um dia a Ford achar que vale a pena tê-lo no Brasil com maior potência para carros de outros segmentos. É o “ressurgimento” dos motores 1.0. Tempos atrás os motores de 1 litro foram preteridos em relação aos motores de 1.3 ou 1.4 litros porque estes eram mais agradáveis de dirigir e paradoxalmente mais econômicos em certas situações. Isso porque o 1.0 “antigo” exigia acelerações mais vigorosas para manter certo nível de potência e isso o fazia gastar mais, por exemplo em uso rodoviário ou mais trocas de marcha em uso urbano.

Mas esta unidade agora produzida no Brasil chega fazendo bonito. Ao menos nas especificações ele supera segundo a Ford os motores (1.0 também de 3 cilindros) da VW e da Hyundai em todas as faixas de rotação. São 85 CV e 105 Nm (torque) com etanol e 80 CV e 98 Nm (torque) com gasolina. E ao contrário de motores 1.0 “convencionais” (de concepção não tão moderna) o torque, ou seja a força do motor, está presente cerca de 90% a 95% em baixa rotação (1500 rpm). Isso torna o carro muito agradável de ser conduzido, sem necessidade de reduções de marchas frequentes e pronta reposta do acelerador em baixas rotações.


figura 08 – outra visão do 1.0 l de 3 cilindros


Eu tive apenas um carro de motor 1.0. Faz tempo. Cerca de 14 anos atrás eu adquiri um Ford KA (o original) com seu motor Zetec Rocam e seus 65 CV. Era nesta época o carro de maior potência entre os 1.0. De fato era um carro bem esperto no trânsito. Menos no verão. Isso porque com o ar condicionado ligado ele perdia parte de seu brilho. O 1.0 de 3 cilindros de agora é quase 1/3 mais potente e tem boa parte de seu torque entregue bem mais cedo. É uma evolução e tanto. Relembro que o tipo de carro a ser propulsionado agora é o mesmo (compacto), a despeito do nome KA ser o mesmo de tantos anos atrás.

Algumas das características deste motor são mais distantes do consumidor comum. Dizer que existem 12 válvulas (4 por cilindro) e que usa a tecnologia de duplo comando variável não sensibiliza tanto o consumidor. Mas são atributos que agregados trazem para esta unidade suas características principais de dirigibilidade que o diferenciam no mercado.

Por outro lado o sistema de arrefecimento em dois estágios, embora de nome complicado, será percebido pelo consumidor. Os carros atuais não mais precisam ser aquecidos logo após a partida pela manhã como veículos de décadas atrás. Porém o motor tem uma faixa de temperatura nominal na qual ele foi projetado para trabalhar e na qual seu desempenho é otimizado (potência e consumo). Ainda mais sentido faz quando se usa etanol, mas também percebido com gasolina, acelerações mais vigorosas são mais eficazes com o motor na faixa ideal de temperatura de funcionamento. O novo 1.0 de 3 cilindros ao ser ligado desvia seu fluxo de líquido de arrefecimento por fora do cabeçote. Dessa forma os componentes internos aumentam de temperatura mais rapidamente e faz o motor chegar às suas condições ideais. E a partir deste momento o líquido de refrigeração volta a fluir por todo o motor para mantê-lo na temperatura certa. Uma ideia simples, mas que deve ter proporcionado desafios de engenharia bem interessantes à equipe da Ford.


figura 09 – outra visão do 1.0 l de 3 cilindros


Outra novidade que será percebida pelo motorista é o sistema de partida a frio (Ford Easy Start). Usado quando abastecido com etanol dispensa a existência do tanque de gasolina extra para auxílio em dias mais frios. Quando a temperatura está abaixo de 18C o etanol é pré-aquecido e já pode ser queimado nas câmaras de combustão com facilidade resultando em partidas imediatas mesmo na condição adversa de temperatura.

Existem diversas outras características técnicas de destaque como:

  • Coletor de admissão integrado (melhor ruído, temperatura e emissões)
  • Correia lubrificada (mais simples, menor atrito, troca só aos 240 mil Km)
  • Taxa de compressão 12:1 (maior eficiência)
  • Cabeçote de alumínio (alto torque em baixas rotações)
  • Bloco de alta resistência (menor vibração)
  • Baixo peso, cerca de 85 Kg
  • Bloco de dimensões reduzidas, próximo do tamanho de uma folha A4


figura 10 – outra visão do 1.0 l de 3 cilindros


A etapa de ensaio e testes feita no Brasil usou modelagem computacional nas quais mais de 10 mil horas foram aplicadas em processos de CAE e CAD. Depois de pronto foram realizadas mais de 15 mil horas de testes em dinamômetro além de testes dinâmicos de rodagem nos quais mais de 210 mil quilômetros foram percorridos.

A Ford foi questionada sobre os valores de consumo do motor, mas não quis antecipar esta informação. Será submetido ao teste de consumo do INMETRO no mês de maio e assim terá seus dados oficiais confirmados e divulgados. Mas segundo a empresa os consumidores terão uma ótima surpresa. Só não entendi o porquê dos dados de potência e torque (melhores que toda a concorrência) terem sido antecipados, mas não os dados de consumo. De fato é necessário fazer o teste com um carro e não com o motor em uma bancada. Estou bem curioso. É esperar para ver.

A Ford produziu um breve vídeo muito interessante que ilustra as características do motor e que pode ser visto neste link (disponível em alta resolução 720p).




A solenidade

A fábrica foi apresentada oficialmente no dia 9 e abril com todo cerimonial merecido. Teve a presença dos altos executivos da Ford bem como prefeito de Camaçari Ademar Delgado, governador do estado da Bahia Jaques Wagner e demais autoridades. O polo industrial de Camaçari vem de fato se tornando cada vez mais relevante. Há outras empresas do setor automotivo (fornecedores) presentes bem como outra montadora, a JAC Motors se estabelecendo na região.


figura 11 – Governador Jaques Wagner na solenidade de inauguração


figura 12 – Autoridades presentes na solenidade de inauguração


Como resultado final de minha presença nesta ocasião especial ficou a vontade de conhecer mais a fundo o comportamento deste interessante motor produzido em terras da Bahia. Ele será usado no novo “KA” e palpites de mercado estimam que será lançado logo após a copa do mundo. Será??  Agora me resta esperar e quem sabe experimentar.



figura 13 – orgulhosos funcionários da Ford diante do novo motor