quinta-feira, 27 de setembro de 2012

Empresas buscam imagem ecologicamente correta, mas consomem muita energia


27/09/2012 - 05h51

Empresas buscam imagem ecologicamente correta, mas consomem muita energia

http://www1.folha.uol.com.br/tec/1159952-empresas-buscam-imagem-ecologicamente-correta-mas-consomem-muita-energia.shtml

JAMES GLANZ
DO "NEW YORK TIMES", EM SANTA CLARA, CALIFÓRNIA

Tradução de PAULO MIGLIACCI

The New York Times
As máquinas de Jeff Rotshchild no Facebook tinham um problema que ele sabia que precisava ser resolvido imediatamente. Estavam a ponto de derreter.

A companhia ocupava um imóvel alugado em Santa Clara, um galpão de 18 por 12 metros, com fileiras de servidores necessários para armazenar e processar as informações sobre as contas de seus membros. A eletricidade que fluía para os computadores estava causando o derretimento de portas de rede e outros componentes cruciais.
Ethan Pines/The New York Times
Segurança observa servidores em central de processamento de dados em Las Vegas
Segurança observa servidores em central de processamento de dados em Las Vegas

Pensando rápido, Rotshchild, o diretor de engenharia da companhia, enviou seus subordinados em uma expedição para comprar todos os ventiladores que pudessem. "Nós esgotamos o estoque de todas as lojas Walgreens da área", ele disse --para soprar ar frio na direção do equipamento e impedir que o site caísse.
Isso aconteceu no começo de 2006, quando o Facebook tinha modestos 10 milhões de usuários e seus servidores estavam instalados em um só local. Hoje, as informações geradas por quase 1 bilhão de pessoas exigem versões maiores dessas instalações, chamadas centrais de dados, com fileiras e mais fileiras de servidores, espalhadas por áreas de dezenas de milhares de metros quadrados, e tudo com sistemas industriais de refrigeração.
E esses servidores representam apenas uma fração das dezenas de milhares de centrais de processamento de dados que hoje existem para sustentar a explosão generalizada da informação digital. Volumes imensos de dados são movimentados a cada dia, sempre que as pessoas usam o mouse ou suas telas sensíveis ao toque para baixar filmes ou música, verificar os saldos em seus cartões de crédito no site da Visa, enviar e-mails com arquivos anexados via Yahoo!, adquirir produtos na Amazon, postar no Twitter ou ler jornais on-line.
Um estudo conduzido pelo "New York Times" ao longo dos últimos 12 meses revelou que essa fundação da indústria da informação contrasta fortemente com a imagem de esguia eficiência e postura ecologicamente correta que o setor tenta apresentar.
A maioria das centrais de processamento de dados consome vastos montantes de energia, deliberadamente e de maneira perdulária, de acordo com entrevistas e documentos. As companhias de internet operam suas instalações em capacidade máxima, 24 horas por dia, não importa qual seja a demanda. Como resultado, as centrais de processamento de dados podem desperdiçar 90% ou mais da eletricidade que recebem da rede, de acordo com o estudo.
Para se protegerem contra quedas de energia, elas dependem, também, de conjuntos de geradores a diesel, causadores de emissões. A poluição gerada pelas centrais de processamento de dados viola a regulamentação de ar limpo norte-americana, de acordo com documentos oficiais. No Vale do Silício, muitas das centrais de processamento de dados constam do Inventário de Contaminantes Tóxicos do Ar, um documento governamental que lista os principais causadores de poluição em função do uso de diesel, na região.
No restante do mundo, esses armazéns de informação digital utilizam cerca de 30 bilhões de watts de eletricidade, mais ou menos o equivalente a 30 usinas nucleares, de acordo com estimativas compiladas para o estudo por especialistas setoriais. As centrais de processamento de dados norte-americanas respondem por entre um quarto e um terço dessa carga, de acordo com as estimativas.
"A dimensão desses números é espantosa para a maioria das pessoas, mesmo profissionais do setor. O tamanho assusta", diz Peter Gross, que ajudou a projetar centenas de centrais de processamento de dados. "Uma central de processamento de dados pode consumir mais energia que uma cidade de tamanho médio."
A eficiência energética varia amplamente de empresa para empresa. Mas, a pedido do "New York Times", a consultoria McKinsey analisou o uso de energia pelas centrais de processamento de dados e constatou que, em média, elas empregavam na realização de computações apenas entre 6% e 12% da eletricidade que seus servidores recebem. O restante da energia é usado essencialmente para manter ligados servidores ociosos, em caso de um pico de atividade que possa desacelerar as operações do sistema ou causar quedas.
Um servidor é uma espécie de computador desktop bem reforçado, sem tela ou teclado, com chips para processar dados. O estudo examinou como amostra 20 mil servidores instalados em 70 grandes centrais de processamento de dados, em ampla gama de organizações: companhias farmacêuticas, fabricantes de equipamento bélico, bancos, empresas de mídia e agências do governo.
"Esse é o segredinho sujo do setor, e ninguém quer ser o primeiro a admitir culpa", disse um importante executivo do setor que pediu que seu nome não fosse revelado, a fim de proteger a reputação de sua empresa. "Se fôssemos um setor industrial, estaríamos rapidamente fora do negócio", afirmou.
As realidades físicas do processamento de dados ficam bem distantes da mitologia da internet, onde as vidas são vividas em um mundo "virtual" e a memória fica armazenada "na nuvem".
O uso ineficiente de energia é propelido em larga medida pelo relacionamento simbiótico entre os usuários que exigem resposta imediata ao clicar o mouse e as empresas que correm o risco de quebra caso não cumpram essas expectativas.
Nem mesmo o uso intensivo de eletricidade da rede parece suficiente para satisfazer o setor. Alem dos geradores, a maior parte das centrais de processamento de dados abriga bancadas de imensos volantes de inércia ou milhares de baterias elétricas --muitas das quais parecidas com as dos automóveis-- a fim manter os computadores em ação em caso de queda da rede elétrica nem que por apenas alguns milésimos de segundo, já que uma interrupção dessa ordem poderia bastar para derrubar os servidores.
"É um desperdício", diz Dennis Symanski, pesquisador sênior no Instituto de Pesquisa da Energia Elétrica, uma organização setorial de pesquisa sem fins lucrativos. "É ter número exagerado de apólices de seguro."
Pelo menos uma dúzia de grandes centrais de processamento de dados foram autuadas por violações dos códigos de qualidade do ar só nos Estados da Virgínia e Illinois, de acordo com registros dos governos estaduais. A Amazon foi autuada por mais de 24 violações em um período de três anos, no norte da Virgínia, o que inclui operar alguns de seus geradores sem licença ambiental.
Algumas poucas empresas dizem que estão usando sistemas de software e refrigeração fortemente modificados para reduzir o desperdício de energia. Entre elas estão o Facebook e o Google, que também alteraram seu hardware. Ainda assim, dados revelados recentemente apontam que as centrais de processamento de dados do Google consomem quase 300 milhões de watts, e as do Facebook, 60 milhões de watts.
Há muitas soluções como essas facilmente disponíveis, mas, em um setor avesso a riscos, a maior parte das empresas reluta em conduzir mudanças amplas, de acordo com especialistas setoriais.
Melhorar o setor, ou mesmo avaliá-lo, é um processo complicado pela natureza sigilosa de uma indústria criada basicamente em torno do acesso a dados de terceiros.
Brendan Smialowski/The New York Times
Central de processamento de dados em Ashburn, Virgínia, atrás de uma subestação de energia
Central de processamento de dados em Ashburn, Virgínia, atrás de uma subestação de energia
Por motivos de segurança, as empresas tipicamente não revelam a localização de suas centrais de processamento de dados, que ficam abrigadas em edifícios anônimos e fortemente protegidos. As empresas também protegem sua tecnologia por razões de concorrência, diz Michael Manos, um veterano executivo do setor. "Todas essas coisas se influenciam mutuamente para fomentar a existência de um grupo fechado, que só recebe bem aqueles que já são membros", disse.
O sigilo muitas vezes se estende ao uso de energia. Para complicar ainda mais qualquer avaliação, não há uma agência governamental específica cujo trabalho seja fiscalizar o setor. Na verdade, o governo federal norte-americano nem mesmo sabe quanta energia as suas próprias centrais de processamento de dados consomem, de acordo com funcionários envolvidos em uma pesquisa completada no ano passado.
A pesquisa constatou que o número de centrais de processamento de dados federais cresceu de 432 em 1998 a 2.094 em 2010.
Para investigar o setor, o "New York Times" obteve milhares de páginas de documentos municipais, estaduais e federais sobre instalações que consomem grande volume de energia, alguns por recurso às leis de acesso à informação. Cópias das licenças para instalação de geradores e informações sobre seu nível de emissão de poluentes foram obtidas junto a agências ambientais, que ajudaram a estabelecer a localização de algumas centrais de processamento de dados e a obter detalhes sobre suas operações.
Além de revisar dados de uso de eletricidade, repórteres do "New York Times" também visitaram centrais de processamento de dados em todo o território dos Estados Unidos e conduziram centenas de entrevistas com trabalhadores e prestadores de serviço do setor, atuais e passados.
Alguns analistas alertam que à medida que continuam a crescer o volume de dados e o uso de energia, as companhias que não alterarem suas práticas poderão se ver sujeitas a uma reacomodação, em um setor propenso a grandes viradas, como por exemplo o estouro da primeira bolha da internet, no final dos anos 1990.
"Não é sustentável", diz Mark Bramfitt, ex-executivo do setor de eletricidade e hoje consultor para os setores de energia e tecnologia da informação. "Eles vão colidir contra uma muralha."
BYTES AOS BILHÕES
Usando uma camisa do Barcelona e bermudas, Andre Tran caminhava pela central de processamento de dados do Yahoo! em Santa Clara, Califórnia, da qual ele é gerente de operações. O domínio de Tran --que abriga entre outras coisas servidores dedicados a bolões de esportes (fantasy sports) e compartilhamento de fotos-- serve como boa amostra das incontáveis salas de computadores onde as marés mundiais de dados vêm repousar.
Fileiras e mais fileiras de servidores, com luzes amarelas, azuis e verdes piscando silenciosamente, se estendiam por um piso branco repleto de pequenos orifícios redondos que expelem ar frio. Dentro de cada servidor estão instalados discos rígidos que armazenam os dados. O único indício de que a central serve ao Yahoo!, cujo nome não estava visível em parte alguma, era um emaranhado de cabos nas cores da empresa, púrpura e amarelo.
"Pode haver milhares de e-mails de usuários nessas máquinas", diz Tran, apontando para uma fileira de servidores. "As pessoas guardam seus velhos e-mails e anexos para sempre, e por isso é necessário muito espaço."
Estamos diante do dia a dia da informação digital --estatísticas de desempenho de atletas fluindo para servidores que calculam resultados de bolão e a classificação dos participantes, fotos de férias no exterior quase esquecidas em dispositivos de armazenagem. É só quando a repetição dessas e de outras transações semelhantes é adicionada que o total começa a se tornar impressionante.
Os servidores se tornam mais velozes a cada ano, e os dispositivos de armazenagem avançam em densidade e caem de preço, mas o índice furioso de produção de dados avança ainda mais rápido.
Jeremy Burton, especialista em armazenagem de dados, diz que, quando trabalhava para uma empresa de tecnologia de computadores, dez anos atrás, seu cliente que requeria mais dados tinha 50 mil gigabytes em seus servidores. (A armazenagem de dados é medida em bytes. A letra N, por exemplo, requer um byte para armazenagem. Um gigabyte equivale a 1 bilhão de bytes de informação.)
Hoje, cerca de um milhão de gigabytes são processados e armazenados em uma central de processamento de dados para a criação de um desenho animado em 3D, diz Burton, agora executivo da EMC, uma empresa cuja especialidade é a gestão e armazenagem de dados.
A bolsa de valores de Nova York, um dos clientes da empresa, produz, só ela, 2.000 gigabytes de dados ao dia, e é preciso manter essas informações armazenadas durante anos, ele acrescenta.
A EMC e a IDC estimam que mais de 1,8 trilhão de gigabytes de informações digitais foram criados no planeta no ano passado.
"É uma corrida entre nossa capacidade de criar dados e nossa capacidade de armazená-los e administrá-los", diz Burton.
Cerca de três quartos desses dados, estima a EMC, foram criados por consumidores comuns.
Sem o senso de que os dados são físicos e de que armazená-los exige espaço e energia, os consumidores desenvolveram o hábito de enviar grandes pacotes de dados, tais como vídeos ou e-mails coletivos com fotos anexadas, uns aos outros. Mesmo ações aparentemente corriqueiras, como executar um aplicativo que encontre um restaurante italiano em Manhattan ou permita chamar um táxi em Dallas, requerem que servidores sejam ativados e estejam prontos para processar a informação instantaneamente.
A complexidade de uma transação básica é um mistério para a maioria dos usuários. Enviar uma mensagem com uma foto anexa para um vizinho pode envolver um percurso de centenas ou milhares de quilômetros por cabos de internet e múltiplas centrais de processamento de dados, antes que o e-mail chegue ao outro lado da rua.
"Se você disser a alguém que essa pessoa não pode acessar o YouTube ou baixar filmes do Netflix, ela responderá que esse é um direito essencial", diz Bruce Taylor, vice-presidente do Instituto Uptime, uma organização profissional que atende a companhias que utilizam centrais de processamento de dados.
Para sustentar toda essa atividade digital, hoje existem mais de 3 milhões de centrais de processamento de dados em atividade no planeta, com dimensões muito variadas, de acordo com dados da IDC.
Nos Estados Unidos, as centrais de processamento de dados consumiram 76 bilhões de kilowatts-hora em 2010, ou cerca de 2% da eletricidade utilizada no país naquele ano, de acordo com análise de Jonathan Koomey, pesquisador da Universidade Stanford que vem estudando o uso de energia nas centrais de processamento de dados há mais de uma década. A DatacenterDynamics, uma companhia de Londres, calculou números semelhantes.
O setor vem argumentando há muito que digitalizar as transações de negócios e tarefas cotidianas como ir ao banco ou ler livros retirados em uma biblioteca significaria economia de energia e recursos, em termos finais. Mas a indústria do papel, que muita gente previa viria a ser destruída pelos computadores, consumiu 67 bilhões de kilowatts-hora da rede elétrica norte-americana em 2010, de acordo com dados do Serviço de Recenseamento revisados para o "New York Times" pelo Instituto de Pesquisa da Energia Elétrica.
Chris Crosby, presidente-executivo da Compass Datacenters, de Dallas, disse que a proliferação da infraestrutura digital não está revelando sinais de desaquecimento.
"Existem novas tecnologias e melhoras", disse Crosby, "mas tudo continua a depender de uma tomada elétrica".
DESPERDÍCIO 'COMATOSO' DE ENERGIA
Os engenheiros da Viridity Software, uma empresa iniciante que ajuda companhias a administrar seus recursos energéticos, não se surpreenderam com aquilo que descobriram in loco em uma grande central de processamento de dados perto de Atlanta.
A Viridity foi contratada para realizar testes de diagnóstico básicos. Seus engenheiros constataram que a central, como dezenas de outras que pesquisaram, consumia a maior parte de sua energia mantendo ativos servidores que faziam pouco mais que desperdiçar eletricidade, diz Michael Rowan, então vice-presidente de tecnologia da Viridity.
Steve Dykes/The New York Times
Geradores dentro de caixas brancas em central de processamento de dados do Facebook em Prineville, Oregon
Geradores dentro de caixas brancas em central de processamento de dados do Facebook em Prineville, Oregon
Um executivo importante da central de processamento já suspeitava que houvesse algo de errado. Ele havia conduzido uma pesquisa informal, anteriormente, colando etiquetas vermelhas nos servidores "comatosos", um termo empregado por engenheiros para definir servidores que estão conectados e usando energia ainda que seus processadores estejam realizando poucas, se alguma, tarefas de computação.
"No final do processo, parecia que a central estava sofrendo de sarampo", disse Martin Stephens, esse executivo, em um seminário do qual participou com Rowan. "Havia um número inacreditável de etiquetas vermelhas."
Os testes da Viridity confirmaram as suspeitas de Stephens: em uma amostra de 333 servidores monitorados em 2010, mais de metade estavam comatosos. No total, quase três quartos dos servidores da amostra estavam usando menos de 10% de seu poder de processamento, em média, para processar dados.
A operadora da central de dados não era uma companhia precária, ou um serviço de jogos de azar on-line, mas a LexisNexis, uma gigante do setor de banco de dados. E a situação estava longe de constituir exceção.
Em muitas instalações, os servidores têm instalados os aplicativos que usarão e são mantidos em atividade por prazo indefinido, mesmo que a maioria dos usuários esteja inativa ou novas versões do mesmo programa estejam rodando em outra parte da rede.
"É preciso levar em conta que a explosão do uso de dados é o que causa isso", disse Taylor, do Uptime. "Chega um ponto em que ninguém mais é responsável, porque não há quem se disponha a entrar naquela sala e desligar um servidor."
Kenneth Brill, engenheiro que fundou o Uptime em 1993, diz que o baixo aproveitamento da capacidade começou com o "pecado original" do ramo de processamento de dados.
No começo dos anos 90, explica Brill, sistemas operacionais de software que hoje seriam considerados primitivos costumavam travar quando solicitados a fazer coisas demais, ou mesmo se fossem ligados e desligados com rapidez. Em resposta, os técnicos de computador raramente executavam mais de um aplicativo em cada servidor, e mantinham as máquinas ligadas o dia todo, não importa a frequência com que o aplicativo fosse utilizado.
Assim, no momento mesmo em que as agências de energia do governo iniciaram campanhas para convencer os consumidores a desligar seus computadores caso não os estivessem usando, nas centrais de processamento de dados a diretriz era a de manter os computadores ligados a todo custo.
Uma queda ou desaceleração podia significar fim de carreira, conta Michael Tresh, antigo executivo da Viridity. E um ramo nascido da inteligência e audácia passou a ser regido por algo mais: o medo do fracasso.
"Os operadores de centrais de processamento de dados temem perder seus empregos, dia após dia", diz Tresh. "E isso acontece porque o setor não os apoia caso aconteça uma falha."
Em termos técnicos, a fração do poder de processamento de um computador que esteja sendo utilizado para processamento de dados é definida como "índice de utilização".
A consultoria McKinsey, que analisou os índices de utilização a pedido do "New York Times", vem monitorando essa questão pelo menos desde 2008, quando publicou um relatório que não foi muito noticiado fora do setor. Os números continuam persistentemente baixos. Os níveis atuais, de entre 6% e 12%, são pouco melhores que os de 2008. Devido a acordos de confidencialidade, a McKinsey não está autorizada a revelar os nomes das empresas cujos servidores foram incluídos em sua amostragem.
David Cappuccio, vice-presidente executivo de pesquisa no Gartner, um grupo de pesquisa sobre tecnologia, diz que sua pesquisa recente sobre uma grande amostra de centrais de processamento de dados demonstra que o índice de utilização típico é da ordem de 7% a 12%.
"É dessa forma que superdimensionamos e operamos nossas centrais de processamento de dados, há anos", diz Cappuccio. "Vamos superdimensionar caso precisemos de capacidade adicional, um nível de conforto que custa muito dinheiro. E custa muita energia."
Os servidores não são os únicos componentes de uma central de processamento de dados que consomem energia. Sistemas industriais de refrigeração, circuitos para manter carregadas as baterias de reserva e a simples dissipação nas extensas redes de cabos elétricos respondem cada qual por certa proporção de desperdício.
Em uma central de processamento de dados típica, essas perdas, combinadas à baixa utilização, significam que a energia desperdiçada pode ser 30 vezes maior que a utilizada para realizar a tarefa básica da instalação.
Algumas empresas, organizações acadêmicas e grupos de pesquisa demonstraram que práticas imensamente mais eficientes são possíveis, ainda que comparar os diferentes tipos de tarefa seja difícil.
O Centro de Computação Científica do Instituto Nacional de Pesquisa da Energia, que consiste de agrupamentos de servidores e mainframes no Laboratório Nacional Lawrence Berkeley, na Califórnia, registrou índice de utilização de 96,4% em julho, diz Jeff Broughton, o diretor de operações do centro. Essa eficiência foi obtida pela criação de uma cronograma de tarefas que as ordena de forma a permitir que as máquinas operem com poder praticamente pleno 24 horas por dia.
Uma empresa chamada Power Assure, de Santa Clara, comercializa uma tecnologia que permite que centrais de processamento de dados comerciais desliguem servidores de maneira segura, quando seu uso não é necessário --de madrugada, por exemplo.
Mas, mesmo com programas agressivos para convencer seus maiores clientes a poupar energia, a Silicon Valley Power não foi capaz de persuadir nem mesmo uma central de processamento a utilizar essa técnica em Santa Clara, diz Mary Medeiros McEnroe, gerente de programas de eficiência energética da companhia.
"É o nervosismo da comunidade da tecnologia de informações quanto à possibilidade de que algo não esteja disponível quando precisarem disso", diz McEnroe.
Mas os ganhos de eficiência promovidos por Stephens na LexisNexis ilustram a economia que poderia ser realizada.
No primeiro estágio do projeto, ele disse que, ao consolidar o trabalho em número menor de servidores e atualizar o hardware, pôde reduzir o espaço utilizado de 2.250 metros quadrados para 900 metros quadrados.
As centrais de processamento de dados evidentemente precisam de capacidade de reserva disponível constantemente, e obter um índice de utilização de 100% não seria possível. Elas têm de estar preparadas para lidar com picos de tráfego.
Symanski diz que essa baixa eficiência faz sentido apenas sob a lógica obscura da infraestrutura digital.
"Você estuda a situação e pensa que é absurdo operar um negócio desse jeito", diz. E a resposta é muitas vezes a mesma, acrescenta: "Ninguém ganha bonificações por reduzir a conta de eletricidade. As bonificações vêm para os engenheiros que conseguem manter a central de processamento de dados em operação 99,999% do tempo".
OS MELHORES PLANOS
Em Manassas, Virgínia, a gigante do varejo Amazon opera servidores para seu serviço de computação em nuvem, entre uma garagem de caminhões, um silo de grãos inativo, uma madeireira e um depósito de lixo no qual máquinas comprimem cargas de resíduos para reciclagem.
Os servidores ficam em duas centrais de processamento de dados, abrigadas em três edificações com cara de armazém, com paredes corrugadas verdes. Nos telhados, grandes dutos, capazes de abrigar sistemas de refrigeração de capacidade industrial, são visíveis, e fileiras de geradores a diesel estão instaladas do lado de fora.
Richard Perry/The New York Times
Um dos seis geradores a diesel em uma grande central de processamento de dados
Um dos seis geradores a diesel em uma grande central de processamento de dados
O termo "nuvem" em geral é utilizado para descrever as funções de uma central de processamento de dados. De forma mas específica, se refere a um serviço que alugue capacidade de computação para uso por terceiros. As instalações usadas para isso são abastecidas primordialmente pela rede nacional de eletricidade, mas quase sempre utilizam geradores e baterias para prover eletricidade em caso de quedas de energia.
As centrais de Manassas estão entre as pelo menos oito centrais de processamento de dados que a Amazon opera no norte da Virgínia, de acordo com os registros do Departamento de Qualidade Ambiental daquele Estado.
O departamento conhece bem a Amazon. Como resultado de quatro inspeções, a partir de outubro de 2010, a companhia foi informada pelas autoridades de que seria multada em US$ 554.476, por instalar e operar geradores diesel repetidamente sem obter as licenças ambientais necessárias para tanto na Virgínia.
Mesmo que não haja quedas de energia, os geradores continuam a emitir gases, porque precisam ser testados regularmente.
Depois de meses de negociações, a penalidade foi reduzida a US$ 261.638. Em uma avaliação de "grau de culpabilidade", todas as 24 violações constatadas foram classificadas como "graves".
Drew Herdener, porta-voz da Amazon, admitiu que a empresa "não obteve as devidas licenças" antes que os geradores fossem ativados. "Todos os geradores foram subsequentemente aprovados e licenciados", afirmou.
As violações vieram se somar a uma série de infrações menores em uma das centrais de processamento de dados da Amazon, em Ashburn, Virgínia, que em 2009 valeram multa de US$ 3.496 à companhia, de acordo com os registros do departamento.
De todas as coisas que a internet deveria se tornar, é seguro dizer que ninguém antecipava que ela resultaria na proliferação de geradores auxiliares.
Terry Darton, antigo executivo na agência ambiental da Virgínia, diz que, na região de 14 condados em que trabalhava no Estado, foram concedidas a centrais de processamento de dados licenças para operar geradores de capacidade próxima à de uma usina nuclear, se somados.
"É chocante saber que tanta energia está disponível", disse Darton, que se aposentou em agosto.
Não há dados nacionais sobre violações ambientais relacionadas a centrais de processamento de dados, mas uma verificação em diversos departamentos de proteção ecológica sugere que elas estão começando a atrair a atenção das autoridades regulatórias de todo o país.
Nos últimos cinco anos, na área de Chicago, por exemplo, a Savvis e a Equinix, duas importantes empresas de internet, receberam autuações por violações, de acordo com os registros da Agência de Proteção Ambiental do Illinois. Além da Amazon, as autoridades da Virgínia também autuaram centrais de processamento de dados operadas por Owest, Savvis, VeriSign e NTT America.
A despeito de todas as precauções --o enorme fluxo de eletricidade, as bancadas de baterias e os geradores a diesel--, as centrais de processamento de dados continuam a cair.
A Amazon, especialmente, sofreu uma série de defeitos no norte da Virgínia, nos últimos anos. Um deles, em maio de 2010 em uma central em Chantilly, tirou do ar por mais de uma hora companhias que dependem da nuvem da Amazon --uma eternidade, no ramo de dados.
Determinar a causa do defeito resultou em mais um problema de informação.
A Amazon anunciou que a falha havia sido causada "quando um veículo colidiu contra um poste de alta voltagem em uma estrada perto de uma de nossas centrais de processamento de dados".

Na verdade, esse acidente de carro era um mito, uma informação equivocada que um operário local da empresa de energia transmitiu à sede da Amazon. A Amazon mais tarde informou que sua rede elétrica sobressalente havia desativado parte da central de processamento de dados por engano depois de o que a Dominion Virginia Power definiu como curto-circuito em um poste elétrico que causou duas quedas temporárias de energia.
Herdener, da Amazon, informou que o sistema sobressalente havia sido reformulado e que "não antecipamos que essa situação venha a se repetir".
A FONTE DO PROBLEMA
No ano passado, em 11 de novembro, um ramal de US$ 1 bilhão que abastece a rede nacional de energia entrou em operação, estendendo-se por cerca de 345 quilômetros do sudoeste da Pensilvânia ao condado de Loudon, Virgínia, passando pelas montanhas Allegheny, da Virgínia Ocidental.
O trabalho foi financiado com o uso de dinheiro dos contribuintes. Steven Herling, executivo de primeiro escalão da PJM Interconnection, a agência interestadual que controla essa rede elétrica, disse que a necessidade de abastecer as muitas centrais de processamento de dados que estão surgindo no norte da Virgínia havia "ajudado a decidir" em favor do projeto, em meio a uma situação econômica deprimida.
As centrais de processamento de dados da área hoje consomem quase 500 milhões de watts de eletricidade, disse Jim Norvelle, porta-voz da Dominion Virginia Power, a grande geradora local de energia. A Dominion estima que essa carga possa subir a mais de 1 bilhão de watts em cinco anos.
As centrais de processamento de dados estão entre os clientes prediletos das empresas de energia. Muitas destas, em diversas regiões dos Estados Unidos, se esforçam por atrair clientes desse tipo, devido às cargas de uso constante, 24 horas por dia. Consumo grande e firme é lucrativo para as distribuidoras de energia porque permitem que planejem suas compras de energia com antecedência e que faturem mais à noite, quando cai a demanda de outros clientes.
Bramfitt diz temer que essa dinâmica esteja encorajando um setor perdulário a perpetuar seus hábitos de desperdício. Mesmo com toda a energia e o hardware que estão sendo dedicados a esse campo, há também quem acredite que será um desafio acompanhar o tsunami digital, se os métodos atuais de processamento e armazenagem de dados continuarem em uso.
Richard Perry/The New York Times
Fileiras de servidores em uma grande central de processamento de dados
Fileiras de servidores em uma grande central de processamento de dados
Alguns especialistas setoriais acreditam que a solução esteja na nuvem: centralizar a computação em um conjunto de centrais de processamento de dados grandes e bem operadas. Essas centrais dependeriam pesadamente de uma tecnologia conhecida como virtualização, que na prática permite que servidores aglutinem suas identidades na forma de recursos de computação grandes e flexíveis que podem ser distribuídos aos usuários conforme a necessidade, onde quer que estejam.
Um defensor dessa abordagem é Koomey, de Stanford. Mas ele diz que muitas empresas que tentam gerir centrais de processamento de dados próximas, em suas sedes ou espaços alugados, continuam pouco familiarizadas com a nova tecnologia da nuvem ou não confiam nela. Infelizmente, essas empresas respondem pela grande maioria da energia consumida por centrais de processamento de dados, segundo ele.
Outros expressam grande ceticismo quanto à nuvem, dizendo que ela às vezes parece uma crença mística em possibilidades negadas pela infraestrutura física que a sustenta.
Usar a nuvem "só muda o local em que os aplicativos são executados", diz Hank Seader, diretor de pesquisa e educação do Instituto Uptime. "Mas tudo passa por uma central de processamento de dados em algum lugar."
Há quem pergunte se a linguagem usada na internet não constitui barreira para a compreensão das suas realidades físicas, que não devem mudar. Um exemplo é a questão da armazenagem de dados, diz Randall Victora, professor de engenharia elétrica na Universidade de Minnesota que pesquisa sobre diversos dispositivos de armazenagem magnética.
"Quando alguém diz 'vou armazenar alguma coisa na nuvem e não preciso mais de disco rígido' --bem, a nuvem está armazenada em discos rígidos", diz Victora. "Continuaremos a precisar deles. Só passaremos a ignorar o fato."
Não importa o que aconteça com as companhias, está claro que, entre os consumidores, expectativas já bem assentadas propelem a necessidade de uma infraestrutura tão grandiosa.
"É isso que propele o imenso crescimento --a expectativa do usuário final de que terá acesso a tudo, a qualquer hora, em qualquer lugar", disse Cappuccio, do Gartner. "Somos nós que causamos o problema."

Obra no Tietê é 1º passo para o hidroanel



Governo deve abrir este ano licitação para eclusa na Penha, que vai permitir a navegação em mais 14 km do rio
Anel hidroviário de 170 km nos rios Pinheiros e Tietê e duas represas irá viabilizar o transporte de passageiros e cargas

http://www1.folha.uol.com.br/fsp/cotidiano/68225-obra-no-tiete-e-1-passo-para-o-hidroanel.shtml

São Paulo, terça-feira, 25 de setembro de 2012Cotidiano
Adriano Vizoni - 24.ago.2012/Folhapress
Vista da barragem da Penha, no rio Tietê
Vista da barragem da Penha, no rio Tietê
EDUARDO GERAQUE
EVANDRO SPINELLI
DE SÃO PAULO

O governo de SP pediu a licença ambiental prévia para iniciar as obras da eclusa da barragem da Penha, no rio Tietê (zona leste da capital), primeiro passo para viabilizar antigo projeto do Estado: o hidroanel metropolitano.
Eclusa é uma obra de engenharia hidráulica que possibilita navegar em locais onde há desnível no leito do rio -ela permite ao barco subir ou descer, conforme o caso.
A licença prévia foi pedida à Cetesb (agência ambiental paulista) e pode ser concedida dentro de um mês.
A eclusa tornaria navegável um trecho de 14 km do rio, até São Miguel Paulista, no extremo leste da cidade. Hoje, o Tietê tem 41 km navegáveis, entre a Penha e a cidade de Santana do Parnaíba.
O projeto do governo é construir um hidroanel de 170 km ao redor da capital, que incluiria os rios Tietê e Pinheiros e as represas Billings (zona sul e ABC) e Taiaçupeba (Suzano). Um canal artificial de 18 km precisará ser feito para ligar as duas represas.
Embora o projeto contemple o transporte de passageiros (principalmente nas represas), a prioridade é transportar lixo, entulhos, material de dragagem do rio, resíduos da construção civil e lodo retirado das estações de tratamento, além de produtos hortifrutigranjeiros.
"É viável a construção do hidroanel. O projeto, se realmente for feito, já se justifica só pelo transporte de material de dragagem e lodo", diz Alexandre Delijaicov, professor da Faculdade de Arquitetura e Urbanismo da USP.
Ele é um dos pesquisadores que ajudou a elaborar os projetos iniciais -a faculdade venceu uma licitação.
O horizonte para concluir o hidroanel é 2045. Mas há obras de curto prazo, que podem terminar em cinco anos.
A licitação da eclusa será aberta em breve, segundo Casemiro Tércio Carvalho, diretor do Departamento Hidroviário de SP. "Estamos terminando os orçamentos."
No total, a implantação do hidroanel deve custar algo em torno de R$ 4 bilhões.
Ao longo da hidrovia estão previstas a construção de 60 ecoportos (que recebem material já triado), 11 eclusas e 3 portos de destino. "São locais que vão promover a interligação do barco, do trem e do caminhão", diz Delijaicov.
A principal vantagem do hidroanel, dizem os técnicos, é retirar das ruas caminhões que transportam resíduos.
Em alguns casos, será possível usar os rios como uma espécie de piscinão. "É uma alternativa contra as enchentes, que poderá ficar mais barata", afirma Delijaicov.

LIXO DOMÉSTICO
O ponto negativo: como os barcos vão transportar também lixo doméstico, por exemplo, existe sempre risco de contaminação das águas.
Se o Tietê e o Pinheiros não vão sentir muita diferença, a parte limpa da Billings, onde existe inclusive a captação de água para consumo humano, pode sentir bastante qualquer tipo de incidente.