Página Inicial



twitter

Facebook

  Notícia
|

 

FACEBOOK JÁ QUER ETHERNET DE 1 TERABIT

04/02/2010 01:00:00

Os data centers (centros de informática) do Facebook já precisam de uma rede Ethernet de 100 gigabits, e poderiam usar até conexões de 1 terabit, revelou um engenheiro sênior de rede que trabalha para a empresa.

A necessidade galopante de largura de banda pela rede social reflete a explosão no tráfego de rede que outras empresas e fornecedoras de tecnologia tentam solucionar, conforme revelou o Fórum de Exploração de Tecnologia da Aliança Ethernet na terça-feira (2/2), em Santa Clara (EUA).

O Facebook monta seus próprios data centers a partir de servidores de baixo custo disponíveis no mercado, ligados via Ethernet padrão. Ele então usa esse poder de processamento como um ?pool?, para executar suas aplicações críticas. A rede que interliga esses sistemas é fundamental para toda a infraestrutura da empresa, explicou o engenheiro Donn Lee, do Facebook, durante o evento.

?Já há necessidade de uma Ethernet de 100 Gigabits, e a julgar pelo ritmo de nossas atualizações poderíamos usar 1 terabit?, diz Lee. O Facebook tem tantos servidores capazes de processar dados tão rapidamente que eles poderiam ocupar totalmente os canais Ethernet de 64 terabits do backbone de um data center, conta Lee.

Evolução lenta
O padrão Ethernet caminha rumo à largura de banda de 100 Gbps (bits por segundo), com uma opção intermediária de 40 Gbps. Mas as especificações desse tão sonhado padrão não deverão ser finalizadas antes do fim de 2010.

As redes backbone das operadoras geralmente recebem mais atenção, mas a demanda por velocidade nas redes Ethernet pode ser ainda mais evidente em data centers. Os servidores do Facebook usam uma grande quantidade de largura de banda, pois eles resolvem coletivamente problemas como a cópia de segurança de bancos de dados, explica Lee.

?Uma única tarefa nossa poderia deixar à sombra a largura de banda usada por todos os nossos usuários combinados em um dia qualquer?, diz Lee.

Diferentemente de outras empresas, o Facebook dedica vários servidores para uma única aplicação, em vez de repartir cada servidor entre diversas máquinas virtuais. Com isso, ela enfrenta o desafio especial de integrar seus vários servidores. Mas saciar seu apetite por largura de banda vai depender de avanços fundamentais da tecnologia.

Todas as placas-mãe dos servidores vêm com Gigabit Ethernet embutida, e os processadores multicore de hoje podem facilmente preencher esses canais, diz Lee.

Apesar disso, uma Ethernet de 10 gigabits é o canal mais rápido que o Facebook pode usar para interligar todo seu data center, e a empresa não consegue encontrar switches que combinem um número suficiente de portas de 10 gigabits para elevar o desempenho da rede a uma velocidade ótima, conta.

Atraso nas inovações
Em última instância, os gargalos de rede atrasam inovações no Facebook, diz Lee. Conexões de rede mais rápidas poderiam resultar em desenvolvimento mais rápido, já que novas aplicações, sejam elas internas ou visíveis ao usuário, poderiam rapidamente ser implantadas e refinadas.

Idealisticamente, cada servidor poderia enviar um 1 Gbps cheio a qualquer outro servidor no centro de dados, mas isso exigiria canais Ethernet de 64 terabits que o Facebook não consegue comprar hoje ? ou 6.400 das conexões Ethernet de 10 gigabits de hoje, o que não é realmente aceitável, diz o engenheiro.

Uma instalação desse porte iria requerer 160 dos maiores switches disponíveis.

?Imagine ter de gerenciar isso?, observa Lee. ?Há muitas coisas que estão faltando nessa instalação ideal de data center. Todas elas são essenciais, mas nenhuma existe a essa escala?. Lee diz que seu trabalho é justamente combinar as peças disponíveis no mercado.
 
 
 
Fonte: IdGNow

 
Indique esta notícia Indique esta notícia para um amigo

Início Notícias  | Voltar